JP7427746B1 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7427746B1
JP7427746B1 JP2022171830A JP2022171830A JP7427746B1 JP 7427746 B1 JP7427746 B1 JP 7427746B1 JP 2022171830 A JP2022171830 A JP 2022171830A JP 2022171830 A JP2022171830 A JP 2022171830A JP 7427746 B1 JP7427746 B1 JP 7427746B1
Authority
JP
Japan
Prior art keywords
information processing
driving
automatic
operation target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022171830A
Other languages
Japanese (ja)
Inventor
大悟 藤原
知範 泉谷
浩二 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2022171830A priority Critical patent/JP7427746B1/en
Application granted granted Critical
Publication of JP7427746B1 publication Critical patent/JP7427746B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】操作対象の自動運転の精度が変化した場合における手動運転への切り替えのタイミングの判断を容易にする。【解決手段】情報処理装置100は、操作対象の自動運転の精度に関するデータが所定の条件を満たす場合に、操作対象の自動運転の稼働についての判定を行い、判定結果に基づき、操作対象の自動運転を停止する。【選択図】図1An object of the present invention is to easily determine the timing of switching to manual operation when the accuracy of automatic operation to be operated changes. SOLUTION: An information processing device 100 determines the operation of automatic driving of an operating target when data regarding the accuracy of automatic driving of the operating target satisfies a predetermined condition, and based on the determination result, the information processing device 100 determines whether the automatic driving of the operating target is operating. Stop driving. [Selection diagram] Figure 1

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

人間の行動に関する情報を用いて、人間による行動を模倣する機械学習モデルを作る、模倣学習という技術が知られている。そして、前述の模倣学習の実現方法として、例えば、教師あり学習が知られている。さらに、教師あり学習の1つの手法として、観測されたデータを大量に蓄積しておき、蓄積されたデータの中から要求点の近傍のデータを抽出し、当該抽出したデータを用いてモデルの逐次学習を行うJust-In-Time(JIT)法という技術が知られている(例えば、非特許文献1を参照)。 A known technology is imitation learning, which uses information about human behavior to create machine learning models that imitate human behavior. For example, supervised learning is known as a method for realizing the imitation learning described above. Furthermore, as a method of supervised learning, a large amount of observed data is accumulated, data in the vicinity of the required point is extracted from the accumulated data, and the extracted data is used to sequentially develop the model. A technology called the Just-In-Time (JIT) method for performing learning is known (see, for example, Non-Patent Document 1).

また、近年では運転データ等を入力とする学習モデルを用いて、操作対象となる設備や工場、プラント等の自動運転を行う技術が知られている。例えば、従来技術として、取得したデータを入力とする学習モデルを用いることで、機器の制御において実環境を対象とした最適制御を簡易かつ精度よく実行する技術が知られている(例えば、特許文献1を参照)。 Furthermore, in recent years, technology has become known for automatically operating equipment, factories, plants, etc. to be operated using learning models that input operating data and the like. For example, as a conventional technology, there is a known technology that uses a learning model that uses acquired data as input to easily and accurately execute optimal control for the real environment in device control (for example, Patent Document 1).

特開2019-067238号公報JP2019-067238A

山本 茂、「Just-In-Time予測制御:蓄積データに基づく予測制御」、計測と制御 第 52 巻 第 10 号 2013 年 10 月号(https://www.jstage.jst.go.jp/article/sicejl/52/10/52_878/_pdf/-char/ja)Shigeru Yamamoto, “Just-In-Time Predictive Control: Predictive Control Based on Accumulated Data,” Measurement and Control Vol. 52, No. 10, October 2013 issue (https://www.jstage.jst.go.jp/article /sicejl/52/10/52_878/_pdf/-char/ja)

しかしながら、従来技術では、操作対象の自動運転の精度が変化した場合における手動運転への切り替えのタイミングの判断が困難である、という問題があった。 However, the conventional technology has a problem in that it is difficult to determine the timing to switch to manual operation when the accuracy of automatic operation to be operated changes.

具体的には、従来技術は、学習モデルに基づき推論される推奨値をユーザ(操作対象の操作や運転等を行うオペレータ等)に提示し、提示された推奨値に基づき操作対象に対してユーザが操作を行う。そのため、推奨値の精度が悪化した際には、ユーザ自身がその判定を行うことが可能であった。しかしながら、ユーザを介さない自動運転時には、推奨値の精度判定を行うことが難しく、自動運転の精度が低下した場合でも適切なタイミングで手動運転への切り替えを判断することが難しい場合があった。 Specifically, the conventional technology presents a recommended value inferred based on a learning model to a user (such as an operator who operates or drives an operation target), and then provides a user with a recommended value for the operation target based on the presented recommended value. performs the operation. Therefore, when the accuracy of the recommended value deteriorates, the user can make the determination himself/herself. However, during automatic operation without user intervention, it is difficult to judge the accuracy of recommended values, and even when the accuracy of automatic operation decreases, it is sometimes difficult to determine whether to switch to manual operation at an appropriate timing.

そこで、上記の課題を解決し目的を達成するために、本発明の情報処理装置は、操作対象の自動運転の精度に関するデータが所定の条件を満たす場合に、前記操作対象の自動運転の稼働についての判定をする判定部と、前記判定部の判定結果に基づき、前記操作対象の自動運転を停止する停止部と、を有することを特徴とする。 Therefore, in order to solve the above problems and achieve the purpose, the information processing device of the present invention provides information about the operation of automatic driving to be operated, when data regarding the accuracy of automatic driving to be operated satisfies a predetermined condition. The present invention is characterized in that it has a determination unit that makes a determination, and a stop unit that stops automatic operation of the operation target based on the determination result of the determination unit.

本発明は、操作対象の自動運転の精度が変化した場合における手動運転への切り替えのタイミングの判断を容易とする、という効果を奏する。 The present invention has the effect of making it easier to determine the timing of switching to manual operation when the accuracy of automatic operation to be operated changes.

図1は、実施形態に係る情報処理の概要の一例を示す図である。FIG. 1 is a diagram illustrating an example of an overview of information processing according to an embodiment. 図2は、実施形態に係る学習モデルの推論の一例を示す図である。FIG. 2 is a diagram illustrating an example of inference of the learning model according to the embodiment. 図3は、実施形態に係る情報処理装置の装置構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of the device configuration of the information processing device according to the embodiment. 図4は、実施形態に係る情報処理の全体概要の一例を示す図である。FIG. 4 is a diagram illustrating an example of an overall outline of information processing according to the embodiment. 図5は、実施形態に係る自動運転管理画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of an automatic driving management screen according to the embodiment. 図6は、実施形態に係る自動運転管理画面の一例を示す図である。FIG. 6 is a diagram illustrating an example of an automatic driving management screen according to the embodiment. 図7は、実施形態に係る自動運転管理画面の一例を示す図である。FIG. 7 is a diagram showing an example of an automatic driving management screen according to the embodiment. 図8は、実施形態に係る自動運転管理画面の一例を示す図である。FIG. 8 is a diagram illustrating an example of an automatic driving management screen according to the embodiment. 図9は、実施形態に係る異常検知アルゴリズムの概要を示す図である。FIG. 9 is a diagram showing an overview of the abnormality detection algorithm according to the embodiment. 図10は、実施形態に係る異常検知アルゴリズムの概要を示す図である。FIG. 10 is a diagram showing an overview of the abnormality detection algorithm according to the embodiment. 図11は、実施形態1に係る情報処理のフローチャートの一例を示す図である。FIG. 11 is a diagram illustrating an example of a flowchart of information processing according to the first embodiment. 図12は、実施形態2に係る情報処理のフローチャートの一例を示す図である。FIG. 12 is a diagram illustrating an example of a flowchart of information processing according to the second embodiment. 図13は、実施形態3に係る情報処理のフローチャートの一例を示す図である。FIG. 13 is a diagram illustrating an example of a flowchart of information processing according to the third embodiment. 図14は、実施形態4に係る情報処理のフローチャートの一例を示す図である。FIG. 14 is a diagram illustrating an example of a flowchart of information processing according to the fourth embodiment. 図15は、実施形態5に係る情報処理のフローチャートの一例を示す図である。FIG. 15 is a diagram illustrating an example of a flowchart of information processing according to the fifth embodiment. 図16は、実施形態6に係る情報処理のフローチャートの一例を示す図である。FIG. 16 is a diagram illustrating an example of a flowchart of information processing according to the sixth embodiment. 図17は、従来技術における情報処理の概要の一例を示す図である。FIG. 17 is a diagram illustrating an example of an overview of information processing in the prior art. 図18は、実施形態に係る情報処理装置が実現されるコンピュータの一例を示す図である。FIG. 18 is a diagram illustrating an example of a computer on which the information processing device according to the embodiment is implemented.

以下、図面を参照しながら、本実施形態を実施するための形態(以下、「実施形態」)について説明する。なお、本実施形態は、以下に記載する内容に限定されない。 Hereinafter, a mode for implementing the present embodiment (hereinafter referred to as "embodiment") will be described with reference to the drawings. Note that this embodiment is not limited to the content described below.

〔1.概要〕
まず、本実施形態における情報処理装置100による情報処理の概要を、図1を用いて説明する。本実施形態において情報処理装置100は、操作対象10の運転データDb(例えば、温度、圧力、流量、原料投入量、生成量等)と類似、または関係する過去の履歴データDa(例えば、温度、圧力、流量、原料投入量、生成量等、ユーザによる操作履歴等)を用いて学習モデル20を学習する(図1の(1)を参照)。
[1. overview〕
First, an overview of information processing by the information processing apparatus 100 in this embodiment will be described using FIG. 1. In the present embodiment, the information processing device 100 stores past historical data Da (for example, temperature, The learning model 20 is trained using the user's operation history (pressure, flow rate, raw material input amount, production amount, etc.) (see (1) in FIG. 1).

次に、ユーザU(操作対象10を操作するオペレータ)は、情報処理装置100に対して、自動運転の条件を入力する(図1の(2)を参照)。情報処理装置100の自動運転制御部138は、ユーザUが入力する自動運転の条件と、運転データDbを入力とする前述の学習モデル20に基づき推論される推奨値RDを用いて、操作対象10に対して自動運転(以降は、操作対象10に対する自動運転を単に「自動運転」と表記)を実施する(図1の(3)および(4)を参照)。 Next, the user U (the operator who operates the operation target 10) inputs automatic driving conditions to the information processing device 100 (see (2) in FIG. 1). The automatic driving control unit 138 of the information processing device 100 uses the automatic driving conditions input by the user U and the recommended value RD inferred based on the above-mentioned learning model 20 inputting the driving data Db. (hereinafter, automatic operation for the operation target 10 will be simply referred to as "automatic operation") (see (3) and (4) in FIG. 1).

そして、情報処理装置100は、自動運転時に操作対象10の自動運転の精度に関するデータ(例えば、推奨値、説明変数、操作対象の評価指標等)を取得し、自動運転の精度の変化を判定する。その結果、自動運転の精度が所定の許容範囲を下回っていると判定される場合、情報処理装置100は、自動運転を停止する(図1の(5)を参照)。続けて、情報処理装置100は、ユーザUに対して自動運転が停止したことを表示する(図1の(6)を参照)。そして、ユーザUは、情報処理装置100からの表示に基づき、自動運転停止後の操作対象10を手動により操作する(図1の(7)を参照)。 Then, the information processing device 100 acquires data regarding the accuracy of automatic driving of the operation target 10 (for example, recommended values, explanatory variables, evaluation indicators of the operation target, etc.) during automatic driving, and determines changes in the accuracy of automatic driving. . As a result, if it is determined that the accuracy of automatic driving is below the predetermined allowable range, the information processing device 100 stops automatic driving (see (5) in FIG. 1). Subsequently, the information processing device 100 displays to the user U that automatic driving has stopped (see (6) in FIG. 1). Then, the user U manually operates the operation target 10 after the automatic operation is stopped based on the display from the information processing device 100 (see (7) in FIG. 1).

〔1-1.学習モデルによる推奨値の推論〕
続いて、図1で説明した学習モデル20について、更に説明を行う。図2に示すように、情報処理装置100は、操作対象10aから運転データDbを受け付ける。次に、情報処理装置100は、受け付けた運転データDbと類似する履歴データDaを用いて推奨値RDを推論するための学習モデル20の学習(訓練)を行う。
[1-1. Inference of recommended values using learning model]
Next, the learning model 20 explained in FIG. 1 will be further explained. As shown in FIG. 2, the information processing device 100 receives driving data Db from the operation target 10a. Next, the information processing device 100 performs learning (training) of the learning model 20 for inferring the recommended value RD using the historical data Da similar to the received driving data Db.

そして、情報処理装置100は、学習(訓練)済みの学習モデル20に基づき推奨値RDの推論を行う。具体的には、情報処理装置100は、操作対象10aに対して実際にユーザUが行った操作等の情報である履歴データDaを用いて学習モデル20を学習することで、模倣学習を行う。その結果、情報処理装置100は、学習モデル20に運転データDbを入力することにより推論される推奨値RDを用いて、操作対象10bに対しての自動運転を実現する。 The information processing device 100 then infers the recommended value RD based on the learned (trained) learning model 20. Specifically, the information processing device 100 performs imitation learning by learning the learning model 20 using history data Da, which is information such as operations actually performed by the user U on the operation target 10a. As a result, the information processing device 100 realizes automatic driving for the operation target 10b using the recommended value RD inferred by inputting the driving data Db into the learning model 20.

例えば、操作対象10がプラントの場合、学習モデル20は、特定の工程における過去にユーザUが投入した原材料の投入量を学習する。そして、学習モデル20は、現在の運転データから、推奨値RDとして原材料の投入量を出力する。ユーザUは、学習モデル20に基づき推論される推奨値RDに従って原材料の投入量を設定することで、過去のユーザ(例えば、ユーザUやユーザU以外のオペレータ)の操作を模倣することができる。 For example, when the operation target 10 is a plant, the learning model 20 learns the input amount of raw materials input by the user U in the past in a specific process. The learning model 20 then outputs the input amount of raw materials as the recommended value RD from the current operation data. By setting the input amount of raw materials according to the recommended value RD inferred based on the learning model 20, the user U can imitate the operations of past users (for example, the user U or an operator other than the user U).

〔2.情報処理装置の構成〕
ここから、本実施形態に係る情報処理装置100の構成について、図3を用いて説明する。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130と、を有する。なお、図示していないが、情報処理装置100は、各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、ディスプレイ等)を備えてもよい。続いて、以下に各部の詳細な機能について記載する。
[2. Configuration of information processing device]
From here, the configuration of the information processing device 100 according to this embodiment will be explained using FIG. 3. As shown in FIG. 3, the information processing device 100 includes a communication section 110, a storage section 120, and a control section 130. Although not shown, the information processing device 100 may include an input unit (for example, a keyboard, a mouse, etc.) that accepts various operations, and a display unit (for example, a display) for displaying various information. . Next, detailed functions of each part will be described below.

(通信部110)
通信部110は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネット等の電気通信回線を介して通信を制御する。そして、通信部110は、必要に応じてネットワークと有線または無線で接続され、双方向に情報の送受信を行うことができる。なお、本実施形態においては、外部の装置等(例えば、操作対象10等)との通信は、通信部110を介して実施される前提とする。
(Communication Department 110)
The communication unit 110 is realized by a NIC (Network Interface Card) or the like, and controls communication via a telecommunication line such as a LAN (Local Area Network) or the Internet. The communication unit 110 is connected to a network by wire or wirelessly as necessary, and can transmit and receive information in both directions. In this embodiment, it is assumed that communication with an external device (for example, the operation target 10, etc.) is performed via the communication unit 110.

(記憶部120)
記憶部120は、制御部130による各種処理に必要なデータおよびプログラムを格納する。また、記憶部120は、履歴データ記憶部121と、モデル記憶部122と、推奨値記憶部123と、を有する。そして、記憶部120は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置等で実現する。
(Storage unit 120)
The storage unit 120 stores data and programs necessary for various processing by the control unit 130. Furthermore, the storage unit 120 includes a history data storage unit 121 , a model storage unit 122 , and a recommended value storage unit 123 . The storage unit 120 is realized by a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk.

(履歴データ記憶部121)
履歴データ記憶部121は、操作対象10の過去の運転に関する情報として、履歴データを記憶する。例えば、履歴データ記憶部121が記憶する履歴データには、操作対象10の過去の説明変数(例えば、時刻、温度、圧力、二酸化炭素濃度等のセンサデータ)や、目的変数(例えば、ユーザによる操作履歴)を記憶し、運転データDbと説明変数が類似する履歴データDaが含まれる。また、前述した情報はあくまで一例であり、履歴データ記憶部121は、履歴データの範疇であれば限定無く記憶できる。
(History data storage unit 121)
The history data storage unit 121 stores history data as information regarding past driving of the operation target 10. For example, the history data stored in the history data storage unit 121 includes past explanatory variables of the operation target 10 (for example, sensor data such as time, temperature, pressure, carbon dioxide concentration, etc.) and objective variables (for example, user operation history) and includes history data Da having similar explanatory variables to the driving data Db. Further, the above-mentioned information is just an example, and the historical data storage unit 121 can store any historical data without limitation.

(モデル記憶部122)
モデル記憶部122は、操作対象10の履歴データDaを用いて学習させる学習モデル20を記憶する。
(Model storage unit 122)
The model storage unit 122 stores a learning model 20 that is trained using the history data Da of the operation target 10.

(推奨値記憶部123)
推奨値記憶部123は、学習モデル20によって推論される推奨値RDを記憶する。
(Recommended value storage unit 123)
The recommended value storage unit 123 stores the recommended value RD inferred by the learning model 20.

(制御部130)
制御部130は、取得部131と、学習部132と、更新部133と、推論部134と、判定部135と、停止部136と、表示部137と、自動運転制御部138と、を有する。そして、制御部130は、各種の処理手順等を規定したプログラムや処理データを一時的に格納するための内部メモリを有し、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路によって実現される。
(Control unit 130)
The control unit 130 includes an acquisition unit 131, a learning unit 132, an update unit 133, an inference unit 134, a determination unit 135, a stop unit 136, a display unit 137, and an automatic driving control unit 138. The control unit 130 has an internal memory for temporarily storing programs and processing data that define various processing procedures, and includes electronic circuits such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). , is realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

(取得部131)
取得部131は、操作対象10の運転に関するデータを取得する。具体的には、取得部131は、操作対象10の運転に関するデータとして、操作対象10の運転データDb(例えば、操作対象10が収集するセンサデータのうち説明変数として用いているもの等)を取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires data regarding the operation of the operation target 10. Specifically, the acquisition unit 131 acquires driving data Db of the operation target 10 (for example, sensor data collected by the operation target 10 that is used as an explanatory variable) as data related to the operation of the operation target 10. do.

さらに、取得部131は、操作対象10の運転に関するデータとして、履歴検索用キー(現在の操作対象10のセンサデータで、以降は単に「履歴検索用キー」と記載)を用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDa(類似するセンサデータおよびユーザによる操作履歴を含む)を、履歴データ記憶部121から取得する。なお、取得部131は、前述した情報以外にも、操作対象10の運転に関するデータの範疇であれば、限定無く情報を取得できる。 Furthermore, the acquisition unit 131 uses a history search key (current sensor data of the operation target 10, hereinafter simply referred to as "history search key") to obtain data related to the operation of the operation target 10. History data Da (including similar sensor data and operation history by the user) similar to the driving data Db at the time of driving is acquired from the history data storage unit 121. In addition to the information described above, the acquisition unit 131 can acquire information without limitation as long as it is in the category of data related to the operation of the operation target 10.

(学習部132)
学習部132は、取得部131が取得する操作対象10の履歴データDaを用いて、説明変数(センサデータ)および目的変数(ユーザによる操作履歴)を学習データとして学習モデル20の学習(訓練)を行う。例えば、学習部132は、操作対象10がプラントである場合、特定の状況において過去にユーザUが投入した原材料の投入量等を履歴データDaとして用いて、学習モデル20を学習できる。
(Learning section 132)
The learning unit 132 uses the history data Da of the operation target 10 acquired by the acquisition unit 131 to learn (train) the learning model 20 using explanatory variables (sensor data) and objective variables (operation history by the user) as learning data. conduct. For example, when the operation target 10 is a plant, the learning unit 132 can learn the learning model 20 using the input amount of raw materials input by the user U in the past in a specific situation as the history data Da.

また、学習モデル20がアンサンブルモデルの場合は、学習部132は、バギングや、ブースティングや、スタッキング等の手法で学習を行ってよい。 Further, when the learning model 20 is an ensemble model, the learning unit 132 may perform learning using techniques such as bagging, boosting, and stacking.

(更新部133)
更新部133は、学習部132の学習に基づき学習モデル20を更新する。さらに、更新部133は複数の学習モデル20について、学習部132の学習に基づき更新を行う。なお、本実施形態においては、学習モデル20はアンサンブルモデルであり、情報処理装置100は複数の学習モデル20を有する前提として、説明を行う。
(Update unit 133)
The updating unit 133 updates the learning model 20 based on the learning by the learning unit 132. Furthermore, the updating unit 133 updates the plurality of learning models 20 based on the learning by the learning unit 132. In this embodiment, the learning model 20 is an ensemble model, and the information processing apparatus 100 will be described on the assumption that the information processing apparatus 100 has a plurality of learning models 20.

(推論部134)
推論部134は、取得部131が操作対象10から取得する運転データDb(例えば、説明変数等)を入力とする学習モデル20に基づき、推奨値RDを推論する。なお、学習モデル20が複数存在するアンサンブルモデルの場合に、推論部134は、推論される推奨値RDを複数の学習モデル20の多数決や平均等によって推論してよい。
(Inference unit 134)
The inference unit 134 infers the recommended value RD based on the learning model 20 that receives as input the driving data Db (for example, explanatory variables, etc.) that the acquisition unit 131 acquires from the operation target 10. Note that in the case of an ensemble model in which a plurality of learning models 20 exist, the inference unit 134 may infer the recommended value RD to be inferred by a majority vote of the plurality of learning models 20, an average, or the like.

(判定部135)
判定部135は、操作対象10の自動運転の精度に関するデータが所定の条件を満たす場合に、操作対象10の自動運転の稼働についての判定をする。具体的には、判定部135は、操作対象10の自動運転の精度に関するデータとして、説明変数、推奨値RD、予測分散、操作対象の評価指標を用いて、判定を行う。なお、判定部135の行う判定の詳細については、以降の項目において、実施形態ごとに説明を行う。
(Determination unit 135)
The determining unit 135 determines whether the automatic driving of the operating target 10 is performed when the data regarding the accuracy of the automatic driving of the operating target 10 satisfies a predetermined condition. Specifically, the determination unit 135 makes the determination using an explanatory variable, a recommended value RD, a prediction variance, and an evaluation index of the operation target as data regarding the accuracy of automatic driving of the operation target 10. Note that details of the determination performed by the determination unit 135 will be explained for each embodiment in the following items.

(停止部136)
停止部136は、判定部135の判定結果に基づき、操作対象10の自動運転を停止する。具体的には、停止部136は、後述の自動運転制御部138が行う自動運転を停止する。
(Stop part 136)
The stopping unit 136 stops automatic operation of the operation target 10 based on the determination result of the determining unit 135. Specifically, the stop unit 136 stops automatic operation performed by an automatic operation control unit 138, which will be described later.

(表示部137)
表示部137は、停止部136が操作対象10の自動運転を停止した場合に、ユーザUに対して操作対象10の自動運転が停止したことを表示する。なお、表示部137は、ユーザUに当該情報を表示する方法として、例えば、テキストや音声等、ユーザUが知覚できる方法を用いてよい。
(Display section 137)
The display unit 137 displays to the user U that the automatic operation of the operation target 10 has been stopped when the stop unit 136 has stopped the automatic operation of the operation target 10. Note that the display unit 137 may use a method that the user U can perceive, such as text or audio, as a method of displaying the information to the user U, for example.

また、表示部137は、停止部136による自動運転の自動停止が行われない場合にも、ユーザUに対して自動運転の精度低下に基づく自動運転停止に関する情報を表示してよい。例えば、表示部137は、「自動運転の精度低下のため、自動運転の停止を推奨」、等といった内容の表示を行ってよい。 Further, the display unit 137 may display information regarding the automatic driving stop based on the decrease in the accuracy of the automatic driving to the user U even when the automatic driving is not stopped automatically by the stopping unit 136. For example, the display unit 137 may display content such as "Due to a decrease in the accuracy of automatic driving, it is recommended that automatic driving be stopped."

(自動運転制御部138)
自動運転制御部138は、運転データDb(説明変数)を入力とする学習モデル20に基づき推論する推奨値RDを用いて、操作対象10に対して自動運転を実施する。
(Automatic operation control unit 138)
The automatic driving control unit 138 performs automatic driving on the operation target 10 using the recommended value RD inferred based on the learning model 20 inputting the driving data Db (explanatory variable).

〔3.実施形態に係る情報処理の全体像〕
ここから、本実施形態における情報処理装置100が行う情報処理の全体像について、図4を用いて説明する。図4では、情報処理装置100が、操作対象10の自動運転の精度に関するデータに基づいて、後述する実施形態1から実施形態6の方法を用いて、自動運転の精度低下による自動運転の停止の判定を行う手順を説明する。なお、情報処理装置100は、実施形態1から実施形態6について、それぞれ単独で実施してもよいし、任意の実施形態を組み合わせて実施してもよい。
[3. Overall image of information processing according to embodiment]
From here, the overall image of information processing performed by the information processing apparatus 100 in this embodiment will be described using FIG. 4. In FIG. 4, the information processing device 100 uses the methods of Embodiments 1 to 6, which will be described later, based on data regarding the accuracy of the automatic driving of the operation target 10, to prevent the automatic driving from stopping due to a decrease in the accuracy of the automatic driving. The procedure for making a determination will be explained. Note that the information processing apparatus 100 may implement each of Embodiments 1 to 6 independently, or may implement any of the embodiments in combination.

取得部131は、履歴検索用キーを用いて履歴データ記憶部121から、操作対象10の運転データDbと類似または関係する過去の履歴データDaを取得する(図4の(1)を参照)。続けて、学習部132は、取得した履歴データDaを用いて学習モデル20を学習する(図4の(2)を参照)。 The acquisition unit 131 acquires past history data Da similar to or related to the driving data Db of the operation target 10 from the history data storage unit 121 using the history search key (see (1) in FIG. 4). Subsequently, the learning unit 132 learns the learning model 20 using the acquired history data Da (see (2) in FIG. 4).

更新部133は、複数の学習モデル20(学習モデル20aと、学習モデル20bと、学習モデル20c)を更新する(図4の(3)を参照)。なお、図4では学習モデル20は3つ表記しているが、3つに限定されず必要に応じて異なる数の学習モデル20があってよい。 The updating unit 133 updates the plurality of learning models 20 (learning model 20a, learning model 20b, and learning model 20c) (see (3) in FIG. 4). Although three learning models 20 are shown in FIG. 4, the number of learning models 20 is not limited to three, and a different number of learning models 20 may be used as necessary.

推論部134は、複数の学習済みの学習モデル20に基づいて複数の推論を行う(図4の(4)を参照)。そして、推論部134は、取得部131が取得する運転データDb(説明変数)を入力として(図4の(5)を参照)、学習モデル20に基づき推奨値RDを推論する(図4の(6)を参照)。なお、本実施形態において、推論部134は、複数の学習モデル20を用いて複数の推奨値RDを推論する場合に、複数モデルによる多数決や平均等によって算出してよい。 The inference unit 134 performs multiple inferences based on the multiple trained learning models 20 (see (4) in FIG. 4). Then, the inference unit 134 inputs the driving data Db (explanatory variable) acquired by the acquisition unit 131 (see (5) in FIG. 4), and infers the recommended value RD based on the learning model 20 (see (5) in FIG. 4). (see 6)). Note that in this embodiment, when inferring a plurality of recommended values RD using a plurality of learning models 20, the inference unit 134 may calculate by majority vote, average, etc. of the plurality of models.

ここから、判定部135による各種判定基準に基づく運転精度の判定について説明する。判定部135は、異常検知アルゴリズム(例えば、PCA(Principal Component Analysis)等を利用したもの)を用いて、運転データDb(説明変数)に所定の変化が生じているか否かを判定する(図4の(7)を参照)。なお、図4の(7)の処理は、実施形態1として以降の項目で説明する。 From here, the determination of driving accuracy based on various determination criteria by the determination unit 135 will be explained. The determination unit 135 determines whether a predetermined change has occurred in the driving data Db (explanatory variable) using an abnormality detection algorithm (for example, one using PCA (Principal Component Analysis), etc.) (see FIG. 4 (see (7)). Note that the process (7) in FIG. 4 will be described in the following items as Embodiment 1.

判定部135は、推論部134によって推論される推奨値RDが、所定の範囲(例えば、最大最小閾値等)に存在するか否かを判定する(図4の(8)を参照)。なお、図4の(8)の処理は、実施形態2として以降の項目で説明する。 The determination unit 135 determines whether the recommended value RD inferred by the inference unit 134 is within a predetermined range (for example, maximum and minimum threshold values, etc.) (see (8) in FIG. 4). Note that the process (8) in FIG. 4 will be described in the following items as Embodiment 2.

判定部135は、推論部134によって推論される推奨値RDについて所定の期間における変化率を算出し、前述の変化率が所定の範囲(例えば、差分変化量閾値等)に存在するか否かを判定する(図4の(9)を参照)。なお、図4の(9)の処理は、実施形態3として以降の項目で説明する。 The determination unit 135 calculates the rate of change in a predetermined period for the recommended value RD inferred by the inference unit 134, and determines whether the above-mentioned rate of change is within a predetermined range (for example, a differential change amount threshold, etc.). (See (9) in FIG. 4). Note that the process (9) in FIG. 4 will be explained in the following items as the third embodiment.

判定部135は、複数の学習モデル20のそれぞれの推奨値RDについて分散に基づいて比較を行い、前述の分散が所定の閾値(例えば、アンサンブルモデルの分散閾値等)を超えるか否かを判定する(図4の(10)を参照)。なお、図4の(10)の処理は、実施形態4として以降の項目で説明する。 The determination unit 135 compares the recommended values RD of the plurality of learning models 20 based on the variance, and determines whether the aforementioned variance exceeds a predetermined threshold (for example, the variance threshold of an ensemble model, etc.). (See (10) in Figure 4). Note that the process (10) in FIG. 4 will be explained in the following items as Embodiment 4.

判定部135は、推論部134によって推論される推奨値RDが事後分布を有する場合に、推奨値RDの事後分布の予測分散が所定の閾値(例えば、予測分散閾値等)を超えるか否かを判定する(図4の(11)を参照)。なお、図4の(11)の処理は、実施形態5として以降の項目で説明する。 The determination unit 135 determines whether the predicted variance of the posterior distribution of the recommended value RD exceeds a predetermined threshold (for example, a predicted variance threshold, etc.) when the recommended value RD inferred by the inference unit 134 has a posterior distribution. (See (11) in FIG. 4). Note that the process (11) in FIG. 4 will be described in the following items as Embodiment 5.

判定部135は、操作対象10の評価指標(図4の(12)を参照)が所定の閾値(例えば、評価指標閾値等)を超えるか否かを判定する(図4の(13)を参照)。なお、図4の(13)の処理は、実施形態6として以降の項目で説明する。 The determination unit 135 determines whether the evaluation index (see (12) in FIG. 4) of the operation target 10 exceeds a predetermined threshold (for example, evaluation index threshold, etc.) (see (13) in FIG. 4). ). Note that the process (13) in FIG. 4 will be described in the following items as Embodiment 6.

そして、判定部135は、各種判定基準に基づき運転精度が低下していると判定する場合に、更に自動運転の停止の判定を行う(図4の(14)の「運転精度の低下有り」を参照)。なお、判定部135は、前述した判定基準の単独もしくは複数組み合わせて、所定の条件を満たすかどうかを判定してよい。 If the determination unit 135 determines that the driving accuracy has decreased based on various determination criteria, it further determines whether to stop automatic driving (if the determination unit 135 determines that the driving accuracy has decreased based on (14) in FIG. 4), reference). Note that the determination unit 135 may determine whether or not a predetermined condition is satisfied using one or more of the aforementioned determination criteria.

停止部136は、前述の判定部135の判定に基づいて、自動運転の停止を実施する(図4の(15)を参照)。続けて、表示部137は、停止部136による自動運転の停止に基づいて、ユーザUに自動運転が停止したことを表示する(図4の(16)を参照)。そして、ユーザUは、自動運転が停止した操作対象10を手動で操作する(図4の(17)を参照)。 The stopping unit 136 stops automatic operation based on the determination by the determining unit 135 described above (see (15) in FIG. 4). Subsequently, the display unit 137 displays to the user U that the automatic driving has been stopped based on the stopping of the automatic driving by the stopping unit 136 (see (16) in FIG. 4). Then, the user U manually operates the operation target 10 whose automatic operation has been stopped (see (17) in FIG. 4).

他方で、判定部135が前述した判定基準に基づいて運転精度が低下していないと判定する場合に(図4の(14)の「運転精度の低下無し」を参照)、自動運転制御部138は、自動運転を継続する(図4の(18)を参照)。 On the other hand, when the determination unit 135 determines that the driving accuracy has not decreased based on the determination criteria described above (see “No decrease in driving accuracy” in (14) of FIG. 4), the automatic driving control unit 138 continues automatic operation (see (18) in Figure 4).

ここから、図5から図8を用いて、図4の(16)で前述したユーザUに自動運転の停止について通知する方法の一例を説明する。まず、図5を用いて、ユーザUの操作する端末装置等に表示するシステム画面を説明する。なお、本項目で説明するシステム画面はあくまで一例であり、表示形式、表示内容、画面の配置、構成、組み合わせ等は限定されず、必要に応じて変更してよい。 From here, an example of a method for notifying the user U about the stop of automatic driving described in (16) of FIG. 4 will be explained using FIGS. 5 to 8. First, a system screen displayed on a terminal device operated by user U will be described using FIG. 5. Note that the system screen described in this section is just an example, and the display format, display content, screen arrangement, configuration, combination, etc. are not limited and may be changed as necessary.

図5の画面SAは、自動運転における運転に関するデータの変動について視覚化した情報を表している。画面SAには、自動運転により逐次変動するデータを時系列方向に連続して表示される。一方で画面SBには、自動運転における運転に関するデータの一覧が表示される。なお、画面SAに表示される項目は、情報処理装置100が自動的に選択してもよいし、ユーザUが自身で選択してもよい。ユーザUが自身で選択する場合は、画面SBに表示されている項目に基づき画面SAの表示が切り替えられてよい。 Screen SA in FIG. 5 represents visualized information about fluctuations in data related to driving in automatic driving. On the screen SA, data that changes sequentially due to automatic driving is continuously displayed in a chronological direction. On the other hand, a list of data related to driving in automatic driving is displayed on screen SB. Note that the items displayed on the screen SA may be automatically selected by the information processing apparatus 100, or may be selected by the user U himself. If the user U makes the selection himself/herself, the display on the screen SA may be switched based on the items displayed on the screen SB.

図5の表示SC1には、自動運転の稼働状況に関する情報が表示される。例えば、図5の場合、表示部137は、自動運転が稼働中の場合、表示SC1に「自動運転稼働中」のテキストを表示する。そして、停止部136が自動運転を停止した場合には、表示部137は、図6の表示SC2に「自動運転停止中」のテキストを表示する。なお、前述したテキスト内容についてはあくまで一例であり、表示部137は、ユーザUに運転状況を表示するために必要に応じてその他のテキスト、画像、音声等のユーザが五感で知覚できる出力方法を用いることができる。 In the display SC1 of FIG. 5, information regarding the operating status of automatic operation is displayed. For example, in the case of FIG. 5, when the automatic operation is in operation, the display unit 137 displays the text "Automatic operation in operation" on the display SC1. Then, when the stop unit 136 stops the automatic operation, the display unit 137 displays the text "Automatic operation is stopped" on the display SC2 in FIG. 6. Note that the text content described above is just an example, and the display unit 137 may output other text, images, audio, etc. that can be perceived by the user's five senses as necessary in order to display the driving situation to the user U. Can be used.

また、ここまで停止部136による自動運転の自動停止について説明をしてきたが、ユーザUが表示部137の表示する自動運転の精度が低下についての情報を受け付ける場合、ユーザU自身の操作によって自動運転を停止させてもよい。例えば、図7の表示SC3および図8の表示SC4に示す通り、ユーザUは、表示部137が表示するテキスト付近に存在する「停止」と「稼働開始」のダイアログを操作して、自動運転の停止と再開を切り替えてもよい。 In addition, although we have explained the automatic stop of automatic driving by the stop unit 136 up to this point, when the user U receives information about a decrease in the accuracy of automatic driving displayed on the display unit 137, the user U can use his own operation to stop the automatic driving. may be stopped. For example, as shown in display SC3 in FIG. 7 and display SC4 in FIG. You can also switch between stopping and restarting.

〔4.実施形態1:説明変数の異常検知による判定〕
ここから、前述してきた運転精度の判定方法について、実施形態1から実施形態6として、それぞれ「概要」と、「情報処理装置100の構成」と、「処理手順」と、という順番で説明する。なお、情報処理装置100は、実施形態1から実施形態6について、それぞれ単独で実施してもよいし、複数の実施形態を組み合わせて実施してもよい。例えば、情報処理装置100は、実施形態ごとの単独の判定結果や、複数の実施形態における複数の判定結果に基づいて、自動運転の停止を判定してもよい。
[4. Embodiment 1: Judgment based on abnormality detection of explanatory variables]
From here, the above-described driving accuracy determination method will be described in the order of "overview", "configuration of information processing device 100", and "processing procedure" for Embodiments 1 to 6, respectively. Note that the information processing apparatus 100 may implement each of Embodiments 1 to 6 independently, or may implement a plurality of embodiments in combination. For example, the information processing device 100 may determine whether to stop automatic driving based on a single determination result for each embodiment or multiple determination results in multiple embodiments.

まず、実施形態1として「説明変数の異常検知による判定」について説明する。推論部134は、操作対象10が収集する運転データDb(説明変数)を入力とする学習モデル20に基づき推論を行うことで、推奨値RDを算出する。そして、自動運転制御部138は、推論された推奨値RDを用いて、操作対象10に対して自動運転を実施する。しかし、操作対象10の運転状況は経時的に変化する場合があり、それに伴い自動運転の精度が低下する場合がある。なお、前述した内容は、実施形態1から実施形態6まで共通であるため、以降の記載は省略する。 First, as Embodiment 1, "determination based on abnormality detection of explanatory variables" will be described. The inference unit 134 calculates the recommended value RD by performing inference based on the learning model 20 that receives the driving data Db (explanatory variables) collected by the operation target 10 as input. Then, the automatic driving control unit 138 performs automatic driving on the operation target 10 using the inferred recommended value RD. However, the driving situation of the operation target 10 may change over time, and the accuracy of automatic driving may deteriorate accordingly. Note that the above-mentioned content is common to Embodiment 1 to Embodiment 6, so the subsequent description will be omitted.

前述したように、操作対象10の自動運転の精度低下発生時に、学習モデル20に対する入力である運転データDb(説明変数)に変化(異常)が生じる場合がある。そこで、実施形態1の判定部135は、異常検知アルゴリズム(例えば、PCA等を利用したもの)を用いて運転データDb(説明変数)の変化を評価し、自動運転の停止を判定する。 As described above, when the accuracy of automatic driving of the operation target 10 decreases, a change (abnormality) may occur in the driving data Db (explanatory variable) that is input to the learning model 20. Therefore, the determination unit 135 of the first embodiment evaluates the change in the driving data Db (explanatory variable) using an abnormality detection algorithm (for example, one using PCA or the like), and determines whether to stop automatic driving.

〔4-1.実施形態1の情報処理装置の構成〕
実施形態1における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[4-1. Configuration of information processing device of Embodiment 1]
The device configuration of the information processing device 100 in Embodiment 1 is the same as in the above-described embodiments. Therefore, in this section, only the additional functions of the determination unit 135 will be explained as differences, and other detailed explanations will be omitted.

(判定部135)
実施形態1における判定部135は、異常検知アルゴリズムを用いて、運転データDb(説明変数)に生じる変化を判定する。具体的には、判定部135は、所定の条件として、操作対象10の運転の状況を表す運転データDb(説明変数)についての異常検知の結果に基づき、運転データDb(説明変数)に所定の変化が発生する場合に自動運転の停止の判定をする。なお、判定部135は、教師無し機械学習(例えば、PCA等を利用したもの)を利用した異常検知アルゴリズムに基づいて、判定を行ってよい。
(Determination unit 135)
The determining unit 135 in the first embodiment uses an abnormality detection algorithm to determine a change that occurs in the driving data Db (explanatory variable). Specifically, the determination unit 135 sets a predetermined condition to the driving data Db (explanatory variable) based on the result of abnormality detection regarding the driving data Db (explanatory variable) representing the driving situation of the operation target 10. If a change occurs, determine whether to stop automatic operation. Note that the determination unit 135 may perform determination based on an abnormality detection algorithm using unsupervised machine learning (for example, using PCA or the like).

例えば、判定部135は、PCA(主成分分析)で縮約写像した空間においてKDE(カーネル密度推定)等を実施し、密度が低い部分にデータが現れた場合(例えば、尤度が低い場合等)を異常発生と判定してよい。また、他の例として、判定部135は、マハラノビス距離で知られる距離指標を用いて、異常発生と判定してよい。さらに、他の例として判定部135は、PCAで縮約した空間上で計算されるT^2統計量およびQ統計量を用いて異常発生を判定してよい。 For example, the determination unit 135 performs KDE (kernel density estimation) on a space reduced by PCA (principal component analysis), and if data appears in a region with low density (for example, if the likelihood is low), ) may be determined to be an abnormal occurrence. Further, as another example, the determination unit 135 may determine that an abnormality has occurred using a distance index known as Mahalanobis distance. Furthermore, as another example, the determination unit 135 may determine the occurrence of an abnormality using the T^2 statistic and the Q statistic calculated on the space contracted by PCA.

ここから、PCAに基づく異常検知アルゴリズムを用いた異常検知の一例を説明する。判定部135は、図9に示す通り、学習対象データの内、大多数を占める正常データが存在する領域(多様体)を縮約で求め、そこから所定の距離が離れている場合に異常が発生していると判定してよい(例えば、図9の値aおよび値bを参照)。なお、図9に示す、マハラノビス距離dは、以下の数式(1)で示される。なお、数式(1)における、Σは「分散共分散行列」で、xは「変数」で、μは「xの平均」であるとする。 An example of anomaly detection using an anomaly detection algorithm based on PCA will now be described. As shown in FIG. 9, the determination unit 135 calculates, by reduction, a region (manifold) in which the majority of normal data exists in the learning target data, and determines that an abnormality occurs if a predetermined distance is away from the region (manifold). It may be determined that this has occurred (for example, see values a and b in FIG. 9). Note that the Mahalanobis distance d shown in FIG. 9 is expressed by the following formula (1). Note that in formula (1), Σ is a "variance-covariance matrix," x is a "variable," and μ is an "average of x."

Figure 0007427746000002
Figure 0007427746000002

具体的には、図10において、T^2統計量は縮約した次元内(正常データが主要に存在している次元内)での距離を示しており、判定部135は、前述の距離に基づき異常値の判定を行う(例えば、図10の値aを参照)。他方で、Q統計量は縮約から漏れた次元(正常データが主要に存在してない次元内に飛び出ている値)の距離を示しており、判定部135は前述の距離に基づき異常値の判定を行う(例えば、図10の値bを参照)。 Specifically, in FIG. 10, the T^2 statistic indicates the distance within the contracted dimension (within the dimension in which normal data mainly exists), and the determination unit 135 calculates the distance based on the above-mentioned distance. An abnormal value is determined based on the value (for example, see value a in FIG. 10). On the other hand, the Q statistic indicates the distance of a dimension that is omitted from the reduction (a value that jumps out in a dimension where normal data does not mainly exist), and the determination unit 135 determines the abnormal value based on the above-mentioned distance. A determination is made (for example, see value b in FIG. 10).

他方で、判定部135は、尤度による判定として、確率密度の高いデータの主要領域から所定の距離が離れている場合に異常が発生していると判定してよい。また、判定部135は、PCAに基づく異常検知に限定されず、その他の方法を用いて異常の発生を判定してよい。例えば、生成モデルを用いる方法として、判定部135は、ニューラルネットワークを用いた縮約手法であるオートエンコーダや、GAN(Generative Adversarial Network)等を用いて、異常の発生を判定してよい。 On the other hand, the determination unit 135 may determine that an abnormality has occurred when a predetermined distance is away from the main area of data with high probability density, based on likelihood. Furthermore, the determination unit 135 is not limited to abnormality detection based on PCA, and may determine the occurrence of an abnormality using other methods. For example, as a method using a generative model, the determination unit 135 may determine the occurrence of an abnormality using an autoencoder, which is a reduction method using a neural network, a GAN (Generative Adversarial Network), or the like.

前述のオートエンコーダを用いる方法では、判定部135は、「入力→縮約→入力再構成」のうち再構成の誤差について、「学習後の再現性が低い場合、学習に用いた大多数の通常データと所定の距離が離れている異常サンプルを用いた学習が行われている」という前提に基づいて、異常度を判定してよい。他方、GANを用いる使う方法では、判定部135は、学習済みのdiscriminator(GANの生成物と、真のデータを正誤判定するモデル)を用いて、真のデータと判定されなければ異常が発生していると判定してよい。 In the above-mentioned method using an autoencoder, the determination unit 135 determines the reconstruction error in "input → reduction → input reconstruction" by saying, "If the reproducibility after learning is low, the majority of normal The degree of abnormality may be determined based on the premise that "learning is being performed using abnormal samples that are separated from the data by a predetermined distance." On the other hand, in the method using GAN, the determination unit 135 uses a learned discriminator (a model that determines whether the GAN product and true data are correct or incorrect) and determines whether an abnormality has occurred if the data is not determined to be true. It can be determined that the

一例として、プラントプロセスデータを用いる場合、プラントが収集するセンサー値を、例えば時間窓で「センサー数×窓幅」次元をもつ多次元データとして処理して、それを入力とし通常の状態とどれだけ所定の距離が離れているかを、判定部135が前述した方法を用いて判定してよい。 As an example, when using plant process data, the sensor values collected by the plant are processed as multidimensional data with dimensions of "number of sensors x window width" in a time window, and this is used as input to calculate the difference between the normal state and The determining unit 135 may determine whether the predetermined distance is away using the method described above.

〔4-2.実施形態1の処理手順〕
次に、実施形態1における情報処理装置100の情報処理方法の手順について、図11を用いて説明する。まず、操作対象10は、運転データDb(説明変数)を収集する(ステップS101)。次に、判定部135は、異常検知アルゴリズム(例えば、PCA等を利用したもの)を用いて、運転データDb(説明変数)に生じる状態変化を判定する(ステップS102)。
[4-2. Processing procedure of Embodiment 1]
Next, the procedure of the information processing method of the information processing apparatus 100 in the first embodiment will be described using FIG. 11. First, the operation target 10 collects driving data Db (explanatory variable) (step S101). Next, the determination unit 135 determines a state change occurring in the driving data Db (explanatory variable) using an abnormality detection algorithm (for example, one using PCA or the like) (step S102).

判定部135は、運転データDb(説明変数)に生じる変化が所定の範囲に含まれないと判定する(ステップS103のNo)。その場合、判定部135は、自動運転を停止する判定を行う(ステップS104)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS105)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS106)、工程が終了する。 The determination unit 135 determines that the change occurring in the driving data Db (explanatory variable) is not included in the predetermined range (No in step S103). In that case, the determination unit 135 determines to stop automatic operation (step S104). Then, the stopping unit 136 stops automatic operation based on the determination by the determining unit 135 (step S105). Subsequently, the display unit 137 displays to the user U that the automatic operation has stopped (step S106), and the process ends.

他方、判定部135は、運転データDb(説明変数)に生じる状態変化が所定の範囲に含まれると判定する(ステップS103のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the state change occurring in the driving data Db (explanatory variable) is included in a predetermined range (Yes in step S103). In that case, the process returns and processing continues.

〔5.実施形態2:推奨値による判定〕
次に、実施形態2として「推奨値による判定」について説明する。操作対象10の自動運転の精度低下発生時に、推奨値RDが変動する場合がある。そこで、実施形態2の判定部135は、推奨値RDが所定の範囲(例えば、最大最小閾値等)に存在するか否かに基づいて、自動運転の停止を判定する。
[5. Embodiment 2: Judgment based on recommended values]
Next, "determination based on recommended values" will be described as a second embodiment. When the accuracy of automatic operation of the operation target 10 decreases, the recommended value RD may change. Therefore, the determination unit 135 of the second embodiment determines whether or not the automatic driving should be stopped based on whether the recommended value RD is within a predetermined range (for example, maximum or minimum threshold value, etc.).

〔5-1.実施形態2の情報処理装置の構成〕
実施形態2における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[5-1. Configuration of information processing device of embodiment 2]
The device configuration of the information processing device 100 in the second embodiment is the same as that in the above-described embodiment. Therefore, in this section, only the additional functions of the determination unit 135 will be explained as a difference, and detailed explanations other than that will be omitted.

(判定部135)
実施形態2における判定部135は、所定の条件として、操作対象10の運転に関する履歴データDaを用いた学習モデル20に基づき推論される推奨値RDが、最大最小閾値の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、最大最小閾値の範囲について必要に応じて任意の範囲を設定してよい。また、判定部135は、その他の判定方法として、例えば、従来の操作量(真値)を学習データとしてモデルを学習して異常検知を行う方法や、discriminatorまたは異常検知アルゴリズムを用いて従来の操作量(真値)か推奨値RDかを識別する分類を行う方法、等を用いてもよい。
(Determination unit 135)
The determination unit 135 in the second embodiment determines, as a predetermined condition, that the recommended value RD inferred based on the learning model 20 using the historical data Da regarding the driving of the operation target 10 is not included in the range of maximum and minimum threshold values. Determine whether to stop automatic driving. Note that the determination unit 135 may set an arbitrary range for the maximum and minimum threshold values as necessary. In addition, the determination unit 135 may perform other determination methods, such as a conventional method of learning a model using the amount of operation (true value) as learning data to perform anomaly detection, or a method of performing conventional operation using a discriminator or an anomaly detection algorithm. A classification method for identifying whether the amount (true value) or the recommended value RD, etc. may be used.

〔5-2.実施形態2の処理手順〕
次に、実施形態2における情報処理装置100の情報処理方法の手順について、図12を用いて説明する。まず、操作対象10は、運転データDbを収集する(ステップS201)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS202)。
[5-2. Processing procedure of Embodiment 2]
Next, the procedure of the information processing method of the information processing apparatus 100 in the second embodiment will be described using FIG. 12. First, the operation target 10 collects driving data Db (step S201). Next, the acquisition unit 131 uses the history search key to acquire history data Da similar to the driving data Db at the time of operation of the operation target 10 from the history data storage unit 121 (step S202).

学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS203)。続けて、更新部133は、学習モデル20を更新する(ステップS204)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS205)。 The learning unit 132 performs learning of the learning model 20 using the similar history data Da acquired by the acquisition unit 131 (step S203). Subsequently, the updating unit 133 updates the learning model 20 (step S204). Then, the inference unit 134 infers the recommended value RD based on the updated learning model 20 inputting the driving data Db (explanatory variable) (step S205).

判定部135は、推論された推奨値RDが所定の範囲(例えば、最大最小閾値等)に含まれないと判定する(ステップS206のNo)。その場合、判定部135は、自動運転を停止する判定を行う(ステップS207)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS208)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS209)、工程が終了する。 The determining unit 135 determines that the inferred recommended value RD is not included in a predetermined range (for example, maximum/minimum threshold value, etc.) (No in step S206). In that case, the determination unit 135 determines to stop automatic operation (step S207). Then, the stopping unit 136 stops automatic operation based on the determination by the determining unit 135 (step S208). Subsequently, the display unit 137 displays to the user U that the automatic operation has stopped (step S209), and the process ends.

他方、判定部135は、推論された推奨値RDが所定の範囲(例えば、最大最小閾値等)に含まれると判定する(ステップS206のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the inferred recommended value RD is included in a predetermined range (for example, maximum and minimum threshold values, etc.) (Yes in step S206). In that case, the process returns and processing continues.

〔6.実施形態3:推奨値の変化率による判定〕
次に、実施形態3として「推奨値の変化率による判定」について説明する。操作対象10の自動運転の精度低下発生時に、推奨値RDについても変動する場合がある。そこで、実施形態3の判定部135は、推奨値RDの所定の期間における変化率が所定の範囲(例えば、差分変化量閾値等)に存在するか否かに基づいて、自動運転の停止を判定する。
[6. Embodiment 3: Judgment based on rate of change in recommended value]
Next, as Embodiment 3, "determination based on rate of change in recommended value" will be described. When the accuracy of automatic operation of the operation target 10 decreases, the recommended value RD may also change. Therefore, the determination unit 135 of the third embodiment determines whether or not automatic driving should be stopped based on whether the rate of change of the recommended value RD in a predetermined period is within a predetermined range (for example, a differential change amount threshold, etc.). do.

〔6-1.実施形態3の情報処理装置の構成〕
実施形態3における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[6-1. Configuration of information processing device of embodiment 3]
The device configuration of the information processing device 100 in Embodiment 3 is the same as in the above-described embodiments. Therefore, in this section, only the additional functions of the determination unit 135 will be explained as a difference, and detailed explanations other than that will be omitted.

(判定部135)
実施形態3における判定部135は、所定の条件として、操作対象10の運転に関する履歴データDaを用いた学習モデル20に基づき推論される推奨値RDの変化率が、差分変化量閾値の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、差分変化量閾値の範囲について必要に応じて任意の範囲を設定してよい。また、判定部135は、その他の判定方法として、例えば、従来の操作量(真値)を学習データとしてモデルを学習して異常検知を行う方法や、discriminatorまたは異常検知アルゴリズムを用いて従来の操作量(真値)か推奨値RDかを識別する分類を行う方法、等を用いてもよい。
(Determination unit 135)
The determination unit 135 in the third embodiment determines, as a predetermined condition, that the rate of change in the recommended value RD inferred based on the learning model 20 using the historical data Da regarding the driving of the operation target 10 is included in the range of the difference change amount threshold. determines whether to stop automatic operation if the Note that the determination unit 135 may set an arbitrary range for the difference change amount threshold value as necessary. In addition, the determination unit 135 may perform other determination methods, such as a conventional method of learning a model using the amount of operation (true value) as learning data to perform anomaly detection, or a method of performing conventional operation using a discriminator or an anomaly detection algorithm. A classification method for identifying whether the amount (true value) or the recommended value RD, etc. may be used.

〔6-2.実施形態3の処理手順〕
次に、実施形態3における情報処理装置100の情報処理方法の手順について、図13を用いて説明する。まず、操作対象10は、運転データDbを収集する(ステップS301)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS302)。
[6-2. Processing procedure of Embodiment 3]
Next, the procedure of the information processing method of the information processing apparatus 100 in the third embodiment will be described using FIG. 13. First, the operation target 10 collects driving data Db (step S301). Next, the acquisition unit 131 uses the history search key to acquire history data Da similar to the driving data Db at the time of operation of the operation target 10 from the history data storage unit 121 (step S302).

学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS303)。続けて、更新部133は、学習モデル20を更新する(ステップS304)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS305)。 The learning unit 132 performs learning of the learning model 20 using the similar history data Da acquired by the acquisition unit 131 (step S303). Subsequently, the updating unit 133 updates the learning model 20 (step S304). Then, the inference unit 134 infers the recommended value RD based on the updated learning model 20 inputting the driving data Db (explanatory variable) (step S305).

判定部135は、推論された推奨値RDの所定の期間における変化率が所定の範囲(例えば、差分変化量閾値等)に含まれないと判定する(ステップS306のNo)。その場合、判定部135は、自動運転を停止する判定をする(ステップS307)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS308)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS309)、工程が終了する。 The determination unit 135 determines that the rate of change of the inferred recommended value RD in a predetermined period is not included in a predetermined range (for example, a difference change amount threshold, etc.) (No in step S306). In that case, the determination unit 135 determines to stop automatic operation (step S307). Then, the stopping unit 136 stops automatic operation based on the determination by the determining unit 135 (step S308). Subsequently, the display unit 137 displays to the user U that the automatic operation has stopped (step S309), and the process ends.

他方、判定部135は、推論された推奨値RDの所定の期間における変化率が所定の範囲(例えば、差分変化量閾値等)に含まれると判定する(ステップS306のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the rate of change of the inferred recommended value RD in a predetermined period is included in a predetermined range (for example, a difference change amount threshold, etc.) (Yes in step S306). In that case, the process returns and processing continues.

〔7.実施形態4:アンサンブル分散閾値による判定〕
次に、実施形態4として「アンサンブル分散閾値による判定」について説明する。操作対象10の自動運転の精度低下発生時に、更新された複数の学習モデル20に基づき推論される複数の推奨値RDの分散が大きくなる場合がある。そこで、実施形態4の判定部135は、複数の学習モデル20に基づき推論される複数の推奨値RDの分散について、前述の分散が所定の閾値(例えば、アンサンブルモデルの分散閾値等)を超えるか否かに基づいて、自動運転の停止を判定する。
[7. Embodiment 4: Judgment based on ensemble variance threshold]
Next, as Embodiment 4, "determination based on ensemble variance threshold" will be described. When the accuracy of automatic driving of the operation target 10 decreases, the variance of the plurality of recommended values RD inferred based on the plurality of updated learning models 20 may increase. Therefore, the determination unit 135 of the fourth embodiment determines whether the variance of the plurality of recommended values RD inferred based on the plurality of learning models 20 exceeds a predetermined threshold (for example, the variance threshold of an ensemble model, etc.). Based on whether or not the automatic operation is stopped, it is determined whether the automatic operation is to be stopped or not.

〔7-1.実施形態4の情報処理装置の構成〕
実施形態4における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[7-1. Configuration of information processing device of embodiment 4]
The device configuration of the information processing device 100 in the fourth embodiment is the same as that in the above-described embodiments. Therefore, in this section, only the additional functions of the determination unit 135 will be explained as a difference, and detailed explanations other than that will be omitted.

(判定部135)
実施形態4における判定部135は、所定の条件として、操作対象10の運転に関する履歴データDaを用いた複数の学習モデル20に基づき推論される複数の推奨値RDの分散が所定の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、前述の所定の範囲について必要に応じて任意の範囲を設定してよい。
(Determination unit 135)
The determination unit 135 in the fourth embodiment determines, as a predetermined condition, that the variance of the plurality of recommended values RD inferred based on the plurality of learning models 20 using the historical data Da regarding the driving of the operation target 10 is included in a predetermined range. If not, determine whether to stop automatic operation. Note that the determination unit 135 may set any range as necessary for the above-mentioned predetermined range.

〔7-2.実施形態4の処理手順〕
次に、実施形態4における情報処理装置100の情報処理方法の手順について、図14を用いて説明する。なお、本項目では学習モデル20および学習モデル20に基づき推論される推奨値RDが複数存在する前提で説明を行う。また、実施形態4以外の実施形態(実施形態1から実施形態3および後述の実施形態5と実施形態6)についても、複数の学習モデル20および推奨値RDが存在していてもよい。
[7-2. Processing procedure of Embodiment 4]
Next, the procedure of the information processing method of the information processing apparatus 100 in the fourth embodiment will be described using FIG. 14. Note that this item will be explained on the assumption that there are a plurality of learning models 20 and a plurality of recommended values RD inferred based on the learning models 20. Further, in embodiments other than the fourth embodiment (Embodiments 1 to 3 and Embodiments 5 and 6 described later), a plurality of learning models 20 and recommended values RD may exist.

まず、操作対象10は、運転データDbを収集する(ステップS401)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS402)。 First, the operation target 10 collects driving data Db (step S401). Next, the acquisition unit 131 uses the history search key to acquire history data Da similar to the driving data Db at the time of operation of the operation target 10 from the history data storage unit 121 (step S402).

学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS403)。続けて、更新部133は、複数の学習モデル20を更新する(ステップS404)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS405)。 The learning unit 132 performs learning of the learning model 20 using the similar history data Da acquired by the acquisition unit 131 (step S403). Subsequently, the updating unit 133 updates the plurality of learning models 20 (step S404). Then, the inference unit 134 infers the recommended value RD based on the updated learning model 20 inputting the driving data Db (explanatory variable) (step S405).

判定部135は、学習モデル20の分散が所定の範囲に含まれない、言い換えると複数の学習モデル20に基づき推論される複数の推奨値RDの分散について、前述の分散が所定の閾値(例えば、アンサンブルモデルの分散閾値等)を超えると判定する(ステップS406のNo)。その場合、判定部135は、自動運転を停止する判定をする(ステップS407)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS408)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS409)、工程が終了する。 If the variance of the learning model 20 is not included in the predetermined range, in other words, the variance of the plurality of recommended values RD inferred based on the plurality of learning models 20, the determination unit 135 determines that the above-mentioned variance is within a predetermined threshold (for example, variance threshold of the ensemble model, etc.) is exceeded (No in step S406). In that case, the determination unit 135 determines to stop automatic operation (step S407). Then, the stopping unit 136 stops automatic operation based on the determination by the determining unit 135 (step S408). Subsequently, the display unit 137 displays to the user U that the automatic operation has stopped (step S409), and the process ends.

他方、判定部135は、学習モデル20の分散が所定の範囲に含まれる、言い換えると複数の学習モデル20に基づき推論される複数の推奨値RDの分散について、前述の分散が所定の閾値(例えば、アンサンブルモデルの分散閾値等)を超えない判定する(ステップS406のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the variance of the learning model 20 is within a predetermined range, in other words, the variance of the plurality of recommended values RD inferred based on the plurality of learning models 20 is determined to be within a predetermined threshold (e.g. , ensemble model variance threshold, etc.) (Yes in step S406). In that case, the process returns and processing continues.

〔8.実施形態5:推奨値の予測分散による判定〕
次に、実施形態5として「推奨値の予測分散による判定」について説明する。操作対象10の自動運転の精度低下発生時に、推論部134が推論する推奨値RDが事後分布を有している場合、推奨値RDの予測分散が大きくなる場合がある。そこで、実施形態5の判定部135は、前述の推奨値RDの事後分布の予測分散が所定の閾値(例えば、予測分散閾値等)を超えるか否かに基づいて、自動運転の停止を判定する。
[8. Embodiment 5: Judgment based on predicted variance of recommended values]
Next, as a fifth embodiment, "determination based on predicted variance of recommended values" will be described. If the recommended value RD inferred by the inference unit 134 has a posterior distribution when the accuracy of automatic driving of the operation target 10 decreases, the predicted variance of the recommended value RD may become large. Therefore, the determination unit 135 of the fifth embodiment determines whether to stop automatic driving based on whether the predicted variance of the posterior distribution of the recommended value RD described above exceeds a predetermined threshold (for example, a predicted variance threshold, etc.). .

〔8-1.実施形態5の情報処理装置の構成〕
実施形態5における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[8-1. Configuration of information processing device of embodiment 5]
The device configuration of the information processing device 100 in the fifth embodiment is the same as that in the above-described embodiments. Therefore, in this section, only the additional functions of the determination unit 135 will be explained as a difference, and detailed explanations other than that will be omitted.

(判定部135)
実施形態5における判定部135は、操作対象10の運転に関する履歴データDaを用いた学習モデル20に基づき推論される推奨値RDが事後分布を有する場合、所定の条件として、推奨値RDの予測分散が所定の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、前述の所定の範囲について必要に応じて任意の範囲を設定してよい。
(Determination unit 135)
When the recommended value RD inferred based on the learning model 20 using the historical data Da regarding the driving of the operation target 10 has a posterior distribution, the determination unit 135 in the fifth embodiment determines, as a predetermined condition, the predicted variance of the recommended value RD. If the value is not within a predetermined range, a determination is made to stop automatic operation. Note that the determination unit 135 may set any range as necessary for the above-mentioned predetermined range.

〔8-2.実施形態5の処理手順〕
次に、実施形態5における情報処理装置100の情報処理方法の手順について、図15を用いて説明する。なお、実施形態5の処理手順において、推論される推奨値RDは事後分布を有する前提で説明を行う。
[8-2. Processing procedure of Embodiment 5]
Next, the procedure of the information processing method of the information processing apparatus 100 in the fifth embodiment will be described using FIG. 15. Note that in the processing procedure of the fifth embodiment, the explanation will be given on the premise that the inferred recommended value RD has a posterior distribution.

まず、操作対象10は、運転データDbを収集する(ステップS501)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS502)。 First, the operation target 10 collects driving data Db (step S501). Next, the acquisition unit 131 uses the history search key to acquire history data Da similar to the driving data Db at the time of operation of the operation target 10 from the history data storage unit 121 (step S502).

学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS503)。続けて、更新部133は、学習モデル20を更新する(ステップS504)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS505)。 The learning unit 132 performs learning of the learning model 20 using the similar history data Da acquired by the acquisition unit 131 (step S503). Subsequently, the updating unit 133 updates the learning model 20 (step S504). Then, the inference unit 134 infers the recommended value RD based on the updated learning model 20 inputting the driving data Db (explanatory variable) (step S505).

判定部135は、推奨値RDの事後分布の予測分散が所定の範囲に含まれない、言い換えると推奨値RDの事後分布の予測分散が所定の閾値(例えば、予測分散閾値等)を超えると判定する(ステップS506のNo)。その場合、判定部135は、自動運転を停止する判定をする(ステップS507)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS508)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS509)、工程が終了する。 The determination unit 135 determines that the predicted variance of the posterior distribution of the recommended value RD is not included in a predetermined range, in other words, the predicted variance of the posterior distribution of the recommended value RD exceeds a predetermined threshold (for example, a predicted variance threshold). (No in step S506). In that case, the determination unit 135 determines to stop automatic operation (step S507). Then, the stopping unit 136 stops automatic operation based on the determination by the determining unit 135 (step S508). Subsequently, the display unit 137 displays to the user U that the automatic operation has stopped (step S509), and the process ends.

他方、判定部135は、推奨値RDの事後分布の予測分散が所定の範囲に含まれる、言い換えると推奨値RDの事後分布の予測分散が所定の閾値(例えば、予測分散閾値等)を超えない判定する(ステップS506のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the predicted variance of the posterior distribution of the recommended value RD is included in a predetermined range, in other words, the predicted variance of the posterior distribution of the recommended value RD does not exceed a predetermined threshold (for example, a predicted variance threshold). Determination is made (Yes in step S506). In that case, the process returns and processing continues.

〔9.実施形態6:操作対象の評価指標による判定〕
次に、実施形態6として「操作対象の評価指標による判定」について説明する。操作対象10の自動運転の精度低下発生時に、操作対象10の評価指標(例えば、操作対象10の生産量、安定度等)が変動する場合がある。そこで、実施形態6の判定部135は、操作対象10の評価指標が所定の閾値(例えば、評価指標閾値等)を超えるか否かに基づいて、自動運転の停止を判定する。
[9. Embodiment 6: Judgment based on evaluation index of operation target]
Next, as Embodiment 6, "determination based on evaluation index of operation target" will be described. When the accuracy of automatic operation of the operation object 10 decreases, the evaluation index of the operation object 10 (for example, the production amount, stability, etc. of the operation object 10) may change. Therefore, the determination unit 135 of the sixth embodiment determines whether to stop automatic driving based on whether or not the evaluation index of the operation target 10 exceeds a predetermined threshold (for example, an evaluation index threshold).

〔9-1.実施形態6の情報処理装置の構成〕
実施形態6における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[9-1. Configuration of information processing device of embodiment 6]
The device configuration of the information processing device 100 in Embodiment 6 is the same as in the above-described embodiments. Therefore, in this section, only the additional functions of the determination unit 135 will be explained as differences, and other detailed explanations will be omitted.

(判定部135)
実施形態6における判定部135は、所定の条件として、操作対象10の評価指標が所定の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、前述の所定の範囲について必要に応じて任意の範囲を設定してよい。
(Determination unit 135)
The determination unit 135 in the sixth embodiment determines to stop automatic driving when the evaluation index of the operation target 10 is not included in a predetermined range as a predetermined condition. Note that the determination unit 135 may set any range as necessary for the above-mentioned predetermined range.

〔9-2.実施形態6の処理手順〕
次に、実施形態6における情報処理装置100の情報処理方法の手順について、図16を用いて説明する。まず、操作対象10は、運転データDbを収集する(ステップS601)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS602)。
[9-2. Processing procedure of Embodiment 6]
Next, the procedure of the information processing method of the information processing apparatus 100 in the sixth embodiment will be described using FIG. 16. First, the operation target 10 collects driving data Db (step S601). Next, the acquisition unit 131 uses the history search key to acquire history data Da similar to the driving data Db at the time of operation of the operation target 10 from the history data storage unit 121 (step S602).

学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS603)。続けて、更新部133は、学習モデル20を更新する(ステップS604)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS605)。その後、自動運転制御部138は、推論される推奨値RDを用いて自動運転を実施する(ステップS606)。 The learning unit 132 performs learning of the learning model 20 using the similar history data Da acquired by the acquisition unit 131 (step S603). Subsequently, the updating unit 133 updates the learning model 20 (step S604). Then, the inference unit 134 infers the recommended value RD based on the updated learning model 20 inputting the driving data Db (explanatory variable) (step S605). Thereafter, the automatic driving control unit 138 performs automatic driving using the inferred recommended value RD (step S606).

判定部135は、自動運転の結果得られる操作対象10の評価指標が所定の範囲に含まれない、言い換えると操作対象10の評価指標が所定の閾値(例えば、評価指標閾値等)を超えると判定する(ステップS607のNo)。その場合、判定部135は、自動運転を停止する判定をする(ステップS608)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS609)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS610)、工程が終了する。 The determination unit 135 determines that the evaluation index of the operation target 10 obtained as a result of automatic driving is not included in a predetermined range, in other words, the evaluation index of the operation target 10 exceeds a predetermined threshold (for example, an evaluation index threshold). (No in step S607). In that case, the determination unit 135 determines to stop automatic operation (step S608). Then, the stopping unit 136 stops automatic operation based on the determination by the determining unit 135 (step S609). Subsequently, the display unit 137 displays to the user U that the automatic operation has stopped (step S610), and the process ends.

他方、判定部135は、操作対象10の評価指標が所定の範囲に含まれる、言い換えると操作対象10の評価指標が所定の閾値(例えば、評価指標閾値等)を超えないと判定する(ステップS607のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the evaluation index of the operation target 10 is included in a predetermined range, in other words, the evaluation index of the operation target 10 does not exceed a predetermined threshold (for example, an evaluation index threshold) (step S607 (Yes). In that case, the process returns and processing continues.

〔10.効果〕
従来技術では、ユーザUは、運転データDbを入力とする学習モデル20に基づき推論される推奨値RDを用いて、操作対象10を手動で操作する。ここで、図17を用いて、従来技術による推奨値RDの提示と、ユーザUによる操作対象10の手動操作について説明を行う。
[10. effect〕
In the prior art, the user U manually operates the operation target 10 using the recommended value RD inferred based on the learning model 20 inputting the driving data Db. Here, presentation of the recommended value RD according to the prior art and manual operation of the operation target 10 by the user U will be explained using FIG. 17.

図17では、従来技術における情報処理装置1は、操作対象10の運転データDb(例えば、温度、圧力、流量、原料投入量、生成量等)と類似または関係する過去の履歴データDa(例えば、温度、圧力、流量、原料投入量、生成量等、ユーザによる操作履歴等)を用いて学習モデル20を学習する(図17の(1)を参照)。次に、情報処理装置1は、運転データDbを入力とする(図17の(2)を参照)、前述の学習モデル20に基づき推論される推奨値RDをガイダンス画面30に表示し、ユーザUに対してレコメンドする(図17の(3)を参照)。そして、ユーザUは、情報処理装置1からの表示に基づき、手動で操作対象10を操作する(図17の(4)を参照)。 In FIG. 17, the information processing device 1 according to the prior art has past historical data Da (for example, The learning model 20 is trained using the user's operation history (temperature, pressure, flow rate, raw material input amount, production amount, etc.) (see (1) in FIG. 17). Next, the information processing device 1 displays, on the guidance screen 30, the recommended value RD inferred based on the above-described learning model 20, which takes the driving data Db as input (see (2) in FIG. 17), and displays the recommended value RD for the user U. (See (3) in FIG. 17). The user U then manually operates the operation target 10 based on the display from the information processing device 1 (see (4) in FIG. 17).

前述したように、従来技術では、ユーザUが提示される推奨値RDに基づいて操作対象10を手動操作するため、推奨値RDの精度が変化した際でも、ユーザU自身が運転の継続または停止判断を行うことが可能であった。しかしながら、ユーザUを介さない自動運転時に推奨値RDの精度判定を行うことが難しく、推奨値RDの精度が変化した場合でも適切なタイミングで手動運転への切り替えを判断することが難しい場合があった。 As described above, in the conventional technology, the user U manually operates the operation target 10 based on the recommended value RD that is presented, so even when the accuracy of the recommended value RD changes, the user U himself or herself cannot continue or stop operation. It was possible to make a judgment. However, it is difficult to judge the accuracy of the recommended value RD during automatic operation without the intervention of the user U, and even if the accuracy of the recommended value RD changes, it may be difficult to determine whether to switch to manual operation at an appropriate timing. Ta.

そこで、本実施形態における情報処理装置100は、操作対象10の自動運転の精度に関するデータが所定の条件を満たす場合に、操作対象10の自動運転の稼働についての判定を行い、判定部135の判定結果に基づき、操作対象10の自動運転を停止する。そのため、本実施形態によれば情報処理装置100は、下記の効果を奏する。 Therefore, the information processing device 100 in the present embodiment makes a determination regarding the operation of automatic driving of the operating target 10 when the data regarding the accuracy of automatic driving of the operating target 10 satisfies a predetermined condition, and determines the determination by the determining unit 135. Based on the result, automatic operation of the operation target 10 is stopped. Therefore, according to this embodiment, the information processing device 100 has the following effects.

情報処理装置100は、操作対象10の自動運転の精度が変化した場合における手動運転への切り替えのタイミングの判断を容易とする、という効果を奏する。 The information processing device 100 has the effect of making it easier to determine the timing of switching to manual operation when the accuracy of automatic operation of the operation target 10 changes.

さらに、情報処理装置100は、操作対象10の運転に関するデータに基づいて、動的に自動運転の継続可否を判定することにより、ユーザUの経験や熟練度、スキル等に左右されずに自動運転の停止を行うことで、安全な自動運転の停止が可能となる、という効果を奏する。 Furthermore, the information processing device 100 dynamically determines whether or not automatic driving can be continued based on data related to the driving of the operation target 10, so that automatic driving can be performed without being influenced by user U's experience, proficiency level, skill, etc. This has the effect of making it possible to safely stop automatic driving.

〔11.ハードウェア構成〕
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[11. Hardware configuration]
Each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware using wired logic.

また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を公知の方法で手動的に行うこともできる。この他、図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in this embodiment, all or part of the processes described as being performed automatically can also be performed manually by a known method. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the drawings can be arbitrarily changed unless otherwise specified.

[プログラム]
一実施形態として、情報処理装置100は、パッケージソフトウェアやオンラインソフトウェアとして、前述した情報処理方法を実行する情報処理プログラムを、所望のコンピュータにインストールさせることによって実装できる。例えば、上記の情報処理プログラムを情報処理装置に実行させることにより、情報処理装置100として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
[program]
As one embodiment, the information processing apparatus 100 can be implemented by installing an information processing program that executes the above-described information processing method on a desired computer as package software or online software. For example, by causing the information processing apparatus to execute the above information processing program, the information processing apparatus can function as the information processing apparatus 100. The information processing device referred to here includes a desktop or notebook personal computer. In addition, information processing devices include mobile communication terminals such as smartphones and mobile phones, and slate terminals such as PDAs (Personal Digital Assistants).

図18は、情報処理装置100が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。 FIG. 18 is a diagram illustrating an example of a computer on which the information processing device 100 is implemented. Computer 1000 includes, for example, a memory 1010 and a CPU 1020. The computer 1000 also includes a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These parts are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。 Memory 1010 includes ROM (Read Only Memory) 1011 and RAM 1012. The ROM 1011 stores, for example, a boot program such as BIOS (Basic Input Output System). Hard disk drive interface 1030 is connected to hard disk drive 1090. Disk drive interface 1040 is connected to disk drive 1100. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into disk drive 1100. Serial port interface 1050 is connected to, for example, mouse 1110 and keyboard 1120. Video adapter 1060 is connected to display 1130, for example.

ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、情報処理装置100の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、情報処理装置100における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。 The hard disk drive 1090 stores, for example, an OS 1091, application programs 1092, program modules 1093, and program data 1094. That is, a program that defines each process of the information processing apparatus 100 is implemented as a program module 1093 in which computer-executable code is written. Program module 1093 is stored in hard disk drive 1090, for example. For example, a program module 1093 for executing processing similar to the functional configuration of the information processing apparatus 100 is stored in the hard disk drive 1090. Note that the hard disk drive 1090 may be replaced by an SSD (Solid State Drive).

また、前述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、前述した実施形態の処理を実行する。 Further, the setting data used in the processing of the embodiment described above is stored as program data 1094 in, for example, the memory 1010 or the hard disk drive 1090. Then, the CPU 1020 reads out the program module 1093 and program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 as necessary, and executes the processing of the embodiment described above.

なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093およびプログラムデータ1094は、ネットワーク(LAN、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093およびプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。 Note that the program module 1093 and the program data 1094 are not limited to being stored in the hard disk drive 1090, but may be stored in a removable storage medium, for example, and read by the CPU 1020 via the disk drive 1100 or the like. Alternatively, program module 1093 and program data 1094 may be stored in another computer connected via a network (LAN, WAN (Wide Area Network), etc.). Program module 1093 and program data 1094 may then be read by CPU 1020 from another computer via network interface 1070.

〔12.その他〕
以上、本実施形態について説明したが、本実施形態は、開示の一部をなす記述および図面により限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本実施形態の範疇に含まれる。
[12. others〕
Although this embodiment has been described above, this embodiment is not limited by the description and drawings that form part of the disclosure. That is, all other embodiments, examples, operational techniques, etc. made by those skilled in the art based on this embodiment are included in the scope of this embodiment.

1 情報処理装置
10 操作対象
10a 操作対象
10b 操作対象
20 学習モデル
30 ガイダンス画面
100 情報処理装置
110 通信部
120 記憶部
121 履歴データ記憶部
122 モデル記憶部
123 推奨値記憶部
130 制御部
131 取得部
132 学習部
133 更新部
134 推論部
135 判定部
136 停止部
137 表示部
138 自動運転制御部
U ユーザ
Da 履歴データ
Db 運転データ
RD 推奨値
SA 画面
SB 画面
SC1 表示
SC2 表示
SC3 表示
SC4 表示
1000 コンピュータ
1010 メモリ
1011 ROM
1012 RAM
1020 CPU
1030 ハードディスクドライブインタフェース
1040 ディスクドライブインタフェース
1050 シリアルポートインタフェース
1060 ビデオアダプタ
1070 ネットワークインタフェース
1080 バス
1090 ハードディスクドライブ
1091 OS
1092 アプリケーションプログラム
1093 プログラムモジュール
1094 プログラムデータ
1100 ディスクドライブ
1110 マウス
1120 キーボード
1 Information processing device 10 Operation target 10a Operation target 10b Operation target 20 Learning model 30 Guidance screen 100 Information processing device 110 Communication unit 120 Storage unit 121 History data storage unit 122 Model storage unit 123 Recommended value storage unit 130 Control unit 131 Acquisition unit 132 Learning unit 133 Update unit 134 Inference unit 135 Judgment unit 136 Stop unit 137 Display unit 138 Automatic operation control unit U User Da History data Db Driving data RD Recommended value SA Screen SB Screen SC1 Display SC2 Display SC3 Display SC4 Display 1000 Computer 1010 Memory 1011 ROM
1012 RAM
1020 CPU
1030 Hard disk drive interface 1040 Disk drive interface 1050 Serial port interface 1060 Video adapter 1070 Network interface 1080 Bus 1090 Hard disk drive 1091 OS
1092 Application program 1093 Program module 1094 Program data 1100 Disk drive 1110 Mouse 1120 Keyboard

Claims (8)

操作対象の自動運転の精度に関するデータが所定の条件を満たす場合に、前記操作対象の操作対象の自動運転の稼働についての判定をする判定部と、
前記判定部の判定結果に基づき、前記操作対象の自動運転を停止する停止部と、
を有し、
前記判定部は、前記所定の条件として、前記操作対象の運転に関する履歴データを用いた複数の学習モデルに基づき推論される複数の推奨値の分散が所定の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする情報処理装置。
a determination unit that determines the operation of the automatic driving of the operation target when data regarding the accuracy of the automatic driving of the operation target satisfies a predetermined condition;
a stop unit that stops automatic operation of the operation target based on a determination result of the determination unit;
has
As the predetermined condition, the determination unit determines whether the automatic driving is performed when the variance of a plurality of recommended values inferred based on a plurality of learning models using historical data regarding driving of the operation target is not within a predetermined range. determine whether to stop,
An information processing device characterized by:
前記判定部は、前記所定の条件として、前記操作対象の運転の状況を表す説明変数についての異常検知の結果に基づき、前記説明変数に所定の変化が発生する場合に前記自動運転の停止の判定をする、
ことを特徴とする請求項1に記載の情報処理装置。
The determination unit determines whether to stop the automatic driving when a predetermined change occurs in the explanatory variable, as the predetermined condition, based on the result of abnormality detection regarding the explanatory variable representing the driving situation of the operation target. do,
The information processing device according to claim 1, characterized in that:
前記判定部は、前記所定の条件として、前記操作対象の運転に関する履歴データを用いた学習モデルに基づき推論される推奨値が、最大最小閾値の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする請求項1に記載の情報処理装置。
The determination unit determines, as the predetermined condition, that the automatic driving is stopped when a recommended value inferred based on a learning model using historical data regarding driving of the operation target is not included in a range of maximum and minimum threshold values. make a judgment,
The information processing device according to claim 1, characterized in that:
前記判定部は、前記所定の条件として、前記操作対象の運転に関する履歴データを用いた学習モデルに基づき推論される推奨値の変化率が、差分変化量閾値の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする請求項1に記載の情報処理装置。
As the predetermined condition, the determination unit may perform the automatic operation when a rate of change in the recommended value inferred based on a learning model using historical data regarding driving of the operation target is not included in a range of a difference change amount threshold. Judging whether to stop driving,
The information processing device according to claim 1, characterized in that:
前記判定部は、前記操作対象の運転に関する履歴データを用いた学習モデルに基づき推論される推奨値が事後分布を有する場合、前記所定の条件として、前記推奨値の予測分散が所定の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする請求項1に記載の情報処理装置。
When the recommended value inferred based on a learning model using historical data regarding driving of the operation target has a posterior distribution, the determining unit determines, as the predetermined condition, that a predicted variance of the recommended value is within a predetermined range. determining whether to stop the automatic operation if the automatic operation does not occur;
The information processing device according to claim 1, characterized in that:
前記判定部は、前記所定の条件として、前記操作対象の評価指標が所定の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする請求項1に記載の情報処理装置。
The determination unit determines to stop the automatic operation when the evaluation index of the operation target is not included in a predetermined range as the predetermined condition.
The information processing device according to claim 1, characterized in that:
情報処理装置により実行される情報処理方法であって、
操作対象の自動運転の精度に関するデータが所定の条件を満たす場合に、前記操作対象の自動運転の稼働についての判定をする判定工程と、
前記判定工程の判定結果に基づき、前記操作対象の自動運転を停止する停止工程と、
を含み、
前記判定工程は、前記所定の条件として、前記操作対象の運転に関する履歴データを用いた複数の学習モデルに基づき推論される複数の推奨値の分散が所定の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする情報処理方法。
An information processing method executed by an information processing device, the method comprising:
a determination step of determining the operation of the automatic driving of the operating target when data regarding the accuracy of the automatic driving of the operating target satisfies a predetermined condition;
a stopping step of stopping automatic operation of the operation target based on the determination result of the determining step ;
including;
In the determination step, if the predetermined condition is that the automatic driving is performed when the variance of a plurality of recommended values inferred based on a plurality of learning models using historical data regarding driving of the operation target is not included in a predetermined range. determine whether to stop,
An information processing method characterized by:
操作対象の自動運転の精度に関するデータが所定の条件を満たす場合に、前記操作対象の自動運転の稼働についての判定をする判定ステップと、
前記判定ステップの判定結果に基づき、前記操作対象の自動運転を停止する停止ステップと、
をコンピュータに実行させ
前記判定ステップは、前記所定の条件として、前記操作対象の運転に関する履歴データを用いた複数の学習モデルに基づき推論される複数の推奨値の分散が所定の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする情報処理プログラム。
a determination step of determining the operation of the automatic driving of the operating target when data regarding the accuracy of the automatic driving of the operating target satisfies a predetermined condition;
a stopping step of stopping automatic operation of the operation target based on the determination result of the determining step ;
make the computer run
The determining step includes determining, as the predetermined condition, that the automatic driving is performed when the variance of the plurality of recommended values inferred based on the plurality of learning models using historical data regarding the driving of the operation target is not within a predetermined range. determine whether to stop,
An information processing program characterized by:
JP2022171830A 2022-10-26 2022-10-26 Information processing device, information processing method, and information processing program Active JP7427746B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022171830A JP7427746B1 (en) 2022-10-26 2022-10-26 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022171830A JP7427746B1 (en) 2022-10-26 2022-10-26 Information processing device, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP7427746B1 true JP7427746B1 (en) 2024-02-05

Family

ID=89771034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022171830A Active JP7427746B1 (en) 2022-10-26 2022-10-26 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7427746B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006431A (en) 2019-06-28 2021-01-21 日産自動車株式会社 Driving support method and driving support device
JP2021042948A (en) 2019-09-09 2021-03-18 株式会社タクマ Combustion abnormality prediction device, combustion abnormality prediction program, combustion control system, combustion abnormality prediction method, abnormality prediction program generation method and abnormality avoidance means prediction program generation method
WO2021065559A1 (en) 2019-10-04 2021-04-08 ソニー株式会社 Information processing device, information processing method, and information processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006431A (en) 2019-06-28 2021-01-21 日産自動車株式会社 Driving support method and driving support device
JP2021042948A (en) 2019-09-09 2021-03-18 株式会社タクマ Combustion abnormality prediction device, combustion abnormality prediction program, combustion control system, combustion abnormality prediction method, abnormality prediction program generation method and abnormality avoidance means prediction program generation method
WO2021065559A1 (en) 2019-10-04 2021-04-08 ソニー株式会社 Information processing device, information processing method, and information processing device

Similar Documents

Publication Publication Date Title
JP2017120649A (en) Machine learning method and machine learning device for learning fault condition, and fault prediction device and fault prediction system including machine learning device
JP6933899B2 (en) Plant operation support equipment, plant operation support method, and plant operation support program
CN107480028B (en) Method and device for acquiring usable residual time of disk
JP6632770B1 (en) Learning device, learning inference device, method, and program
CN110785716B (en) Instability detection device, instability detection system, and instability detection method
CN111684367B (en) Control device, control system, control method, and computer-readable storage medium
US20210088986A1 (en) Assistance device, learning device, and plant operation condition setting assistance system
JP2018190050A (en) Data processing device, data processing system, data processing method and program
Al-Dabbagh et al. Toward the advancement of decision support tools for industrial facilities: Addressing operation metrics, visualization plots, and alarm floods
JP5264796B2 (en) Plant operation support device
JP7427746B1 (en) Information processing device, information processing method, and information processing program
JPWO2020059099A1 (en) Label correction device
CN112074789B (en) Management device, management method, and recording medium
JP2004078780A (en) Method, device, and program for prediction, and recording medium recording the prediction program
JP7417691B1 (en) Information processing device, information processing method, and information processing program
JP6662222B2 (en) Abnormal state diagnostic method and abnormal state diagnostic apparatus for manufacturing process
JP6381863B2 (en) Information processing apparatus, information processing method, and information processing program
JP7443609B1 (en) Learning devices, learning methods and learning programs
JP7400064B1 (en) Learning devices, learning methods and learning programs
US20230315072A1 (en) Systems, methods, and devices for asset monitoring
CN112912903A (en) Inference device, information processing device, inference method, program, and recording medium
WO2023181232A1 (en) Model analysis device, model analysis method, and recording medium
WO2023175921A1 (en) Model analysis device, model analysis method, and recording medium
US20190164072A1 (en) Inference system, information processing system, inference method, and recording medium
US20230288915A1 (en) Information processing device, information processing method, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240124

R150 Certificate of patent or registration of utility model

Ref document number: 7427746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150