JP7427746B1 - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP7427746B1 JP7427746B1 JP2022171830A JP2022171830A JP7427746B1 JP 7427746 B1 JP7427746 B1 JP 7427746B1 JP 2022171830 A JP2022171830 A JP 2022171830A JP 2022171830 A JP2022171830 A JP 2022171830A JP 7427746 B1 JP7427746 B1 JP 7427746B1
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- driving
- automatic
- operation target
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 104
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000000034 method Methods 0.000 claims description 65
- 230000005856 abnormality Effects 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 18
- 238000011156 evaluation Methods 0.000 claims description 17
- 238000009826 distribution Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 abstract description 21
- 238000012545 processing Methods 0.000 description 24
- 238000003860 storage Methods 0.000 description 17
- 238000013500 data storage Methods 0.000 description 13
- 230000007423 decrease Effects 0.000 description 12
- 238000000513 principal component analysis Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 239000002994 raw material Substances 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
【課題】操作対象の自動運転の精度が変化した場合における手動運転への切り替えのタイミングの判断を容易にする。【解決手段】情報処理装置100は、操作対象の自動運転の精度に関するデータが所定の条件を満たす場合に、操作対象の自動運転の稼働についての判定を行い、判定結果に基づき、操作対象の自動運転を停止する。【選択図】図1An object of the present invention is to easily determine the timing of switching to manual operation when the accuracy of automatic operation to be operated changes. SOLUTION: An information processing device 100 determines the operation of automatic driving of an operating target when data regarding the accuracy of automatic driving of the operating target satisfies a predetermined condition, and based on the determination result, the information processing device 100 determines whether the automatic driving of the operating target is operating. Stop driving. [Selection diagram] Figure 1
Description
本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.
人間の行動に関する情報を用いて、人間による行動を模倣する機械学習モデルを作る、模倣学習という技術が知られている。そして、前述の模倣学習の実現方法として、例えば、教師あり学習が知られている。さらに、教師あり学習の1つの手法として、観測されたデータを大量に蓄積しておき、蓄積されたデータの中から要求点の近傍のデータを抽出し、当該抽出したデータを用いてモデルの逐次学習を行うJust-In-Time(JIT)法という技術が知られている(例えば、非特許文献1を参照)。 A known technology is imitation learning, which uses information about human behavior to create machine learning models that imitate human behavior. For example, supervised learning is known as a method for realizing the imitation learning described above. Furthermore, as a method of supervised learning, a large amount of observed data is accumulated, data in the vicinity of the required point is extracted from the accumulated data, and the extracted data is used to sequentially develop the model. A technology called the Just-In-Time (JIT) method for performing learning is known (see, for example, Non-Patent Document 1).
また、近年では運転データ等を入力とする学習モデルを用いて、操作対象となる設備や工場、プラント等の自動運転を行う技術が知られている。例えば、従来技術として、取得したデータを入力とする学習モデルを用いることで、機器の制御において実環境を対象とした最適制御を簡易かつ精度よく実行する技術が知られている(例えば、特許文献1を参照)。 Furthermore, in recent years, technology has become known for automatically operating equipment, factories, plants, etc. to be operated using learning models that input operating data and the like. For example, as a conventional technology, there is a known technology that uses a learning model that uses acquired data as input to easily and accurately execute optimal control for the real environment in device control (for example, Patent Document 1).
しかしながら、従来技術では、操作対象の自動運転の精度が変化した場合における手動運転への切り替えのタイミングの判断が困難である、という問題があった。 However, the conventional technology has a problem in that it is difficult to determine the timing to switch to manual operation when the accuracy of automatic operation to be operated changes.
具体的には、従来技術は、学習モデルに基づき推論される推奨値をユーザ(操作対象の操作や運転等を行うオペレータ等)に提示し、提示された推奨値に基づき操作対象に対してユーザが操作を行う。そのため、推奨値の精度が悪化した際には、ユーザ自身がその判定を行うことが可能であった。しかしながら、ユーザを介さない自動運転時には、推奨値の精度判定を行うことが難しく、自動運転の精度が低下した場合でも適切なタイミングで手動運転への切り替えを判断することが難しい場合があった。 Specifically, the conventional technology presents a recommended value inferred based on a learning model to a user (such as an operator who operates or drives an operation target), and then provides a user with a recommended value for the operation target based on the presented recommended value. performs the operation. Therefore, when the accuracy of the recommended value deteriorates, the user can make the determination himself/herself. However, during automatic operation without user intervention, it is difficult to judge the accuracy of recommended values, and even when the accuracy of automatic operation decreases, it is sometimes difficult to determine whether to switch to manual operation at an appropriate timing.
そこで、上記の課題を解決し目的を達成するために、本発明の情報処理装置は、操作対象の自動運転の精度に関するデータが所定の条件を満たす場合に、前記操作対象の自動運転の稼働についての判定をする判定部と、前記判定部の判定結果に基づき、前記操作対象の自動運転を停止する停止部と、を有することを特徴とする。 Therefore, in order to solve the above problems and achieve the purpose, the information processing device of the present invention provides information about the operation of automatic driving to be operated, when data regarding the accuracy of automatic driving to be operated satisfies a predetermined condition. The present invention is characterized in that it has a determination unit that makes a determination, and a stop unit that stops automatic operation of the operation target based on the determination result of the determination unit.
本発明は、操作対象の自動運転の精度が変化した場合における手動運転への切り替えのタイミングの判断を容易とする、という効果を奏する。 The present invention has the effect of making it easier to determine the timing of switching to manual operation when the accuracy of automatic operation to be operated changes.
以下、図面を参照しながら、本実施形態を実施するための形態(以下、「実施形態」)について説明する。なお、本実施形態は、以下に記載する内容に限定されない。 Hereinafter, a mode for implementing the present embodiment (hereinafter referred to as "embodiment") will be described with reference to the drawings. Note that this embodiment is not limited to the content described below.
〔1.概要〕
まず、本実施形態における情報処理装置100による情報処理の概要を、図1を用いて説明する。本実施形態において情報処理装置100は、操作対象10の運転データDb(例えば、温度、圧力、流量、原料投入量、生成量等)と類似、または関係する過去の履歴データDa(例えば、温度、圧力、流量、原料投入量、生成量等、ユーザによる操作履歴等)を用いて学習モデル20を学習する(図1の(1)を参照)。
[1. overview〕
First, an overview of information processing by the
次に、ユーザU(操作対象10を操作するオペレータ)は、情報処理装置100に対して、自動運転の条件を入力する(図1の(2)を参照)。情報処理装置100の自動運転制御部138は、ユーザUが入力する自動運転の条件と、運転データDbを入力とする前述の学習モデル20に基づき推論される推奨値RDを用いて、操作対象10に対して自動運転(以降は、操作対象10に対する自動運転を単に「自動運転」と表記)を実施する(図1の(3)および(4)を参照)。
Next, the user U (the operator who operates the operation target 10) inputs automatic driving conditions to the information processing device 100 (see (2) in FIG. 1). The automatic
そして、情報処理装置100は、自動運転時に操作対象10の自動運転の精度に関するデータ(例えば、推奨値、説明変数、操作対象の評価指標等)を取得し、自動運転の精度の変化を判定する。その結果、自動運転の精度が所定の許容範囲を下回っていると判定される場合、情報処理装置100は、自動運転を停止する(図1の(5)を参照)。続けて、情報処理装置100は、ユーザUに対して自動運転が停止したことを表示する(図1の(6)を参照)。そして、ユーザUは、情報処理装置100からの表示に基づき、自動運転停止後の操作対象10を手動により操作する(図1の(7)を参照)。
Then, the
〔1-1.学習モデルによる推奨値の推論〕
続いて、図1で説明した学習モデル20について、更に説明を行う。図2に示すように、情報処理装置100は、操作対象10aから運転データDbを受け付ける。次に、情報処理装置100は、受け付けた運転データDbと類似する履歴データDaを用いて推奨値RDを推論するための学習モデル20の学習(訓練)を行う。
[1-1. Inference of recommended values using learning model]
Next, the
そして、情報処理装置100は、学習(訓練)済みの学習モデル20に基づき推奨値RDの推論を行う。具体的には、情報処理装置100は、操作対象10aに対して実際にユーザUが行った操作等の情報である履歴データDaを用いて学習モデル20を学習することで、模倣学習を行う。その結果、情報処理装置100は、学習モデル20に運転データDbを入力することにより推論される推奨値RDを用いて、操作対象10bに対しての自動運転を実現する。
The
例えば、操作対象10がプラントの場合、学習モデル20は、特定の工程における過去にユーザUが投入した原材料の投入量を学習する。そして、学習モデル20は、現在の運転データから、推奨値RDとして原材料の投入量を出力する。ユーザUは、学習モデル20に基づき推論される推奨値RDに従って原材料の投入量を設定することで、過去のユーザ(例えば、ユーザUやユーザU以外のオペレータ)の操作を模倣することができる。
For example, when the
〔2.情報処理装置の構成〕
ここから、本実施形態に係る情報処理装置100の構成について、図3を用いて説明する。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130と、を有する。なお、図示していないが、情報処理装置100は、各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、ディスプレイ等)を備えてもよい。続いて、以下に各部の詳細な機能について記載する。
[2. Configuration of information processing device]
From here, the configuration of the
(通信部110)
通信部110は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネット等の電気通信回線を介して通信を制御する。そして、通信部110は、必要に応じてネットワークと有線または無線で接続され、双方向に情報の送受信を行うことができる。なお、本実施形態においては、外部の装置等(例えば、操作対象10等)との通信は、通信部110を介して実施される前提とする。
(Communication Department 110)
The communication unit 110 is realized by a NIC (Network Interface Card) or the like, and controls communication via a telecommunication line such as a LAN (Local Area Network) or the Internet. The communication unit 110 is connected to a network by wire or wirelessly as necessary, and can transmit and receive information in both directions. In this embodiment, it is assumed that communication with an external device (for example, the
(記憶部120)
記憶部120は、制御部130による各種処理に必要なデータおよびプログラムを格納する。また、記憶部120は、履歴データ記憶部121と、モデル記憶部122と、推奨値記憶部123と、を有する。そして、記憶部120は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置等で実現する。
(Storage unit 120)
The
(履歴データ記憶部121)
履歴データ記憶部121は、操作対象10の過去の運転に関する情報として、履歴データを記憶する。例えば、履歴データ記憶部121が記憶する履歴データには、操作対象10の過去の説明変数(例えば、時刻、温度、圧力、二酸化炭素濃度等のセンサデータ)や、目的変数(例えば、ユーザによる操作履歴)を記憶し、運転データDbと説明変数が類似する履歴データDaが含まれる。また、前述した情報はあくまで一例であり、履歴データ記憶部121は、履歴データの範疇であれば限定無く記憶できる。
(History data storage unit 121)
The history
(モデル記憶部122)
モデル記憶部122は、操作対象10の履歴データDaを用いて学習させる学習モデル20を記憶する。
(Model storage unit 122)
The
(推奨値記憶部123)
推奨値記憶部123は、学習モデル20によって推論される推奨値RDを記憶する。
(Recommended value storage unit 123)
The recommended
(制御部130)
制御部130は、取得部131と、学習部132と、更新部133と、推論部134と、判定部135と、停止部136と、表示部137と、自動運転制御部138と、を有する。そして、制御部130は、各種の処理手順等を規定したプログラムや処理データを一時的に格納するための内部メモリを有し、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路によって実現される。
(Control unit 130)
The control unit 130 includes an
(取得部131)
取得部131は、操作対象10の運転に関するデータを取得する。具体的には、取得部131は、操作対象10の運転に関するデータとして、操作対象10の運転データDb(例えば、操作対象10が収集するセンサデータのうち説明変数として用いているもの等)を取得する。
(Acquisition unit 131)
The
さらに、取得部131は、操作対象10の運転に関するデータとして、履歴検索用キー(現在の操作対象10のセンサデータで、以降は単に「履歴検索用キー」と記載)を用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDa(類似するセンサデータおよびユーザによる操作履歴を含む)を、履歴データ記憶部121から取得する。なお、取得部131は、前述した情報以外にも、操作対象10の運転に関するデータの範疇であれば、限定無く情報を取得できる。
Furthermore, the
(学習部132)
学習部132は、取得部131が取得する操作対象10の履歴データDaを用いて、説明変数(センサデータ)および目的変数(ユーザによる操作履歴)を学習データとして学習モデル20の学習(訓練)を行う。例えば、学習部132は、操作対象10がプラントである場合、特定の状況において過去にユーザUが投入した原材料の投入量等を履歴データDaとして用いて、学習モデル20を学習できる。
(Learning section 132)
The learning unit 132 uses the history data Da of the
また、学習モデル20がアンサンブルモデルの場合は、学習部132は、バギングや、ブースティングや、スタッキング等の手法で学習を行ってよい。
Further, when the
(更新部133)
更新部133は、学習部132の学習に基づき学習モデル20を更新する。さらに、更新部133は複数の学習モデル20について、学習部132の学習に基づき更新を行う。なお、本実施形態においては、学習モデル20はアンサンブルモデルであり、情報処理装置100は複数の学習モデル20を有する前提として、説明を行う。
(Update unit 133)
The updating unit 133 updates the
(推論部134)
推論部134は、取得部131が操作対象10から取得する運転データDb(例えば、説明変数等)を入力とする学習モデル20に基づき、推奨値RDを推論する。なお、学習モデル20が複数存在するアンサンブルモデルの場合に、推論部134は、推論される推奨値RDを複数の学習モデル20の多数決や平均等によって推論してよい。
(Inference unit 134)
The inference unit 134 infers the recommended value RD based on the
(判定部135)
判定部135は、操作対象10の自動運転の精度に関するデータが所定の条件を満たす場合に、操作対象10の自動運転の稼働についての判定をする。具体的には、判定部135は、操作対象10の自動運転の精度に関するデータとして、説明変数、推奨値RD、予測分散、操作対象の評価指標を用いて、判定を行う。なお、判定部135の行う判定の詳細については、以降の項目において、実施形態ごとに説明を行う。
(Determination unit 135)
The determining unit 135 determines whether the automatic driving of the
(停止部136)
停止部136は、判定部135の判定結果に基づき、操作対象10の自動運転を停止する。具体的には、停止部136は、後述の自動運転制御部138が行う自動運転を停止する。
(Stop part 136)
The stopping
(表示部137)
表示部137は、停止部136が操作対象10の自動運転を停止した場合に、ユーザUに対して操作対象10の自動運転が停止したことを表示する。なお、表示部137は、ユーザUに当該情報を表示する方法として、例えば、テキストや音声等、ユーザUが知覚できる方法を用いてよい。
(Display section 137)
The
また、表示部137は、停止部136による自動運転の自動停止が行われない場合にも、ユーザUに対して自動運転の精度低下に基づく自動運転停止に関する情報を表示してよい。例えば、表示部137は、「自動運転の精度低下のため、自動運転の停止を推奨」、等といった内容の表示を行ってよい。
Further, the
(自動運転制御部138)
自動運転制御部138は、運転データDb(説明変数)を入力とする学習モデル20に基づき推論する推奨値RDを用いて、操作対象10に対して自動運転を実施する。
(Automatic operation control unit 138)
The automatic
〔3.実施形態に係る情報処理の全体像〕
ここから、本実施形態における情報処理装置100が行う情報処理の全体像について、図4を用いて説明する。図4では、情報処理装置100が、操作対象10の自動運転の精度に関するデータに基づいて、後述する実施形態1から実施形態6の方法を用いて、自動運転の精度低下による自動運転の停止の判定を行う手順を説明する。なお、情報処理装置100は、実施形態1から実施形態6について、それぞれ単独で実施してもよいし、任意の実施形態を組み合わせて実施してもよい。
[3. Overall image of information processing according to embodiment]
From here, the overall image of information processing performed by the
取得部131は、履歴検索用キーを用いて履歴データ記憶部121から、操作対象10の運転データDbと類似または関係する過去の履歴データDaを取得する(図4の(1)を参照)。続けて、学習部132は、取得した履歴データDaを用いて学習モデル20を学習する(図4の(2)を参照)。
The
更新部133は、複数の学習モデル20(学習モデル20aと、学習モデル20bと、学習モデル20c)を更新する(図4の(3)を参照)。なお、図4では学習モデル20は3つ表記しているが、3つに限定されず必要に応じて異なる数の学習モデル20があってよい。
The updating unit 133 updates the plurality of learning models 20 (
推論部134は、複数の学習済みの学習モデル20に基づいて複数の推論を行う(図4の(4)を参照)。そして、推論部134は、取得部131が取得する運転データDb(説明変数)を入力として(図4の(5)を参照)、学習モデル20に基づき推奨値RDを推論する(図4の(6)を参照)。なお、本実施形態において、推論部134は、複数の学習モデル20を用いて複数の推奨値RDを推論する場合に、複数モデルによる多数決や平均等によって算出してよい。
The inference unit 134 performs multiple inferences based on the multiple trained learning models 20 (see (4) in FIG. 4). Then, the inference unit 134 inputs the driving data Db (explanatory variable) acquired by the acquisition unit 131 (see (5) in FIG. 4), and infers the recommended value RD based on the learning model 20 (see (5) in FIG. 4). (see 6)). Note that in this embodiment, when inferring a plurality of recommended values RD using a plurality of learning
ここから、判定部135による各種判定基準に基づく運転精度の判定について説明する。判定部135は、異常検知アルゴリズム(例えば、PCA(Principal Component Analysis)等を利用したもの)を用いて、運転データDb(説明変数)に所定の変化が生じているか否かを判定する(図4の(7)を参照)。なお、図4の(7)の処理は、実施形態1として以降の項目で説明する。
From here, the determination of driving accuracy based on various determination criteria by the determination unit 135 will be explained. The determination unit 135 determines whether a predetermined change has occurred in the driving data Db (explanatory variable) using an abnormality detection algorithm (for example, one using PCA (Principal Component Analysis), etc.) (see FIG. 4 (see (7)). Note that the process (7) in FIG. 4 will be described in the following items as
判定部135は、推論部134によって推論される推奨値RDが、所定の範囲(例えば、最大最小閾値等)に存在するか否かを判定する(図4の(8)を参照)。なお、図4の(8)の処理は、実施形態2として以降の項目で説明する。
The determination unit 135 determines whether the recommended value RD inferred by the inference unit 134 is within a predetermined range (for example, maximum and minimum threshold values, etc.) (see (8) in FIG. 4). Note that the process (8) in FIG. 4 will be described in the following items as
判定部135は、推論部134によって推論される推奨値RDについて所定の期間における変化率を算出し、前述の変化率が所定の範囲(例えば、差分変化量閾値等)に存在するか否かを判定する(図4の(9)を参照)。なお、図4の(9)の処理は、実施形態3として以降の項目で説明する。 The determination unit 135 calculates the rate of change in a predetermined period for the recommended value RD inferred by the inference unit 134, and determines whether the above-mentioned rate of change is within a predetermined range (for example, a differential change amount threshold, etc.). (See (9) in FIG. 4). Note that the process (9) in FIG. 4 will be explained in the following items as the third embodiment.
判定部135は、複数の学習モデル20のそれぞれの推奨値RDについて分散に基づいて比較を行い、前述の分散が所定の閾値(例えば、アンサンブルモデルの分散閾値等)を超えるか否かを判定する(図4の(10)を参照)。なお、図4の(10)の処理は、実施形態4として以降の項目で説明する。
The determination unit 135 compares the recommended values RD of the plurality of learning
判定部135は、推論部134によって推論される推奨値RDが事後分布を有する場合に、推奨値RDの事後分布の予測分散が所定の閾値(例えば、予測分散閾値等)を超えるか否かを判定する(図4の(11)を参照)。なお、図4の(11)の処理は、実施形態5として以降の項目で説明する。
The determination unit 135 determines whether the predicted variance of the posterior distribution of the recommended value RD exceeds a predetermined threshold (for example, a predicted variance threshold, etc.) when the recommended value RD inferred by the inference unit 134 has a posterior distribution. (See (11) in FIG. 4). Note that the process (11) in FIG. 4 will be described in the following items as
判定部135は、操作対象10の評価指標(図4の(12)を参照)が所定の閾値(例えば、評価指標閾値等)を超えるか否かを判定する(図4の(13)を参照)。なお、図4の(13)の処理は、実施形態6として以降の項目で説明する。
The determination unit 135 determines whether the evaluation index (see (12) in FIG. 4) of the
そして、判定部135は、各種判定基準に基づき運転精度が低下していると判定する場合に、更に自動運転の停止の判定を行う(図4の(14)の「運転精度の低下有り」を参照)。なお、判定部135は、前述した判定基準の単独もしくは複数組み合わせて、所定の条件を満たすかどうかを判定してよい。 If the determination unit 135 determines that the driving accuracy has decreased based on various determination criteria, it further determines whether to stop automatic driving (if the determination unit 135 determines that the driving accuracy has decreased based on (14) in FIG. 4), reference). Note that the determination unit 135 may determine whether or not a predetermined condition is satisfied using one or more of the aforementioned determination criteria.
停止部136は、前述の判定部135の判定に基づいて、自動運転の停止を実施する(図4の(15)を参照)。続けて、表示部137は、停止部136による自動運転の停止に基づいて、ユーザUに自動運転が停止したことを表示する(図4の(16)を参照)。そして、ユーザUは、自動運転が停止した操作対象10を手動で操作する(図4の(17)を参照)。
The stopping
他方で、判定部135が前述した判定基準に基づいて運転精度が低下していないと判定する場合に(図4の(14)の「運転精度の低下無し」を参照)、自動運転制御部138は、自動運転を継続する(図4の(18)を参照)。
On the other hand, when the determination unit 135 determines that the driving accuracy has not decreased based on the determination criteria described above (see “No decrease in driving accuracy” in (14) of FIG. 4), the automatic
ここから、図5から図8を用いて、図4の(16)で前述したユーザUに自動運転の停止について通知する方法の一例を説明する。まず、図5を用いて、ユーザUの操作する端末装置等に表示するシステム画面を説明する。なお、本項目で説明するシステム画面はあくまで一例であり、表示形式、表示内容、画面の配置、構成、組み合わせ等は限定されず、必要に応じて変更してよい。 From here, an example of a method for notifying the user U about the stop of automatic driving described in (16) of FIG. 4 will be explained using FIGS. 5 to 8. First, a system screen displayed on a terminal device operated by user U will be described using FIG. 5. Note that the system screen described in this section is just an example, and the display format, display content, screen arrangement, configuration, combination, etc. are not limited and may be changed as necessary.
図5の画面SAは、自動運転における運転に関するデータの変動について視覚化した情報を表している。画面SAには、自動運転により逐次変動するデータを時系列方向に連続して表示される。一方で画面SBには、自動運転における運転に関するデータの一覧が表示される。なお、画面SAに表示される項目は、情報処理装置100が自動的に選択してもよいし、ユーザUが自身で選択してもよい。ユーザUが自身で選択する場合は、画面SBに表示されている項目に基づき画面SAの表示が切り替えられてよい。
Screen SA in FIG. 5 represents visualized information about fluctuations in data related to driving in automatic driving. On the screen SA, data that changes sequentially due to automatic driving is continuously displayed in a chronological direction. On the other hand, a list of data related to driving in automatic driving is displayed on screen SB. Note that the items displayed on the screen SA may be automatically selected by the
図5の表示SC1には、自動運転の稼働状況に関する情報が表示される。例えば、図5の場合、表示部137は、自動運転が稼働中の場合、表示SC1に「自動運転稼働中」のテキストを表示する。そして、停止部136が自動運転を停止した場合には、表示部137は、図6の表示SC2に「自動運転停止中」のテキストを表示する。なお、前述したテキスト内容についてはあくまで一例であり、表示部137は、ユーザUに運転状況を表示するために必要に応じてその他のテキスト、画像、音声等のユーザが五感で知覚できる出力方法を用いることができる。
In the display SC1 of FIG. 5, information regarding the operating status of automatic operation is displayed. For example, in the case of FIG. 5, when the automatic operation is in operation, the
また、ここまで停止部136による自動運転の自動停止について説明をしてきたが、ユーザUが表示部137の表示する自動運転の精度が低下についての情報を受け付ける場合、ユーザU自身の操作によって自動運転を停止させてもよい。例えば、図7の表示SC3および図8の表示SC4に示す通り、ユーザUは、表示部137が表示するテキスト付近に存在する「停止」と「稼働開始」のダイアログを操作して、自動運転の停止と再開を切り替えてもよい。
In addition, although we have explained the automatic stop of automatic driving by the
〔4.実施形態1:説明変数の異常検知による判定〕
ここから、前述してきた運転精度の判定方法について、実施形態1から実施形態6として、それぞれ「概要」と、「情報処理装置100の構成」と、「処理手順」と、という順番で説明する。なお、情報処理装置100は、実施形態1から実施形態6について、それぞれ単独で実施してもよいし、複数の実施形態を組み合わせて実施してもよい。例えば、情報処理装置100は、実施形態ごとの単独の判定結果や、複数の実施形態における複数の判定結果に基づいて、自動運転の停止を判定してもよい。
[4. Embodiment 1: Judgment based on abnormality detection of explanatory variables]
From here, the above-described driving accuracy determination method will be described in the order of "overview", "configuration of
まず、実施形態1として「説明変数の異常検知による判定」について説明する。推論部134は、操作対象10が収集する運転データDb(説明変数)を入力とする学習モデル20に基づき推論を行うことで、推奨値RDを算出する。そして、自動運転制御部138は、推論された推奨値RDを用いて、操作対象10に対して自動運転を実施する。しかし、操作対象10の運転状況は経時的に変化する場合があり、それに伴い自動運転の精度が低下する場合がある。なお、前述した内容は、実施形態1から実施形態6まで共通であるため、以降の記載は省略する。
First, as
前述したように、操作対象10の自動運転の精度低下発生時に、学習モデル20に対する入力である運転データDb(説明変数)に変化(異常)が生じる場合がある。そこで、実施形態1の判定部135は、異常検知アルゴリズム(例えば、PCA等を利用したもの)を用いて運転データDb(説明変数)の変化を評価し、自動運転の停止を判定する。
As described above, when the accuracy of automatic driving of the
〔4-1.実施形態1の情報処理装置の構成〕
実施形態1における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[4-1. Configuration of information processing device of Embodiment 1]
The device configuration of the
(判定部135)
実施形態1における判定部135は、異常検知アルゴリズムを用いて、運転データDb(説明変数)に生じる変化を判定する。具体的には、判定部135は、所定の条件として、操作対象10の運転の状況を表す運転データDb(説明変数)についての異常検知の結果に基づき、運転データDb(説明変数)に所定の変化が発生する場合に自動運転の停止の判定をする。なお、判定部135は、教師無し機械学習(例えば、PCA等を利用したもの)を利用した異常検知アルゴリズムに基づいて、判定を行ってよい。
(Determination unit 135)
The determining unit 135 in the first embodiment uses an abnormality detection algorithm to determine a change that occurs in the driving data Db (explanatory variable). Specifically, the determination unit 135 sets a predetermined condition to the driving data Db (explanatory variable) based on the result of abnormality detection regarding the driving data Db (explanatory variable) representing the driving situation of the
例えば、判定部135は、PCA(主成分分析)で縮約写像した空間においてKDE(カーネル密度推定)等を実施し、密度が低い部分にデータが現れた場合(例えば、尤度が低い場合等)を異常発生と判定してよい。また、他の例として、判定部135は、マハラノビス距離で知られる距離指標を用いて、異常発生と判定してよい。さらに、他の例として判定部135は、PCAで縮約した空間上で計算されるT^2統計量およびQ統計量を用いて異常発生を判定してよい。 For example, the determination unit 135 performs KDE (kernel density estimation) on a space reduced by PCA (principal component analysis), and if data appears in a region with low density (for example, if the likelihood is low), ) may be determined to be an abnormal occurrence. Further, as another example, the determination unit 135 may determine that an abnormality has occurred using a distance index known as Mahalanobis distance. Furthermore, as another example, the determination unit 135 may determine the occurrence of an abnormality using the T^2 statistic and the Q statistic calculated on the space contracted by PCA.
ここから、PCAに基づく異常検知アルゴリズムを用いた異常検知の一例を説明する。判定部135は、図9に示す通り、学習対象データの内、大多数を占める正常データが存在する領域(多様体)を縮約で求め、そこから所定の距離が離れている場合に異常が発生していると判定してよい(例えば、図9の値aおよび値bを参照)。なお、図9に示す、マハラノビス距離dは、以下の数式(1)で示される。なお、数式(1)における、Σは「分散共分散行列」で、xは「変数」で、μは「xの平均」であるとする。 An example of anomaly detection using an anomaly detection algorithm based on PCA will now be described. As shown in FIG. 9, the determination unit 135 calculates, by reduction, a region (manifold) in which the majority of normal data exists in the learning target data, and determines that an abnormality occurs if a predetermined distance is away from the region (manifold). It may be determined that this has occurred (for example, see values a and b in FIG. 9). Note that the Mahalanobis distance d shown in FIG. 9 is expressed by the following formula (1). Note that in formula (1), Σ is a "variance-covariance matrix," x is a "variable," and μ is an "average of x."
具体的には、図10において、T^2統計量は縮約した次元内(正常データが主要に存在している次元内)での距離を示しており、判定部135は、前述の距離に基づき異常値の判定を行う(例えば、図10の値aを参照)。他方で、Q統計量は縮約から漏れた次元(正常データが主要に存在してない次元内に飛び出ている値)の距離を示しており、判定部135は前述の距離に基づき異常値の判定を行う(例えば、図10の値bを参照)。 Specifically, in FIG. 10, the T^2 statistic indicates the distance within the contracted dimension (within the dimension in which normal data mainly exists), and the determination unit 135 calculates the distance based on the above-mentioned distance. An abnormal value is determined based on the value (for example, see value a in FIG. 10). On the other hand, the Q statistic indicates the distance of a dimension that is omitted from the reduction (a value that jumps out in a dimension where normal data does not mainly exist), and the determination unit 135 determines the abnormal value based on the above-mentioned distance. A determination is made (for example, see value b in FIG. 10).
他方で、判定部135は、尤度による判定として、確率密度の高いデータの主要領域から所定の距離が離れている場合に異常が発生していると判定してよい。また、判定部135は、PCAに基づく異常検知に限定されず、その他の方法を用いて異常の発生を判定してよい。例えば、生成モデルを用いる方法として、判定部135は、ニューラルネットワークを用いた縮約手法であるオートエンコーダや、GAN(Generative Adversarial Network)等を用いて、異常の発生を判定してよい。 On the other hand, the determination unit 135 may determine that an abnormality has occurred when a predetermined distance is away from the main area of data with high probability density, based on likelihood. Furthermore, the determination unit 135 is not limited to abnormality detection based on PCA, and may determine the occurrence of an abnormality using other methods. For example, as a method using a generative model, the determination unit 135 may determine the occurrence of an abnormality using an autoencoder, which is a reduction method using a neural network, a GAN (Generative Adversarial Network), or the like.
前述のオートエンコーダを用いる方法では、判定部135は、「入力→縮約→入力再構成」のうち再構成の誤差について、「学習後の再現性が低い場合、学習に用いた大多数の通常データと所定の距離が離れている異常サンプルを用いた学習が行われている」という前提に基づいて、異常度を判定してよい。他方、GANを用いる使う方法では、判定部135は、学習済みのdiscriminator(GANの生成物と、真のデータを正誤判定するモデル)を用いて、真のデータと判定されなければ異常が発生していると判定してよい。 In the above-mentioned method using an autoencoder, the determination unit 135 determines the reconstruction error in "input → reduction → input reconstruction" by saying, "If the reproducibility after learning is low, the majority of normal The degree of abnormality may be determined based on the premise that "learning is being performed using abnormal samples that are separated from the data by a predetermined distance." On the other hand, in the method using GAN, the determination unit 135 uses a learned discriminator (a model that determines whether the GAN product and true data are correct or incorrect) and determines whether an abnormality has occurred if the data is not determined to be true. It can be determined that the
一例として、プラントプロセスデータを用いる場合、プラントが収集するセンサー値を、例えば時間窓で「センサー数×窓幅」次元をもつ多次元データとして処理して、それを入力とし通常の状態とどれだけ所定の距離が離れているかを、判定部135が前述した方法を用いて判定してよい。 As an example, when using plant process data, the sensor values collected by the plant are processed as multidimensional data with dimensions of "number of sensors x window width" in a time window, and this is used as input to calculate the difference between the normal state and The determining unit 135 may determine whether the predetermined distance is away using the method described above.
〔4-2.実施形態1の処理手順〕
次に、実施形態1における情報処理装置100の情報処理方法の手順について、図11を用いて説明する。まず、操作対象10は、運転データDb(説明変数)を収集する(ステップS101)。次に、判定部135は、異常検知アルゴリズム(例えば、PCA等を利用したもの)を用いて、運転データDb(説明変数)に生じる状態変化を判定する(ステップS102)。
[4-2. Processing procedure of Embodiment 1]
Next, the procedure of the information processing method of the
判定部135は、運転データDb(説明変数)に生じる変化が所定の範囲に含まれないと判定する(ステップS103のNo)。その場合、判定部135は、自動運転を停止する判定を行う(ステップS104)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS105)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS106)、工程が終了する。
The determination unit 135 determines that the change occurring in the driving data Db (explanatory variable) is not included in the predetermined range (No in step S103). In that case, the determination unit 135 determines to stop automatic operation (step S104). Then, the stopping
他方、判定部135は、運転データDb(説明変数)に生じる状態変化が所定の範囲に含まれると判定する(ステップS103のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the state change occurring in the driving data Db (explanatory variable) is included in a predetermined range (Yes in step S103). In that case, the process returns and processing continues.
〔5.実施形態2:推奨値による判定〕
次に、実施形態2として「推奨値による判定」について説明する。操作対象10の自動運転の精度低下発生時に、推奨値RDが変動する場合がある。そこで、実施形態2の判定部135は、推奨値RDが所定の範囲(例えば、最大最小閾値等)に存在するか否かに基づいて、自動運転の停止を判定する。
[5. Embodiment 2: Judgment based on recommended values]
Next, "determination based on recommended values" will be described as a second embodiment. When the accuracy of automatic operation of the
〔5-1.実施形態2の情報処理装置の構成〕
実施形態2における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[5-1. Configuration of information processing device of embodiment 2]
The device configuration of the
(判定部135)
実施形態2における判定部135は、所定の条件として、操作対象10の運転に関する履歴データDaを用いた学習モデル20に基づき推論される推奨値RDが、最大最小閾値の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、最大最小閾値の範囲について必要に応じて任意の範囲を設定してよい。また、判定部135は、その他の判定方法として、例えば、従来の操作量(真値)を学習データとしてモデルを学習して異常検知を行う方法や、discriminatorまたは異常検知アルゴリズムを用いて従来の操作量(真値)か推奨値RDかを識別する分類を行う方法、等を用いてもよい。
(Determination unit 135)
The determination unit 135 in the second embodiment determines, as a predetermined condition, that the recommended value RD inferred based on the
〔5-2.実施形態2の処理手順〕
次に、実施形態2における情報処理装置100の情報処理方法の手順について、図12を用いて説明する。まず、操作対象10は、運転データDbを収集する(ステップS201)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS202)。
[5-2. Processing procedure of Embodiment 2]
Next, the procedure of the information processing method of the
学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS203)。続けて、更新部133は、学習モデル20を更新する(ステップS204)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS205)。
The learning unit 132 performs learning of the
判定部135は、推論された推奨値RDが所定の範囲(例えば、最大最小閾値等)に含まれないと判定する(ステップS206のNo)。その場合、判定部135は、自動運転を停止する判定を行う(ステップS207)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS208)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS209)、工程が終了する。
The determining unit 135 determines that the inferred recommended value RD is not included in a predetermined range (for example, maximum/minimum threshold value, etc.) (No in step S206). In that case, the determination unit 135 determines to stop automatic operation (step S207). Then, the stopping
他方、判定部135は、推論された推奨値RDが所定の範囲(例えば、最大最小閾値等)に含まれると判定する(ステップS206のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the inferred recommended value RD is included in a predetermined range (for example, maximum and minimum threshold values, etc.) (Yes in step S206). In that case, the process returns and processing continues.
〔6.実施形態3:推奨値の変化率による判定〕
次に、実施形態3として「推奨値の変化率による判定」について説明する。操作対象10の自動運転の精度低下発生時に、推奨値RDについても変動する場合がある。そこで、実施形態3の判定部135は、推奨値RDの所定の期間における変化率が所定の範囲(例えば、差分変化量閾値等)に存在するか否かに基づいて、自動運転の停止を判定する。
[6. Embodiment 3: Judgment based on rate of change in recommended value]
Next, as
〔6-1.実施形態3の情報処理装置の構成〕
実施形態3における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[6-1. Configuration of information processing device of embodiment 3]
The device configuration of the
(判定部135)
実施形態3における判定部135は、所定の条件として、操作対象10の運転に関する履歴データDaを用いた学習モデル20に基づき推論される推奨値RDの変化率が、差分変化量閾値の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、差分変化量閾値の範囲について必要に応じて任意の範囲を設定してよい。また、判定部135は、その他の判定方法として、例えば、従来の操作量(真値)を学習データとしてモデルを学習して異常検知を行う方法や、discriminatorまたは異常検知アルゴリズムを用いて従来の操作量(真値)か推奨値RDかを識別する分類を行う方法、等を用いてもよい。
(Determination unit 135)
The determination unit 135 in the third embodiment determines, as a predetermined condition, that the rate of change in the recommended value RD inferred based on the
〔6-2.実施形態3の処理手順〕
次に、実施形態3における情報処理装置100の情報処理方法の手順について、図13を用いて説明する。まず、操作対象10は、運転データDbを収集する(ステップS301)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS302)。
[6-2. Processing procedure of Embodiment 3]
Next, the procedure of the information processing method of the
学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS303)。続けて、更新部133は、学習モデル20を更新する(ステップS304)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS305)。
The learning unit 132 performs learning of the
判定部135は、推論された推奨値RDの所定の期間における変化率が所定の範囲(例えば、差分変化量閾値等)に含まれないと判定する(ステップS306のNo)。その場合、判定部135は、自動運転を停止する判定をする(ステップS307)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS308)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS309)、工程が終了する。
The determination unit 135 determines that the rate of change of the inferred recommended value RD in a predetermined period is not included in a predetermined range (for example, a difference change amount threshold, etc.) (No in step S306). In that case, the determination unit 135 determines to stop automatic operation (step S307). Then, the stopping
他方、判定部135は、推論された推奨値RDの所定の期間における変化率が所定の範囲(例えば、差分変化量閾値等)に含まれると判定する(ステップS306のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the rate of change of the inferred recommended value RD in a predetermined period is included in a predetermined range (for example, a difference change amount threshold, etc.) (Yes in step S306). In that case, the process returns and processing continues.
〔7.実施形態4:アンサンブル分散閾値による判定〕
次に、実施形態4として「アンサンブル分散閾値による判定」について説明する。操作対象10の自動運転の精度低下発生時に、更新された複数の学習モデル20に基づき推論される複数の推奨値RDの分散が大きくなる場合がある。そこで、実施形態4の判定部135は、複数の学習モデル20に基づき推論される複数の推奨値RDの分散について、前述の分散が所定の閾値(例えば、アンサンブルモデルの分散閾値等)を超えるか否かに基づいて、自動運転の停止を判定する。
[7. Embodiment 4: Judgment based on ensemble variance threshold]
Next, as
〔7-1.実施形態4の情報処理装置の構成〕
実施形態4における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[7-1. Configuration of information processing device of embodiment 4]
The device configuration of the
(判定部135)
実施形態4における判定部135は、所定の条件として、操作対象10の運転に関する履歴データDaを用いた複数の学習モデル20に基づき推論される複数の推奨値RDの分散が所定の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、前述の所定の範囲について必要に応じて任意の範囲を設定してよい。
(Determination unit 135)
The determination unit 135 in the fourth embodiment determines, as a predetermined condition, that the variance of the plurality of recommended values RD inferred based on the plurality of learning
〔7-2.実施形態4の処理手順〕
次に、実施形態4における情報処理装置100の情報処理方法の手順について、図14を用いて説明する。なお、本項目では学習モデル20および学習モデル20に基づき推論される推奨値RDが複数存在する前提で説明を行う。また、実施形態4以外の実施形態(実施形態1から実施形態3および後述の実施形態5と実施形態6)についても、複数の学習モデル20および推奨値RDが存在していてもよい。
[7-2. Processing procedure of Embodiment 4]
Next, the procedure of the information processing method of the
まず、操作対象10は、運転データDbを収集する(ステップS401)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS402)。
First, the
学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS403)。続けて、更新部133は、複数の学習モデル20を更新する(ステップS404)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS405)。
The learning unit 132 performs learning of the
判定部135は、学習モデル20の分散が所定の範囲に含まれない、言い換えると複数の学習モデル20に基づき推論される複数の推奨値RDの分散について、前述の分散が所定の閾値(例えば、アンサンブルモデルの分散閾値等)を超えると判定する(ステップS406のNo)。その場合、判定部135は、自動運転を停止する判定をする(ステップS407)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS408)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS409)、工程が終了する。
If the variance of the
他方、判定部135は、学習モデル20の分散が所定の範囲に含まれる、言い換えると複数の学習モデル20に基づき推論される複数の推奨値RDの分散について、前述の分散が所定の閾値(例えば、アンサンブルモデルの分散閾値等)を超えない判定する(ステップS406のYes)。その場合は工程を戻り、処理が継続する。
On the other hand, the determination unit 135 determines that the variance of the
〔8.実施形態5:推奨値の予測分散による判定〕
次に、実施形態5として「推奨値の予測分散による判定」について説明する。操作対象10の自動運転の精度低下発生時に、推論部134が推論する推奨値RDが事後分布を有している場合、推奨値RDの予測分散が大きくなる場合がある。そこで、実施形態5の判定部135は、前述の推奨値RDの事後分布の予測分散が所定の閾値(例えば、予測分散閾値等)を超えるか否かに基づいて、自動運転の停止を判定する。
[8. Embodiment 5: Judgment based on predicted variance of recommended values]
Next, as a fifth embodiment, "determination based on predicted variance of recommended values" will be described. If the recommended value RD inferred by the inference unit 134 has a posterior distribution when the accuracy of automatic driving of the
〔8-1.実施形態5の情報処理装置の構成〕
実施形態5における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[8-1. Configuration of information processing device of embodiment 5]
The device configuration of the
(判定部135)
実施形態5における判定部135は、操作対象10の運転に関する履歴データDaを用いた学習モデル20に基づき推論される推奨値RDが事後分布を有する場合、所定の条件として、推奨値RDの予測分散が所定の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、前述の所定の範囲について必要に応じて任意の範囲を設定してよい。
(Determination unit 135)
When the recommended value RD inferred based on the
〔8-2.実施形態5の処理手順〕
次に、実施形態5における情報処理装置100の情報処理方法の手順について、図15を用いて説明する。なお、実施形態5の処理手順において、推論される推奨値RDは事後分布を有する前提で説明を行う。
[8-2. Processing procedure of Embodiment 5]
Next, the procedure of the information processing method of the
まず、操作対象10は、運転データDbを収集する(ステップS501)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS502)。
First, the
学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS503)。続けて、更新部133は、学習モデル20を更新する(ステップS504)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS505)。
The learning unit 132 performs learning of the
判定部135は、推奨値RDの事後分布の予測分散が所定の範囲に含まれない、言い換えると推奨値RDの事後分布の予測分散が所定の閾値(例えば、予測分散閾値等)を超えると判定する(ステップS506のNo)。その場合、判定部135は、自動運転を停止する判定をする(ステップS507)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS508)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS509)、工程が終了する。
The determination unit 135 determines that the predicted variance of the posterior distribution of the recommended value RD is not included in a predetermined range, in other words, the predicted variance of the posterior distribution of the recommended value RD exceeds a predetermined threshold (for example, a predicted variance threshold). (No in step S506). In that case, the determination unit 135 determines to stop automatic operation (step S507). Then, the stopping
他方、判定部135は、推奨値RDの事後分布の予測分散が所定の範囲に含まれる、言い換えると推奨値RDの事後分布の予測分散が所定の閾値(例えば、予測分散閾値等)を超えない判定する(ステップS506のYes)。その場合は工程を戻り、処理が継続する。 On the other hand, the determination unit 135 determines that the predicted variance of the posterior distribution of the recommended value RD is included in a predetermined range, in other words, the predicted variance of the posterior distribution of the recommended value RD does not exceed a predetermined threshold (for example, a predicted variance threshold). Determination is made (Yes in step S506). In that case, the process returns and processing continues.
〔9.実施形態6:操作対象の評価指標による判定〕
次に、実施形態6として「操作対象の評価指標による判定」について説明する。操作対象10の自動運転の精度低下発生時に、操作対象10の評価指標(例えば、操作対象10の生産量、安定度等)が変動する場合がある。そこで、実施形態6の判定部135は、操作対象10の評価指標が所定の閾値(例えば、評価指標閾値等)を超えるか否かに基づいて、自動運転の停止を判定する。
[9. Embodiment 6: Judgment based on evaluation index of operation target]
Next, as
〔9-1.実施形態6の情報処理装置の構成〕
実施形態6における情報処理装置100の装置構成は、前述の実施形態と同様である。したがって、本項目では差異として判定部135の付加的機能のみ説明し、それ以外の詳細な説明は省略する。
[9-1. Configuration of information processing device of embodiment 6]
The device configuration of the
(判定部135)
実施形態6における判定部135は、所定の条件として、操作対象10の評価指標が所定の範囲に含まれない場合に自動運転の停止の判定をする。なお、判定部135は、前述の所定の範囲について必要に応じて任意の範囲を設定してよい。
(Determination unit 135)
The determination unit 135 in the sixth embodiment determines to stop automatic driving when the evaluation index of the
〔9-2.実施形態6の処理手順〕
次に、実施形態6における情報処理装置100の情報処理方法の手順について、図16を用いて説明する。まず、操作対象10は、運転データDbを収集する(ステップS601)。次に、取得部131は、履歴検索用キーを用いて、操作対象10の運転実施時点における運転データDbと類似の履歴データDaを履歴データ記憶部121から取得する(ステップS602)。
[9-2. Processing procedure of Embodiment 6]
Next, the procedure of the information processing method of the
学習部132は、取得部131が取得した類似の履歴データDaを用いて学習モデル20の学習を実施する(ステップS603)。続けて、更新部133は、学習モデル20を更新する(ステップS604)。そして、推論部134は、運転データDb(説明変数)を入力とする更新された学習モデル20に基づき推奨値RDを推論する(ステップS605)。その後、自動運転制御部138は、推論される推奨値RDを用いて自動運転を実施する(ステップS606)。
The learning unit 132 performs learning of the
判定部135は、自動運転の結果得られる操作対象10の評価指標が所定の範囲に含まれない、言い換えると操作対象10の評価指標が所定の閾値(例えば、評価指標閾値等)を超えると判定する(ステップS607のNo)。その場合、判定部135は、自動運転を停止する判定をする(ステップS608)。そして、停止部136は、判定部135の判定に基づき自動運転を停止する(ステップS609)。続けて、表示部137は、ユーザUに自動運転が停止したことを表示し(ステップS610)、工程が終了する。
The determination unit 135 determines that the evaluation index of the
他方、判定部135は、操作対象10の評価指標が所定の範囲に含まれる、言い換えると操作対象10の評価指標が所定の閾値(例えば、評価指標閾値等)を超えないと判定する(ステップS607のYes)。その場合は工程を戻り、処理が継続する。
On the other hand, the determination unit 135 determines that the evaluation index of the
〔10.効果〕
従来技術では、ユーザUは、運転データDbを入力とする学習モデル20に基づき推論される推奨値RDを用いて、操作対象10を手動で操作する。ここで、図17を用いて、従来技術による推奨値RDの提示と、ユーザUによる操作対象10の手動操作について説明を行う。
[10. effect〕
In the prior art, the user U manually operates the
図17では、従来技術における情報処理装置1は、操作対象10の運転データDb(例えば、温度、圧力、流量、原料投入量、生成量等)と類似または関係する過去の履歴データDa(例えば、温度、圧力、流量、原料投入量、生成量等、ユーザによる操作履歴等)を用いて学習モデル20を学習する(図17の(1)を参照)。次に、情報処理装置1は、運転データDbを入力とする(図17の(2)を参照)、前述の学習モデル20に基づき推論される推奨値RDをガイダンス画面30に表示し、ユーザUに対してレコメンドする(図17の(3)を参照)。そして、ユーザUは、情報処理装置1からの表示に基づき、手動で操作対象10を操作する(図17の(4)を参照)。
In FIG. 17, the
前述したように、従来技術では、ユーザUが提示される推奨値RDに基づいて操作対象10を手動操作するため、推奨値RDの精度が変化した際でも、ユーザU自身が運転の継続または停止判断を行うことが可能であった。しかしながら、ユーザUを介さない自動運転時に推奨値RDの精度判定を行うことが難しく、推奨値RDの精度が変化した場合でも適切なタイミングで手動運転への切り替えを判断することが難しい場合があった。
As described above, in the conventional technology, the user U manually operates the
そこで、本実施形態における情報処理装置100は、操作対象10の自動運転の精度に関するデータが所定の条件を満たす場合に、操作対象10の自動運転の稼働についての判定を行い、判定部135の判定結果に基づき、操作対象10の自動運転を停止する。そのため、本実施形態によれば情報処理装置100は、下記の効果を奏する。
Therefore, the
情報処理装置100は、操作対象10の自動運転の精度が変化した場合における手動運転への切り替えのタイミングの判断を容易とする、という効果を奏する。
The
さらに、情報処理装置100は、操作対象10の運転に関するデータに基づいて、動的に自動運転の継続可否を判定することにより、ユーザUの経験や熟練度、スキル等に左右されずに自動運転の停止を行うことで、安全な自動運転の停止が可能となる、という効果を奏する。
Furthermore, the
〔11.ハードウェア構成〕
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[11. Hardware configuration]
Each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware using wired logic.
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を公知の方法で手動的に行うこともできる。この他、図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in this embodiment, all or part of the processes described as being performed automatically can also be performed manually by a known method. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the drawings can be arbitrarily changed unless otherwise specified.
[プログラム]
一実施形態として、情報処理装置100は、パッケージソフトウェアやオンラインソフトウェアとして、前述した情報処理方法を実行する情報処理プログラムを、所望のコンピュータにインストールさせることによって実装できる。例えば、上記の情報処理プログラムを情報処理装置に実行させることにより、情報処理装置100として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
[program]
As one embodiment, the
図18は、情報処理装置100が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
FIG. 18 is a diagram illustrating an example of a computer on which the
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、情報処理装置100の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、情報処理装置100における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
The hard disk drive 1090 stores, for example, an
また、前述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、前述した実施形態の処理を実行する。
Further, the setting data used in the processing of the embodiment described above is stored as
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093およびプログラムデータ1094は、ネットワーク(LAN、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093およびプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
Note that the
〔12.その他〕
以上、本実施形態について説明したが、本実施形態は、開示の一部をなす記述および図面により限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本実施形態の範疇に含まれる。
[12. others〕
Although this embodiment has been described above, this embodiment is not limited by the description and drawings that form part of the disclosure. That is, all other embodiments, examples, operational techniques, etc. made by those skilled in the art based on this embodiment are included in the scope of this embodiment.
1 情報処理装置
10 操作対象
10a 操作対象
10b 操作対象
20 学習モデル
30 ガイダンス画面
100 情報処理装置
110 通信部
120 記憶部
121 履歴データ記憶部
122 モデル記憶部
123 推奨値記憶部
130 制御部
131 取得部
132 学習部
133 更新部
134 推論部
135 判定部
136 停止部
137 表示部
138 自動運転制御部
U ユーザ
Da 履歴データ
Db 運転データ
RD 推奨値
SA 画面
SB 画面
SC1 表示
SC2 表示
SC3 表示
SC4 表示
1000 コンピュータ
1010 メモリ
1011 ROM
1012 RAM
1020 CPU
1030 ハードディスクドライブインタフェース
1040 ディスクドライブインタフェース
1050 シリアルポートインタフェース
1060 ビデオアダプタ
1070 ネットワークインタフェース
1080 バス
1090 ハードディスクドライブ
1091 OS
1092 アプリケーションプログラム
1093 プログラムモジュール
1094 プログラムデータ
1100 ディスクドライブ
1110 マウス
1120 キーボード
1
1012 RAM
1020 CPU
1030 Hard
1092
Claims (8)
前記判定部の判定結果に基づき、前記操作対象の自動運転を停止する停止部と、
を有し、
前記判定部は、前記所定の条件として、前記操作対象の運転に関する履歴データを用いた複数の学習モデルに基づき推論される複数の推奨値の分散が所定の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする情報処理装置。 a determination unit that determines the operation of the automatic driving of the operation target when data regarding the accuracy of the automatic driving of the operation target satisfies a predetermined condition;
a stop unit that stops automatic operation of the operation target based on a determination result of the determination unit;
has
As the predetermined condition, the determination unit determines whether the automatic driving is performed when the variance of a plurality of recommended values inferred based on a plurality of learning models using historical data regarding driving of the operation target is not within a predetermined range. determine whether to stop,
An information processing device characterized by:
ことを特徴とする請求項1に記載の情報処理装置。 The determination unit determines whether to stop the automatic driving when a predetermined change occurs in the explanatory variable, as the predetermined condition, based on the result of abnormality detection regarding the explanatory variable representing the driving situation of the operation target. do,
The information processing device according to claim 1, characterized in that:
ことを特徴とする請求項1に記載の情報処理装置。 The determination unit determines, as the predetermined condition, that the automatic driving is stopped when a recommended value inferred based on a learning model using historical data regarding driving of the operation target is not included in a range of maximum and minimum threshold values. make a judgment,
The information processing device according to claim 1, characterized in that:
ことを特徴とする請求項1に記載の情報処理装置。 As the predetermined condition, the determination unit may perform the automatic operation when a rate of change in the recommended value inferred based on a learning model using historical data regarding driving of the operation target is not included in a range of a difference change amount threshold. Judging whether to stop driving,
The information processing device according to claim 1, characterized in that:
ことを特徴とする請求項1に記載の情報処理装置。 When the recommended value inferred based on a learning model using historical data regarding driving of the operation target has a posterior distribution, the determining unit determines, as the predetermined condition, that a predicted variance of the recommended value is within a predetermined range. determining whether to stop the automatic operation if the automatic operation does not occur;
The information processing device according to claim 1, characterized in that:
ことを特徴とする請求項1に記載の情報処理装置。 The determination unit determines to stop the automatic operation when the evaluation index of the operation target is not included in a predetermined range as the predetermined condition.
The information processing device according to claim 1, characterized in that:
操作対象の自動運転の精度に関するデータが所定の条件を満たす場合に、前記操作対象の自動運転の稼働についての判定をする判定工程と、
前記判定工程の判定結果に基づき、前記操作対象の自動運転を停止する停止工程と、
を含み、
前記判定工程は、前記所定の条件として、前記操作対象の運転に関する履歴データを用いた複数の学習モデルに基づき推論される複数の推奨値の分散が所定の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする情報処理方法。 An information processing method executed by an information processing device, the method comprising:
a determination step of determining the operation of the automatic driving of the operating target when data regarding the accuracy of the automatic driving of the operating target satisfies a predetermined condition;
a stopping step of stopping automatic operation of the operation target based on the determination result of the determining step ;
including;
In the determination step, if the predetermined condition is that the automatic driving is performed when the variance of a plurality of recommended values inferred based on a plurality of learning models using historical data regarding driving of the operation target is not included in a predetermined range. determine whether to stop,
An information processing method characterized by:
前記判定ステップの判定結果に基づき、前記操作対象の自動運転を停止する停止ステップと、
をコンピュータに実行させ、
前記判定ステップは、前記所定の条件として、前記操作対象の運転に関する履歴データを用いた複数の学習モデルに基づき推論される複数の推奨値の分散が所定の範囲に含まれない場合に前記自動運転の停止の判定をする、
ことを特徴とする情報処理プログラム。 a determination step of determining the operation of the automatic driving of the operating target when data regarding the accuracy of the automatic driving of the operating target satisfies a predetermined condition;
a stopping step of stopping automatic operation of the operation target based on the determination result of the determining step ;
make the computer run
The determining step includes determining, as the predetermined condition, that the automatic driving is performed when the variance of the plurality of recommended values inferred based on the plurality of learning models using historical data regarding the driving of the operation target is not within a predetermined range. determine whether to stop,
An information processing program characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022171830A JP7427746B1 (en) | 2022-10-26 | 2022-10-26 | Information processing device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022171830A JP7427746B1 (en) | 2022-10-26 | 2022-10-26 | Information processing device, information processing method, and information processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7427746B1 true JP7427746B1 (en) | 2024-02-05 |
Family
ID=89771034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022171830A Active JP7427746B1 (en) | 2022-10-26 | 2022-10-26 | Information processing device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7427746B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021006431A (en) | 2019-06-28 | 2021-01-21 | 日産自動車株式会社 | Driving support method and driving support device |
JP2021042948A (en) | 2019-09-09 | 2021-03-18 | 株式会社タクマ | Combustion abnormality prediction device, combustion abnormality prediction program, combustion control system, combustion abnormality prediction method, abnormality prediction program generation method and abnormality avoidance means prediction program generation method |
WO2021065559A1 (en) | 2019-10-04 | 2021-04-08 | ソニー株式会社 | Information processing device, information processing method, and information processing device |
-
2022
- 2022-10-26 JP JP2022171830A patent/JP7427746B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021006431A (en) | 2019-06-28 | 2021-01-21 | 日産自動車株式会社 | Driving support method and driving support device |
JP2021042948A (en) | 2019-09-09 | 2021-03-18 | 株式会社タクマ | Combustion abnormality prediction device, combustion abnormality prediction program, combustion control system, combustion abnormality prediction method, abnormality prediction program generation method and abnormality avoidance means prediction program generation method |
WO2021065559A1 (en) | 2019-10-04 | 2021-04-08 | ソニー株式会社 | Information processing device, information processing method, and information processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017120649A (en) | Machine learning method and machine learning device for learning fault condition, and fault prediction device and fault prediction system including machine learning device | |
JP6933899B2 (en) | Plant operation support equipment, plant operation support method, and plant operation support program | |
CN107480028B (en) | Method and device for acquiring usable residual time of disk | |
JP6632770B1 (en) | Learning device, learning inference device, method, and program | |
CN110785716B (en) | Instability detection device, instability detection system, and instability detection method | |
CN111684367B (en) | Control device, control system, control method, and computer-readable storage medium | |
US20210088986A1 (en) | Assistance device, learning device, and plant operation condition setting assistance system | |
JP2018190050A (en) | Data processing device, data processing system, data processing method and program | |
Al-Dabbagh et al. | Toward the advancement of decision support tools for industrial facilities: Addressing operation metrics, visualization plots, and alarm floods | |
JP5264796B2 (en) | Plant operation support device | |
JP7427746B1 (en) | Information processing device, information processing method, and information processing program | |
JPWO2020059099A1 (en) | Label correction device | |
CN112074789B (en) | Management device, management method, and recording medium | |
JP2004078780A (en) | Method, device, and program for prediction, and recording medium recording the prediction program | |
JP7417691B1 (en) | Information processing device, information processing method, and information processing program | |
JP6662222B2 (en) | Abnormal state diagnostic method and abnormal state diagnostic apparatus for manufacturing process | |
JP6381863B2 (en) | Information processing apparatus, information processing method, and information processing program | |
JP7443609B1 (en) | Learning devices, learning methods and learning programs | |
JP7400064B1 (en) | Learning devices, learning methods and learning programs | |
US20230315072A1 (en) | Systems, methods, and devices for asset monitoring | |
CN112912903A (en) | Inference device, information processing device, inference method, program, and recording medium | |
WO2023181232A1 (en) | Model analysis device, model analysis method, and recording medium | |
WO2023175921A1 (en) | Model analysis device, model analysis method, and recording medium | |
US20190164072A1 (en) | Inference system, information processing system, inference method, and recording medium | |
US20230288915A1 (en) | Information processing device, information processing method, and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7427746 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |