JP2024046277A - Encoding method - Google Patents

Encoding method Download PDF

Info

Publication number
JP2024046277A
JP2024046277A JP2022151578A JP2022151578A JP2024046277A JP 2024046277 A JP2024046277 A JP 2024046277A JP 2022151578 A JP2022151578 A JP 2022151578A JP 2022151578 A JP2022151578 A JP 2022151578A JP 2024046277 A JP2024046277 A JP 2024046277A
Authority
JP
Japan
Prior art keywords
image
output
encoding method
verified data
output devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022151578A
Other languages
Japanese (ja)
Inventor
ヤマン ダン
徹 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Global Life Solutions Inc
Original Assignee
Hitachi Global Life Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Global Life Solutions Inc filed Critical Hitachi Global Life Solutions Inc
Priority to JP2022151578A priority Critical patent/JP2024046277A/en
Publication of JP2024046277A publication Critical patent/JP2024046277A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】複数の信号間の相関を学習および推論可能な画像を生成できる。【解決手段】符号化方法は、コンピュータが実行する、複数の出力装置の出力を符号化する符号化方法であって、複数の出力装置の出力である収集データ群を取得する取得ステップと、収集データ群に基づき、時間帯ごと、および出力装置ごとの検証済データである検証済データ群を生成する検証ステップと、検証済データ群に基づき、複数の出力装置に含まれる2以上の出力装置の検証済データを符号化した符号化画像を作成する画像生成ステップと、を含む。【選択図】図2[Problem] It is possible to generate an image that can learn and infer correlation between multiple signals. [Solution] The encoding method is a computer-executed encoding method for encoding the output of multiple output devices, and includes an acquisition step of acquiring a collected data group that is the output of the multiple output devices, a verification step of generating a verified data group that is verified data for each time period and for each output device based on the collected data group, and an image generation step of creating an encoded image that encodes the verified data of two or more output devices included in the multiple output devices based on the verified data group. [Selected Figure] Figure 2

Description

本発明は、符号化方法に関する。 The present invention relates to an encoding method.

製造や制御の自動化のために製造設備では従前より様々なセンサが用いられてきた。近年は製造設備以外の様々な場所、たとえばオフィスや一般家庭でも様々なセンサが用いられている。センサによる測定値は制御だけでなく状態監視や異常検出にも用いられる。特許文献1には、時系列のデータからパターンを検出システムが開示されている。 A variety of sensors have traditionally been used in manufacturing facilities to automate production and control. In recent years, a variety of sensors are also being used in a variety of places other than manufacturing facilities, such as offices and ordinary homes. Measurement values from sensors are used not only for control but also for status monitoring and anomaly detection. Patent Document 1 discloses a system that detects patterns from time-series data.

米国特許出願公開第2019/379589号明細書US Patent Application Publication No. 2019/379589

特許文献1に記載されている発明では、1つの信号しか処理対象にできない。 In the invention described in Patent Document 1, only one signal can be processed.

本発明の第1の態様による符号化方法は、コンピュータが実行する、複数の出力装置の出力を符号化する符号化方法であって、前記複数の出力装置の出力である収集データ群を取得する取得ステップと、前記収集データ群に基づき、時間帯ごと、および前記出力装置ごとの検証済データである検証済データ群を生成する検証ステップと、前記検証済データ群に基づき、前記複数の出力装置に含まれる2以上の前記出力装置の前記検証済データを符号化した符号化画像を作成する画像生成ステップと、を含む。 The encoding method according to the first aspect of the present invention is a computer-executed encoding method for encoding the output of a plurality of output devices, and includes an acquisition step of acquiring a collected data group that is the output of the plurality of output devices, a verification step of generating a verified data group that is verified data for each time period and for each of the output devices based on the collected data group, and an image generation step of creating an encoded image that encodes the verified data of two or more of the output devices included in the plurality of output devices based on the verified data group.

本発明によれば、複数の信号間の相関を学習および推論可能な画像を生成できる。 According to the present invention, it is possible to generate an image that allows learning and inference of correlation between a plurality of signals.

演算装置の利用シーンを示す図Diagram showing usage scenes of arithmetic device 演算装置の機能構成図Functional configuration diagram of arithmetic unit 演算装置のハードウエア構成図Hardware configuration diagram of the computing device 装置リストの一例を示す図Diagram showing an example of a device list 収集データの一例を示す図A diagram showing an example of collected data 前処理済データの一例を示す図Diagram showing an example of preprocessed data 検証済データの一例を示す図A diagram showing an example of verified data 画像パラメータの一例を示す図Diagram showing an example of image parameters 要求仕様の一例を示す図Diagram showing an example of required specifications グラフ画像の一例を示す図FIG. 13 is a diagram showing an example of a graph image. ピクセル画像の一例を示す図Diagram showing an example of a pixel image 描画判断部の処理を示すフローチャートFlowchart showing the process of the drawing determination unit 画像生成部の処理を示すフローチャートFlowchart showing the processing of the image generation unit 変形例1におけるグラフ画像のバリエーションを示す図FIG. 13 shows variations of a graph image in Modification 1. 変形例1におけるグラフ画像の別のバリエーションを示す図A diagram showing another variation of the graph image in Modification Example 1 変形例2におけるピクセル画像の別のバリエーションを示す図FIG. 13 is a diagram showing another variation of a pixel image in Modification 2.

―第1の実施の形態―
以下、図1~図13を参照して、符号化方法の第1の実施の形態を説明する。図1は、本発明に係る演算装置1の利用シーンを示す図である。演算装置1は、複数の出力装置9が出力する多数の出力値を用いてグラフ画像48やピクセル画像49を生成する。グラフ画像48およびピクセル画像49は、学習モデル1000に入力され、学習や推論に利用される。
-First embodiment-
A first embodiment of the encoding method will be described below with reference to Fig. 1 to Fig. 13. Fig. 1 is a diagram showing a usage scene of a calculation device 1 according to the present invention. The calculation device 1 generates a graph image 48 and a pixel image 49 using a large number of output values output by a plurality of output devices 9. The graph image 48 and the pixel image 49 are input to a learning model 1000 and used for learning and inference.

学習モデル1000には、公知の様々な構成を採用できる。学習モデル1000が採用するモデルの種類は特に限定されず、教師あり学習、教師なし学習、および強化学習のいずれでもよい。学習モデル1000は、演算装置1により実行されてもよいし、演算装置1とは異なる装置により実行されてもよい。学習モデル1000は、学習フェーズと推論フェーズでは異なる装置により実行されてもよいし、学習フェーズと推論フェーズではグラフ画像48やピクセル画像49を生成する演算装置1が物理的に異なる装置でもよい。 The learning model 1000 may employ various known configurations. There are no particular limitations on the type of model employed by the learning model 1000, and it may be any of supervised learning, unsupervised learning, and reinforcement learning. The learning model 1000 may be executed by the computing device 1, or may be executed by a device different from the computing device 1. The learning model 1000 may be executed by different devices in the learning phase and the inference phase, or the computing device 1 that generates the graph image 48 and the pixel image 49 in the learning phase and the inference phase may be physically different devices.

出力装置9は、センサや電子制御される様々な電子制御機器である。出力値は、センサのセンシングデータ、電子制御機器の演算結果、および電子制御機器が外部から設定される値などである。出力値の具体例としては、温度センサが測定した温度、近接センサが測定した単位時間当たりの近接回数、速度センサが測定した速度、自動調光機能を有する照明が設定した照度、コントロールバルブを制御するポジショナが演算した弁開度などである。さらに出力値は、ユーザにより設定された空調設備の設定温度、ユーザにより設定されたベルトコンベアの速度などでもよい。 The output device 9 is a sensor or various electronically controlled electronic control devices. The output value is sensing data from a sensor, a calculation result from an electronic control device, a value set from the outside of the electronic control device, etc. Specific examples of output values are the temperature measured by a temperature sensor, the number of proximity events per unit time measured by a proximity sensor, the speed measured by a speed sensor, the illuminance set by a light with an automatic dimming function, the valve opening calculated by a positioner that controls a control valve, etc. Furthermore, the output value may be the set temperature of an air conditioning device set by a user, the speed of a conveyor belt set by a user, etc.

出力装置9と学習モデル1000の出力の関係はたとえば次のものである。第1の例では、出力装置9はある室内に設置されたセンサや電子制御機器である。その室内に設置された演算装置1がグラフ画像48を生成してクラウドサーバ上で動作する学習モデル1000に入力する。学習モデル1000は、グラフ画像48に基づきその室内の状態、たとえば、正常、浸水、火事などを推論する。第2の例では、出力装置9はスマートフォンに内蔵される加速度センサおよびジャイロである。演算装置1は同じスマートフォンであり、ピクセル画像49を生成して学習モデル1000に入力し、スマートフォンを所持している人間の動作、たとえばランニング中、歩行中、エスカレータで移動中、などを推論する。 The output relationship between the output device 9 and the learning model 1000 is, for example, as follows. In a first example, the output device 9 is a sensor or electronic control device installed in a room. The calculation device 1 installed in the room generates a graph image 48 and inputs it to the learning model 1000 running on a cloud server. The learning model 1000 infers the state of the room, for example, normal, flooded, fire, etc., based on the graph image 48. In a second example, the output device 9 is an acceleration sensor and gyro built into a smartphone. The calculation device 1 is the same smartphone, and generates a pixel image 49 and inputs it to the learning model 1000 to infer the movement of the person holding the smartphone, for example, running, walking, moving on an escalator, etc.

以下では、図1に示す構成のうち演算装置1によるグラフ画像48およびピクセル画像49の生成を詳しく説明する。演算装置1によるグラフ画像48やピクセル画像49の生成方法は、学習モデル1000の動作フェーズに関わらず一定である。以下では、演算装置1はグラフ画像48およびピクセル画像49の両方を作成可能として説明するが、演算装置1は、グラフ画像48およびピクセル画像49の少なくとも一方を作成可能であればよい。 In the following, generation of the graph image 48 and pixel image 49 by the arithmetic device 1 in the configuration shown in FIG. 1 will be explained in detail. The method of generating graph images 48 and pixel images 49 by arithmetic device 1 is constant regardless of the operation phase of learning model 1000. Although the calculation device 1 will be described below as being able to create both the graph image 48 and the pixel image 49, it is sufficient that the calculation device 1 can create at least one of the graph image 48 and the pixel image 49.

図2は演算装置1の機能構成図である。演算装置1は、取得部11と、前処理部12と、検証部13と、画像生成部14と、描画判断部15と、を備える。ただし図2では、説明の便宜のために演算装置1が備える記憶装置4に格納されるデータも記載している。記憶装置4には、装置リスト41と、収集データ群42と、前処理済データ群43と、検証済データ群44と、画像パラメータ45と、要求仕様46と、グラフ画像48と、ピクセル画像49とが格納される。 Figure 2 is a functional block diagram of the calculation device 1. The calculation device 1 includes an acquisition unit 11, a preprocessing unit 12, a verification unit 13, an image generation unit 14, and a drawing determination unit 15. However, for ease of explanation, Figure 2 also shows data stored in the storage device 4 included in the calculation device 1. The storage device 4 stores a device list 41, a collected data group 42, a preprocessed data group 43, a verified data group 44, image parameters 45, required specifications 46, a graph image 48, and a pixel image 49.

取得部11は、複数の出力装置9から出力値を取得して収集データ群42として記憶装置4に格納する。取得部11とそれぞれの出力装置9との通信は有線でもよいし無線でもよい。また、取得部11は出力装置9と直接に通信してもよいし中継器やネットワークを介して間接的に通信してもよい。さらに取得部11は、出力装置9と直接通信する代わりに、記憶媒体を介してオフラインで出力値を取得してもよい。 The acquisition unit 11 acquires output values from multiple output devices 9 and stores them in the storage device 4 as a collected data group 42. Communication between the acquisition unit 11 and each output device 9 may be wired or wireless. The acquisition unit 11 may communicate directly with the output devices 9 or indirectly via a repeater or network. Furthermore, instead of communicating directly with the output devices 9, the acquisition unit 11 may acquire output values offline via a storage medium.

前処理部12は、収集データ群42を処理して前処理済データ群43を生成する。前処理部12は、収集データ群42に含まれる全てのデータを時系列順に並べ、装置リスト41に記載されている補間手法を用いて空欄を埋める。また前処理部12は、収集データ群42に含まれる非数値データをあらかじめ定められた手法により数値に変換する。たとえば前処理部12は、ON-OFF値のONを「1」に置き換え、OFFを「0」に置き換える。 The pre-processing unit 12 processes the collected data group 42 to generate a pre-processed data group 43. The pre-processing unit 12 arranges all data included in the collected data group 42 in chronological order and fills in blanks using an interpolation method described in the device list 41. The pre-processing unit 12 also converts non-numeric data included in the collected data group 42 into numeric values using a predetermined method. For example, the pre-processing unit 12 replaces ON in an ON-OFF value with "1" and OFF with "0".

検証部13は、前処理済データ群43を処理して検証済データ群44を生成する。検証部13は、センシングデータが所定の時間間隔となるように、データの統合や不足データの補足を行い検証済データを生成する。換言すると、検証部13は出力装置9ごとにそれぞれの時間帯を代表する出力値となる検証済データを生成する。本実施の形態では、この時間帯を1分とした例を説明するが、1分よりも短い1秒や0.5秒でもよいし、1分よりも長い30分、1時間、1日などでもよい。 The verification unit 13 processes the preprocessed data group 43 to generate a verified data group 44 . The verification unit 13 integrates data and supplements missing data so that the sensing data is at predetermined time intervals to generate verified data. In other words, the verification unit 13 generates verified data that is an output value representative of each time period for each output device 9. In this embodiment, an example will be explained in which this time period is 1 minute, but it may be shorter than 1 minute such as 1 second or 0.5 seconds, or longer than 1 minute such as 30 minutes, 1 hour, 1 day, etc. But that's fine.

画像生成部14は、グラフ画像48およびピクセル画像49を生成する。描画判断部15は、装置リスト41における描画タイプおよびレイヤ番号を決定する。換言すると描画判断部15は、それぞれの出力値の描画タイプおよびレイヤ番号を決定して装置リスト41に書き込む。ただし描画判断部15は演算装置1に必須の構成ではなく、装置リスト41があらかじめ完成している場合や、オペレータが装置リスト41を書き換える場合には演算装置1は描画判断部15を備えなくてもよい。 The image generation unit 14 generates a graph image 48 and a pixel image 49. The drawing judgment unit 15 determines the drawing type and layer number in the device list 41. In other words, the drawing judgment unit 15 determines the drawing type and layer number of each output value and writes them to the device list 41. However, the drawing judgment unit 15 is not an essential component of the calculation device 1, and the calculation device 1 does not need to have the drawing judgment unit 15 if the device list 41 is completed in advance or if the operator rewrites the device list 41.

装置リスト41には、出力装置9が出力する出力値に関するデータが記載される。装置リスト41に含まれるデータは、描画タイプおよびレイヤ番号を除いてあらかじめ作成される。収集データ群42は、取得部11が出力装置9から取得したセンシング情報の集合体である。これらのセンシング情報にはタイムスタンプが付されている。タイムスタンプはそれぞれの出力装置9が付してもよいし、取得部11が付してもよい。図2では、収集データ群42を概念的に示しているにすぎず、実際には複数のファイルから構成されてもよい。 The device list 41 lists data related to the output values output by the output device 9. The data included in the device list 41 is created in advance, except for the drawing type and layer number. The collected data group 42 is a collection of sensing information acquired by the acquisition unit 11 from the output device 9. This sensing information is time-stamped. The time-stamp may be assigned by each output device 9 or by the acquisition unit 11. Figure 2 merely conceptually illustrates the collected data group 42, and in reality it may be composed of multiple files.

前処理済データ群43は、収集データ群42を用いて前処理部12が生成するデータの集合体である。検証済データ群44は、前処理済データ群43を用いて検証部13が生成するデータの集合体である。画像パラメータ45は、あらかじめ作成されるパラメータの集合であり、画像生成部14がグラフ画像48およびピクセル画像49を生成する際に参照される。要求仕様46は、演算装置1が生成する画像に関する要求であり、あらかじめ作成される。グラフ画像48は、検証済データ群44を構成する検証済データを用いて作成したグラフから軸や目盛りの値を除いた画像である。ピクセル画像49は、検証済データ群44に含まれる検証済データの1つずつを輝度、濃淡、または色として表した画像である。グラフ画像48およびピクセル画像49の具体例は後述する。 The preprocessed data group 43 is a collection of data generated by the preprocessing unit 12 using the collected data group 42. The verified data group 44 is a collection of data generated by the verification unit 13 using the preprocessed data group 43. The image parameters 45 are a set of parameters created in advance, and are referenced when the image generation unit 14 generates the graph image 48 and the pixel image 49. The requirement specifications 46 are requirements regarding images generated by the arithmetic device 1, and are created in advance. The graph image 48 is an image obtained by removing the axes and scale values from a graph created using the verified data forming the verified data group 44. The pixel image 49 is an image in which each piece of verified data included in the verified data group 44 is expressed as brightness, shade, or color. Specific examples of the graph image 48 and pixel image 49 will be described later.

図3は、演算装置1のハードウエア構成図である。演算装置1は、中央演算装置であるCPU81、読み出し専用の記憶装置であるROM82、読み書き可能な記憶装置であるRAM83、ユーザインタフェースである入出力装置84、通信装置85、および記憶装置4を備える。CPU81がROM82に格納されるプログラムをRAM83に展開して実行することで前述の様々な演算を行う。 Figure 3 is a hardware configuration diagram of the calculation device 1. The calculation device 1 includes a CPU 81, which is a central processing unit, a ROM 82, which is a read-only storage device, a RAM 83, which is a readable and writable storage device, an input/output device 84, which is a user interface, a communication device 85, and a storage device 4. The CPU 81 loads a program stored in the ROM 82 into the RAM 83 and executes it to perform the various calculations described above.

演算装置1は、CPU81、ROM82、およびRAM83の組み合わせの代わりに書き換え可能な論理回路であるFPGA(Field Programmable Gate Array)や特定用途向け集積回路であるASIC(Application Specific Integrated Circuit)により実現されてもよい。また演算装置1は、CPU81、ROM82、およびRAM83の組み合わせの代わりに、異なる構成の組み合わせ、たとえばCPU81、ROM82、RAM83とFPGAの組み合わせにより実現されてもよい。 The arithmetic unit 1 may be realized by an FPGA (Field Programmable Gate Array), which is a rewritable logic circuit, or an ASIC (Application Specific Integrated Circuit), which is a rewritable logic circuit, instead of the combination of the CPU 81, ROM 82, and RAM 83. good. Furthermore, instead of the combination of the CPU 81, ROM 82, and RAM 83, the arithmetic device 1 may be realized by a combination of different configurations, for example, a combination of the CPU 81, ROM 82, RAM 83, and FPGA.

入出力装置84は、キーボード、マウス、液晶ディスプレイなどである。演算装置1は、入出力装置84を用いてユーザからの入力を受け付ける。ユーザは入出力装置84を用いて、装置リスト41や画像パラメータ45の入力や修正ができる。通信装置85は、他の装置との通信を可能とする通信モジュールであり、ネットワークインタフェースカードなどの独立したハードウエアでもよいし、SoCやCPUの一つの機能として実現されてもよい。通信装置85は、無線通信および有線通信のいずれを実現してもよい。記憶装置4は不揮発性の記憶装置、たとえばハードディスクドライブである。 The input/output device 84 is a keyboard, a mouse, an LCD display, etc. The computing device 1 accepts input from a user using the input/output device 84. The user can use the input/output device 84 to input and modify the device list 41 and image parameters 45. The communication device 85 is a communication module that enables communication with other devices, and may be independent hardware such as a network interface card, or may be realized as a function of a SoC or a CPU. The communication device 85 may realize either wireless communication or wired communication. The storage device 4 is a non-volatile storage device, such as a hard disk drive.

図4は、装置リスト41の一例を示す図である。装置リスト41には、出力装置9に含まれる全ての出力値に関する情報が記載される。図4に示す例では、D001~D004の4つの出力装置9の出力値に関して、出力種別、最小値、最大値、保管方法、および描画タイプが示されている。出力種別とは、センシングデータが数値、すなわち連続値であるか、それとも離散値であるかの区別である。図4に示す例では、離散値の場合には値の数も併せて記載している。図4に示す例では、出力装置9ごとに描画タイプが指定されているが、全ての出力装置9に対して共通の描画タイプを指定してもよい。 Figure 4 is a diagram showing an example of the device list 41. The device list 41 lists information about all output values contained in the output devices 9. In the example shown in Figure 4, the output type, minimum value, maximum value, storage method, and drawing type are shown for the output values of four output devices 9, D001 to D004. The output type is a distinction between whether the sensing data is a numerical value, i.e., a continuous value, or a discrete value. In the example shown in Figure 4, in the case of a discrete value, the number of values is also listed. In the example shown in Figure 4, a drawing type is specified for each output device 9, but a common drawing type may be specified for all output devices 9.

最小値および最大値は、出力種別が連続値の場合のみ記載され、連続値の最小値と最大値が規定される。補間方法は、前処理部12による補間方法を表す。描画タイプは、グラフ画像48およびピクセル画像49のいずれか、および何番目のレイヤ―に描画するかの情報である。装置リスト41に記載される情報のうち、この描画タイプのみが描画判断部15により設定される。 The minimum and maximum values are written only when the output type is a continuous value, and the minimum and maximum of the continuous value are specified. The interpolation method indicates the interpolation method used by the pre-processing unit 12. The drawing type is information on whether the image is a graph image 48 or a pixel image 49, and on which layer it is to be drawn. Of the information written in the device list 41, only this drawing type is set by the drawing determination unit 15.

図5は、収集データ群42の一例を示す図である。図5に示す例では、D001~D004の4つの出力装置9の出力値が示されており、値が存在しない欄はシャープ(#)を記載している。図5では、説明の便宜のために全データを1つのテーブルにまとめ、タイムスタンプの値でソートしている。以下に説明する図6および図7の値は、この図5に示す値に基づいている。 Figure 5 is a diagram showing an example of a collected data group 42. In the example shown in Figure 5, output values of four output devices 9, D001 to D004, are shown, and columns with no values are marked with a sharp (#). For ease of explanation, in Figure 5, all data is compiled into one table and sorted by timestamp value. The values in Figures 6 and 7 explained below are based on the values shown in Figure 5.

図6は、前処理済データ群43の一例を示す図である。図6では、図5に示す収集データ群42と値が異なる欄にアスタリスクを付している。図6の図5からの変更点は次のとおりである。第1に、第2装置D002の「ON」の値が「1」に置き換えられ、「OFF」の値が「0」に置き換えられている。第2に、値が存在しなかった5つの欄に補間処理により何らかの値が設定されている。詳しくは後述するが、補間処理は前処理部12により装置リスト41に記載された補間方法の値に基づき行われる。 FIG. 6 is a diagram showing an example of the preprocessed data group 43. In FIG. 6, asterisks are attached to columns that have different values from the collected data group 42 shown in FIG. 5. The changes in FIG. 6 from FIG. 5 are as follows. First, the "ON" value of the second device D002 is replaced with "1", and the "OFF" value is replaced with "0". Second, some values are set by interpolation in the five columns where no values existed. As will be described in detail later, the interpolation process is performed by the preprocessing unit 12 based on the value of the interpolation method listed in the device list 41.

図7は、検証済データ群44の一例を示す図である。図7の図6から変更点は、一定の時間間隔となるように「10:24:30」のデータが削除された点である。これにより、1分間の時間帯ごとの出力装置9の出力の代表値が検証済データとして図7に列挙された。なお同図ではデータを削除する例を示しているが、同様に一定の時間間隔となるようにデータを追加してもよい。データの追加方法としては、前後のデータからの線形補間など公知の補間技術を用いてよい。 FIG. 7 is a diagram showing an example of the verified data group 44. The difference from FIG. 6 in FIG. 7 is that the data of "10:24:30" is deleted so that a constant time interval is maintained. As a result, representative values of the output of the output device 9 for each one-minute time period are listed in FIG. 7 as verified data. Note that although the figure shows an example in which data is deleted, data may be added at fixed time intervals in the same way. As a method for adding data, a known interpolation technique such as linear interpolation from previous and subsequent data may be used.

図8は、画像パラメータ45の一例を示す図である。画像パラメータ45は、画像生成部14がグラフ画像48およびピクセル画像49を生成する際に参照される。画像パラメータ45はグラフ画像用とピクセル画像用の2つに大別される。グラフ画像用の画像パラメータ45は、横ピクセル数、縦ピクセル数、横幅全体に対応する時間、の3つである。「横ピクセル数」および「縦ピクセル数」は、生成するグラフ画像48の横サイズおよび縦サイズである。「横幅全体に対応する時間」は、グラフ画像48の横幅全体で表現される期間の長さであり、生成する1つのグラフ画像48に収める期間の長さとも言える。図8に示す例に基づき生成されるグラフ画像48は、横1440ピクセル、縦1000ピクセルであり、24時間、すなわち1日分のデータが格納される。 Figure 8 is a diagram showing an example of image parameters 45. The image parameters 45 are referred to when the image generating unit 14 generates a graph image 48 and a pixel image 49. The image parameters 45 are broadly divided into two: for graph images and for pixel images. The image parameters 45 for graph images are three: the number of horizontal pixels, the number of vertical pixels, and the time corresponding to the entire width. The "number of horizontal pixels" and "number of vertical pixels" are the horizontal and vertical sizes of the graph image 48 to be generated. The "time corresponding to the entire width" is the length of the period represented by the entire width of the graph image 48, and can also be said to be the length of the period to be contained in one graph image 48 to be generated. The graph image 48 generated based on the example shown in Figure 8 is 1440 pixels wide and 1000 pixels long, and stores data for 24 hours, i.e., one day.

図9は、要求仕様46の一例を示す図である。要求仕様46は、描画判断部15により参照される。要求仕様46は演算装置1が生成する画像に関する要求事項であり、視認性の要否、および簡潔性の要否が含まれる。図9に示す例では、演算装置1が生成する画像に視認性を要求する旨の「YES」、および演算装置1が生成する画像に簡潔性を要求する旨の「YES」が記載されている。 FIG. 9 is a diagram showing an example of the required specifications 46. The required specification 46 is referred to by the drawing determination unit 15. The requirement specifications 46 are requirements regarding images generated by the arithmetic device 1, and include whether or not visibility is required and whether or not conciseness is required. In the example shown in FIG. 9, "YES" indicating that visibility is required for the image generated by the computing device 1 and "YES" indicating that conciseness is required for the image generated by the computing device 1 is written. .

ピクセル画像用の画像パラメータ45は、横ピクセル数、横幅全体に対応する時間、1画像中の1データの期間、およびデータ1点のピクセルサイズ、の4つである。「横ピクセル数」はグラフ画像用と同じ意味である。「横幅全体に対応する時間」は、ピクセル画像49の横幅全体で表現される期間の長さである。「1画像中の1データの期間」は、生成する1つのピクセル画像49に収める期間の長さである。図8に示す例では、「横幅全体に対応する時間」が「24時間」すなわち1日であり、「1画像中の1データの期間」が「7日」なので、1つのピクセル画像49に1種類のセンシングデータが7列存在する。「データ1点のピクセルサイズ」は、ピクセル画像49における1つのセンシングデータの横および縦のピクセル数である。 The image parameters 45 for a pixel image are the number of horizontal pixels, the time corresponding to the entire width, the period of one data in one image, and the pixel size of one data point. "Number of horizontal pixels" has the same meaning as for graph images. “The time corresponding to the entire width” is the length of the period expressed by the entire width of the pixel image 49. “Period of one data in one image” is the length of a period contained in one pixel image 49 to be generated. In the example shown in FIG. 8, the "time corresponding to the entire width" is "24 hours", that is, one day, and the "period of one data in one image" is "7 days", so one pixel image 49 has one There are seven columns of sensing data of different types. “Pixel size of one data point” is the number of horizontal and vertical pixels of one sensing data in the pixel image 49.

図10は、グラフ画像48の一例を示す図である。図10に示す例では、5つの出力装置9、たとえば第1装置D001~第5装置D005の出力値のある1日のデータを折れ線グラフとしてプロットして得られるグラフがグラフ画像48である。ただし正確には、収集データ群42に含まれる出力装置9が出力したそのままの値ではなく、前処理部12および検証部13による処理を経た検証済データを用いてグラフ画像48が作成される。グラフ画像48は、相互に直交するX方向およびY方向に広がっている。図10に示すグラフ画像48は、横軸であるX方向に時刻、縦軸であるY方向に出力値をとり、検証済データ群44を構成する検証済データを描画して得られる画像である。具体的には、横軸の左端は0時0分の値であり、右端の値は23時59分の値である。ただしグラフ画像48の時間軸は1日でなくてもよく、1時間、数日、1年などでもよい。また、横軸の左端の時刻は上記に限られるものではなく、データの特性や用途に応じて任意の時刻としてもよい。 FIG. 10 is a diagram showing an example of the graph image 48. In the example shown in FIG. 10, the graph image 48 is a graph obtained by plotting one day's data of output values of five output devices 9, for example, the first device D001 to the fifth device D005, as a line graph. However, to be more precise, the graph image 48 is created using verified data that has been processed by the preprocessing unit 12 and the verification unit 13, rather than the values directly output by the output device 9 included in the collected data group 42. The graph image 48 extends in the X direction and the Y direction, which are orthogonal to each other. The graph image 48 shown in FIG. 10 is an image obtained by drawing the verified data constituting the verified data group 44, with time taken in the X direction (horizontal axis) and output value in the Y direction (vertical axis). . Specifically, the left end of the horizontal axis is the value of 0:00, and the right end is the value of 23:59. However, the time axis of the graph image 48 does not have to be one day, but may be one hour, several days, one year, etc. Furthermore, the time at the left end of the horizontal axis is not limited to the above, and may be any time depending on the characteristics and purpose of the data.

第1装置のプロットは、縦軸の下端を第1装置の最小出力値とし、縦軸の上端を第1装置の最大出力値としている。第2装置のプロットは、縦軸の下端を第2装置の最小出力値とし、縦軸の上端を第2装置の最大出力値としている。第3装置~第5装置のプロットも同様である。ただし、第1装置の最小出力値とは特定のグラフ画像48の生成に用いる第1装置の最小値ではなく、全ての期間を通しての第1装置の最小出力値である。本実施の形態では、装置リスト41に記載の第1装置の最小値を用いる。同様に、第1装置の最大値は装置リスト41に記載の第1装置の最大値を用いる。第2装置~第5装置の最小値および最大値も同様である。図10では、作図の都合により装置ごとに線の種類を変更しているが、異なる色を用いることで装置の違いを表現してもよい。 In the plot for the first device, the bottom end of the vertical axis is the minimum output value of the first device, and the top end of the vertical axis is the maximum output value of the first device. In the plot for the second device, the bottom end of the vertical axis is the minimum output value of the second device, and the top end of the vertical axis is the maximum output value of the second device. The same is true for the plots for the third to fifth devices. However, the minimum output value of the first device is not the minimum value of the first device used to generate a specific graph image 48, but the minimum output value of the first device throughout the entire period. In this embodiment, the minimum value of the first device listed in the device list 41 is used. Similarly, the maximum value of the first device listed in the device list 41 is used as the maximum value of the first device. The same is true for the minimum and maximum values of the second to fifth devices. In FIG. 10, the type of line is changed for each device for convenience of drawing, but the difference between the devices may be expressed by using different colors.

図11は、ピクセル画像49の一例を示す図である。図11に示すピクセル画像49は、第1装置D001~第10装置D010の合計10個の出力装置9の1週間分の出力値を示している。図11に示すピクセル画像49は、横1440ピクセル、縦70ピクセルである。このピクセル画像49を構成する1ピクセルは、1分ごとのいずれかの出力値を表す。1日は1440分なので、横の1ラインがある出力装置9のある一日の出力値を示す。図11では出力装置9ごとに1週間、すなわち7日分の出力値を示しているので、出力装置9ごとに縦方向に7ピクセルを使っている。 FIG. 11 is a diagram showing an example of the pixel image 49. The pixel image 49 shown in FIG. 11 shows output values for one week of a total of ten output devices 9, the first device D001 to the tenth device D010. The pixel image 49 shown in FIG. 11 has 1440 pixels horizontally and 70 pixels vertically. One pixel constituting this pixel image 49 represents any output value every minute. Since there are 1440 minutes in a day, one horizontal line indicates the output value of the output device 9 for one day. Since FIG. 11 shows output values for one week, that is, seven days, for each output device 9, seven pixels are used in the vertical direction for each output device 9.

図11の下に示すピクセル画像49の拡大図は、横5ピクセル、縦15ピクセルの範囲を示している。図11では各ピクセルのハッチングの種類により出力値を表している。左端の1列は0時0分から0時1分の出力値を表し、左端から2列目は0時1分から0時2分の出力値を表す。最上段は第1装置の1日目の出力値を示し、2段目は第1装置の2日目の出力値を示す。すなわち横方向には1分の時間間隔でプロットされており、縦方向には1日の時間間隔でプロットされている。図11では、作図の都合によりハッチングの種類でプロットの値を表現しているが、色でプロットの値を表現してもよい。 The enlarged view of the pixel image 49 shown at the bottom of FIG. 11 shows a range of 5 pixels horizontally and 15 pixels vertically. In FIG. 11, the output value is represented by the type of hatching for each pixel. The first column at the left end represents the output value from 0:00 to 0:01, and the second column from the left end represents the output value from 0:01 to 0:2. The top row shows the output value of the first device on the first day, and the second row shows the output value of the first device on the second day. That is, the plots are plotted in the horizontal direction at time intervals of 1 minute, and in the vertical direction at time intervals of 1 day. In FIG. 11, plot values are expressed by hatching types for convenience of drawing, but plot values may also be expressed by colors.

図12は、描画判断部15の処理を示すフローチャートである。描画判断部15は、装置リスト41の描画タイプおよびレイヤ番号の欄が空欄の場合に次に説明する処理を行う。描画判断部15の処理は、画像生成部14によるグラフ画像48やピクセル画像49の生成よりも先に行われる。描画判断部15はまず要求仕様46を参照し、視認性が必要であるか否かを判断する。描画判断部15は、視認性が必要、換言すると要求仕様46における視認性の値が「YES」であると判断する場合には本ステップを肯定判断してステップS304に進み、視認性が不要であると判断する場合にはステップS302に進む。 Figure 12 is a flowchart showing the processing of the drawing judgment unit 15. The drawing judgment unit 15 performs the processing described below when the drawing type and layer number columns in the device list 41 are blank. The processing of the drawing judgment unit 15 is performed prior to the generation of the graph image 48 and pixel image 49 by the image generation unit 14. The drawing judgment unit 15 first refers to the requirement specifications 46 and determines whether or not visibility is required. If the drawing judgment unit 15 determines that visibility is required, in other words that the visibility value in the requirement specifications 46 is "YES", it makes a positive judgment at this step and proceeds to step S304, and if it determines that visibility is not required, it proceeds to step S302.

ステップS302では描画判断部15は、装置リスト41に記載された出力値の総数と、「20」および「50」である閾値との関係を判断する。描画判断部15は、出力値の総数が20未満であると判断する場合はステップS304に進み、出力値の総数が20以上50未満であると判断する場合はステップS303に進み、出力値の総数が50以上であると判断する場合はステップS305に進む。なお、本実施の形態では描画判定部15は、装置数「20」および「50」を閾値として上記の判断を行うが、必ずしもこれらの数値に限定されるものではなく、任意の値を定めてもよい。ステップS303では描画判断部15は、要求仕様46を参照し、簡潔性が必要であるか否かを判断する。描画判断部15は、簡潔性が必要、換言すると要求仕様46における簡潔性の値が「YES」であると判断する場合には本ステップを肯定判断してステップS305に進み、簡潔性が不要であると判断する場合にはステップS304に進む。 In step S302, the drawing judgment unit 15 judges the relationship between the total number of output values listed in the device list 41 and the threshold values of "20" and "50". If the drawing judgment unit 15 judges that the total number of output values is less than 20, the process proceeds to step S304. If the drawing judgment unit 15 judges that the total number of output values is 20 or more but less than 50, the process proceeds to step S303. If the drawing judgment unit 15 judges that the total number of output values is 50 or more, the process proceeds to step S305. In this embodiment, the drawing judgment unit 15 makes the above judgment using the device numbers "20" and "50" as threshold values, but the threshold values are not necessarily limited to these values, and any value may be set. In step S303, the drawing judgment unit 15 refers to the required specifications 46 and judges whether or not conciseness is necessary. If the drawing judgment unit 15 judges that conciseness is necessary, in other words, that the conciseness value in the required specifications 46 is "YES", the drawing judgment unit 15 judges this step as positive and proceeds to step S305. If the drawing judgment unit 15 judges that conciseness is unnecessary, the process proceeds to step S304.

ステップS304では描画判断部15は、生成する画像をグラフ画像48に決定してステップS311に進む。ステップS305では描画判断部15は、生成する画像をピクセル画像49に決定してステップS311に進む。ステップS311では描画判断部15は、これまでに得られた膨大な出力値を用いて、出力値同士の相関を示す相関係数を算出する。この相関係数には、ピアソンの積率相関係数やスピアマンの順位相関係数を用いることができ、他の相関係数を用いてもよい。 In step S304, the drawing determination unit 15 determines the graph image 48 as the image to be generated, and proceeds to step S311. In step S305, the drawing determination unit 15 determines the pixel image 49 as the image to be generated, and proceeds to step S311. In step S311, the drawing determination unit 15 uses the huge amount of output values obtained so far to calculate a correlation coefficient that indicates the correlation between output values. As this correlation coefficient, Pearson's product moment correlation coefficient or Spearman's rank correlation coefficient can be used, and other correlation coefficients may also be used.

続くステップS312では描画判断部15は、ステップS311において算出した相関係数の値に基づき、相互に関係性が強い出力値同士をグループ分けする。ただし1つのグループに含める出力値の数には限度があり、上限の一例を示すと、グラフ画像48は5~10程度、ピクセル画像49は20程度である。そして描画判断部15は、このグループごとに「1」からの連番を付する。なお、グループの番号に優劣はなく、このグループの番号がレイヤの番号として使用される。 In the following step S312, the drawing determination unit 15 groups output values that are strongly related to each other based on the value of the correlation coefficient calculated in step S311. However, there is a limit to the number of output values that can be included in one group, and an example of the upper limit is about 5 to 10 for the graph image 48 and about 20 for the pixel image 49. Then, the drawing determination unit 15 assigns a serial number starting from "1" to each group. Note that there is no priority in group numbers, and this group number is used as a layer number.

続くステップS313では描画判断部15は、ステップS304またはステップS305において決定された画像の種類、およびグループの番号を装置リスト41に記録して図12に示す処理を終了する。描画判断部15は、画像の種類を装置リスト41の描画タイプの欄に記載し、グループの番号をレイヤ番号の欄に記載する。なお以下では、図12のステップS301~S305を描画決定ステップとも呼び、ステップS311~S312を描画判断ステップとも呼ぶ。 In the following step S313, the drawing judgment unit 15 records the image type and group number determined in step S304 or step S305 in the device list 41, and ends the process shown in FIG. 12. The drawing judgment unit 15 writes the image type in the drawing type column of the device list 41, and writes the group number in the layer number column. Note that hereinafter, steps S301 to S305 in FIG. 12 are also referred to as drawing decision steps, and steps S311 to S312 are also referred to as drawing judgment steps.

図13は、画像生成部14の処理を示すフローチャートである。画像生成部14はまずステップS321において、未描画のレイヤを処理対象に選択する。未描画のレイヤとは、装置リスト41に記載された全ての描画タイプおよびレイヤ番号の組み合わせのうち、まだ処理対象として選択していないレイヤである。たとえば図4に示す装置リスト41の例では、グラフ画像48のレイヤ番号1、グラフ画像48のレイヤ番号2、ピクセル画像49のレイヤ番号1、の3つがある。画像生成部14は、ステップS321の初回実行時にはこの3つからいずれか1つを処理対象レイヤに選択してステップS322に進む。 Figure 13 is a flowchart showing the processing of the image generation unit 14. First, in step S321, the image generation unit 14 selects an undrawn layer as the layer to be processed. An undrawn layer is a layer that has not yet been selected as the layer to be processed among all the combinations of drawing types and layer numbers listed in the device list 41. For example, in the example of the device list 41 shown in Figure 4, there are three layers: layer number 1 of graph image 48, layer number 2 of graph image 48, and layer number 1 of pixel image 49. When step S321 is executed for the first time, the image generation unit 14 selects one of these three as the layer to be processed and proceeds to step S322.

続くステップS322では画像生成部14は、検証済データ群44から処理対象レイヤに属する全ての検証済データを読み込んでステップS323に進む。続くステップS323では画像生成部14は、処理対象レイヤの種別、すなわちグラフ画像48およびピクセル画像49のいずれであるかを判断する。画像生成部14は、処理対象レイヤがグラフ画像48のレイヤであると判断する場合はステップS324に進み、処理対象レイヤがピクセル画像49のレイヤであると判断する場合はステップS326に進む。 In the following step S322, the image generation unit 14 reads all verified data belonging to the processing target layer from the verified data group 44, and proceeds to step S323. In the following step S323, the image generation unit 14 determines the type of the layer to be processed, that is, the graph image 48 or the pixel image 49. If the image generation unit 14 determines that the layer to be processed is the layer of the graph image 48, the process proceeds to step S324, and if it determines that the layer to be processed is the layer of the pixel image 49, the process proceeds to step S326.

ステップS324では画像生成部14は、ステップS322において読み込んだデータごとの最小値および最大値を装置リスト41から読み込む。この最小値および最大値は、図10に示すようにグラフ描画領域の下端および上端に対応する値となる。続くステップS325では画像生成部14は、ステップS322において読み込んだデータを、画像パラメータ45やステップS324において読み込んだ最小値および最大値に従ってグラフ描画する。このグラフはグラフ画像48の指定されたレイヤの画像となる。次に画像生成部14はステップS328に進む。 In step S324, the image generation unit 14 reads the minimum and maximum values for each data read in step S322 from the device list 41. These minimum and maximum values correspond to the bottom and top of the graph drawing area as shown in FIG. 10. In the following step S325, the image generation unit 14 draws a graph of the data read in step S322 according to the image parameters 45 and the minimum and maximum values read in step S324. This graph becomes an image of the specified layer of the graph image 48. Next, the image generation unit 14 proceeds to step S328.

ステップS326では画像生成部14は、ステップS322において読み込んだデータごとの最小値および最大値を装置リスト41から読み込み、出力値と色の対応を決定する。たとえば画像生成部14は、ある出力値の最小値が「0」で最大値が「100」の場合には、「0xffffff」を「100」で除した値を出力値「1」の重みとし、16進数表記の上から2桁ずつをR、G、Bそれぞれの値とする。続くステップS327では画像生成部14は、ステップS322において読み込んだ値、ステップS326において決定した値と色の対応関係、および画像パラメータ45の値に基づきピクセル画像49の指定されたレイヤに描画してステップS328に進む。 In step S326, the image generation unit 14 reads the minimum value and maximum value for each data read in step S322 from the device list 41, and determines the correspondence between the output value and color. For example, if the minimum value of a certain output value is "0" and the maximum value is "100", the image generation unit 14 sets the weight of the output value "1" to the value obtained by dividing "0xffffff" by "100", The top two digits of the hexadecimal notation are each the R, G, and B values. In the following step S327, the image generation unit 14 draws on the specified layer of the pixel image 49 based on the value read in step S322, the correspondence between the value and color determined in step S326, and the value of the image parameter 45, and performs the step Proceed to S328.

ステップS325またはステップS327の処理が完了すると実行されるステップS328では画像生成部14は、装置リスト41に記載された全ての描画タイプおよびレイヤ番号の組み合わせの全てについて描画が完了したか否かを判断する。画像生成部14は、全て描画が完了したと判断する場合は図13に示す処理を終了し、未描画のレイヤが存在すると判断する場合はステップS321に戻る。 In step S328, which is executed when the processing of step S325 or step S327 is completed, the image generation unit 14 determines whether or not drawing has been completed for all combinations of drawing types and layer numbers listed in the device list 41. If the image generation unit 14 determines that all drawing has been completed, it ends the processing shown in FIG. 13, and if it determines that there are any layers that have not been drawn, it returns to step S321.

上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)コンピュータである演算装置1は、複数の出力装置9の出力を以下の符号化方法により符号化、すなわち画像化する。演算装置1が実行する符号化方法は、取得部11が実行する、複数の出力装置9の出力である収集データ群42を取得する取得ステップと、検証部13が実行する、収集データ群42に基づき、時間帯ごと、および出力装置9ごとの検証済データである検証済データ群44を生成する検証ステップと、画像生成部14が実行する、検証済データ群44に基づき、複数の出力装置9に含まれる2以上の出力装置9の検証済データを符号化した符号化画像、すなわちグラフ画像48やピクセル画像49を作成する画像生成ステップと、を含む。そのため、複数の信号間の相関を学習および推論可能な画像を生成できる。
According to the first embodiment described above, the following effects can be obtained.
(1) The arithmetic device 1, which is a computer, encodes the outputs of the plurality of output devices 9 using the following encoding method, that is, converts them into images. The encoding method executed by the arithmetic device 1 includes an acquisition step executed by the acquisition unit 11 to acquire the collected data group 42 that is the output of the plurality of output devices 9, and an acquisition step executed by the verification unit 13 to acquire the collected data group 42. A verification step of generating a verified data group 44 that is verified data for each time period and each output device 9 based on the verified data group 44 performed by the image generation unit 14; The process includes an image generation step of creating an encoded image, that is, a graph image 48 and a pixel image 49, by encoding the verified data of two or more output devices 9 included in the process. Therefore, it is possible to generate an image in which correlations between multiple signals can be learned and inferred.

(2)グラフ画像48はX方向およびY方向に広がりを有する二次元画像である。画像生成ステップでは、時間帯の異なる検証済データをX方向の異なる位置に配置し、値が異なる検証済データをY方向の異なる位置に配置する。そのため、複数の信号間の相関を二次元グラフとして表現し、機械学習モデルの学習や機械学習モデルを使った推論に利用できる。 (2) The graph image 48 is a two-dimensional image that extends in the X direction and the Y direction. In the image generation step, verified data in different time zones are arranged at different positions in the X direction, and verified data with different values are arranged in different positions in the Y direction. Therefore, the correlation between multiple signals can be expressed as a two-dimensional graph and used for learning machine learning models and inference using machine learning models.

(3)画像生成ステップではさらに、同一の出力装置9に由来する検証済データを時系列順に線で結び、折れ線グラフとして表現する。 (3) In the image generation step, the verified data originating from the same output device 9 is further connected with a line in chronological order and expressed as a line graph.

(4)画像生成ステップでは、ピクセル画像49を複数の領域に分割して、領域ごとに1つの出力装置9である処理対象出力装置の出力に対応する検証済データを輝度、濃淡、または色として符号化する。そのため、複数の信号間の相関をピクセル画像49として表現できる。 (4) In the image generation step, the pixel image 49 is divided into a plurality of regions, and for each region, the verified data corresponding to the output of the output device to be processed, which is one output device 9, is assigned as brightness, shade, or color. encode. Therefore, the correlation between a plurality of signals can be expressed as a pixel image 49.

(5)ピクセル画像49はX方向およびY方向に直交する第2方向に広がりを有する二次元画像である。画像生成部14は、領域ごとに処理対象出力装置を対象として、1分ごとの時間帯に対応する検証済データをX方向に並べ、1日ごとの時間帯に対応する検証済データをY方向に並べる。そのため演算装置1は、矩形領域ごとにそれぞれの出力装置9の出力を並べたピクセル画像49を生成できる。 (5) The pixel image 49 is a two-dimensional image that spreads in a second direction perpendicular to the X and Y directions. The image generation unit 14 targets the output device to be processed for each region, and arranges verified data corresponding to time periods of one minute in the X direction and verified data corresponding to time periods of one day in the Y direction. Therefore, the calculation device 1 can generate a pixel image 49 in which the output of each output device 9 is arranged for each rectangular region.

(6)描画判断部15は、複数の出力装置9の出力の相関に基づき、同一のレイヤに描画する出力装置9の組み合わせを決定する描画決定ステップ(図12のS311~S312)を実行する。そのため相関が強い出力装置9の出力同士を同一のレイヤに配置できる。 (6) The drawing determination unit 15 executes a drawing determination step (S311 to S312 in FIG. 12) of determining a combination of output devices 9 to draw on the same layer based on the correlation of the outputs of the plurality of output devices 9. Therefore, the outputs of the output devices 9 that have a strong correlation can be arranged in the same layer.

(7)描画判断部15は、要求仕様46に基づき符号化画像の種類を決定する描画判断ステップ(図12のS301~S305)を実行する。画像生成部14が実行する画像生成ステップでは、装置リスト41装置リスト41の描画タイプの欄に記載された種類の符号化画像、すなわちグラフ画像48またはピクセル画像49を生成する。 (7) The rendering determination unit 15 executes a rendering determination step (S301 to S305 in FIG. 12) for determining the type of encoded image based on the required specifications 46. In the image generation step executed by the image generation unit 14, an encoded image of the type described in the drawing type column of the device list 41, that is, a graph image 48 or a pixel image 49, is generated.

(変形例1)
オペレータは、装置リスト41における描画タイプに、グラフ画像48の異なる形態、たとえば「グラフ第2」や「グラフ第3」を登録してもよい。この場合に画像生成部14は、第1の実施の形態とは異なる形態のグラフ画像48を生成する。
(Modification 1)
The operator may register different forms of the graph image 48, for example, "graph 2" or "graph 3" as the drawing type in the device list 41. In this case, the image generation unit 14 generates a graph image 48 in a format different from that in the first embodiment.

図14は、グラフ画像48の別のバリエーションである第2グラフ画像48-2を示す図である。図14に示す例は、図10に示す例とはグラフの種類が異なる。すなわち図14は、マーカーのみをプロットしておりマーカー同士を繋ぐ線が存在しない散布図である。図14では、作図の都合により出力装置9ごとにプロットの種類を変更しているが、異なる色を用いることで出力装置9の違いを表現してもよい。 Figure 14 shows a second graph image 48-2, which is another variation of graph image 48. The example shown in Figure 14 is a different type of graph from the example shown in Figure 10. That is, Figure 14 is a scatter plot in which only markers are plotted, and no lines exist connecting the markers. In Figure 14, the type of plot is changed for each output device 9 for convenience of drawing, but the differences between output devices 9 may be expressed by using different colors.

図15は、グラフ画像48のさらに別のバリエーションである第3グラフ画像48-3を示す図である。ただし図15では、比較のために同じデータを描画したグラフ画像48も併記している。また表現の差異を明確にするために、図15では1つの出力装置9の出力のみを記載している。第3グラフ画像48-3では、出力値に含まれる特定の値を描画せず、直前の他の値で代用する。第3グラフ画像48-3は、モータ制御に用いる電流のように、ある値からゼロを経由して別の値に変化する出力値に有効である。 Figure 15 shows third graph image 48-3, which is yet another variation of graph image 48. However, for comparison, Figure 15 also shows graph image 48, which plots the same data. Also, to clarify the differences in expression, Figure 15 shows only the output of one output device 9. In third graph image 48-3, specific values contained in the output values are not plotted, but are substituted with other immediately preceding values. Third graph image 48-3 is effective for output values that change from one value to another value, via zero, such as currents used in motor control.

(変形例2)
オペレータは、装置リスト41における描画タイプに、ピクセル画像49の異なる形態、たとえば「ピクセル第2」や「ピクセル第3」を登録してもよい。この場合に画像生成部14は、第1の実施の形態とは異なる形態のピクセル画像49を生成する。
(Modification 2)
The operator may register different forms of the pixel image 49, such as "pixel 2" and "pixel 3", as the drawing type in the device list 41. In this case, the image generation unit 14 generates a pixel image 49 in a format different from that in the first embodiment.

図16は、ピクセル画像49の別のバリエーションを示す図である。図16の上段は第1の実施の形態におけるピクセル画像49を示しており、図16の中段は第2の形式である第2ピクセル画像49-2を示しており、図16の下段は第3の形式である第3ピクセル画像49-3を示している。ピクセル画像49は、図示上下方向のみに領域が分割され、図示横方向には同一の出力装置9の出力値のみが配されている。 FIG. 16 is a diagram showing another variation of the pixel image 49. The upper row of FIG. 16 shows the pixel image 49 in the first embodiment, the middle row of FIG. 16 shows the second pixel image 49-2 of the second format, and the lower row of FIG. The third pixel image 49-3 is shown in the form of . The pixel image 49 is divided into regions only in the vertical direction in the figure, and only the output values of the same output device 9 are arranged in the horizontal direction in the figure.

これに対して第2ピクセル画像49-2は、図示上下方向だけでなく図示左右方向にも2分割される。第3ピクセル画像49-3は、図示上下方向だけでなく図示左右方向にも3分割される。さらに、ここでは分割された領域は矩形として表したが、矩形以外の形状の領域に分割してもよい。このようにピクセル画像49は任意の形状に分割でき、学習モデル1000の学習フェーズおよび推論フェーズを通して同一の形状であればよい。 In contrast, the second pixel image 49-2 is divided into two not only in the vertical direction but also in the horizontal direction. The third pixel image 49-3 is divided into three not only in the vertical direction but also in the horizontal direction. Furthermore, although the divided areas are shown here as rectangles, they may be divided into areas of shapes other than rectangles. In this way, the pixel image 49 can be divided into any shape, as long as the shape remains the same throughout the learning phase and inference phase of the learning model 1000.

(変形例3)
上述した実施の形態では、グラフ画像48およびピクセル画像49は複数のレイヤを有することを前提としていた。しかしグラフ画像48およびピクセル画像49はレイヤ構造を有さない画像ファイル、たとえばJPGやBMPなどでもよい。この場合は、グラフ画像48およびピクセル画像49が複数のファイルとなる。
(Modification 3)
In the embodiment described above, it was assumed that the graph image 48 and the pixel image 49 had a plurality of layers. However, the graph image 48 and the pixel image 49 may be image files that do not have a layer structure, such as JPG or BMP. In this case, the graph image 48 and pixel image 49 become multiple files.

上述した各実施の形態および変形例において、機能ブロックの構成は一例に過ぎない。別々の機能ブロックとして示したいくつかの機能構成を一体に構成してもよいし、1つの機能ブロック図で表した構成を2以上の機能に分割してもよい。また各機能ブロックが有する機能の一部を他の機能ブロックが備える構成としてもよい。 In each of the embodiments and modifications described above, the configuration of the functional blocks is merely an example. Several functional configurations shown as separate functional blocks may be integrated, or a configuration shown in one functional block diagram may be divided into two or more functions. Further, a configuration may be adopted in which some of the functions of each functional block are provided in other functional blocks.

上述した各実施の形態および変形例において、プログラムはROM82に格納されるとしたが、プログラムは記憶装置4に格納されていてもよい。また、演算装置1が不図示の入出力インタフェースを備え、必要なときに入出力インタフェースと演算装置1が利用可能な媒体を介して、他の装置からプログラムが読み込まれてもよい。ここで媒体とは、例えば入出力インタフェースに着脱可能な記憶媒体、または通信媒体、すなわち有線、無線、光などのネットワーク、または当該ネットワークを伝搬する搬送波やディジタル信号、を指す。また、プログラムにより実現される機能の一部または全部がハードウエア回路やFPGAにより実現されてもよい。 In the above-described embodiments and variations, the program is stored in ROM 82, but the program may be stored in storage device 4. Furthermore, the arithmetic device 1 may be provided with an input/output interface (not shown), and the program may be read from another device when necessary via the input/output interface and a medium available to the arithmetic device 1. Here, the medium refers to, for example, a storage medium that is detachable from the input/output interface, or a communication medium, i.e., a network such as a wired, wireless, or optical network, or a carrier wave or digital signal that propagates through the network. Furthermore, some or all of the functions realized by the program may be realized by a hardware circuit or FPGA.

上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 Each of the embodiments and modifications described above may be combined. Although various embodiments and modifications have been described above, the present invention is not limited to these. Other embodiments considered within the technical spirit of the present invention are also included within the scope of the present invention.

1 :演算装置
9 :出力装置
11 :取得部
12 :前処理部
13 :検証部
14 :画像生成部
15 :描画判断部
41 :装置リスト
42 :収集データ群
43 :前処理済データ群
44 :検証済データ群
45 :画像パラメータ
46 :要求仕様
48 :グラフ画像
49 :ピクセル画像
1: Arithmetic device 9: Output device 11: Acquisition unit 12: Preprocessing unit 13: Verification unit 14: Image generation unit 15: Drawing judgment unit 41: Device list 42: Collection data group 43: Preprocessed data group 44: Verification Completed data group 45: Image parameters 46: Required specifications 48: Graph image 49: Pixel image

Claims (7)

コンピュータが実行する、複数の出力装置の出力を符号化する符号化方法であって、
前記複数の出力装置の出力である収集データ群を取得する取得ステップと、
前記収集データ群に基づき、時間帯ごと、および前記出力装置ごとの検証済データである検証済データ群を生成する検証ステップと、
前記検証済データ群に基づき、前記複数の出力装置に含まれる2以上の前記出力装置の前記検証済データを符号化した符号化画像を作成する画像生成ステップと、を含む符号化方法。
An encoding method executed by a computer for encoding outputs of a plurality of output devices, the method comprising:
an acquisition step of acquiring a collection data group that is the output of the plurality of output devices;
a verification step of generating a verified data group that is verified data for each time period and each output device based on the collected data group;
An encoding method comprising: creating an encoded image by encoding the verified data of two or more output devices included in the plurality of output devices, based on the verified data group.
請求項1に記載の符号化方法において、
前記符号化画像は第1方向および前記第1方向に直交する第2方向に広がりを有する二次元画像であり、
前記画像生成ステップでは、時間帯の異なる前記検証済データを前記第1方向の異なる位置に配置し、値が異なる前記検証済データを前記第2方向の異なる位置に配置する、符号化方法。
2. The encoding method according to claim 1,
the encoded image is a two-dimensional image having an extent in a first direction and a second direction perpendicular to the first direction,
The encoding method, in the image generating step, the verified data having different time periods are arranged at different positions in the first direction, and the verified data having different values are arranged at different positions in the second direction.
請求項2に記載の符号化方法において、
前記画像生成ステップではさらに、
同一の前記出力装置に由来する前記検証済データを時系列順に線で結ぶ、符号化方法。
The encoding method according to claim 2,
In the image generation step, further,
An encoding method in which the verified data originating from the same output device are connected in chronological order by a line.
請求項1に記載の符号化方法において、
前記画像生成ステップでは、
前記符号化画像を複数の領域に分割して、前記領域ごとに1つの前記出力装置である処理対象出力装置の前記出力に対応する前記検証済データを輝度、濃淡、または色として符号化する、符号化方法。
2. The encoding method according to claim 1,
In the image generating step,
An encoding method comprising: dividing the encoded image into a plurality of regions; and encoding, for each region, the verified data corresponding to the output of a processing target output device, which is one of the output devices, as brightness, shading, or color.
請求項4に記載の符号化方法において、
前記符号化画像は第1方向および前記第1方向に直交する第2方向に広がりを有する二次元画像であり、
前記画像生成ステップでは、
前記領域ごとに前記処理対象出力装置を対象として、第1の時間帯の間隔の前記出力に対応する前記検証済データを前記第1方向に並べ、前記第1の時間帯の間隔よりも長い時間間隔である第2の時間帯の間隔の前記出力に対応する前記検証済データを前記第2方向に並べる、符号化方法。
5. The encoding method according to claim 4,
the encoded image is a two-dimensional image having an extent in a first direction and a second direction perpendicular to the first direction,
In the image generating step,
An encoding method, for each area, targeting the output device to be processed, arranging the verified data corresponding to the output at a first time interval in the first direction, and arranging the verified data corresponding to the output at a second time interval, which is a time interval longer than the first time interval, in the second direction.
請求項1に記載の符号化方法において、
前記符号化画像は複数のレイヤを含み、
前記複数の出力装置の出力の相関に基づき、同一のレイヤに描画する前記出力装置の組み合わせを決定する描画決定ステップをさらに含む、符号化方法。
The encoding method according to claim 1,
the encoded image includes multiple layers,
The encoding method further includes a rendering determination step of determining a combination of the output devices to be rendered on the same layer based on a correlation between the outputs of the plurality of output devices.
請求項1に記載の符号化方法において、
要求仕様に基づき前記符号化画像の種類を決定する描画判断ステップをさらに含み、
前記画像生成ステップでは、前記描画判断ステップにおいて決定された種類の前記符号化画像を生成する、符号化方法。
The encoding method according to claim 1,
further comprising a drawing determination step of determining the type of the encoded image based on required specifications,
In the image generation step, the encoding method generates the encoded image of the type determined in the drawing determination step.
JP2022151578A 2022-09-22 2022-09-22 Encoding method Pending JP2024046277A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022151578A JP2024046277A (en) 2022-09-22 2022-09-22 Encoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022151578A JP2024046277A (en) 2022-09-22 2022-09-22 Encoding method

Publications (1)

Publication Number Publication Date
JP2024046277A true JP2024046277A (en) 2024-04-03

Family

ID=90481323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022151578A Pending JP2024046277A (en) 2022-09-22 2022-09-22 Encoding method

Country Status (1)

Country Link
JP (1) JP2024046277A (en)

Similar Documents

Publication Publication Date Title
EP3809220B1 (en) Method and system for semi-supervised deep anomaly detection for large-scale industrial monitoring systems based on time-series data utilizing digital twin simulation data
CN103703425B (en) The method for monitoring industrial process
JP5684941B1 (en) Abnormal sign diagnostic apparatus and abnormal sign diagnostic method
CN103842924B (en) Method of sequential kernel regression modeling for forecasting and prognostics
CN108983710A (en) Procedure analysis device, procedure analysis method and storage medium
CN103842923B (en) For forecast and the Sequence kernel regression modeling system of prediction
CN108628263B (en) Control system, control device, computer-readable storage medium, and control method
CN116129366A (en) Digital twinning-based park monitoring method and related device
CN108693822A (en) Control device, storage medium, control system and control method
US11892819B2 (en) Control device, control system, control method, and computer-readable storage medium
WO2022030041A1 (en) Prediction system, information processing device, and information processing program
CN114450646A (en) System and method for detecting wind turbine operational anomalies using deep learning
CN115045714A (en) Mineral mining early warning method, mineral mining early warning equipment and computer-readable storage medium
KR102493719B1 (en) Integrated air quality prediction system
CN115392015A (en) Automatic driving deduction system and deduction method based on digital twins
JP2024046277A (en) Encoding method
CN111931698B (en) Image deep learning network construction method and device based on small training set
CN117270482A (en) Automobile factory control system based on digital twin
KR102560340B1 (en) Facility 3D map production system based on digital twin
JP2019125206A (en) Information processing device, information processing method, and program
CN112654939B (en) Control system and control device
JP2023131628A (en) Information processing method, information processing device, and program
JP7413742B2 (en) Prediction system, information processing device and information processing program
CN113778042A (en) Industrial control equipment instruction simulation operation communication system based on informatization modeling
JP2002215226A (en) Plant operation monitoring device, its controlling method, program, and recording medium