JP2019509548A - Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition - Google Patents
Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition Download PDFInfo
- Publication number
- JP2019509548A JP2019509548A JP2018539392A JP2018539392A JP2019509548A JP 2019509548 A JP2019509548 A JP 2019509548A JP 2018539392 A JP2018539392 A JP 2018539392A JP 2018539392 A JP2018539392 A JP 2018539392A JP 2019509548 A JP2019509548 A JP 2019509548A
- Authority
- JP
- Japan
- Prior art keywords
- screenshot
- region
- text
- color
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 146
- 230000008569 process Effects 0.000 title description 90
- 238000012015 optical character recognition Methods 0.000 title description 21
- 238000004458 analytical method Methods 0.000 title description 17
- 238000012545 processing Methods 0.000 claims description 89
- 230000015654 memory Effects 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 13
- 230000001747 exhibiting effect Effects 0.000 claims description 4
- 239000002585 base Substances 0.000 description 115
- 238000004519 manufacturing process Methods 0.000 description 16
- 241000196324 Embryophyta Species 0.000 description 13
- 230000006399 behavior Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000009529 body temperature measurement Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 239000012530 fluid Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000004801 process automation Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 244000178870 Lavandula angustifolia Species 0.000 description 1
- 235000010663 Lavandula angustifolia Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003197 catalytic effect Effects 0.000 description 1
- 239000010779 crude oil Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012458 free base Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000001102 lavandula vera Substances 0.000 description 1
- 235000018219 lavender Nutrition 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000005086 pumping Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/418—Document matching, e.g. of document images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Character Input (AREA)
- Processing Or Creating Images (AREA)
- Character Discrimination (AREA)
Abstract
方法は、初期スクリーンショット(300)を含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャするステップ(208)を含む。本方法は、ベース画像(500、700)を生成するために初期スクリーンショットからテキストを削除するステップ(212)を含む。本方法は、初期スクリーンショットの背景(領域0)を閉領域として識別するステップ(216)を含む。本方法は、少なくとも1つのスクリーンショットの各々について、スクリーンショットをキャプチャする時間(970)を記憶するステップ(222)と、スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別するステップ(212、226)と、初期スクリーンショットの背景とは異なるスクリーンショット中の各閉領域(領域1〜12)と、スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別するステップ(216、230)と、各識別された閉領域のための領域色と領域ロケーションとを記憶するステップ(222)と、識別されたテキストのテキスト色とテキストロケーションとを記憶するステップ(214、228)とを含む。The method includes capturing (208) at least one screen shot of a display screen including an initial screen shot (300). The method includes a step (212) of deleting text from the initial screenshot to generate a base image (500, 700). The method includes identifying (216) the background (region 0) of the initial screenshot as a closed region. The method includes, for each of the at least one screenshot, storing (222) a time to capture the screenshot (970); identifying text, text color, and text location in the screenshot (212, 226), each closed region (region 1-12) in the screenshot different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot (216, 230), storing (222) the region color and region location for each identified closed region, and storing the text color and text location of the identified text (214, 228). ).
Description
[0001]本開示は、一般に制御システムを対象とする。より詳細には、本開示は、光学文字認識(OCR:Optical Character recognition)とインテリジェント文字認識(ICR:Intelligent Chracter Recognition)とを使用したプロセス工業におけるトリップされた(tripped)フィールドデバイスのポストモーテム(post−mortem)分析のための方法およびツールを対象とする。 [0001] The present disclosure is generally directed to control systems. More particularly, the present disclosure describes a post-mortem of a tripped field device in the process industry using optical character recognition (OCR) and intelligent character recognition (ICR). Mortem) is directed to methods and tools for analysis.
[0002]発電プラントなど、プロセスプラントは頻繁なトリッピング問題(tripping problem)を有するので、プロセスユニットは、複数のクリティカルアラームを生成し、時々、停止に至ることがある。トリッピングが発生したとき、オペレータは、問題を診断するために、任意の処理ユニットのクリティカルプロセスパラメータの前の値を検討することを希望し得る。たとえば、オペレータは、トリッピングがその間に発生した、任意の処理ユニットのアクティビティの最後の20分を検討することを希望し得るが、オペレータは、トリッピング問題のポストモーテム分析を実施するために、後戻りし、プラントのコンソールステーション被監視プロセスユニットを再検査する方法を有しない。 [0002] Because process plants, such as power plants, have frequent tripping problems, process units may generate multiple critical alarms, sometimes leading to outages. When tripping occurs, the operator may wish to review previous values of critical process parameters for any processing unit to diagnose the problem. For example, the operator may wish to consider the last 20 minutes of any processing unit activity during which tripping occurred, but the operator would go back to perform postmortem analysis of the tripping problem, There is no way to re-inspect the plant's console station monitored process unit.
[0003]コンソールステーション上でクリティカルプロセスのプロセスユニットを監視しているオペレータは、現在トリップされているデバイスを視覚的に認識することができる。認識されると、オペレータは、トリップされたデバイスのうちの1つを含む(オペレータがコンソールステーションを介して監視していた)プロセスユニットの過去の情報を閲覧するための包括的なまたは便利なツールを有しないことがある。プロセスユニットが停止に至ると、それのポストモーテム分析が必要とされることになるプロセスユニットのクリティカルデバイスを、オペレータが構成することを可能にするための便利なツールは存在しない。 [0003] An operator monitoring a process unit of a critical process on a console station can visually recognize the device that is currently being tripped. Once recognized, the operator is a comprehensive or convenient tool for viewing historical information on process units (the operator was monitoring via the console station), including one of the tripped devices May not be included. There is no convenient tool to allow an operator to configure a critical device of a process unit that will need to be postmortem analyzed when the process unit is shut down.
[0004]本開示は、光学文字認識(OCR)技法とインテリジェント文字認識(ICR)技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための装置および方法を提供する。 [0004] The present disclosure provides an apparatus and method for performing post-mortem analysis of tripped field devices in the process industry using optical character recognition (OCR) and intelligent character recognition (ICR) techniques.
[0005]第1の例では、方法は、初期スクリーンショットを含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャするステップを含む。本方法は、ベース画像を生成するために初期スクリーンショットからテキストを削除するステップを含む。本方法は、初期スクリーンショットの背景を閉領域として識別することを含む。本方法は、少なくとも1つのスクリーンショットの各々について、(i)スクリーンショットをキャプチャする時間を記憶するステップと、(ii)スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別するステップと、(iii)初期スクリーンショットの背景とは異なるスクリーンショット中の各閉領域と、スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別するステップと、(iv)各識別された閉領域のための領域色と領域ロケーションとを記憶するステップと、(v)識別されたテキストのテキスト色とテキストロケーションとを記憶するステップとを含む。 [0005] In a first example, the method includes capturing at least one screen shot of a display screen that includes an initial screen shot. The method includes removing text from the initial screenshot to generate a base image. The method includes identifying the background of the initial screenshot as a closed region. The method includes, for each of the at least one screenshot, (i) storing time to capture the screenshot; (ii) identifying text, text color, and text location in the screenshot; iii) identifying each closed region in the screenshot different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot; and (iv) each identified Storing the region color and region location for the closed region, and (v) storing the text color and text location of the identified text.
[0006]第2の例では、装置は、メモリと、メモリに結合された少なくとも1つのプロセッサとを含む。少なくとも1つのプロセッサは、初期スクリーンショットを含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャするように構成される。少なくとも1つのプロセッサは、ベース画像を生成するために初期スクリーンショットからテキストを削除するように構成される。少なくとも1つのプロセッサは、初期スクリーンショットの背景を閉領域として識別するように構成される。少なくとも1つのプロセッサは、少なくとも1つのスクリーンショットの各々について、(i)スクリーンショットをキャプチャする時間をメモリに記憶することと、(ii)スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別することと、(iii)初期スクリーンショットの背景とは異なるスクリーンショット中の各閉領域と、スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別することと、(iv)各識別された閉領域のための領域色と領域ロケーションとをメモリに記憶することと、(v)識別されたテキストのテキスト色とテキストロケーションとをメモリに記憶することとを行うように構成される。 [0006] In a second example, an apparatus includes a memory and at least one processor coupled to the memory. The at least one processor is configured to capture at least one screen shot of the display screen including the initial screen shot. At least one processor is configured to delete text from the initial screenshot to generate a base image. At least one processor is configured to identify the background of the initial screenshot as a closed region. At least one processor, for each of the at least one screenshot, (i) stores in memory the time to capture the screenshot, and (ii) identifies the text, text color, and text location in the screenshot. (Iii) identifying each closed region in the screenshot that is different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot; (iv) Configured to store in memory a region color and region location for each identified closed region; and (v) store in memory the text color and text location of the identified text. Is done.
[0007]第3の例では、コンピュータプログラムを実施する非一時的コンピュータ可読媒体が提供される。コンピュータプログラムは、処理回路によって実行されたとき、処理回路に、初期スクリーンショットを含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャさせるコンピュータ可読プログラムコードを含む。コンピュータプログラムは、処理回路によって実行されたとき、処理回路に、ベース画像を生成するために初期スクリーンショットからテキストを削除させるコンピュータ可読プログラムコードを含む。コンピュータプログラムは、処理回路によって実行されたとき、処理回路に、初期スクリーンショットの背景を閉領域として識別させるコンピュータ可読プログラムコードを含む。コンピュータプログラムは、処理回路によって実行されたとき、処理回路に、少なくとも1つのスクリーンショットの各々について、(i)スクリーンショットをキャプチャする時間をメモリに記憶することと、(ii)スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別することと、(iii)初期スクリーンショットの背景とは異なるスクリーンショット中の各閉領域と、スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別することと、(iv)各識別された閉領域のための領域色と領域ロケーションとを記憶することと、(v)識別されたテキストのテキスト色とテキストロケーションとを記憶することとを行わせるコンピュータ可読プログラムコードを含む。 [0007] In a third example, a non-transitory computer readable medium implementing a computer program is provided. The computer program includes computer readable program code that, when executed by the processing circuit, causes the processing circuit to capture at least one screen shot of the display screen including the initial screen shot. The computer program includes computer readable program code that, when executed by the processing circuit, causes the processing circuit to delete the text from the initial screenshot to generate a base image. The computer program includes computer readable program code that, when executed by the processing circuit, causes the processing circuit to identify the background of the initial screenshot as a closed region. When executed by the processing circuit, the computer program causes the processing circuit to store (i) a time to capture the screen shot in memory for each of the at least one screen shot; and (ii) the text in the screen shot. And (iii) each closed region in the screenshot different from the background of the initial screenshot, and a region color and region for each identified closed region in the screenshot Identifying the location; (iv) storing the region color and region location for each identified closed region; and (v) storing the text color and text location of the identified text. Including computer readable program code.
[0008]他の技術的特徴は、以下の図、説明、および特許請求の範囲から当業者には容易に明らかであり得る。
[0009]本開示およびそれの特徴のより完全な理解のために、次に、添付の図面とともに与えられる、以下の説明が参照される。
[0008] Other technical features may be readily apparent to one skilled in the art from the following figures, descriptions, and claims.
[0009] For a more complete understanding of the present disclosure and its features, reference is now made to the following description, taken in conjunction with the accompanying drawings.
[0020]以下で説明される図1〜図10、および本特許文献において本発明の原理について説明するために使用される様々な例は、例示的なものにすぎず、いかなる形でも本発明の範囲を制限するものと解釈されるべきではない。本発明の原理が、任意の好適な様式で、および任意のタイプの適切に構成されたデバイスまたはシステムにおいて実装され得ることを、当業者は理解されよう。 [0020] The various examples used to describe the principles of the present invention in FIGS. 1-10 described below and in this patent document are merely exemplary, and in any form of the present invention. It should not be construed as limiting the scope. Those skilled in the art will appreciate that the principles of the invention may be implemented in any suitable manner and in any type of suitably configured device or system.
[0021]図1は、本開示による、例示的な工業プロセス制御および自動化システム100を示す。図1に示されているように、システム100は、少なくとも1つの製品または他の材料の生産または処理を可能にする様々な構成要素を含む。たとえば、システム100は、1つまたは複数の工業プラント中の構成要素に対する制御を可能にするために使用され得る。各プラントは、1つまたは複数の処理設備(またはそれの1つまたは複数の部分)を表す。例示的な処理設備としては、少なくとも1つの製品または他の材料を生産するための製造プラント、化学プラント、原油精製所、鉱石処理プラント、ならびに紙またはパルプ製造および処理プラントがある。概して、各プラントは、1つまたは複数の工業プロセスを実装し得、個々にまたはまとめてプロセスシステムと呼ばれることがある。プロセスシステムは、概して、何らかの様式で1つまたは複数の製品または他の材料を処理するように構成された任意のシステムまたはそれの部分を表す。
[0021] FIG. 1 illustrates an exemplary industrial process control and
[0022]図1では、システム100は、1つまたは複数のセンサー102aと1つまたは複数のアクチュエータ102bとを含む。センサー102aおよびアクチュエータ102bは、多種多様な機能のいずれかを実施し得るプロセスシステム中の構成要素を表す。たとえば、センサー102aは、温度、圧力、または流量など、プロセスシステムにおける多種多様な特性を測定することができる。また、アクチュエータ102bは、プロセスシステムにおける多種多様な特性を変えることができる。センサー102aの各々は、プロセスシステムにおける1つまたは複数の特性を測定するための任意の好適な構造を含む。アクチュエータ102bの各々は、プロセスシステムにおける1つまたは複数の状態に作用するかまたは影響を及ぼすための任意の好適な構造を含む。例示的なアクチュエータ102bとしては、ヒーター、モーター、接触分解器、またはバルブがある。
[0022] In FIG. 1,
[0023]少なくとも1つのネットワーク104がセンサー102aとアクチュエータ102bとに結合される。ネットワーク104は、センサー102aおよびアクチュエータ102bとの対話を可能にする。たとえば、ネットワーク104は、センサー102aからの測定データをトランスポートし、アクチュエータ102bに制御信号を与えることができる。ネットワーク104は、任意の好適なネットワークまたはネットワークの組合せを表すことができる。特定の例として、ネットワーク104は、少なくとも1つのイーサネットネットワーク、(HARTまたはFOUNDATION FIELDBUSネットワークなどの)電気信号ネットワーク、空気制御信号ネットワーク、あるいは他のまたは追加の(1つまたは複数の)タイプの(1つまたは複数の)ネットワークを表すことができる。
[0023] At least one
[0024]様々なコントローラ106がネットワーク104に直接または間接的に結合される。コントローラ106は、様々な機能を実施するためにシステム100中で使用され得る。たとえば、コントローラ106の第1のセットは、1つまたは複数のアクチュエータ102bの動作を制御するために、1つまたは複数のセンサー102aからの測定値を使用し得る。コントローラ106の第2のセットは、コントローラの第1のセットによって実施される制御論理または他の動作を最適化するために使用され得る。コントローラ106の第3のセットは、追加の機能を実施するために使用され得る。
[0024]
[0025]コントローラ106は、しばしば、システム中で階層的に構成される。たとえば、個々のアクチュエータ、機械を形成するアクチュエータの集合、ユニットを形成する機械の集合、プラントを形成するユニットの集合、および企業を形成するプラントの集合を制御するために、異なるコントローラ106が使用され得る。コントローラ106の階層構成の特定の例は、プロセス制御の「パデュー(Purdue)」モデルとして定義される。異なる階層レベルにあるコントローラ106は、1つまたは複数のネットワーク108および関連するスイッチ、ファイアウォール、ならびに他の構成要素を介して通信することができる。
[0025]
[0026]各コントローラ106は、工業プロセスのうちの1つまたは複数の態様を制御するための任意の好適な構造を含む。コントローラ106のうちの少なくともいくつかは、たとえば、ロバスト多変数予測制御技術(RMPCT:Robust Multivariable Predictive Control Technology)コントローラ、あるいはモデル予測制御(MPC:model predictive control)または他の高度予測制御(APC:advanced predictive control)を実装する他のタイプのコントローラなど、多変数コントローラを表すことができる。
[0026] Each
[0027]コントローラ106およびシステム100の他の構成要素へのオペレータアクセスおよびそれとのオペレータ対話は、様々なオペレータコンソール110を介して行われ得る。上記で説明されたように、各オペレータコンソール110は、オペレータに情報を与えるために、およびオペレータから情報を受信するために使用され得る。たとえば、各オペレータコンソール110は、警告、アラーム、または工業プロセスに関連する他の状態を含む、工業プロセスの現在状態を識別する情報をオペレータに与えることができる。各オペレータコンソール110はまた、コントローラ106によって制御されるプロセス変数のための設定点を受信することによって、あるいはコントローラ106が工業プロセスをどのように制御するかを変えるかまたはそれに影響を及ぼす他の情報を受信することによってなど、工業プロセスがどのように制御されるかに影響を及ぼす情報を受信することができる。
[0027] Operator access to and interaction with the
[0028]複数のオペレータコンソール110が、一緒にグループ化され、1つまたは複数の制御室112中で使用され得る。各制御室112は、任意の好適な構成で任意の数のオペレータコンソール110を含むことができる。いくつかの実施形態では、各制御室112が、工業プラントの個別部分を管理するために使用されるオペレータコンソール110を含んでいるときなど、複数の制御室112が、工業プラントを制御するために使用され得る。
[0028] Multiple operator consoles 110 may be grouped together and used in one or
[0029]各オペレータコンソール110は、オペレータに情報を表示することと、オペレータと対話することとのための任意の好適な構造を含む。たとえば、各オペレータコンソール110は、1つまたは複数のプロセッサ、マイクロプロセッサ、マイクロコントローラ、フィールドプログラマブルゲートアレイ、特定用途向け集積回路、個別論理デバイス、あるいは他の処理または制御デバイスなど、1つまたは複数の処理デバイス114を含むことができる。各オペレータコンソール110は、(1つまたは複数の)処理デバイス114によって使用、生成、または収集される命令とデータとを記憶する1つまたは複数のメモリ116をも含むことができる。各オペレータコンソール110は、1つまたは複数のイーサネットインターフェースまたはワイヤレストランシーバなど、少なくとも1つのワイヤードまたはワイヤレスネットワーク上での通信を可能にする1つまたは複数のネットワークインターフェース118をさらに含むことができる。
[0029] Each
[0030]オペレータは、一般に、工業プロセスを管理することを受け持ち、しばしば、安全で有益な動作を維持するために、迅速におよび効率的に行動する必要がある。これを行うために、オペレータは、工業プロセスの現在状態を連続的に監視し、現在状態が人間の介入を必要とするかどうかを評価し、(必要とする場合)介入を実施し、介入の結果を査定する。これらの機能をサポートするオペレータコンソール110は、一般に、1つまたは複数のディスプレイ画面と、1つまたは複数のキーボードと、マウスまたはトラックボールなど、ポインティングデバイスとを含む。
[0030] Operators are generally responsible for managing industrial processes and often need to act quickly and efficiently to maintain safe and beneficial operation. To do this, the operator continuously monitors the current state of the industrial process, evaluates whether the current state requires human intervention, performs (if necessary) intervention, Assess the results. An
[0031]工業プロセスの現在状態が、現在トリップされているフィールドデバイスを含むとき、オペレータコンソール110中のディスプレイ画面のうちの1つまたは複数は、(1つまたは複数の)現在トリップされているデバイスの視覚インジケータを与える。工業プロセスのクリティカルプロセスを監視しているオペレータは、(1つまたは複数の)現在トリップされているデバイスのインジケータがクリティカルプロセスの一部であることを認識し得、(1つまたは複数の)現在トリップされているデバイスを含むそれのプロセスユニットの過去の情報を閲覧するための包括的なまたは便利なツールを望み得る。フィールドデバイスが電気機械的理由のために頻繁にトリップしている場合、プラント保守要員は、頻繁にトリップしているフィールドデバイスに関連する保守アクティビティをスケジュールすること、およびまた、デバイスのインベントリを保守することから恩恵を受けることができる。
[0031] When the current state of the industrial process includes a field device that is currently tripped, one or more of the display screens in
[0032]プロセスシステムに対する制御を可能にするために、オペレータコンソール110は、フィールドアセット保守システム(FAMS:field asset maintenance system)アプリケーション120を含み得る。FAMSアプリケーション120は、監視および/または制御されているプロセスの少なくとも一部を表すグラフィカルディスプレイを生成するための任意の好適なアプリケーションを含む。FAMSアプリケーション120は、人間機械インターフェース(HMI:human−machine interface)アプリケーションの特徴を含むことができる。HMIアプリケーションは、概して、オペレータにコンテンツを提示するためのグラフィカルディスプレイを生成するアプリケーションを表す。グラフィカルディスプレイは、オペレータによって監視および/または制御されている1つまたは複数のプロセス(またはそれの部分)を視覚的に表す。HMIアプリケーションは、制御されるべきプロセスを図式的に示すプロセス概略図など、任意の好適なグラフィカルデータをオペレータに提示することができる。より詳細には、FAMSアプリケーション120は、(1つまたは複数の)現在トリップされているデバイスを含むプロセスユニットの過去の情報のビューを与えるだけでなく、また、プロセスユニットが、クリティカルデバイスのうちの1つまたは複数のトリッピングから生じる停止など、停止に至ると、ポストモーテム分析がそれのために必要とされることになる、プロセスユニットのクリティカルデバイスを構成する、包括的なまたは便利なツールを与える。FAMSアプリケーション120は、オペレータが、ビデオの形態で保守ビュー画面を再生することと、光学文字認識(OCR)技法とインテリジェント文字認識(ICR)技法とを使用することによって(1つまたは複数の)フィールドデバイスのトリッピングの原因を見つけることとを可能にする。ICRは高度OCR技法であり、したがって、ICRはカスタムフォントおよびシンボルを認識する。
[0032] To allow control over the process system, the
[0033]本開示によれば、FAMSアプリケーション120は、1つまたは複数のコンピュータプロセッサによって実行されたとき、1つまたは複数のコンピュータプロセッサに、OCR技法とICR技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施させる。FAMSアプリケーション120は、様々なオペレータコンソール110上で稼動する様々なプロセスユニットの利用可能なビューを選択するためのツールをオペレータに与える。FAMSアプリケーション120は、オペレータが、選択されたプロセスユニットにおけるビューのスナップショットをキャプチャするために、プロセスユニットのクリティカルデバイスと監視頻度とを選択することを可能にする。FAMSアプリケーション120は、オペレータコンソール110上でプロセスユニットのビューの周期スナップショットをアーカイブし、ディスクスペースを温存するために暗号化および圧縮フォーマットで周期スナップショットを保存する。FAMSアプリケーション120は、アーカイビングがあまりに多くのディスクスペースを消費しないように、画像処理アルゴリズムを実装する。トリッピングが発生すると、FAMSアプリケーション120は、プロセスユニットのスナップショットが連続稼動プロセスを描くかのように、スナップショットを与えることができる。FAMSアプリケーション120によって与えられたスナップショットを使用することによって、オペレータは、トリッピングがそれにより発生した、すべてのクリティカルデバイスの様々なクリティカルパラメータの遷移を監視することができ、予防行為をとることができる。
[0033] According to the present disclosure, the
[0034]図1は工業プロセス制御および自動化システム100の一例を示しているが、様々な変更が図1に行われ得る。たとえば、工業制御および自動化システムには多種多様な構成がある。図1に示されているシステム100は、プロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析がOCR技法とICR技法とを使用して実施される、1つの例示的な動作環境を示すように意図されている。図1は、本開示を特定の構成または動作環境に制限しない。
[0034] Although FIG. 1 illustrates an example of an industrial process control and
[0035]図2Aおよび図2Bは、本開示による、OCR技法とICR技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための例示的な方法200を示す。説明を簡単にするために、図2Aおよび図2Bは、処理デバイス114が、FAMSアプリケーション120を実行することによって方法200を実施するかのように説明される。図2Aおよび図2Bに示されている方法200の実施形態は説明のためのものにすぎない。本開示の範囲から逸脱することなく、他の実施形態が使用され得る。
[0035] FIGS. 2A and 2B illustrate an
[0036]方法200は5つの段階を含む。段階1 202は、ベース画像を準備するための初期化段階である。段階2 204は、各間隔についてスクリーンショットをキャプチャするためのデータキャプチャリング段階である。データ再形成段階206は、段階3 240と、段階4 250と、段階5 252とを含む。段階3 240は、記憶されたデータから画像を形成する方法を含む。段階4 250は、特有の挙動を有する画像およびデータを識別することを含む。段階5 252は、根本原因分析(RCA:root cause analysis)を実施するために、ツール中の記憶されたデータを表す方法を実装することを含む。これらの5つの段階は、データを記憶するための集中型データベースに関連し得、したがって、画面データがFAMSアプリケーション120を通してオペレータにとってアクセス可能になる。
[0036] The
[0037]段階1 202は、動作208〜220を含む。動作208において、処理デバイス114は、(図3に示されている)ベーススクリーンショット300をキャプチャする。オペレータコンソールのディスプレイ画面のビューのこの初期画像は、FAMSアプリケーション120によってキャプチャされ、後続の画像のためのベースである。
[0037]
[0038]動作210において、処理デバイス114は、初期ベーススクリーンショット300を(図4に示されている)グリッド400に分割する。たとえば、ベーススクリーンショット300は、画像サイズに基づいてブロックのセットに分割される。これは、スケーリング問題を回避するために必要とされる。スケーリング問題は、このアルゴリズムが、同じプロセスユニットについて異なる解像度の複数の画面上で実行される場合、発生し得る。たとえば、スケーリング問題は、段階1 202のアルゴリズムがある画面上で実行され、段階2 224のアルゴリズムが、段階1 202のアルゴリズムがその上で実行された画面とは異なる解像度を有する別の画面上で実行される場合、発生し得る。グリッドパターン(たとえば、グリッド400)は、複数の画面にわたって均一な測定を適用するために役立つ。いくつかの実施形態では、画面サイズがあらかじめ定義され、したがって、グリッド内のブロックのセットは、あらかじめ定義された量または寸法を有することができる。代替的に、グリッドパターンの代わりに、ピクセルx−y座標が、画面解像度と要素のタイプとに基づいて使用され得る。本開示は、グリッドパターンのみまたはピクセルx−y座標のみに限定されず、また、画像内のロケーションを識別するための任意の好適なパラメータ化が使用され得る。
[0038] At
[0039]動作212において、処理デバイス114は、初期ベーススクリーンショット300中のテキストを識別する。また動作212において、処理デバイス114は、ベース画像を生成するためにベーススクリーンショット300からテキストを削除する。以下でより詳細に説明されるように、図5は、テキストなしベーススクリーンショット500、すなわち、テキストが削除されたベーススクリーンショットを示す。たとえば、処理デバイス114は、OCR技法とICR技法とを適用することによって画像中のテキストデータを見つけ、そのテキスト色を背景色に変換する。たとえば、ベーススクリーンショット300において、テキストデータ「ウォーターボイラー」は、異なる背景色(たとえば、赤)を覆う黒のテキスト色を有し、ベース画像の生成は、テキストデータ「ウォーターボイラー」が赤のテキスト色を有するようにすることを含む。いくつかの実施形態では、OCR技法および/またはICR技法が、テキストデータを見つけるためにベーススクリーンショットに適用され得る。
[0039] At
[0040]動作214において、処理デバイス114は、初期ベーススクリーンショット300に対応するテキストデータとテキストロケーション情報とを記憶する。スクリーンショットをキャプチャする時間がスクリーンショットの識別子として使用され得、したがって、スクリーンショットをキャプチャする時間は、スクリーンショットへの対応を示す方法としてスクリーンショットのテキストデータとテキストロケーションとにリンクされ得ることに留意されたい。たとえば、処理デバイス114は、ベーススクリーンショット中の各テキストデータのロケーションを決定し、そのロケーションを、データベースに、およびテキストデータに対応して記憶する。たとえば、ベーススクリーンショット300中のテキストデータは、グリッドの第5の行内の列23〜29にかかる、「温度伝送器」という用語を形成する文字列を含むことができる。ボックスが{行,列}フォーマットによって識別されるとき、テキストデータ「温度伝送器」は、ボックス[5,23]、[5,24]、[5,25]、[5,26]、[5,27]、および[5,28]に対応する。表1は、テキストデータに対応するテキストロケーション情報をデータベースに記憶することの一例を与える。
[0040] In operation 214, the
[0041]動作216において、処理デバイス114は、ベーススクリーンショットの各領域に識別情報を割り当てる。1つまたは複数の領域は、それの閉じられた境界の内側により小さい領域を含んでいることがある。すなわち、処理デバイス114は、ベーススクリーンショット中の各領域と各下位領域とを見つける。領域または下位領域を見つけるために、処理デバイス114は、(図6において領域ID番号0によって示される)背景画像と同じではない閉領域を見つける。下位領域を見つけるために、処理デバイス114は、(図6において領域ID番号9によって示される)別の閉領域内の(図6において領域ID番号9.1によって示される)閉領域を見つける。以下でより詳細に説明されるように、図6は、図5のテキストなしベーススクリーンショット500の領域および下位領域を示す。処理デバイス114は、各領域および下位領域に領域識別番号を割り当てる。処理デバイス114は、下位領域9.1をそれの子として含む親として領域9を識別するなど、ツリー構造を使用して、下位領域に識別番号を割り当て得る。
[0041] In
[0042]動作218において、処理デバイス114は、ベーススクリーンショットの一様でない色の領域を正規化する。すなわち、処理デバイス114は、2つ以上の色を含む各領域のための均一色を決定するために、その領域に等化方法(equalization method)を適用する。たとえば、テキストなしベーススクリーンショット500を処理することによって、処理デバイス114は、(左から右への方向で)領域1〜4が、白から黒に減衰する勾配色を有し、領域9.1が、黒から白に減衰する勾配色を有すると決定する。したがって、処理デバイス114は、領域1〜4および下位領域9.1に等化方法を適用し、これは、これらの前に多色の領域についてライトグレーが均一色であるという決定を生じる。以下でより詳細に説明されるように、図7Aは、色正規化されたテキストなしベーススクリーンショットを示す。
[0042] In
[0043]また動作218において、処理デバイス114は各領域に色を割り当てる。各領域が均一色に正規化された実施形態では、処理デバイス114は、各領域および下位領域に、RGB色フォーマットなど、単色を割り当てる。表2は、領域色に対応する領域識別番号をデータベースに記憶することの一例を与える。
[0043] Also in
[0044]動作220において、処理デバイス114は、ベーススクリーンショット中の各領域のロケーションを決定し、そのロケーションを、データベースに、および領域識別番号に対応して記憶する。以下でより詳細に説明されるように、図7Bは、図4のグリッド400に従って分割された、色正規化されたテキストなしベーススクリーンショットを示す。たとえば、領域1は、ベーススクリーンショット中の列8の行4〜6にかかる。ボックスが{行,列}フォーマットによって識別されるとき、領域1は、ボックス[4,8]、[5,8]、および[6,8]に対応する。表2は、領域ロケーションに対応する領域識別番号をデータベースに記憶することの一例を与える。グリッドパターンのブロックサイズは、画面解像度と、コンソールステーションスクリーンショット中の要素および領域の間の最小距離とによって決定され得る。
[0044] In
[0045]方法200は、動作220から動作222に進む。動作222において、処理デバイス114は、領域IDと、領域色情報と、領域ロケーション情報と、ベース画像とをデータベースに記憶する。方法200は、情報を情報のバッチとしてデータベースに記憶することに限定されず、個々の情報をデータベースに記憶することもできる。いくつかの実施形態では、方法200は、領域IDをデータベースに記憶するために、動作216から動作222に進み、方法200は、ベース画像をデータベースに記憶するために、動作218の後に動作222に戻る。ベース画像、テキストデータ、および領域データがデータベースに記憶されると、方法200は、動作222から段階2 204に進む。段階1 202中にデータベースに記憶されるベース画像、テキストデータ、および領域データは、画像を再構成するために後続の段階(すなわち、データ再形成段階206)において使用されることになる。いくつかの実施形態では、段階1 202は、さらなる精度および性能のために、テキスト、領域、色情報とともにベース画像からのより多くのパラメータを考慮し得る。
[0045] The
[0046]段階2 204は、動作224〜236を含む。方法200は、周期的に、すなわち、間隔Tの頻度で段階2 204を繰り返すことを含む。間隔Tは、ユーザ選択またはユーザ要件に基づく構成可能な値である。段階2 204は、処理デバイス114が、段階1において、初期ベーススクリーンショット300を処理して、表1および表2などのテキストデータと領域データとを識別し、記憶し、段階2 204において、処理デバイス114が、追加のベーススクリーンショット300を処理して、テキストデータと領域データとを識別し、表1および表2などに記憶するという点で、段階1 202と同様である。いくつかの実施形態では、段階2 204は、処理デバイス114が、段階1 202において、初期ベーススクリーンショット300を処理して、ベース画像700を生成し、保存するが、処理デバイス114が、段階2 204において、追加のベーススクリーンショット300を保存しないことがあるという点で、段階1 202とは異なり得る。段階2 204のいくつかの実施形態は、各間隔Tのための対応するテキストデータおよび領域データに加えて、追加のベーススクリーンショット300をデータベースに保存する動作を含むことができるが、そのような実施形態は、追加のベーススクリーンショット300自体を記憶することなしに、各間隔Tのための対応するテキストデータおよび領域データを記憶する他の実施形態よりも多くのメモリを消費し得ることに留意されたい。いくつかの実施形態では、段階2 204は、さらなる精度および性能のために、テキスト、領域、色情報とともにベース画像からのより多くのパラメータを考慮し得る。
[0046]
[0047]動作224において、処理デバイス114は、追加のベーススクリーンショットをキャプチャする。オペレータコンソールのディスプレイ画面のビューのこの後続の画像は、前の画像またはスクリーンショットをキャプチャすることの完了時に開始する間隔Tの経過の後にFAMSアプリケーション120によってキャプチャされる。いくつかの状況では、間隔Tは、オペレータコンソール110中のディスプレイ画面上に示されるテキストデータの変化なしに経過し得、そのような状況では、追加のベーススクリーンショットは、前のベーススクリーンショットと同等のように見え得る。特定の例として、追加のベーススクリーンショットは、図3の初期ベーススクリーンショット300と同等のように見えることがある。他の状況では、オペレータコンソール110中のディスプレイ画面上に示されるテキストデータまたは色データの変化が間隔T中に発生し得、そのような状況では、追加のベーススクリーンショットは、前のベーススクリーンショットとは異なって見え得る。
[0047] At
[0048]動作226において、処理デバイス114は、追加のベーススクリーンショット中のテキストを識別する。たとえば、処理デバイス114は、OCR技法とICR技法とを適用することによって画像中のテキストデータを見つける。
[0048] In
[0049]動作228において、処理デバイス114は、追加のベーススクリーンショットに対応するテキストデータとテキストロケーション情報とを記憶する。たとえば、処理デバイス114は、動作210と同様にして追加のベーススクリーンショットをグリッドに分割し、テキストロケーション情報を決定することができる。
[0049] In
[0050]動作230において、処理デバイス114は、追加のベーススクリーンショット中の1つまたは複数の領域を識別する。すなわち、処理デバイス114は、追加のベーススクリーンショット中の各領域と各下位領域とを見つける。
[0050] At
[0051]動作232において、処理デバイス114は、動作218の場合と同様にして、追加のベーススクリーンショットの一様でない色の領域を正規化する。動作234において、処理デバイス114は、動作230において識別されたかまたはさもなければ見つけられた各領域と各下位領域とに領域識別番号を割り当てる。いくつかの実施形態では、動作234はまた、処理デバイス114が、追加のベーススクリーンショット中の各領域のロケーションを決定することと、そのロケーションを、データベースに、および領域識別番号に対応して記憶することとを含む。動作236において、処理デバイス114は、動作218の場合と同様にして、追加のベーススクリーンショットの各領域と各下位領域とに色を割り当てる。
[0051] At
[0052]方法200は、動作236から動作222に進む。追加のベーススクリーンショットに対応するテキストデータおよび領域データがデータベースに記憶されると、方法200は、段階2 204を繰り返すために動作222から動作224に進む。動作222において段階1 202と段階2 204との間に差異があること、すなわち、段階2 204において、動作222の一部としてベース画像を記憶する必要がないことに留意されたい。ただし、さらなる精度および性能のために、段階2 204においてもより多くの画像が記憶され得る。処理デバイス114が、アーカイブされた周期スクリーンショットのうちのいくつかをリプレイするためのユーザ選択を示す入力を受信すると、本方法は、動作222からデータ再形成段階206に進む。
[0052] The
[0053]データ再形成段階206は、動作238と、段階3 240内の動作と、段階4 250内の動作と、段階5 252内の動作とを含む。動作238において、処理デバイス114はストレージからベース画像を検索する。すなわち、処理デバイス114は、段階1 202において生成され、動作222において記憶された、ベース画像にアクセスする。
[0053] The
[0054]段階3 240において、方法200は、各時間間隔(T)のための新しい画像を反復的に再構成することを含む。より詳細には、段階3 240において、記憶されたデータから画像を形成する方法は、処理デバイス114によって実装され、動作242において、記憶された色データを検索し、動作244において、検索された色データをベース画像に適用し、動作246において、記憶されたテキストデータを検索し、動作248において、検索されたテキストデータを色付きのベース画像に重ね合わせる。コンソールステーションスクリーンショットまたはベース画像において、段階1 202および/または段階2 204が、さらなる精度および性能のために、テキスト、領域、色情報とともに追加のパラメータを考慮する実施形態の場合、段階3 240において追加のそれぞれの動作があることに留意されたい。
[0054] At
[0055]図3の初期ベーススクリーンショット300がその間にキャプチャされた時間間隔のための新しい画像を再構成することの非限定的な例として、処理デバイス114は、表2に記憶された色データを検索し(動作242)、表2に記憶された領域ロケーション情報に従って、検索された色データをベース画像の対応する領域に適用する(動作244)。図7B中のベース画像700は、表2中の正規化された色がどこでテキストなしベース画像700に適用されるかを位置特定するためにグリッド400が使用されることを示す。さらに、処理デバイス114は、表1に記憶されたテキストデータを検索し(動作246)、検索されたテキストデータを色付きのベース画像に重ね合わせる(動作248)。図8Aおよび図8Bは、初期ベーススクリーンショット300がその間にキャプチャされた時間間隔のための再構成された画像800および801の例を与える。処理デバイス114は、表1に記憶されたテキストロケーション情報に従って、初期ベーススクリーンショット300の表1からの各テキストデータがどこで色付きのベース画像700と重なり合うかを位置特定するためにグリッド400を使用する。アーカイブされた周期スクリーンショットのうちのいくつかをリプレイするためのユーザ選択に対応する時間間隔(T)の各々のための新しい画像が再構成されたとき、方法200は段階4 250に進む。
[0055] As a non-limiting example of reconstructing a new image for the time interval during which the
[0056]段階4 250において、処理デバイス114は、特色を呈する画像およびデータを識別する。すなわち、処理デバイス114は、特有の挙動を有する再構成されたベース画像およびデータを識別する。処理デバイス114は、特有の画像および/または特有のデータを視覚的にハイライトすることによって、それらを識別することができる。特有の挙動の例としては、急に(たとえば、あるフレームから次のフレームまでに、または限られた数の連続フレーム内に)色が変化したデバイスを有する画像、急な圧力および/または体積(PV)低下を有する画像、圧力および/または体積の急な増加を有する画像、あるいは(1つまたは複数の)急なアラームを有する画像がある。いくつかの実施形態では、ユーザ選択は、色、PV、またはアラームステータスの急変がその内で発生する、限られた数の連続フレームを、特有の挙動のインジケータとして設定することができる。いくつかの実施形態では、処理デバイス114は、特有の挙動のインジケータとしての、色、PV、またはアラームステータスの急変がその内で発生する、所定の限られた数の連続フレームにアクセスすることができる。
[0056] At stage 4 250, the
[0057]段階5 252において、処理デバイス114は、再構成された画像と記憶されたデータとを表す。より詳細には、処理デバイス114は、前の段階中に形成された記憶されたデータと再構成された画像とを含むオペレータコンソール110中のディスプレイ画面を与えるために、(図9Aおよび図9Bに示されている)根本原因分析ツールユーザインターフェース(UI)を実装する。
[0057] At stage 5252, the
[0058]図2Aおよび図2Bは、OCR技法とICR技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための1つの例示的な方法200を示しているが、様々な変更が図2Aおよび図2Bに行われ得る。たとえば、図中の様々なステップは、重なり合うか、並列に行われるか、または任意の回数行われ得る。すなわち、これらの動作のうちのいくつかは、2回以上または異なる順序で実施され得るか、あるいは、いくつかの追加の指定されていない動作も、最良の性能および精度のために実施され得る。別の例として、動作210において、ベース画像は、各領域のおよびテキストの(図10に示されている)ピクセルのx−y座標値が、(図4に示されている)グリッドパターンの代替または追加として使用され得るように、分割されることになる。座標系を適用する場合、スクリーンショットの各ピクセルのロケーションは、各々が座標系の原点からの相対ロケーションに対応する、x値とy値とによって定義され得る。
[0058] FIGS. 2A and 2B illustrate one
[0059]図3は、本開示による、プロセスユニットの選択されたクリティカルデバイスのビューを与えるオペレータコンソール110ディスプレイ画面の例示的なベーススクリーンショット300を示す。ベーススクリーンショット300は、背景と、選択されたクリティカルデバイスを含むクリティカルプロセスユニットと、クリティカルデバイスのラベルと、プロセスフローコネクタ矢印と、クリティカルデバイスに関連するブロック内のプロセス変数値と、プロセス変数値を使用してクリティカルデバイスとプロセスフローとを制御するコントローラとを描く。コントローラはプロセスユニット内の構成要素であり得るか、または、コントローラは事前プログラムされた処理デバイスであり得、簡単のために、図3は、コントローラがプロセスユニットの選択されたクリティカルデバイスであるかのように説明される。
[0059] FIG. 3 illustrates an
[0060]図示の例では、背景305は、ダークグレーなど、背景色を有する。プロセスユニットの選択されたクリティカルデバイスは、バルブ310と、ボイラー315と、温度伝送器320と、コントローラ325とを含む。バルブ310は、たとえば、緑色を有し得、ボイラー315は赤色を有し得、温度伝送器320は赤色を有し得る。コントローラ325は、3つの同様のサイズの矩形ボックスおよびより長い矩形ボックスとして描かれ、それらの各々は、(左から右への方向で)白から黒に減衰する勾配色を有する。温度伝送器320は、クレセント、垂直方向に細長い矩形の上の円、垂直方向に細長い矩形として描かれ、それらの各々は赤色を有する。温度伝送器320は、さらに、円内に矩形部分330を含み、矩形部分330は、それの赤色の周囲とは異なる色である、(左から右への方向で)黒から白に減衰する勾配色を有する。テキスト、すなわち、クリティカルデバイスのラベルおよびプロセス変数値は黒である。さらに、プロセスフローコネクタ矢印は、テキストと同じ色、すなわち、黒を有する。プロセス変数値ブロック335a〜335bは、背景色と同じである色、すなわち、ダークグレーを有する。いくつかの実施形態では、プロセス工業コンソールステーション110は、国際計測制御学会(ISA:International Society of Automation)によって推奨される画像を使用するが、これは必須ではなく、非ISA画像が使用され得る。
[0060] In the illustrated example, the
[0061]プロセスユニットにおいて、バルブ310は、水の入口フローを受け取り、ウォーターポンプを使用して出口フローをボイラーにポンピングすることなどによって、出口フローをウォーターボイラー315に与える。プロセス変数値ブロック335a内に描かれるプロセス変数値「31%」は、バルブの開放状態のパーセントを示す。したがって、バルブ310は、それのスループット容量の31%を受け取るかまたは出力する。ボイラー315は、バルブ310から受け取った流体を沸騰させ、出力フローを与える。プロセス変数値ブロック335b内に描かれるプロセス変数値「21℃」は、ボイラー315内の流体の現在温度を示す。ボイラー315中の流体の温度を測定し、温度測定値を温度伝送器320に与えるために、温度センサーがボイラー315に関連し得る。温度伝送器320は、温度センサーを使用して温度測定値をプロセス変数値「21℃」として取得し、温度測定値をコントローラに与え、プロセス変数値を別のデバイスの受信機に送信することができる。たとえば、コントローラ325は、温度伝送器320によって与えられた温度測定値に基づいてバルブ310の位置を制御する。
[0061] In the process unit, the
[0062]図3は1つの例示的なベーススクリーンショット300を示しているが、様々な変更が図3に行われ得る。たとえば、異なるプロセスユニットが描かれ得るか、あるいは、プロセスユニットは、より多い、より少ない、または異なるフィールドデバイスを含むことができる。
[0062] Although FIG. 3 shows one
[0063]図4は、本開示による、グリッド400に分割された図3のベーススクリーンショット300を示す。図示の例では、グリッド400は、18個の行と30個の列とを含む。グリッド400は、ブロックが重なり合わないように、画像サイズに基づくブロックのセットを含む。すなわち、ベーススクリーンショット300の各部分は、グリッド400の1つのブロックによってカバーされる。いくつかの実施形態では、ベーススクリーンショット300の各部分は、グリッド400の1つのブロック全体によってカバーされ、したがって、ベーススクリーンショットのどの部分も、部分的な、ブロック全体よりも小さいブロックによってカバーされない。グリッド400中の各ブロックは、グリッド400中の各他のブロックにサイズが等しくなり得る。
[0063] FIG. 4 shows the
[0064]図4に示されているグリッド400の実施形態は説明のためのものにすぎない。本開示の範囲から逸脱することなく、他の実施形態が使用され得る。たとえば、他の実施形態は、グリッド中に異なる数の行または列を含むことができる。
[0064] The embodiment of the
[0065]図5は、本開示による、テキストなしベーススクリーンショット500を示す。すなわち、図5は、テキストデータが削除された図3のベーススクリーンショットを示す。
[0065] FIG. 5 illustrates a
[0066]テキストなしベーススクリーンショット500から削除された初期ベーススクリーンショット300のテキストデータは、クリティカルデバイスラベル、すなわち、「コントローラ」、「温度伝送器」、「ウォーターボイラー」、および「バルブ」を含む。テキストなしベーススクリーンショット500から削除された初期ベーススクリーンショット300のテキストデータは、プロセス変数値「21℃」および「31%」をさらに含む。
[0066] The text data of the
[0067]OCR技法およびICR技法は、プロセス変数値ブロック335a〜335bの境界を、各々が含んでいるテキストデータと区別することができることに留意されたい。したがって、テキストなしベーススクリーンショット500はプロセス変数値ブロック335a〜335bを含む。
[0067] Note that the OCR and ICR techniques can distinguish the boundaries of the process
[0068]図6は、本開示による、図5のテキストなしベーススクリーンショット500の領域および下位領域を示す。すなわち、図6に示されている領域IDは、説明のためのものにすぎず、テキストなしベーススクリーンショット500の画像の一部ではない。
[0068] FIG. 6 illustrates regions and subregions of the
[0069]図示の例では、テキストなしベーススクリーンショット500は領域0〜11と下位領域9.1とを含む。領域0は背景305である。領域1は、コントローラ325のより長い矩形ボックスである。領域2、3、および4は、コントローラ325の3つの同様のサイズの矩形ボックスである。領域5はボイラー315である。領域6は、バルブ310のボタン縦断面型部分であり、領域7および8は、バルブ310の三角部分である。領域9は、温度伝送器320の円部分であり、領域10は、温度伝送器320の垂直方向に細長い矩形部分である。下位領域9.1は、温度伝送器320の円内の矩形部分330である。領域11はプロセス変数値ブロック335bであり、領域12はプロセス変数値ブロック335aである。
[0069] In the illustrated example, the no
[0070]図6は、テキストなしベーススクリーンショットの領域および下位領域の1つの例示的な識別を示しているが、様々な変更が図6に行われ得る。たとえば、領域は、異なる順序で識別され得るか、あるいはアルファベット順で、または英数字順で識別され得る。 [0070] Although FIG. 6 shows one exemplary identification of the region and subregion of the base screenshot without text, various changes may be made to FIG. For example, the regions may be identified in a different order, or may be identified in alphabetical order or alphanumeric order.
[0071]図7Aおよび図7Bは、本開示によるベース画像700を示す。図7Aは、ベース画像700が、図5のテキストなしベーススクリーンショット500に色等化を適用した、色正規化された結果であることを示す。図7Bは、図4のグリッド400に従って分割された図7Aのベース画像700を示す。
[0071] FIGS. 7A and 7B illustrate a
[0072]非限定的な例として、領域0、11、および12はダークグレー色を割り当てられ得、領域1〜4および下位領域9.1はライトグレー色を割り当てられ得、領域5および9〜10は赤色を割り当てられ得、領域6〜8は緑色を割り当てられ得る。この色規約は、説明のために使用されるにすぎない。他の事例では、各要素の健全性を表すための任意の色があり得る。
[0072] As a non-limiting example,
[0073]図7Aおよび図7Bは1つの例示的なベース画像700を示しているが、様々な変更が図7Aおよび図7Bに行われ得る。たとえば、領域1〜4および下位領域9.1は、異なるシェードまたは色に正規化され得る。
[0073] Although FIGS. 7A and 7B show one
[0074]図8Aおよび図8Bは、図3の初期スクリーンショット300がその間にキャプチャされた時間間隔のための再構成された画像800および801の例を示す。図8Aおよび図8Bに示されている再構成された画像800、801の実施形態は説明のためのものにすぎない。本開示の範囲から逸脱することなく、他の実施形態が使用され得る。
[0074] FIGS. 8A and 8B show examples of reconstructed
[0075]オペレータコンソール110中のディスプレイ画面上に示されるテキストデータの変化なしに間隔Tが経過する状況では、再構成された画像800は、前のベーススクリーンショットの色正規化されたバージョンのように見え得る。特定の例として、図8Aの再構成された画像800は、図3の初期ベーススクリーンショット300の色正規化されたバージョンのように見えることがある。オペレータコンソール110中のディスプレイ画面上に示されるテキストデータまたは色データの変化が間隔T中に発生する他の状況では、再構成された画像は、前のベーススクリーンショットの色正規化されたバージョンとは異なって見え得る。
[0075] In situations where the interval T elapses without any change in the text data shown on the display screen in the
[0076]図8Bは、色の勾配の情報が動作222の一部として記憶されたとき、再構成された画像801が、色の勾配をもつ領域を有することができることを示す。いずれかの領域が2つ以上の勾配色を有する場合、およびコンソールステーション110のスクリーンショット300との完全な一致のための画像再構成要件がある場合、各可能な領域画像が抽出され、(ローカルストレージになど)記憶され得、記憶された領域画像へのそれぞれのリンクが表2において与えられることになる。同様に、各領域と各テキストとのピクセルのx−y座標が記憶され得、再構成された画像801は、元のコンソールステーションスクリーンショットと正確に一致するように構成されることになる。
[0076] FIG. 8B shows that when color gradient information is stored as part of
[0077]図9Aおよび図9Bは、本開示による、オペレータコンソール110中のディスプレイ画面の根本原因分析ツールユーザインターフェース(UI)を示す。FAMSアプリケーション120はRCAツールUIを含む。図9Aは、RCAツールUIの画像ビュー900を示し、図9Bは、RCAツールUIのテーブルビュー901を示す。RCAツールUIは、段階1〜4 202、204、240、250中に形成された、記憶されたデータと再構成された画像とを示す。処理デバイス114は、オペレータコンソール110中のディスプレイ画面を制御することまたはそれと通信することによって、RCAツールUIの画像ビュー900とテーブルビュー901とを実装することができる。
[0077] FIGS. 9A and 9B illustrate a root cause analysis tool user interface (UI) of a display screen in an
[0078]図9Aに示されているように、RCAツールUIの画像ビュー900は、画像表示ボックス905と、画像のカテゴリーごとのサムネイルのセット910、915、920と、画像の選択されたカテゴリーのためのタイムライン925と、画像の選択されたカテゴリーからの画像サムネイル930a〜930gとを含む。画像表示ボックス905は、現在選択されている画像をフルサイズフォーマットで表示する。たとえば、画像表示ボックス905は、初期ベーススクリーンショットの再構成を示すことができる。別の例として、サムネイルのセット910、915、920に対応する画像のカテゴリーのうちの1つのユーザ選択を受信したことに応答して、画像表示ボックス905は、サムネイルの選択されたセットからの画像を示すことができる。別の例として、画像サムネイル930a〜930gのうちの1つのユーザ選択を受信したことに応答して、画像表示ボックス905は、選択された画像サムネイルのフルサイズフォーマットを示すことができる。
[0078] As shown in FIG. 9A, the
[0079]図示の例では、画像のカテゴリーがあり、「すべての画像」カテゴリーはサムネイルのセット910に対応し、「特有の画像」カテゴリーはサムネイルのセット915に対応し、「ユーザ選択された画像」カテゴリーはサムネイルのセット920に対応する。サムネイルのすべての画像セット910は、OCR技法とICR技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための方法200を使用して形成された画像のすべてを含む。
[0079] In the illustrated example, there are image categories, the "all images" category corresponds to the set of
[0080]サムネイルの特有の画像セット915は、ユーザが、プロセスユニット内のフィールドデバイスのトリッピング発生の根本原因を特定するのを支援する。処理デバイス114は、フィールドデバイスの動作限界が超えられた1つまたは複数の画像をオペレータに示すために、段階4 250の動作を実行する。サムネイルの特有の画像セット915は、段階4 250内の動作において識別された、特色を呈する画像を含む。すなわち、サムネイルのセット915は、サムネイルのすべての画像セット910のサブセットを含む。サムネイルの特有の画像セット915は、画像のいずれもプロセスユニットの特有の挙動を呈しないとき、ヌルセットであり得る。
[0080] The thumbnail specific image set 915 assists the user in identifying the root cause of field device tripping occurrences in the process unit. The
[0081]サムネイルのユーザ選択された画像セット920は、ユーザ選択によって選択された画像を含む。たとえば、ユーザは、新しいカテゴリー、すなわち、「ユーザ選択された画像」と呼ばれるカテゴリーを形成するために当該の画像を選択するための選択権を有する。ユーザは、ユーザ選択された画像カテゴリーにドラッグ/ドロップされた画像を追加するために、「すべての画像」カテゴリーまたは「特有の画像」カテゴリーからサムネイルのユーザ選択された画像セット920に任意の画像をドラッグアンドドロップし得る。サムネイルのユーザ選択された画像セット920は、画像のいずれもオペレータによって選択されていないとき、ヌルセットであり得る。 [0081] A user-selected image set 920 of thumbnails includes images selected by user selection. For example, the user has a selection right to select the image to form a new category, i.e. a category called "user selected image". The user can add any image from the “all images” category or the “specific image” category to the user selected image set 920 of thumbnails to add the dragged / dropped image to the user selected image category. Can be dragged and dropped. The user-selected image set 920 of thumbnails can be a null set when none of the images are selected by the operator.
[0082]画像の選択されたカテゴリーのためのタイムライン925は、画像の選択されたカテゴリーがその間にキャプチャされた時間期間を表す。たとえば、「すべての画像」カテゴリーが選択されたとき、タイムライン925は、(たとえば、図9Bの参照番号960aによって示される)開始時間から(たとえば、図9Bの参照番号960bによって示される)停止時間までの時間期間を表す。開始時間は、初期ベーススクリーンショットがキャプチャされた時であり得る。停止時間の例としては、限定はしないが、直近の追加のベーススクリーンショットがキャプチャされた時、ユーザ選択された時点、または、初期ベーススクリーンショットがキャプチャされた後の選択された数の間隔Tがある。タイムライン925は、さらに、開始時間と停止時間との間の特定の時点または時間の特定のサブセットを視覚的に表す、タイムラインバー928を含む。たとえば、タイムラインバー928は、画像サムネイル930a〜930gに対応する画像のキャプチャリングがその間に行われた時間のサブセットを表すことができる。
[0082] The
[0083]図示の例では、画像サムネイル930a〜930gは、「タイムライン中の画像サムネイル」とラベル付けされる。すなわち、画像の選択されたカテゴリーからの画像サムネイル930a〜930gは、タイムラインに従う順序で現れる。
[0083] In the illustrated example, the
[0084]図9AはRCAツールUIの1つの例示的な画像ビュー900を示しているが、様々な変更が図9Aに行われ得る。たとえば、図9A中の各構成要素は、任意の他のサイズ、形状、および寸法を有することができる。
[0084] Although FIG. 9A shows one
[0085]図9Bに示されているように、RCAツールUIのテーブルビュー901は、特定の時間期間中のフィールドデバイスのデータのテーブル955と、フィールドデバイスデータをフィルタ処理するための様々なフィルタ960a〜960dと、他のステーションビューのためのテーブルを表すサムネイル画像965a〜965dとを含む。テーブル955は、データが記録された時間の列970を含む。たとえば、間隔Tは1秒であり得、したがって、各行は、間隔Tごとに記録されたフィールドデバイスデータを含むことができる。テーブル955は、特定のプロセスユニット中の各フィールドデバイスのための列975をさらに含む。特定のプロセスユニットは、圧力バルブあるいは圧力および/または体積に関連する他のデバイスなど、任意の数のフィールドデバイス(Dev−1−PV、Dev−2−PV、...Dev−n−PV)を含むことができる。テーブル955内のセルは、異なって色付けされたセルまたは異なって強調されたフォントを表示することなどによって、特色を視覚的にハイライトすることができる。特色は、フィールドデバイスデータ内の値の注目すべき変化であり得る。すなわち、ハイライトされたデータ980a〜980bは、ユーザが、プロセスユニット内のフィールドデバイスのトリッピング発生の根本原因を特定するのを支援する。処理デバイス114は、フィールドデバイスの動作限界が超えられた1つまたは複数の画像をオペレータに示すために、段階4 250の動作を実行する。
[0085] As shown in FIG. 9B, the
[0086]特定の非限定的な例として、フィールドデバイスDEV−3−PVは、それの急な、すなわち、時間10:01:04における20の値から時間10:01:05における0の値への、値の低減によって特有の挙動を呈する。値の20単位変化または低減は、RCAツールユーザインターフェース(UI)の設定によっては、注目すべき変化(たとえば、しきい値量だけの変化)であり得る。別の例として、フィールドデバイスDEV−5−PVは、それの急な、すなわち、時間10:01:04における20の値から時間10:01:05における155の値への、値の増加によって特有の挙動を呈する。値の135単位変化または増加は、RCAツールユーザインターフェース(UI)の設定によっては、注目すべき変化であり得る。これらの例では、フィールドデバイスデータのための0値および155値は、デバイスの通常動作範囲または他の動作限界の外にあり得、したがって、特有でない値を含んでいるセルの色(たとえば、ラベンダー)とは異なる色(たとえば、赤)でセルがハイライトされる。すなわち、時間10:01:05から時間10:01:09まで、フィールドデバイスDEV−3−PVおよびDEV−5−PVは、ハイライトされたフィールドデバイスデータを有する。 [0086] As a specific non-limiting example, the field device DEV-3-PV is its steep, ie, from a value of 20 at time 10:01:04 to a value of 0 at time 10:01:05. It exhibits a unique behavior by reducing its value. A 20 unit change or reduction in value may be a noticeable change (eg, a change in threshold amount), depending on the RCA tool user interface (UI) settings. As another example, the field device DEV-5-PV is characterized by its abrupt, ie increasing value from a value of 20 at time 10:01:04 to a value of 155 at time 10:01:05. It exhibits the following behavior. A 135 unit change or increase in value may be a noticeable change depending on the RCA tool user interface (UI) settings. In these examples, the 0 and 155 values for field device data may be outside the normal operating range of the device or other operating limits, and thus the color of the cell containing the non-unique value (eg, lavender ) Is highlighted in a color different from (for example, red). That is, from time 10:01:05 to time 10:01:09, field devices DEV-3-PV and DEV-5-PV have highlighted field device data.
[0087]図示の例では、RCAツールUIのテーブルビュー901は4つのフィルタを含むが、任意の好適な数のフィルタがテーブル955に適用され得る。フィルタの例は、開始時間フィルタ960aのためのテキストボックス、停止時間フィルタ960bのためのテキストボックス、デバイスリストフィルタ960cのためのリストボックス、またはユーザ定義されたフィルタ960dのための他の好適な選択方法を使用することなど、ユーザ選択に基づいて調整される。時間の列970の範囲は、開始時間フィルタ960aの設定としての時間10:01:01と停止時間フィルタ960bの設定としての時間10:01:10とによって決定される。
[0087] In the illustrated example, the
[0088]図示の例では、サムネイル画像965a〜965dは、4つの他のステーションビューのためのテーブルを表すが、任意の好適な数のサムネイル画像がRCAツールUIのテーブルビュー901中に表示され得る。上記で説明されたように、FAMSアプリケーション120は、様々なオペレータコンソール110上で稼動する様々なプロセスユニットの利用可能なビューを選択するためのツールを与え、したがって、サムネイル画像965aは、1つのオペレータコンソール110上で稼動する第1のプロセスユニットに対応することができ、他のサムネイル画像965b〜965dの各々は、異なるオペレータコンソール110上で各々が稼動する、第2〜第4のプロセスユニットに対応することができる。
[0088] In the illustrated example, the
[0089]図9BはRCAツールUIの1つの例示的なテーブルビュー901を示しているが、様々な変更が図9Bに行われ得る。たとえば、図9B中の各構成要素は、任意の他のサイズ、形状、および寸法を有することができる。
[0089] Although FIG. 9B shows one
[0090]図10は、本開示による、図3のベーススクリーンショット300に適用された座標系1000を示す。さらなる精度および性能のために、処理デバイス114は、ベーススクリーンショット中の各テキストデータと各領域とのロケーションをパラメータ化する際に使用するために、任意の初期または後続のスクリーンショットに座標系1000を適用することができる。座標系1000では、スクリーンショットの各ピクセルのロケーションは、各々が座標系の原点1015からの相対ロケーションに対応する、x値1005とy値1010とによって定義され得る。一例として、原点1015はベーススクリーンショット300の左上コーナーであり得、したがって、原点1015におけるピクセルは、0のy値と0のx値とを有する。
[0090] FIG. 10 illustrates a coordinate
[0091]一例として、処理デバイス114は、プロセス変数値ブロック335b、すなわち、領域12内のテキストデータが、ピクセル1030において頂点を形成する左境界1020と上境界1025とを有すると決定することができる。処理デバイス114は、頂点ピクセル1030または左境界1020が、原点1015からx値1005個のピクセルだけ水平方向にまたは右方向に配置されると決定することができる。処理デバイス114は、頂点ピクセル1030または上境界1025が、原点1015からy値1010個のピクセルだけ垂直方向にまたは下方向に配置されると決定することができる。処理デバイス114は、領域の他の境界または他のテキストデータのロケーションを決定するために、同様のプロセスを適用することができる。たとえば、処理デバイス114は、プロセス変数値ブロック335b、すなわち、領域11内のテキストデータが、ピクセル1045において頂点を形成する左境界1035と上境界1040とを有すると決定することができる。
[0091] As an example, the
[0092]図10に示されているように、ピクセルのxおよびy座標は、さらなる精度および性能のために使用され得る。いくつかの実施形態では、ベーススクリーンショット300中の要素(すなわち、テキスト、領域など)をカバーする矩形のピクセルのx−y座標値も、図4のグリッド400よりも良好な精度のために使用され得る。
[0092] As shown in FIG. 10, the x and y coordinates of a pixel may be used for further accuracy and performance. In some embodiments, the xy coordinate values of the rectangular pixels that cover the elements (ie, text, regions, etc.) in the
[0093]いくつかの実施形態では、上記で説明された様々な機能は、コンピュータ可読プログラムコードから形成され、コンピュータ可読媒体において実施される、コンピュータプログラムによって実装またはサポートされる。「コンピュータ可読プログラムコード」という句は、ソースコード、オブジェクトコード、および実行可能コードを含む、任意のタイプのコンピュータコードを含む。「コンピュータ可読媒体」という句は、読取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、または他のタイプのメモリなど、コンピュータによってアクセスされることが可能な任意のタイプの媒体を含む。「非一時的」コンピュータ可読媒体は、一時的な電気信号または他の信号をトランスポートする、ワイヤード、ワイヤレス、光、または他の通信リンクを除外する。非一時的コンピュータ可読媒体は、データが永続的に記憶され得るメディアと、書き換え可能な光ディスクまたは消去可能メモリデバイスなど、データが記憶され、後で上書きされ得るメディアとを含む。 [0093] In some embodiments, the various functions described above are implemented or supported by a computer program formed from computer-readable program code and implemented on a computer-readable medium. The phrase “computer readable program code” includes any type of computer code, including source code, object code, and executable code. The phrase “computer readable medium” is accessed by a computer, such as read only memory (ROM), random access memory (RAM), hard disk drive, compact disk (CD), digital video disk (DVD), or other type of memory. Any type of media that can be played. “Non-transitory” computer-readable media excludes wired, wireless, optical, or other communication links that transport transient electrical or other signals. Non-transitory computer readable media include media in which data can be permanently stored and media in which data can be stored and later overwritten, such as rewritable optical discs or erasable memory devices.
[0094]本特許文献全体にわたって使用されるいくつかの語および句の定義を記載することが有利であり得る。「アプリケーション」および「プログラム」という用語は、1つまたは複数のコンピュータプログラム、ソフトウェア構成要素、命令のセット、プロシージャ、関数、オブジェクト、クラス、インスタンス、関係するデータ、または(ソースコード、オブジェクトコード、または実行可能コードを含む)好適なコンピュータコードにおける実装のために適応されたそれらの一部分を指す。「含む(include)」および「備える、含む(comprise)」という用語ならびにそれの派生語は、限定はしないが含むことを意味する。「または(or)」という用語は包含的であり、および/または(and/or)を意味する。「〜に関連する(associated with)」という句ならびにそれの派生語は、含むこと、〜内に含まれること、〜と相互接続すること、含んでいること、〜内に含まれていること、〜にまたは〜と接続すること、〜にまたは〜と結合すること、〜と通信可能であること、〜と協働すること、インターリーブすること、並置すること、〜に近接すること、〜にまたは〜と結び付けられること、有すること、〜のプロパティを有すること、〜へのまたは〜との関係を有することなどを意味し得る。「のうちの少なくとも1つ」という句は、項目の列挙とともに使用されるとき、列挙された項目のうちの1つまたは複数の異なる組合せが使用され得ること、および列挙中の1つの項目のみが必要とされ得ることを意味する。たとえば、「A、B、およびCのうちの少なくとも1つ」は、以下の組合せ、すなわち、A、B、C、AおよびB、AおよびC、BおよびC、ならびにAおよびBおよびCのいずれをも含む。 [0094] It may be advantageous to provide definitions of some words and phrases used throughout this patent document. The terms “application” and “program” refer to one or more computer programs, software components, sets of instructions, procedures, functions, objects, classes, instances, related data, or (source code, object code, or Refers to those portions adapted for implementation in suitable computer code (including executable code). The terms “include” and “comprise” and derivatives thereof are meant to include, but not be limited to. The term “or” is inclusive and / or means and / or. The phrase “associated with” and its derivatives are included, included within, interconnected with, included, included within. To or to, to or to, to be able to communicate with, to cooperate with, to interleave, juxtapose to, to be close to, to or It may mean to be associated with, having, having the property of, having a relation to or with. The phrase “at least one of” when used with an enumeration of items means that one or more different combinations of the listed items can be used, and that only one item in the enumeration It means that it can be needed. For example, “at least one of A, B, and C” means any of the following combinations: A, B, C, A and B, A and C, B and C, and A and B and C Is also included.
[0095]本開示は、いくつかの実施形態および概して関連する方法について説明したが、これらの実施形態および方法の改変および置換は当業者にとって明らかであろう。したがって、例示的な実施形態の上記の説明は本開示を定義または制約しない。他の変更、代替、および改変も、以下の特許請求の範囲によって定義される本開示の趣旨および範囲から逸脱することなく可能である。 [0095] Although this disclosure describes several embodiments and generally related methods, modifications and substitutions to these embodiments and methods will be apparent to those skilled in the art. Accordingly, the above description of example embodiments does not define or constrain this disclosure. Other changes, substitutions, and modifications are possible without departing from the spirit and scope of the present disclosure as defined by the following claims.
Claims (15)
ベース画像(500、700)を生成するために前記初期スクリーンショットからテキストを削除するステップ(212)と、
前記初期スクリーンショットの背景(領域0)を閉領域として識別するステップ(216)と、
前記少なくとも1つのスクリーンショットの各々について、
前記スクリーンショットをキャプチャする時間(970)を記憶するステップ(222)と、
前記スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別するステップ(212、226)と、
前記初期スクリーンショットの前記背景とは異なる前記スクリーンショット中の各閉領域(領域1〜12)と、前記スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別するステップ(216、230)と、
各識別された閉領域のための前記領域色と前記領域ロケーションとを記憶するステップ(222)と、
前記識別されたテキストの前記テキスト色と前記テキストロケーションとを記憶するステップ(214、228)と
を含む方法。 Capturing (208) at least one screenshot of a display screen including an initial screenshot (300);
Deleting text from the initial screenshot to generate a base image (500, 700) (212);
Identifying the background (region 0) of the initial screenshot as a closed region (216);
For each of the at least one screenshot,
Storing (222) the time (970) to capture the screenshot;
Identifying (212, 226) text, text color, and text location in the screenshot;
Identifying each closed region (regions 1-12) in the screenshot that is different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot. (216, 230),
Storing (222) the region color and the region location for each identified closed region;
Storing (214, 228) the text color and the text location of the identified text.
前記ベース画像を検索するステップ(238)と、
前記少なくとも1つのキャプチャされたスクリーンショットのうちの1つと、それの記憶された、キャプチャする時間とに対応して、
各識別された領域のための前記領域色と前記領域ロケーションと、前記識別されたテキストの前記テキスト色と前記テキストロケーションとを検索するステップ(242)と、
前記検索された領域ロケーションにおいて、前記検索された領域色を前記ベース画像の各領域に適用するステップ(244)と、
前記検索されたテキストロケーションにおいて、前記検索されたベース画像を前記検索されたテキスト色での前記テキストと重ね合わせるステップ(248)と
によって、前記少なくとも1つのキャプチャされたスクリーンショットの再構成として少なくとも1つの新しい画像(800、801)を生成するステップ(238、240)をさらに含む、請求項1に記載の方法。 For each new image,
Retrieving the base image (238);
Corresponding to one of the at least one captured screenshot and its stored time to capture,
Retrieving (242) the region color and region location for each identified region, and the text color and text location of the identified text;
Applying the searched area color to each area of the base image at the searched area location (244);
Overlaying the retrieved base image with the text in the retrieved text color (248) at the retrieved text location as at least one reconstruction of the at least one captured screenshot. The method of claim 1, further comprising generating (238, 240) two new images (800, 801).
前記特色をハイライトするユーザインターフェースディスプレイ画面(900、901)を生成するステップ(252)と
をさらに含む、請求項1に記載の方法。 Identifying (250) a new image exhibiting a spot color (980a, 980b), wherein the spot color is a change in field device data by at least a threshold amount or field device data operating outside operating limits Identifying (250) comprising at least one of:
Generating a user interface display screen (900, 901) that highlights the spot color (252).
指定された時間間隔に従って追加のスクリーンショットを周期的にキャプチャするステップ(224)
を含む、請求項1に記載の方法。 Capturing the at least one screenshot of the display screen;
Periodically capturing additional screen shots according to a specified time interval (224);
The method of claim 1 comprising:
前記グリッドに従って前記テキストロケーションを決定するステップと、
前記グリッドに従って前記領域ロケーションを決定するステップと
をさらに含む、請求項1に記載の方法。 Dividing the screenshot into grids (210);
Determining the text location according to the grid;
The method of claim 1, further comprising determining the region location according to the grid.
前記スクリーンショットに座標系(1000)を適用するステップ、または
前記スクリーンショットを、行と列とに構成されたブロック(400)のセットに分割するステップ
のうちの1つを含む、請求項5に記載の方法。 Dividing the screenshot into grids;
6. The method of claim 5, comprising one of applying a coordinate system (1000) to the screen shot, or dividing the screen shot into a set of blocks (400) organized in rows and columns. The method described.
前記メモリに結合された少なくとも1つのプロセッサ(114)と
を備え、前記少なくとも1つのプロセッサが、
初期スクリーンショット(300)を含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャすることと、
ベース画像(500、700)を生成するために前記初期スクリーンショットからテキストを削除することと、
前記初期スクリーンショットの背景(領域0)を閉領域として識別することと、
前記少なくとも1つのスクリーンショットの各々について、
前記スクリーンショットをキャプチャする時間(970)を前記メモリに記憶することと、
前記スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別することと、
前記初期スクリーンショットの前記背景とは異なる前記スクリーンショット中の各閉領域(領域1〜12)と、前記スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別することと、
各識別された閉領域のための前記領域色と前記領域ロケーションとを前記メモリに記憶することと、
前記識別されたテキストの前記テキスト色と前記テキストロケーションとを前記メモリに記憶することと
を行うように構成された、装置。 A memory (116);
At least one processor (114) coupled to the memory, the at least one processor comprising:
Capturing at least one screenshot of the display screen including an initial screenshot (300);
Deleting text from the initial screenshot to generate a base image (500, 700);
Identifying the background (region 0) of the initial screenshot as a closed region;
For each of the at least one screenshot,
Storing the time to capture the screenshot (970) in the memory;
Identifying the text, text color and text location in the screenshot;
Identifying each closed region (regions 1-12) in the screenshot that is different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot When,
Storing the region color and the region location for each identified closed region in the memory;
An apparatus configured to: store the text color and the text location of the identified text in the memory.
前記ベース画像を検索することと、
前記少なくとも1つのキャプチャされたスクリーンショットのうちの1つと、それの記憶された、キャプチャする時間とに対応して、
各識別された領域のための前記領域色と前記領域ロケーションと、前記識別されたテキストの前記テキスト色と前記テキストロケーションとを検索することと、
前記検索された領域ロケーションにおいて、前記検索された領域色を前記ベース画像の各領域に適用することと、
前記検索されたテキストロケーションにおいて、前記検索されたベース画像を前記検索されたテキスト色での前記テキストと重ね合わせることと
によって、前記少なくとも1つのキャプチャされたスクリーンショットの再構成として少なくとも1つの新しい画像(800、801)を生成するようにさらに構成された、請求項7に記載の装置。 For each new image, the processor
Retrieving the base image;
Corresponding to one of the at least one captured screenshot and its stored time to capture,
Retrieving the region color and region location for each identified region, and the text color and text location of the identified text;
Applying the searched area color to each area of the base image at the searched area location;
At the retrieved text location, at least one new image as a reconstruction of the at least one captured screenshot by overlaying the retrieved base image with the text in the retrieved text color. The apparatus of claim 7, further configured to generate (800, 801).
特色(980a、980b)を呈する新しい画像を識別することであって、前記特色が、少なくともしきい値量だけのフィールドデバイスデータの変化、または動作限界外で動作するフィールドデバイスデータのうちの少なくとも1つを含む、識別することと、
前記特色をハイライトするユーザインターフェースディスプレイ画面(900、901)を生成することと
を行うようにさらに構成された、請求項7に記載の装置。 The processor is
Identifying a new image exhibiting a spot color (980a, 980b), wherein the spot color is a change in field device data by at least a threshold amount, or at least one of field device data operating outside operating limits. Including, identifying,
8. The apparatus of claim 7, further configured to generate a user interface display screen (900, 901) that highlights the spot color.
指定された時間間隔に従って追加のスクリーンショットを周期的にキャプチャすること
によって、前記ディスプレイ画面の前記少なくとも1つのスクリーンショットをキャプチャするようにさらに構成された、請求項7に記載の装置。 The processor is
The apparatus of claim 7, further configured to capture the at least one screen shot of the display screen by periodically capturing additional screen shots according to a specified time interval.
初期スクリーンショット(300)を含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャすること(208)と、
ベース画像を生成するために前記初期スクリーンショットからテキストを削除すること(212)と、
前記初期スクリーンショットの背景(領域0)を閉領域として識別すること(216)と、
前記少なくとも1つのスクリーンショットの各々について、
前記スクリーンショットをキャプチャする時間(970)をメモリに記憶すること(222)と、
前記スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別すること(212、226)と、
前記初期スクリーンショットの前記背景とは異なる前記スクリーンショット中の各閉領域(領域1〜12)と、前記スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別すること(216、230)と、
各識別された閉領域のための前記領域色と前記領域ロケーションとを記憶すること(222)と、
前記識別されたテキストの前記テキスト色と前記テキストロケーションとを記憶すること(214、228)と
を行わせるコンピュータ可読プログラムコードを含む、非一時的コンピュータ可読媒体。 A non-transitory computer readable medium for implementing a computer program, wherein when the computer program is executed by a processing circuit, the processing circuit
Capturing (208) at least one screenshot of a display screen including an initial screenshot (300);
Deleting text from the initial screenshot to generate a base image (212);
Identifying the background (region 0) of the initial screenshot as a closed region (216);
For each of the at least one screenshot,
Storing in memory a time to capture the screenshot (970) (222);
Identifying (212, 226) the text, text color, and text location in the screenshot;
Identifying each closed region (regions 1-12) in the screenshot that is different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot (216, 230),
Storing the region color and the region location for each identified closed region (222);
A non-transitory computer readable medium comprising computer readable program code for causing said text color and said text location of said identified text to be stored (214, 228).
前記ベース画像を検索すること(238)と、
前記少なくとも1つのキャプチャされたスクリーンショットのうちの1つと、それの記憶された、キャプチャする時間とに対応して、
各識別された領域のための前記領域色と前記領域ロケーションと、前記識別されたテキストの前記テキスト色と前記テキストロケーションとを検索すること(242)と、
前記検索された領域ロケーションにおいて、前記検索された領域色を前記ベース画像の各領域に適用すること(244)と、
前記検索されたテキストロケーションにおいて、前記検索されたベース画像を前記検索されたテキスト色での前記テキストと重ね合わせること(248)と
によって、前記少なくとも1つのキャプチャされたスクリーンショットの再構成として少なくとも1つの新しい画像(800、801)を生成すること(238、240)を行わせるコンピュータ可読プログラムコードをさらに含む、請求項11に記載の非一時的コンピュータ可読媒体。 When the computer program is executed by the processing circuit, the processing circuit
Retrieving the base image (238);
Corresponding to one of the at least one captured screenshot and its stored time to capture,
Retrieving (242) the region color and region location for each identified region, and the text color and text location of the identified text;
Applying the retrieved region color to each region of the base image at the retrieved region location (244);
At least one reconstruction of the at least one captured screenshot by superimposing (248) the retrieved base image with the text in the retrieved text color at the retrieved text location. 12. The non-transitory computer readable medium of claim 11, further comprising computer readable program code that causes generating (238, 240) two new images (800, 801).
特色(980a、980b)を呈する新しい画像を識別すること(250)であって、前記特色が、少なくともしきい値量だけのフィールドデバイスデータの変化、または動作限界外で動作するフィールドデバイスデータのうちの少なくとも1つを含む、識別すること(250)と、
前記特色をハイライトするユーザインターフェースディスプレイ画面(900、901)を生成すること(252)と
を行わせるコンピュータ可読プログラムコードをさらに含む、請求項11に記載の非一時的コンピュータ可読媒体。 When the computer program is executed by the processing circuit, the processing circuit
Identifying (250) a new image exhibiting a spot color (980a, 980b), wherein the spot color is a change in field device data by at least a threshold amount or field device data operating outside operating limits Identifying (250) including at least one of:
The non-transitory computer readable medium of claim 11, further comprising computer readable program code for generating (252) a user interface display screen (900, 901) that highlights the feature.
指定された時間間隔に従って追加のスクリーンショットを周期的にキャプチャすること(224)によって、前記ディスプレイ画面の前記少なくとも1つのスクリーンショットをキャプチャすること
を行わせるコンピュータ可読プログラムコードをさらに含む、請求項11に記載の非一時的コンピュータ可読媒体。 When the computer program is executed by the processing circuit, the processing circuit
The computer-readable program code for causing the at least one screenshot of the display screen to be captured by periodically capturing (224) additional screen shots according to a specified time interval. A non-transitory computer readable medium according to claim 1.
識別された領域内の各閉領域を下位領域(領域9.1)として識別することと、
ツリー構造を使用して各識別された領域および下位領域に領域識別を割り当てることと
を行わせるコンピュータ可読プログラムコードをさらに含む、請求項11に記載の非一時的コンピュータ可読媒体。 When the computer program is executed by the processing circuit, the processing circuit
Identifying each closed region within the identified region as a subregion (region 9.1);
The non-transitory computer readable medium of claim 11, further comprising computer readable program code for causing a region identification to be assigned to each identified region and subregion using a tree structure.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/008,282 | 2016-01-27 | ||
US15/008,282 US9779293B2 (en) | 2016-01-27 | 2016-01-27 | Method and tool for post-mortem analysis of tripped field devices in process industry using optical character recognition and intelligent character recognition |
PCT/US2017/013130 WO2017131960A1 (en) | 2016-01-27 | 2017-01-12 | Method and tool for post-mortem analysis of tripped field devices in process industry using optical character recognition & intelligent character recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019509548A true JP2019509548A (en) | 2019-04-04 |
JP6851385B2 JP6851385B2 (en) | 2021-03-31 |
Family
ID=59360503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018539392A Active JP6851385B2 (en) | 2016-01-27 | 2017-01-12 | Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition |
Country Status (5)
Country | Link |
---|---|
US (1) | US9779293B2 (en) |
EP (1) | EP3408793B1 (en) |
JP (1) | JP6851385B2 (en) |
CN (1) | CN108475335B (en) |
WO (1) | WO2017131960A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022527873A (en) * | 2020-05-01 | 2022-06-07 | ユーアイパス,インコーポレイテッド | Text detection, caret tracking, and active element detection |
JP2022531026A (en) * | 2020-05-01 | 2022-07-06 | ユーアイパス,インコーポレイテッド | Text detection, caret tracking, and active element detection |
US11461164B2 (en) | 2020-05-01 | 2022-10-04 | UiPath, Inc. | Screen response validation of robot execution for robotic process automation |
US11594007B2 (en) | 2020-05-01 | 2023-02-28 | UiPath, Inc. | Text detection, caret tracking, and active element detection |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11113800B2 (en) * | 2017-01-18 | 2021-09-07 | Nvidia Corporation | Filtering image data using a neural network |
US11386636B2 (en) | 2019-04-04 | 2022-07-12 | Datalogic Usa, Inc. | Image preprocessing for optical character recognition |
JP2023524605A (en) * | 2020-05-01 | 2023-06-13 | ユーアイパス,インコーポレイテッド | Text detection, caret tracking and active element detection |
KR102297356B1 (en) * | 2020-05-01 | 2021-09-01 | 유아이패스, 인크. | Text detection, caret tracking, and active element detection |
CN111797933B (en) * | 2020-07-10 | 2023-07-28 | 百度在线网络技术(北京)有限公司 | Template matching method, device, electronic equipment and storage medium |
JP2022145219A (en) * | 2021-03-19 | 2022-10-03 | 株式会社リコー | Display device, data sharing system, display control method and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004021300A (en) * | 2002-06-12 | 2004-01-22 | Toshiba Corp | Screen control device |
JP2006262116A (en) * | 2005-03-17 | 2006-09-28 | Nec Viewtechnology Ltd | Image transmitting apparatus and image transmitting method |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69519980T2 (en) * | 1994-12-28 | 2001-06-07 | Siemens Corp Res Inc | Method and device for the detection and interpretation of subtitles in digital video signals |
KR20040041082A (en) * | 2000-07-24 | 2004-05-13 | 비브콤 인코포레이티드 | System and method for indexing, searching, identifying, and editing portions of electronic multimedia files |
JP3817442B2 (en) | 2001-05-14 | 2006-09-06 | 日本電信電話株式会社 | Image recognition apparatus, image recognition method, program for realizing image recognition method, and recording medium for the program |
US7609894B2 (en) * | 2004-02-17 | 2009-10-27 | Corel Corporation | Adaptive sampling region for a region editing tool |
US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
US20070150368A1 (en) * | 2005-09-06 | 2007-06-28 | Samir Arora | On-line personalized content and merchandising environment |
US8082123B2 (en) | 2005-09-30 | 2011-12-20 | Rockwell Automated Technologies, Inc. | Interactive diagnostics having graphical playback and solution implementation capabilities |
CN101093545A (en) * | 2006-06-22 | 2007-12-26 | 王宏源 | Method for carrying out highlighted marking searching words on snapshot pictures of ancient books in document retrieval system for ancient books |
CN101441713B (en) * | 2007-11-19 | 2010-12-08 | 汉王科技股份有限公司 | Optical character recognition method and apparatus of PDF document |
JP4772888B2 (en) * | 2009-03-27 | 2011-09-14 | シャープ株式会社 | Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof |
US9135277B2 (en) * | 2009-08-07 | 2015-09-15 | Google Inc. | Architecture for responding to a visual query |
KR101670956B1 (en) * | 2009-08-07 | 2016-10-31 | 구글 인코포레이티드 | User interface for presenting search results for multiple regions of a visual query |
US8457347B2 (en) * | 2009-09-30 | 2013-06-04 | F. Scott Deaver | Monitoring usage of a computer by performing character recognition on screen capture images |
US20110312414A1 (en) * | 2010-06-16 | 2011-12-22 | Microsoft Corporation | Automated certification of video game advertising using ocr |
US20120033249A1 (en) * | 2010-08-05 | 2012-02-09 | David Van | Trigger-activated Contextual User Session Recording |
US20120050316A1 (en) * | 2010-08-31 | 2012-03-01 | Nokia Corporation | Methods and apparatuses for enhancing wallpaper display |
CN102624576B (en) * | 2011-01-27 | 2016-04-20 | 腾讯科技(深圳)有限公司 | A kind of method and system of web page download time of automatic test browser |
CN102622595A (en) * | 2011-01-28 | 2012-08-01 | 北京千橡网景科技发展有限公司 | Method and equipment used for positioning picture contained in image |
CN102207966B (en) * | 2011-06-01 | 2013-07-10 | 华南理工大学 | Video content quick retrieving method based on object tag |
US8615683B2 (en) | 2011-06-24 | 2013-12-24 | Rockwell Automation Technologies, Inc. | Capturing data during operation of an industrial controller for the debugging of control programs |
US9239574B2 (en) | 2011-06-30 | 2016-01-19 | Honeywell International Inc. | Apparatus for automating field device operations by capturing device method execution steps for later use and related method |
CN103020624B (en) * | 2011-09-23 | 2015-12-02 | 杭州海康威视系统技术有限公司 | All-purpose road monitor video smart tags, retrieval back method and device thereof |
US9740912B2 (en) * | 2011-12-20 | 2017-08-22 | Definiens Ag | Evaluation of co-registered images of differently stained tissue slices |
US9218233B2 (en) | 2012-07-24 | 2015-12-22 | Paul Venditti | Systems and methods for control reliability operations |
CN102915438B (en) * | 2012-08-21 | 2016-11-23 | 北京捷成世纪科技股份有限公司 | The extracting method of a kind of video caption and device |
US10254952B2 (en) * | 2012-09-26 | 2019-04-09 | Google Llc | Progress display of handwriting input |
CN102930263A (en) * | 2012-09-27 | 2013-02-13 | 百度国际科技(深圳)有限公司 | Information processing method and device |
CN103942212B (en) * | 2013-01-21 | 2018-01-09 | 腾讯科技(深圳)有限公司 | The character detecting method and device of a kind of user interface |
CN103274272B (en) * | 2013-06-20 | 2015-06-10 | 李天彤 | Elevator integrated management system and elevator integrated management method |
US9384393B2 (en) | 2013-10-29 | 2016-07-05 | Bank Of America Corporation | Check data lift for error detection |
US9477457B1 (en) * | 2014-03-31 | 2016-10-25 | Juniper Networks, Inc. | Automated software installation using a click area prediction model |
US9396404B2 (en) | 2014-08-04 | 2016-07-19 | Datalogic ADC, Inc. | Robust industrial optical character recognition |
CN104270498B (en) * | 2014-08-28 | 2017-07-14 | 小米科技有限责任公司 | To the method and apparatus of communication interface input communication number |
CN104268512B (en) * | 2014-09-17 | 2018-04-27 | 清华大学 | Character identifying method and device in image based on optical character identification |
CN104766043A (en) * | 2014-10-15 | 2015-07-08 | 南通北城科技创业管理有限公司 | Method of fast identification of ballot image |
CN104714934B (en) * | 2014-12-30 | 2017-10-13 | 上海孩子国科教设备有限公司 | The implementation method and client of convenient editor |
CN104715497A (en) * | 2014-12-30 | 2015-06-17 | 上海孩子国科教设备有限公司 | Data replacement method and system |
CN104978565B (en) * | 2015-05-11 | 2019-06-28 | 厦门翼歌软件科技有限公司 | A kind of pictograph extracting method of universality |
CN104992152A (en) * | 2015-06-30 | 2015-10-21 | 深圳訾岽科技有限公司 | Character recognition method and system based on template character library |
-
2016
- 2016-01-27 US US15/008,282 patent/US9779293B2/en active Active
-
2017
- 2017-01-12 EP EP17744677.0A patent/EP3408793B1/en active Active
- 2017-01-12 CN CN201780008394.7A patent/CN108475335B/en active Active
- 2017-01-12 JP JP2018539392A patent/JP6851385B2/en active Active
- 2017-01-12 WO PCT/US2017/013130 patent/WO2017131960A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004021300A (en) * | 2002-06-12 | 2004-01-22 | Toshiba Corp | Screen control device |
JP2006262116A (en) * | 2005-03-17 | 2006-09-28 | Nec Viewtechnology Ltd | Image transmitting apparatus and image transmitting method |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022527873A (en) * | 2020-05-01 | 2022-06-07 | ユーアイパス,インコーポレイテッド | Text detection, caret tracking, and active element detection |
JP2022531026A (en) * | 2020-05-01 | 2022-07-06 | ユーアイパス,インコーポレイテッド | Text detection, caret tracking, and active element detection |
JP7114157B2 (en) | 2020-05-01 | 2022-08-08 | ユーアイパス,インコーポレイテッド | Text detection, caret tracking and active element detection |
JP7115804B2 (en) | 2020-05-01 | 2022-08-09 | ユーアイパス,インコーポレイテッド | Text detection, caret tracking and active element detection |
US11461164B2 (en) | 2020-05-01 | 2022-10-04 | UiPath, Inc. | Screen response validation of robot execution for robotic process automation |
US11594007B2 (en) | 2020-05-01 | 2023-02-28 | UiPath, Inc. | Text detection, caret tracking, and active element detection |
US11625138B2 (en) | 2020-05-01 | 2023-04-11 | UiPath, Inc. | Text detection, caret tracking, and active element detection |
US11630549B2 (en) | 2020-05-01 | 2023-04-18 | UiPath, Inc. | Text detection, caret tracking, and active element detection |
US11734104B2 (en) | 2020-05-01 | 2023-08-22 | UiPath, Inc. | Screen response validation of robot execution for robotic process automation |
Also Published As
Publication number | Publication date |
---|---|
JP6851385B2 (en) | 2021-03-31 |
WO2017131960A1 (en) | 2017-08-03 |
CN108475335A (en) | 2018-08-31 |
US9779293B2 (en) | 2017-10-03 |
CN108475335B (en) | 2022-10-14 |
US20170213082A1 (en) | 2017-07-27 |
EP3408793B1 (en) | 2021-04-14 |
EP3408793A1 (en) | 2018-12-05 |
EP3408793A4 (en) | 2019-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6851385B2 (en) | Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition | |
US11671478B1 (en) | Remote asset monitoring and control | |
US10739746B2 (en) | Using soft-sensors in a programmable logic controller | |
CN108474806B (en) | System and method for monitoring manufacturing | |
CA2871443C (en) | System and method for device cluster data display | |
JP5646802B2 (en) | Batch display system and batch display method | |
JP6601433B2 (en) | Event analysis device, event analysis system, event analysis method, event analysis program, and recording medium | |
US10838938B2 (en) | Process monitorer, process monitering system, process monitering method, process monitering program, and recording mediam | |
WO2020168190A9 (en) | Process mapping and monitoring using artificial intelligence | |
WO2008118891A2 (en) | Apparatus and method for visualization of control techniques in a process control system | |
US10635083B2 (en) | Apparatus and method for generating smart visualizations for effective monitoring and control in industrial process control and automation systems | |
US20210318675A1 (en) | Method for alarm handling in a processing system | |
US20180357465A1 (en) | System and method for automatic logging of events in industrial process control and automation system using change point analysis | |
US20130253866A1 (en) | Intelligent visualisation in the monitoring of process and/or system variables | |
US10614702B2 (en) | Alarm tuning using alarm and process data for condition monitoring | |
CN107729912A (en) | Technology for monitoring technology equipment | |
JP6382680B2 (en) | Programmable controller for sampling signal address of SFC active state step | |
US20170351250A1 (en) | Method and apparatus to represent process alarms in parent-child relationships | |
CN103605645A (en) | Method and apparatus for determining when an event occurred in an industrial plant | |
GB2477447A (en) | Analyzing batch runs by using a batch signature to perform a user interface function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6851385 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |