JP2019509548A - Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition - Google Patents

Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition Download PDF

Info

Publication number
JP2019509548A
JP2019509548A JP2018539392A JP2018539392A JP2019509548A JP 2019509548 A JP2019509548 A JP 2019509548A JP 2018539392 A JP2018539392 A JP 2018539392A JP 2018539392 A JP2018539392 A JP 2018539392A JP 2019509548 A JP2019509548 A JP 2019509548A
Authority
JP
Japan
Prior art keywords
screenshot
region
text
color
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018539392A
Other languages
Japanese (ja)
Other versions
JP6851385B2 (en
Inventor
クマール,ジャミクンタ・ラビ
クマール,アミット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2019509548A publication Critical patent/JP2019509548A/en
Application granted granted Critical
Publication of JP6851385B2 publication Critical patent/JP6851385B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/418Document matching, e.g. of document images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Character Input (AREA)
  • Processing Or Creating Images (AREA)
  • Character Discrimination (AREA)

Abstract

方法は、初期スクリーンショット(300)を含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャするステップ(208)を含む。本方法は、ベース画像(500、700)を生成するために初期スクリーンショットからテキストを削除するステップ(212)を含む。本方法は、初期スクリーンショットの背景(領域0)を閉領域として識別するステップ(216)を含む。本方法は、少なくとも1つのスクリーンショットの各々について、スクリーンショットをキャプチャする時間(970)を記憶するステップ(222)と、スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別するステップ(212、226)と、初期スクリーンショットの背景とは異なるスクリーンショット中の各閉領域(領域1〜12)と、スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別するステップ(216、230)と、各識別された閉領域のための領域色と領域ロケーションとを記憶するステップ(222)と、識別されたテキストのテキスト色とテキストロケーションとを記憶するステップ(214、228)とを含む。The method includes capturing (208) at least one screen shot of a display screen including an initial screen shot (300). The method includes a step (212) of deleting text from the initial screenshot to generate a base image (500, 700). The method includes identifying (216) the background (region 0) of the initial screenshot as a closed region. The method includes, for each of the at least one screenshot, storing (222) a time to capture the screenshot (970); identifying text, text color, and text location in the screenshot (212, 226), each closed region (region 1-12) in the screenshot different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot (216, 230), storing (222) the region color and region location for each identified closed region, and storing the text color and text location of the identified text (214, 228). ).

Description

[0001]本開示は、一般に制御システムを対象とする。より詳細には、本開示は、光学文字認識(OCR:Optical Character recognition)とインテリジェント文字認識(ICR:Intelligent Chracter Recognition)とを使用したプロセス工業におけるトリップされた(tripped)フィールドデバイスのポストモーテム(post−mortem)分析のための方法およびツールを対象とする。   [0001] The present disclosure is generally directed to control systems. More particularly, the present disclosure describes a post-mortem of a tripped field device in the process industry using optical character recognition (OCR) and intelligent character recognition (ICR). Mortem) is directed to methods and tools for analysis.

[0002]発電プラントなど、プロセスプラントは頻繁なトリッピング問題(tripping problem)を有するので、プロセスユニットは、複数のクリティカルアラームを生成し、時々、停止に至ることがある。トリッピングが発生したとき、オペレータは、問題を診断するために、任意の処理ユニットのクリティカルプロセスパラメータの前の値を検討することを希望し得る。たとえば、オペレータは、トリッピングがその間に発生した、任意の処理ユニットのアクティビティの最後の20分を検討することを希望し得るが、オペレータは、トリッピング問題のポストモーテム分析を実施するために、後戻りし、プラントのコンソールステーション被監視プロセスユニットを再検査する方法を有しない。   [0002] Because process plants, such as power plants, have frequent tripping problems, process units may generate multiple critical alarms, sometimes leading to outages. When tripping occurs, the operator may wish to review previous values of critical process parameters for any processing unit to diagnose the problem. For example, the operator may wish to consider the last 20 minutes of any processing unit activity during which tripping occurred, but the operator would go back to perform postmortem analysis of the tripping problem, There is no way to re-inspect the plant's console station monitored process unit.

[0003]コンソールステーション上でクリティカルプロセスのプロセスユニットを監視しているオペレータは、現在トリップされているデバイスを視覚的に認識することができる。認識されると、オペレータは、トリップされたデバイスのうちの1つを含む(オペレータがコンソールステーションを介して監視していた)プロセスユニットの過去の情報を閲覧するための包括的なまたは便利なツールを有しないことがある。プロセスユニットが停止に至ると、それのポストモーテム分析が必要とされることになるプロセスユニットのクリティカルデバイスを、オペレータが構成することを可能にするための便利なツールは存在しない。   [0003] An operator monitoring a process unit of a critical process on a console station can visually recognize the device that is currently being tripped. Once recognized, the operator is a comprehensive or convenient tool for viewing historical information on process units (the operator was monitoring via the console station), including one of the tripped devices May not be included. There is no convenient tool to allow an operator to configure a critical device of a process unit that will need to be postmortem analyzed when the process unit is shut down.

[0004]本開示は、光学文字認識(OCR)技法とインテリジェント文字認識(ICR)技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための装置および方法を提供する。   [0004] The present disclosure provides an apparatus and method for performing post-mortem analysis of tripped field devices in the process industry using optical character recognition (OCR) and intelligent character recognition (ICR) techniques.

[0005]第1の例では、方法は、初期スクリーンショットを含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャするステップを含む。本方法は、ベース画像を生成するために初期スクリーンショットからテキストを削除するステップを含む。本方法は、初期スクリーンショットの背景を閉領域として識別することを含む。本方法は、少なくとも1つのスクリーンショットの各々について、(i)スクリーンショットをキャプチャする時間を記憶するステップと、(ii)スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別するステップと、(iii)初期スクリーンショットの背景とは異なるスクリーンショット中の各閉領域と、スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別するステップと、(iv)各識別された閉領域のための領域色と領域ロケーションとを記憶するステップと、(v)識別されたテキストのテキスト色とテキストロケーションとを記憶するステップとを含む。   [0005] In a first example, the method includes capturing at least one screen shot of a display screen that includes an initial screen shot. The method includes removing text from the initial screenshot to generate a base image. The method includes identifying the background of the initial screenshot as a closed region. The method includes, for each of the at least one screenshot, (i) storing time to capture the screenshot; (ii) identifying text, text color, and text location in the screenshot; iii) identifying each closed region in the screenshot different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot; and (iv) each identified Storing the region color and region location for the closed region, and (v) storing the text color and text location of the identified text.

[0006]第2の例では、装置は、メモリと、メモリに結合された少なくとも1つのプロセッサとを含む。少なくとも1つのプロセッサは、初期スクリーンショットを含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャするように構成される。少なくとも1つのプロセッサは、ベース画像を生成するために初期スクリーンショットからテキストを削除するように構成される。少なくとも1つのプロセッサは、初期スクリーンショットの背景を閉領域として識別するように構成される。少なくとも1つのプロセッサは、少なくとも1つのスクリーンショットの各々について、(i)スクリーンショットをキャプチャする時間をメモリに記憶することと、(ii)スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別することと、(iii)初期スクリーンショットの背景とは異なるスクリーンショット中の各閉領域と、スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別することと、(iv)各識別された閉領域のための領域色と領域ロケーションとをメモリに記憶することと、(v)識別されたテキストのテキスト色とテキストロケーションとをメモリに記憶することとを行うように構成される。   [0006] In a second example, an apparatus includes a memory and at least one processor coupled to the memory. The at least one processor is configured to capture at least one screen shot of the display screen including the initial screen shot. At least one processor is configured to delete text from the initial screenshot to generate a base image. At least one processor is configured to identify the background of the initial screenshot as a closed region. At least one processor, for each of the at least one screenshot, (i) stores in memory the time to capture the screenshot, and (ii) identifies the text, text color, and text location in the screenshot. (Iii) identifying each closed region in the screenshot that is different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot; (iv) Configured to store in memory a region color and region location for each identified closed region; and (v) store in memory the text color and text location of the identified text. Is done.

[0007]第3の例では、コンピュータプログラムを実施する非一時的コンピュータ可読媒体が提供される。コンピュータプログラムは、処理回路によって実行されたとき、処理回路に、初期スクリーンショットを含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャさせるコンピュータ可読プログラムコードを含む。コンピュータプログラムは、処理回路によって実行されたとき、処理回路に、ベース画像を生成するために初期スクリーンショットからテキストを削除させるコンピュータ可読プログラムコードを含む。コンピュータプログラムは、処理回路によって実行されたとき、処理回路に、初期スクリーンショットの背景を閉領域として識別させるコンピュータ可読プログラムコードを含む。コンピュータプログラムは、処理回路によって実行されたとき、処理回路に、少なくとも1つのスクリーンショットの各々について、(i)スクリーンショットをキャプチャする時間をメモリに記憶することと、(ii)スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別することと、(iii)初期スクリーンショットの背景とは異なるスクリーンショット中の各閉領域と、スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別することと、(iv)各識別された閉領域のための領域色と領域ロケーションとを記憶することと、(v)識別されたテキストのテキスト色とテキストロケーションとを記憶することとを行わせるコンピュータ可読プログラムコードを含む。   [0007] In a third example, a non-transitory computer readable medium implementing a computer program is provided. The computer program includes computer readable program code that, when executed by the processing circuit, causes the processing circuit to capture at least one screen shot of the display screen including the initial screen shot. The computer program includes computer readable program code that, when executed by the processing circuit, causes the processing circuit to delete the text from the initial screenshot to generate a base image. The computer program includes computer readable program code that, when executed by the processing circuit, causes the processing circuit to identify the background of the initial screenshot as a closed region. When executed by the processing circuit, the computer program causes the processing circuit to store (i) a time to capture the screen shot in memory for each of the at least one screen shot; and (ii) the text in the screen shot. And (iii) each closed region in the screenshot different from the background of the initial screenshot, and a region color and region for each identified closed region in the screenshot Identifying the location; (iv) storing the region color and region location for each identified closed region; and (v) storing the text color and text location of the identified text. Including computer readable program code.

[0008]他の技術的特徴は、以下の図、説明、および特許請求の範囲から当業者には容易に明らかであり得る。
[0009]本開示およびそれの特徴のより完全な理解のために、次に、添付の図面とともに与えられる、以下の説明が参照される。
[0008] Other technical features may be readily apparent to one skilled in the art from the following figures, descriptions, and claims.
[0009] For a more complete understanding of the present disclosure and its features, reference is now made to the following description, taken in conjunction with the accompanying drawings.

[0010]本開示による、例示的な工業プロセス制御および自動化システムを示す図である。[0010] FIG. 1 illustrates an exemplary industrial process control and automation system in accordance with the present disclosure. [0011]本開示による、光学文字認識(OCR)技法とインテリジェント文字認識(ICR)技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための例示的なプロセスを示す図である。[0011] FIG. 4 illustrates an exemplary process for performing post-mortem analysis of a tripped field device in the process industry using optical character recognition (OCR) and intelligent character recognition (ICR) techniques according to this disclosure. is there. 本開示による、光学文字認識(OCR)技法とインテリジェント文字認識(ICR)技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための例示的なプロセスを示す図である。FIG. 3 illustrates an exemplary process for performing post-mortem analysis of a tripped field device in the process industry using optical character recognition (OCR) and intelligent character recognition (ICR) techniques according to this disclosure. [0012]本開示による、プロセスユニットの選択されたクリティカルデバイスのビューを与えるオペレータコンソールディスプレイ画面の例示的なベーススクリーンショットを示す図である。[0012] FIG. 4 illustrates an exemplary base screenshot of an operator console display screen that provides a view of a selected critical device of a process unit in accordance with the present disclosure. [0013]本開示による、グリッドに分割された図3のベーススクリーンショットを示す図である。[0013] FIG. 4 illustrates the base screenshot of FIG. 3 divided into grids in accordance with the present disclosure. [0014]本開示による、テキストなしベーススクリーンショットを示す図である。[0014] FIG. 4 illustrates a base screenshot without text in accordance with the present disclosure. [0015]本開示による、図5のテキストなしベーススクリーンショットの領域および下位領域を示す図である。[0015] FIG. 6 illustrates regions and subregions of the textless base screenshot of FIG. 5 in accordance with the present disclosure. [0016]本開示による、グリッドをもつ色正規化されたテキストなしベーススクリーンショットの領域および下位領域を示す図である。[0016] FIG. 6 illustrates regions and subregions of a color normalized text-less base screenshot with a grid in accordance with the present disclosure. 本開示による、グリッドをもつ色正規化されたテキストなしベーススクリーンショットの領域および下位領域を示す図である。FIG. 6 illustrates regions and subregions of a color normalized textless base screenshot with a grid in accordance with the present disclosure. [0017]本開示による、図3の初期ベーススクリーンショットがその間にキャプチャされた時間間隔のための再構成された画像の例を示す図である。[0017] FIG. 4 illustrates an example of a reconstructed image for a time interval during which the initial base screenshot of FIG. 3 was captured in accordance with the present disclosure. 本開示による、図3の初期ベーススクリーンショットがその間にキャプチャされた時間間隔のための再構成された画像の例を示す図である。FIG. 4 illustrates an example of a reconstructed image for a time interval during which the initial base screenshot of FIG. 3 was captured according to this disclosure. [0018]本開示による、オペレータコンソール中のディスプレイ画面の根本原因分析ツールユーザインターフェース(UI)を示す図である。[0018] FIG. 5 illustrates a root cause analysis tool user interface (UI) of a display screen in an operator console according to the present disclosure. 本開示による、オペレータコンソール中のディスプレイ画面の根本原因分析ツールユーザインターフェース(UI)を示す図である。FIG. 3 illustrates a root cause analysis tool user interface (UI) of a display screen in an operator console according to the present disclosure. [0019]本開示による、図3のベーススクリーンショットに適用された座標系を示す図である。[0019] FIG. 4 illustrates a coordinate system applied to the base screenshot of FIG. 3 in accordance with the present disclosure.

[0020]以下で説明される図1〜図10、および本特許文献において本発明の原理について説明するために使用される様々な例は、例示的なものにすぎず、いかなる形でも本発明の範囲を制限するものと解釈されるべきではない。本発明の原理が、任意の好適な様式で、および任意のタイプの適切に構成されたデバイスまたはシステムにおいて実装され得ることを、当業者は理解されよう。   [0020] The various examples used to describe the principles of the present invention in FIGS. 1-10 described below and in this patent document are merely exemplary, and in any form of the present invention. It should not be construed as limiting the scope. Those skilled in the art will appreciate that the principles of the invention may be implemented in any suitable manner and in any type of suitably configured device or system.

[0021]図1は、本開示による、例示的な工業プロセス制御および自動化システム100を示す。図1に示されているように、システム100は、少なくとも1つの製品または他の材料の生産または処理を可能にする様々な構成要素を含む。たとえば、システム100は、1つまたは複数の工業プラント中の構成要素に対する制御を可能にするために使用され得る。各プラントは、1つまたは複数の処理設備(またはそれの1つまたは複数の部分)を表す。例示的な処理設備としては、少なくとも1つの製品または他の材料を生産するための製造プラント、化学プラント、原油精製所、鉱石処理プラント、ならびに紙またはパルプ製造および処理プラントがある。概して、各プラントは、1つまたは複数の工業プロセスを実装し得、個々にまたはまとめてプロセスシステムと呼ばれることがある。プロセスシステムは、概して、何らかの様式で1つまたは複数の製品または他の材料を処理するように構成された任意のシステムまたはそれの部分を表す。   [0021] FIG. 1 illustrates an exemplary industrial process control and automation system 100 according to this disclosure. As shown in FIG. 1, the system 100 includes various components that enable the production or processing of at least one product or other material. For example, the system 100 can be used to allow control over components in one or more industrial plants. Each plant represents one or more processing facilities (or one or more portions thereof). Exemplary processing facilities include manufacturing plants, chemical plants, crude oil refineries, ore processing plants, and paper or pulp manufacturing and processing plants for producing at least one product or other material. In general, each plant may implement one or more industrial processes and may be referred to individually or collectively as a process system. A process system generally represents any system or portion thereof configured to process one or more products or other materials in some manner.

[0022]図1では、システム100は、1つまたは複数のセンサー102aと1つまたは複数のアクチュエータ102bとを含む。センサー102aおよびアクチュエータ102bは、多種多様な機能のいずれかを実施し得るプロセスシステム中の構成要素を表す。たとえば、センサー102aは、温度、圧力、または流量など、プロセスシステムにおける多種多様な特性を測定することができる。また、アクチュエータ102bは、プロセスシステムにおける多種多様な特性を変えることができる。センサー102aの各々は、プロセスシステムにおける1つまたは複数の特性を測定するための任意の好適な構造を含む。アクチュエータ102bの各々は、プロセスシステムにおける1つまたは複数の状態に作用するかまたは影響を及ぼすための任意の好適な構造を含む。例示的なアクチュエータ102bとしては、ヒーター、モーター、接触分解器、またはバルブがある。   [0022] In FIG. 1, system 100 includes one or more sensors 102a and one or more actuators 102b. Sensor 102a and actuator 102b represent components in a process system that can perform any of a wide variety of functions. For example, the sensor 102a can measure a wide variety of characteristics in the process system, such as temperature, pressure, or flow rate. The actuator 102b can change various characteristics in the process system. Each of the sensors 102a includes any suitable structure for measuring one or more characteristics in the process system. Each of the actuators 102b includes any suitable structure for affecting or affecting one or more states in the process system. Exemplary actuators 102b include heaters, motors, catalytic crackers, or valves.

[0023]少なくとも1つのネットワーク104がセンサー102aとアクチュエータ102bとに結合される。ネットワーク104は、センサー102aおよびアクチュエータ102bとの対話を可能にする。たとえば、ネットワーク104は、センサー102aからの測定データをトランスポートし、アクチュエータ102bに制御信号を与えることができる。ネットワーク104は、任意の好適なネットワークまたはネットワークの組合せを表すことができる。特定の例として、ネットワーク104は、少なくとも1つのイーサネットネットワーク、(HARTまたはFOUNDATION FIELDBUSネットワークなどの)電気信号ネットワーク、空気制御信号ネットワーク、あるいは他のまたは追加の(1つまたは複数の)タイプの(1つまたは複数の)ネットワークを表すことができる。   [0023] At least one network 104 is coupled to the sensor 102a and the actuator 102b. Network 104 allows interaction with sensor 102a and actuator 102b. For example, the network 104 can transport measurement data from the sensor 102a and provide a control signal to the actuator 102b. Network 104 may represent any suitable network or combination of networks. As a specific example, the network 104 may be at least one Ethernet network, an electrical signaling network (such as a HART or FOUNDATION FIELDDBUS network), an air control signaling network, or other or additional type (s) (1). Network (s).

[0024]様々なコントローラ106がネットワーク104に直接または間接的に結合される。コントローラ106は、様々な機能を実施するためにシステム100中で使用され得る。たとえば、コントローラ106の第1のセットは、1つまたは複数のアクチュエータ102bの動作を制御するために、1つまたは複数のセンサー102aからの測定値を使用し得る。コントローラ106の第2のセットは、コントローラの第1のセットによって実施される制御論理または他の動作を最適化するために使用され得る。コントローラ106の第3のセットは、追加の機能を実施するために使用され得る。   [0024] Various controllers 106 are coupled directly or indirectly to the network 104. Controller 106 may be used in system 100 to perform various functions. For example, a first set of controllers 106 may use measurements from one or more sensors 102a to control the operation of one or more actuators 102b. The second set of controllers 106 may be used to optimize control logic or other operations performed by the first set of controllers. A third set of controllers 106 can be used to perform additional functions.

[0025]コントローラ106は、しばしば、システム中で階層的に構成される。たとえば、個々のアクチュエータ、機械を形成するアクチュエータの集合、ユニットを形成する機械の集合、プラントを形成するユニットの集合、および企業を形成するプラントの集合を制御するために、異なるコントローラ106が使用され得る。コントローラ106の階層構成の特定の例は、プロセス制御の「パデュー(Purdue)」モデルとして定義される。異なる階層レベルにあるコントローラ106は、1つまたは複数のネットワーク108および関連するスイッチ、ファイアウォール、ならびに他の構成要素を介して通信することができる。   [0025] Controllers 106 are often organized hierarchically in the system. For example, different controllers 106 are used to control individual actuators, sets of actuators that form machines, sets of machines that form units, sets of units that form plants, and sets of plants that form enterprises. obtain. A specific example of the hierarchy of controllers 106 is defined as a “Purdue” model of process control. Controllers 106 at different hierarchical levels can communicate through one or more networks 108 and associated switches, firewalls, and other components.

[0026]各コントローラ106は、工業プロセスのうちの1つまたは複数の態様を制御するための任意の好適な構造を含む。コントローラ106のうちの少なくともいくつかは、たとえば、ロバスト多変数予測制御技術(RMPCT:Robust Multivariable Predictive Control Technology)コントローラ、あるいはモデル予測制御(MPC:model predictive control)または他の高度予測制御(APC:advanced predictive control)を実装する他のタイプのコントローラなど、多変数コントローラを表すことができる。   [0026] Each controller 106 includes any suitable structure for controlling one or more aspects of the industrial process. At least some of the controllers 106 may be, for example, a robust multivariable predictive control (RMPCT) controller, or a model predictive control (MPC) or other advanced predictive control (APC). Multivariable controllers can be represented, such as other types of controllers that implement predictive controls.

[0027]コントローラ106およびシステム100の他の構成要素へのオペレータアクセスおよびそれとのオペレータ対話は、様々なオペレータコンソール110を介して行われ得る。上記で説明されたように、各オペレータコンソール110は、オペレータに情報を与えるために、およびオペレータから情報を受信するために使用され得る。たとえば、各オペレータコンソール110は、警告、アラーム、または工業プロセスに関連する他の状態を含む、工業プロセスの現在状態を識別する情報をオペレータに与えることができる。各オペレータコンソール110はまた、コントローラ106によって制御されるプロセス変数のための設定点を受信することによって、あるいはコントローラ106が工業プロセスをどのように制御するかを変えるかまたはそれに影響を及ぼす他の情報を受信することによってなど、工業プロセスがどのように制御されるかに影響を及ぼす情報を受信することができる。   [0027] Operator access to and interaction with the controller 106 and other components of the system 100 may be performed via various operator consoles 110. As explained above, each operator console 110 may be used to provide information to the operator and to receive information from the operator. For example, each operator console 110 can provide the operator with information identifying the current state of the industrial process, including warnings, alarms, or other conditions associated with the industrial process. Each operator console 110 also receives a set point for process variables controlled by the controller 106, or other information that changes or affects how the controller 106 controls the industrial process. Information that affects how an industrial process is controlled, such as by receiving.

[0028]複数のオペレータコンソール110が、一緒にグループ化され、1つまたは複数の制御室112中で使用され得る。各制御室112は、任意の好適な構成で任意の数のオペレータコンソール110を含むことができる。いくつかの実施形態では、各制御室112が、工業プラントの個別部分を管理するために使用されるオペレータコンソール110を含んでいるときなど、複数の制御室112が、工業プラントを制御するために使用され得る。   [0028] Multiple operator consoles 110 may be grouped together and used in one or more control rooms 112. Each control room 112 may include any number of operator consoles 110 in any suitable configuration. In some embodiments, multiple control rooms 112 may control an industrial plant, such as when each control room 112 includes an operator console 110 that is used to manage individual parts of the industrial plant. Can be used.

[0029]各オペレータコンソール110は、オペレータに情報を表示することと、オペレータと対話することとのための任意の好適な構造を含む。たとえば、各オペレータコンソール110は、1つまたは複数のプロセッサ、マイクロプロセッサ、マイクロコントローラ、フィールドプログラマブルゲートアレイ、特定用途向け集積回路、個別論理デバイス、あるいは他の処理または制御デバイスなど、1つまたは複数の処理デバイス114を含むことができる。各オペレータコンソール110は、(1つまたは複数の)処理デバイス114によって使用、生成、または収集される命令とデータとを記憶する1つまたは複数のメモリ116をも含むことができる。各オペレータコンソール110は、1つまたは複数のイーサネットインターフェースまたはワイヤレストランシーバなど、少なくとも1つのワイヤードまたはワイヤレスネットワーク上での通信を可能にする1つまたは複数のネットワークインターフェース118をさらに含むことができる。   [0029] Each operator console 110 includes any suitable structure for displaying information to the operator and interacting with the operator. For example, each operator console 110 may include one or more processors, microprocessors, microcontrollers, field programmable gate arrays, application specific integrated circuits, discrete logic devices, or other processing or control devices. A processing device 114 may be included. Each operator console 110 may also include one or more memories 116 that store instructions and data used, generated, or collected by the processing device (s) 114. Each operator console 110 may further include one or more network interfaces 118 that allow communication over at least one wired or wireless network, such as one or more Ethernet interfaces or wireless transceivers.

[0030]オペレータは、一般に、工業プロセスを管理することを受け持ち、しばしば、安全で有益な動作を維持するために、迅速におよび効率的に行動する必要がある。これを行うために、オペレータは、工業プロセスの現在状態を連続的に監視し、現在状態が人間の介入を必要とするかどうかを評価し、(必要とする場合)介入を実施し、介入の結果を査定する。これらの機能をサポートするオペレータコンソール110は、一般に、1つまたは複数のディスプレイ画面と、1つまたは複数のキーボードと、マウスまたはトラックボールなど、ポインティングデバイスとを含む。   [0030] Operators are generally responsible for managing industrial processes and often need to act quickly and efficiently to maintain safe and beneficial operation. To do this, the operator continuously monitors the current state of the industrial process, evaluates whether the current state requires human intervention, performs (if necessary) intervention, Assess the results. An operator console 110 that supports these functions typically includes one or more display screens, one or more keyboards, and a pointing device, such as a mouse or trackball.

[0031]工業プロセスの現在状態が、現在トリップされているフィールドデバイスを含むとき、オペレータコンソール110中のディスプレイ画面のうちの1つまたは複数は、(1つまたは複数の)現在トリップされているデバイスの視覚インジケータを与える。工業プロセスのクリティカルプロセスを監視しているオペレータは、(1つまたは複数の)現在トリップされているデバイスのインジケータがクリティカルプロセスの一部であることを認識し得、(1つまたは複数の)現在トリップされているデバイスを含むそれのプロセスユニットの過去の情報を閲覧するための包括的なまたは便利なツールを望み得る。フィールドデバイスが電気機械的理由のために頻繁にトリップしている場合、プラント保守要員は、頻繁にトリップしているフィールドデバイスに関連する保守アクティビティをスケジュールすること、およびまた、デバイスのインベントリを保守することから恩恵を受けることができる。   [0031] When the current state of the industrial process includes a field device that is currently tripped, one or more of the display screens in operator console 110 are the device (s) currently being tripped. Give a visual indicator. The operator monitoring the critical process of the industrial process may recognize that the indicator of the currently tripped device (s) is part of the critical process and the current (s) You may want a comprehensive or useful tool to browse past information for that process unit, including the device being tripped. If field devices are frequently tripping due to electromechanical reasons, plant maintenance personnel schedule maintenance activities related to frequently tripping field devices and also maintain device inventory Can benefit from that.

[0032]プロセスシステムに対する制御を可能にするために、オペレータコンソール110は、フィールドアセット保守システム(FAMS:field asset maintenance system)アプリケーション120を含み得る。FAMSアプリケーション120は、監視および/または制御されているプロセスの少なくとも一部を表すグラフィカルディスプレイを生成するための任意の好適なアプリケーションを含む。FAMSアプリケーション120は、人間機械インターフェース(HMI:human−machine interface)アプリケーションの特徴を含むことができる。HMIアプリケーションは、概して、オペレータにコンテンツを提示するためのグラフィカルディスプレイを生成するアプリケーションを表す。グラフィカルディスプレイは、オペレータによって監視および/または制御されている1つまたは複数のプロセス(またはそれの部分)を視覚的に表す。HMIアプリケーションは、制御されるべきプロセスを図式的に示すプロセス概略図など、任意の好適なグラフィカルデータをオペレータに提示することができる。より詳細には、FAMSアプリケーション120は、(1つまたは複数の)現在トリップされているデバイスを含むプロセスユニットの過去の情報のビューを与えるだけでなく、また、プロセスユニットが、クリティカルデバイスのうちの1つまたは複数のトリッピングから生じる停止など、停止に至ると、ポストモーテム分析がそれのために必要とされることになる、プロセスユニットのクリティカルデバイスを構成する、包括的なまたは便利なツールを与える。FAMSアプリケーション120は、オペレータが、ビデオの形態で保守ビュー画面を再生することと、光学文字認識(OCR)技法とインテリジェント文字認識(ICR)技法とを使用することによって(1つまたは複数の)フィールドデバイスのトリッピングの原因を見つけることとを可能にする。ICRは高度OCR技法であり、したがって、ICRはカスタムフォントおよびシンボルを認識する。   [0032] To allow control over the process system, the operator console 110 may include a field asset maintenance system (FAMS) application 120. The FAMS application 120 includes any suitable application for generating a graphical display that represents at least a portion of the process being monitored and / or controlled. The FAMS application 120 may include features of a human-machine interface (HMI) application. An HMI application generally represents an application that generates a graphical display for presenting content to an operator. The graphical display visually represents one or more processes (or portions thereof) being monitored and / or controlled by the operator. The HMI application can present any suitable graphical data to the operator, such as a process schematic diagram that schematically shows the process to be controlled. More specifically, the FAMS application 120 not only provides a view of historical information for process units that include the device (s) that are currently being tripped, but also allows process units to When a stop is reached, such as a stop resulting from one or more trippings, it provides a comprehensive or convenient tool to configure the critical device of the process unit for which post-mortem analysis will be required. The FAMS application 120 allows the operator to play the maintenance view screen in the form of a video and field (s) by using optical character recognition (OCR) and intelligent character recognition (ICR) techniques. To find the cause of device tripping. ICR is an advanced OCR technique, so ICR recognizes custom fonts and symbols.

[0033]本開示によれば、FAMSアプリケーション120は、1つまたは複数のコンピュータプロセッサによって実行されたとき、1つまたは複数のコンピュータプロセッサに、OCR技法とICR技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施させる。FAMSアプリケーション120は、様々なオペレータコンソール110上で稼動する様々なプロセスユニットの利用可能なビューを選択するためのツールをオペレータに与える。FAMSアプリケーション120は、オペレータが、選択されたプロセスユニットにおけるビューのスナップショットをキャプチャするために、プロセスユニットのクリティカルデバイスと監視頻度とを選択することを可能にする。FAMSアプリケーション120は、オペレータコンソール110上でプロセスユニットのビューの周期スナップショットをアーカイブし、ディスクスペースを温存するために暗号化および圧縮フォーマットで周期スナップショットを保存する。FAMSアプリケーション120は、アーカイビングがあまりに多くのディスクスペースを消費しないように、画像処理アルゴリズムを実装する。トリッピングが発生すると、FAMSアプリケーション120は、プロセスユニットのスナップショットが連続稼動プロセスを描くかのように、スナップショットを与えることができる。FAMSアプリケーション120によって与えられたスナップショットを使用することによって、オペレータは、トリッピングがそれにより発生した、すべてのクリティカルデバイスの様々なクリティカルパラメータの遷移を監視することができ、予防行為をとることができる。   [0033] According to the present disclosure, the FAMS application 120 is tripped to the one or more computer processors in the process industry using OCR and ICR techniques when executed by the one or more computer processors. To conduct post-mortem analysis of field devices. The FAMS application 120 provides an operator with tools to select available views of various process units running on various operator consoles 110. The FAMS application 120 allows an operator to select a critical device and monitoring frequency for a process unit in order to capture a snapshot of the view at the selected process unit. The FAMS application 120 archives periodic snapshots of the process unit view on the operator console 110 and stores the periodic snapshots in an encrypted and compressed format to conserve disk space. The FAMS application 120 implements an image processing algorithm so that archiving does not consume too much disk space. When tripping occurs, the FAMS application 120 can provide a snapshot as if the snapshot of the process unit depicts a continuously running process. By using the snapshot provided by the FAMS application 120, the operator can monitor the transition of various critical parameters of all critical devices resulting from the tripping and take preventive action. .

[0034]図1は工業プロセス制御および自動化システム100の一例を示しているが、様々な変更が図1に行われ得る。たとえば、工業制御および自動化システムには多種多様な構成がある。図1に示されているシステム100は、プロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析がOCR技法とICR技法とを使用して実施される、1つの例示的な動作環境を示すように意図されている。図1は、本開示を特定の構成または動作環境に制限しない。   [0034] Although FIG. 1 illustrates an example of an industrial process control and automation system 100, various changes may be made to FIG. For example, industrial control and automation systems have a wide variety of configurations. The system 100 shown in FIG. 1 is intended to illustrate one exemplary operating environment in which post-mortem analysis of tripped field devices in the process industry is performed using OCR and ICR techniques. ing. FIG. 1 does not limit the present disclosure to a particular configuration or operating environment.

[0035]図2Aおよび図2Bは、本開示による、OCR技法とICR技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための例示的な方法200を示す。説明を簡単にするために、図2Aおよび図2Bは、処理デバイス114が、FAMSアプリケーション120を実行することによって方法200を実施するかのように説明される。図2Aおよび図2Bに示されている方法200の実施形態は説明のためのものにすぎない。本開示の範囲から逸脱することなく、他の実施形態が使用され得る。   [0035] FIGS. 2A and 2B illustrate an exemplary method 200 for performing post-mortem analysis of a tripped field device in the process industry using OCR and ICR techniques according to this disclosure. For ease of explanation, FIGS. 2A and 2B are described as if the processing device 114 implements the method 200 by executing the FAMS application 120. The embodiment of the method 200 shown in FIGS. 2A and 2B is for illustration only. Other embodiments may be used without departing from the scope of this disclosure.

[0036]方法200は5つの段階を含む。段階1 202は、ベース画像を準備するための初期化段階である。段階2 204は、各間隔についてスクリーンショットをキャプチャするためのデータキャプチャリング段階である。データ再形成段階206は、段階3 240と、段階4 250と、段階5 252とを含む。段階3 240は、記憶されたデータから画像を形成する方法を含む。段階4 250は、特有の挙動を有する画像およびデータを識別することを含む。段階5 252は、根本原因分析(RCA:root cause analysis)を実施するために、ツール中の記憶されたデータを表す方法を実装することを含む。これらの5つの段階は、データを記憶するための集中型データベースに関連し得、したがって、画面データがFAMSアプリケーション120を通してオペレータにとってアクセス可能になる。   [0036] The method 200 includes five stages. Stage 1202 is an initialization stage for preparing a base image. Stage 2 204 is a data capturing stage for capturing screenshots for each interval. Data reconstruction stage 206 includes stage 3 240, stage 4 250, and stage 5 252. Stage 3 240 includes a method of forming an image from stored data. Stage 4 250 includes identifying images and data having specific behavior. Stage 5 252 includes implementing a method for representing stored data in the tool to perform root cause analysis (RCA). These five stages may be associated with a centralized database for storing data, thus making screen data accessible to the operator through the FAMS application 120.

[0037]段階1 202は、動作208〜220を含む。動作208において、処理デバイス114は、(図3に示されている)ベーススクリーンショット300をキャプチャする。オペレータコンソールのディスプレイ画面のビューのこの初期画像は、FAMSアプリケーション120によってキャプチャされ、後続の画像のためのベースである。   [0037] Stage 1 202 includes acts 208-220. In operation 208, the processing device 114 captures the base screenshot 300 (shown in FIG. 3). This initial image of the operator console display screen view is captured by the FAMS application 120 and is the base for subsequent images.

[0038]動作210において、処理デバイス114は、初期ベーススクリーンショット300を(図4に示されている)グリッド400に分割する。たとえば、ベーススクリーンショット300は、画像サイズに基づいてブロックのセットに分割される。これは、スケーリング問題を回避するために必要とされる。スケーリング問題は、このアルゴリズムが、同じプロセスユニットについて異なる解像度の複数の画面上で実行される場合、発生し得る。たとえば、スケーリング問題は、段階1 202のアルゴリズムがある画面上で実行され、段階2 224のアルゴリズムが、段階1 202のアルゴリズムがその上で実行された画面とは異なる解像度を有する別の画面上で実行される場合、発生し得る。グリッドパターン(たとえば、グリッド400)は、複数の画面にわたって均一な測定を適用するために役立つ。いくつかの実施形態では、画面サイズがあらかじめ定義され、したがって、グリッド内のブロックのセットは、あらかじめ定義された量または寸法を有することができる。代替的に、グリッドパターンの代わりに、ピクセルx−y座標が、画面解像度と要素のタイプとに基づいて使用され得る。本開示は、グリッドパターンのみまたはピクセルx−y座標のみに限定されず、また、画像内のロケーションを識別するための任意の好適なパラメータ化が使用され得る。   [0038] At operation 210, the processing device 114 divides the initial base screenshot 300 into a grid 400 (shown in FIG. 4). For example, the base screenshot 300 is divided into a set of blocks based on the image size. This is needed to avoid scaling problems. Scaling problems can occur when this algorithm is run on multiple screens of different resolutions for the same process unit. For example, the scaling problem is performed on one screen with the algorithm of stage 1 202, and the algorithm of stage 2 224 is run on another screen with a different resolution than the screen on which the algorithm of stage 1 202 was run. If executed, it can occur. A grid pattern (eg, grid 400) is useful for applying uniform measurements across multiple screens. In some embodiments, the screen size is predefined, so the set of blocks in the grid can have a predefined amount or dimension. Alternatively, instead of a grid pattern, pixel xy coordinates may be used based on screen resolution and element type. The present disclosure is not limited to only a grid pattern or pixel xy coordinates, and any suitable parameterization for identifying locations within an image may be used.

[0039]動作212において、処理デバイス114は、初期ベーススクリーンショット300中のテキストを識別する。また動作212において、処理デバイス114は、ベース画像を生成するためにベーススクリーンショット300からテキストを削除する。以下でより詳細に説明されるように、図5は、テキストなしベーススクリーンショット500、すなわち、テキストが削除されたベーススクリーンショットを示す。たとえば、処理デバイス114は、OCR技法とICR技法とを適用することによって画像中のテキストデータを見つけ、そのテキスト色を背景色に変換する。たとえば、ベーススクリーンショット300において、テキストデータ「ウォーターボイラー」は、異なる背景色(たとえば、赤)を覆う黒のテキスト色を有し、ベース画像の生成は、テキストデータ「ウォーターボイラー」が赤のテキスト色を有するようにすることを含む。いくつかの実施形態では、OCR技法および/またはICR技法が、テキストデータを見つけるためにベーススクリーンショットに適用され得る。   [0039] At operation 212, the processing device 114 identifies the text in the initial base screenshot 300. Also at operation 212, the processing device 114 deletes the text from the base screenshot 300 to generate a base image. As described in more detail below, FIG. 5 shows a base screenshot without text 500, ie, a base screenshot with text deleted. For example, the processing device 114 finds text data in the image by applying OCR and ICR techniques and converts the text color to a background color. For example, in the base screenshot 300, the text data “water boiler” has a black text color that covers a different background color (eg, red), and the generation of the base image is the text data “water boiler” is red Including having a color. In some embodiments, OCR and / or ICR techniques may be applied to the base screenshot to find text data.

[0040]動作214において、処理デバイス114は、初期ベーススクリーンショット300に対応するテキストデータとテキストロケーション情報とを記憶する。スクリーンショットをキャプチャする時間がスクリーンショットの識別子として使用され得、したがって、スクリーンショットをキャプチャする時間は、スクリーンショットへの対応を示す方法としてスクリーンショットのテキストデータとテキストロケーションとにリンクされ得ることに留意されたい。たとえば、処理デバイス114は、ベーススクリーンショット中の各テキストデータのロケーションを決定し、そのロケーションを、データベースに、およびテキストデータに対応して記憶する。たとえば、ベーススクリーンショット300中のテキストデータは、グリッドの第5の行内の列23〜29にかかる、「温度伝送器」という用語を形成する文字列を含むことができる。ボックスが{行,列}フォーマットによって識別されるとき、テキストデータ「温度伝送器」は、ボックス[5,23]、[5,24]、[5,25]、[5,26]、[5,27]、および[5,28]に対応する。表1は、テキストデータに対応するテキストロケーション情報をデータベースに記憶することの一例を与える。   [0040] In operation 214, the processing device 114 stores the text data and text location information corresponding to the initial base screenshot 300. The time to capture the screenshot can be used as an identifier for the screenshot, so the time to capture the screenshot can be linked to the text data and text location of the screenshot as a way to indicate the response to the screenshot. Please keep in mind. For example, the processing device 114 determines the location of each text data in the base screenshot and stores the location in the database and corresponding to the text data. For example, the text data in base screenshot 300 may include a string that forms the term “temperature transmitter” over columns 23-29 in the fifth row of the grid. When the box is identified by the {row, column} format, the text data “Temperature Transmitter” has the boxes [5, 23], [5, 24], [5, 25], [5, 26], [5]. , 27] and [5, 28]. Table 1 provides an example of storing text location information corresponding to text data in a database.

Figure 2019509548
Figure 2019509548

[0041]動作216において、処理デバイス114は、ベーススクリーンショットの各領域に識別情報を割り当てる。1つまたは複数の領域は、それの閉じられた境界の内側により小さい領域を含んでいることがある。すなわち、処理デバイス114は、ベーススクリーンショット中の各領域と各下位領域とを見つける。領域または下位領域を見つけるために、処理デバイス114は、(図6において領域ID番号0によって示される)背景画像と同じではない閉領域を見つける。下位領域を見つけるために、処理デバイス114は、(図6において領域ID番号9によって示される)別の閉領域内の(図6において領域ID番号9.1によって示される)閉領域を見つける。以下でより詳細に説明されるように、図6は、図5のテキストなしベーススクリーンショット500の領域および下位領域を示す。処理デバイス114は、各領域および下位領域に領域識別番号を割り当てる。処理デバイス114は、下位領域9.1をそれの子として含む親として領域9を識別するなど、ツリー構造を使用して、下位領域に識別番号を割り当て得る。   [0041] In operation 216, the processing device 114 assigns identification information to each region of the base screenshot. One or more regions may include smaller regions inside their closed boundaries. That is, the processing device 114 finds each area and each sub-area in the base screenshot. To find a region or subregion, the processing device 114 finds a closed region that is not the same as the background image (indicated by region ID number 0 in FIG. 6). To find a sub-region, the processing device 114 finds a closed region (indicated by region ID number 9.1 in FIG. 6) within another closed region (indicated by region ID number 9 in FIG. 6). As described in more detail below, FIG. 6 shows the regions and subregions of the textless base screenshot 500 of FIG. The processing device 114 assigns an area identification number to each area and lower area. Processing device 114 may assign an identification number to the lower region using a tree structure, such as identifying region 9 as a parent that includes lower region 9.1 as its child.

[0042]動作218において、処理デバイス114は、ベーススクリーンショットの一様でない色の領域を正規化する。すなわち、処理デバイス114は、2つ以上の色を含む各領域のための均一色を決定するために、その領域に等化方法(equalization method)を適用する。たとえば、テキストなしベーススクリーンショット500を処理することによって、処理デバイス114は、(左から右への方向で)領域1〜4が、白から黒に減衰する勾配色を有し、領域9.1が、黒から白に減衰する勾配色を有すると決定する。したがって、処理デバイス114は、領域1〜4および下位領域9.1に等化方法を適用し、これは、これらの前に多色の領域についてライトグレーが均一色であるという決定を生じる。以下でより詳細に説明されるように、図7Aは、色正規化されたテキストなしベーススクリーンショットを示す。   [0042] In operation 218, the processing device 114 normalizes the non-uniform color regions of the base screenshot. That is, the processing device 114 applies an equalization method to the region to determine a uniform color for each region that includes two or more colors. For example, by processing the non-text base screenshot 500, the processing device 114 (in the direction from left to right) regions 1-4 have a gradient color that decays from white to black, and region 9.1. Is determined to have a gradient color that decays from black to white. Accordingly, the processing device 114 applies an equalization method to regions 1-4 and subregion 9.1, which results in a determination that the light gray is a uniform color for the multi-color region before these. As described in more detail below, FIG. 7A shows a color-normalized no-text base screenshot.

[0043]また動作218において、処理デバイス114は各領域に色を割り当てる。各領域が均一色に正規化された実施形態では、処理デバイス114は、各領域および下位領域に、RGB色フォーマットなど、単色を割り当てる。表2は、領域色に対応する領域識別番号をデータベースに記憶することの一例を与える。   [0043] Also in operation 218, the processing device 114 assigns a color to each region. In embodiments where each region is normalized to a uniform color, the processing device 114 assigns a single color, such as an RGB color format, to each region and subregion. Table 2 gives an example of storing region identification numbers corresponding to region colors in a database.

[0044]動作220において、処理デバイス114は、ベーススクリーンショット中の各領域のロケーションを決定し、そのロケーションを、データベースに、および領域識別番号に対応して記憶する。以下でより詳細に説明されるように、図7Bは、図4のグリッド400に従って分割された、色正規化されたテキストなしベーススクリーンショットを示す。たとえば、領域1は、ベーススクリーンショット中の列8の行4〜6にかかる。ボックスが{行,列}フォーマットによって識別されるとき、領域1は、ボックス[4,8]、[5,8]、および[6,8]に対応する。表2は、領域ロケーションに対応する領域識別番号をデータベースに記憶することの一例を与える。グリッドパターンのブロックサイズは、画面解像度と、コンソールステーションスクリーンショット中の要素および領域の間の最小距離とによって決定され得る。   [0044] In operation 220, the processing device 114 determines the location of each region in the base screenshot and stores the location in the database and corresponding to the region identification number. As described in more detail below, FIG. 7B shows a color normalized text-free base screenshot divided according to the grid 400 of FIG. For example, region 1 covers rows 4-6 of column 8 in the base screenshot. Region 1 corresponds to boxes [4,8], [5,8], and [6,8] when the boxes are identified by the {row, column} format. Table 2 provides an example of storing region identification numbers corresponding to region locations in a database. The block size of the grid pattern can be determined by the screen resolution and the minimum distance between elements and regions in the console station screenshot.

Figure 2019509548
Figure 2019509548

[0045]方法200は、動作220から動作222に進む。動作222において、処理デバイス114は、領域IDと、領域色情報と、領域ロケーション情報と、ベース画像とをデータベースに記憶する。方法200は、情報を情報のバッチとしてデータベースに記憶することに限定されず、個々の情報をデータベースに記憶することもできる。いくつかの実施形態では、方法200は、領域IDをデータベースに記憶するために、動作216から動作222に進み、方法200は、ベース画像をデータベースに記憶するために、動作218の後に動作222に戻る。ベース画像、テキストデータ、および領域データがデータベースに記憶されると、方法200は、動作222から段階2 204に進む。段階1 202中にデータベースに記憶されるベース画像、テキストデータ、および領域データは、画像を再構成するために後続の段階(すなわち、データ再形成段階206)において使用されることになる。いくつかの実施形態では、段階1 202は、さらなる精度および性能のために、テキスト、領域、色情報とともにベース画像からのより多くのパラメータを考慮し得る。   [0045] The method 200 proceeds from operation 220 to operation 222. In operation 222, the processing device 114 stores the region ID, region color information, region location information, and base image in a database. Method 200 is not limited to storing information in a database as a batch of information, but individual information can also be stored in the database. In some embodiments, method 200 proceeds from operation 216 to operation 222 to store the region ID in the database, and method 200 proceeds to operation 222 after operation 218 to store the base image in the database. Return. Once the base image, text data, and region data are stored in the database, method 200 proceeds from operation 222 to stage 2204. The base image, text data, and region data stored in the database during stage 1202 will be used in a subsequent stage (ie, data reconstruction stage 206) to reconstruct the image. In some embodiments, stage 1202 may consider more parameters from the base image along with text, region, and color information for additional accuracy and performance.

[0046]段階2 204は、動作224〜236を含む。方法200は、周期的に、すなわち、間隔Tの頻度で段階2 204を繰り返すことを含む。間隔Tは、ユーザ選択またはユーザ要件に基づく構成可能な値である。段階2 204は、処理デバイス114が、段階1において、初期ベーススクリーンショット300を処理して、表1および表2などのテキストデータと領域データとを識別し、記憶し、段階2 204において、処理デバイス114が、追加のベーススクリーンショット300を処理して、テキストデータと領域データとを識別し、表1および表2などに記憶するという点で、段階1 202と同様である。いくつかの実施形態では、段階2 204は、処理デバイス114が、段階1 202において、初期ベーススクリーンショット300を処理して、ベース画像700を生成し、保存するが、処理デバイス114が、段階2 204において、追加のベーススクリーンショット300を保存しないことがあるという点で、段階1 202とは異なり得る。段階2 204のいくつかの実施形態は、各間隔Tのための対応するテキストデータおよび領域データに加えて、追加のベーススクリーンショット300をデータベースに保存する動作を含むことができるが、そのような実施形態は、追加のベーススクリーンショット300自体を記憶することなしに、各間隔Tのための対応するテキストデータおよび領域データを記憶する他の実施形態よりも多くのメモリを消費し得ることに留意されたい。いくつかの実施形態では、段階2 204は、さらなる精度および性能のために、テキスト、領域、色情報とともにベース画像からのより多くのパラメータを考慮し得る。   [0046] Stage 2 204 includes acts 224-236. Method 200 includes repeating step 2 204 periodically, ie, at a frequency of interval T. The interval T is a configurable value based on user selection or user requirements. Stage 2 204 is where the processing device 114 processes the initial base screenshot 300 in stage 1 to identify and store text data and region data, such as Table 1 and Table 2, and in stage 2 204 the process Similar to stage 1202, in that device 114 processes additional base screenshot 300 to identify text data and region data and store them in Table 1 and Table 2, etc. In some embodiments, stage 2 204 is where processing device 114 processes initial base screenshot 300 in stage 1 202 to generate and save base image 700, while processing device 114 is stage 2. At 204, it may differ from stage 1202 in that an additional base screenshot 300 may not be saved. Some embodiments of stage 2 204 may include the act of saving an additional base screenshot 300 in the database in addition to the corresponding text and region data for each interval T, such as Note that embodiments may consume more memory than other embodiments that store corresponding text data and region data for each interval T without storing the additional base screenshot 300 itself. I want to be. In some embodiments, stage 2 204 may consider more parameters from the base image along with text, region, and color information for additional accuracy and performance.

[0047]動作224において、処理デバイス114は、追加のベーススクリーンショットをキャプチャする。オペレータコンソールのディスプレイ画面のビューのこの後続の画像は、前の画像またはスクリーンショットをキャプチャすることの完了時に開始する間隔Tの経過の後にFAMSアプリケーション120によってキャプチャされる。いくつかの状況では、間隔Tは、オペレータコンソール110中のディスプレイ画面上に示されるテキストデータの変化なしに経過し得、そのような状況では、追加のベーススクリーンショットは、前のベーススクリーンショットと同等のように見え得る。特定の例として、追加のベーススクリーンショットは、図3の初期ベーススクリーンショット300と同等のように見えることがある。他の状況では、オペレータコンソール110中のディスプレイ画面上に示されるテキストデータまたは色データの変化が間隔T中に発生し得、そのような状況では、追加のベーススクリーンショットは、前のベーススクリーンショットとは異なって見え得る。   [0047] At operation 224, the processing device 114 captures additional base screenshots. This subsequent image of the operator console display screen view is captured by the FAMS application 120 after the elapse of interval T starting at the completion of capturing the previous image or screen shot. In some situations, the interval T may elapse without changes in the text data shown on the display screen in the operator console 110, and in such situations, the additional base screenshot may be the same as the previous base screenshot. It may look like the equivalent. As a specific example, the additional base screen shot may appear to be equivalent to the initial base screen shot 300 of FIG. In other situations, changes in the text data or color data shown on the display screen in operator console 110 may occur during interval T, in which case the additional base screenshot may be the previous base screenshot. Can look different.

[0048]動作226において、処理デバイス114は、追加のベーススクリーンショット中のテキストを識別する。たとえば、処理デバイス114は、OCR技法とICR技法とを適用することによって画像中のテキストデータを見つける。   [0048] In operation 226, the processing device 114 identifies the text in the additional base screenshot. For example, the processing device 114 finds text data in the image by applying OCR and ICR techniques.

[0049]動作228において、処理デバイス114は、追加のベーススクリーンショットに対応するテキストデータとテキストロケーション情報とを記憶する。たとえば、処理デバイス114は、動作210と同様にして追加のベーススクリーンショットをグリッドに分割し、テキストロケーション情報を決定することができる。   [0049] In operation 228, the processing device 114 stores text data and text location information corresponding to the additional base screenshot. For example, the processing device 114 can divide the additional base screenshot into a grid and determine text location information in a manner similar to operation 210.

[0050]動作230において、処理デバイス114は、追加のベーススクリーンショット中の1つまたは複数の領域を識別する。すなわち、処理デバイス114は、追加のベーススクリーンショット中の各領域と各下位領域とを見つける。   [0050] At operation 230, the processing device 114 identifies one or more regions in the additional base screenshot. That is, the processing device 114 finds each region and each subregion in the additional base screenshot.

[0051]動作232において、処理デバイス114は、動作218の場合と同様にして、追加のベーススクリーンショットの一様でない色の領域を正規化する。動作234において、処理デバイス114は、動作230において識別されたかまたはさもなければ見つけられた各領域と各下位領域とに領域識別番号を割り当てる。いくつかの実施形態では、動作234はまた、処理デバイス114が、追加のベーススクリーンショット中の各領域のロケーションを決定することと、そのロケーションを、データベースに、および領域識別番号に対応して記憶することとを含む。動作236において、処理デバイス114は、動作218の場合と同様にして、追加のベーススクリーンショットの各領域と各下位領域とに色を割り当てる。   [0051] At operation 232, the processing device 114 normalizes the non-uniform color regions of the additional base screenshot in the same manner as in operation 218. In operation 234, the processing device 114 assigns a region identification number to each region and each subregion identified or otherwise found in operation 230. In some embodiments, operation 234 also causes processing device 114 to determine the location of each region in the additional base screenshot and store that location in the database and corresponding to the region identification number. Including. In operation 236, the processing device 114 assigns a color to each region and subregion of the additional base screenshot, as in operation 218.

[0052]方法200は、動作236から動作222に進む。追加のベーススクリーンショットに対応するテキストデータおよび領域データがデータベースに記憶されると、方法200は、段階2 204を繰り返すために動作222から動作224に進む。動作222において段階1 202と段階2 204との間に差異があること、すなわち、段階2 204において、動作222の一部としてベース画像を記憶する必要がないことに留意されたい。ただし、さらなる精度および性能のために、段階2 204においてもより多くの画像が記憶され得る。処理デバイス114が、アーカイブされた周期スクリーンショットのうちのいくつかをリプレイするためのユーザ選択を示す入力を受信すると、本方法は、動作222からデータ再形成段階206に進む。   [0052] The method 200 proceeds from operation 236 to operation 222. Once the text data and region data corresponding to the additional base screenshot are stored in the database, the method 200 proceeds from operation 222 to operation 224 to repeat step 2204. Note that there is a difference between stage 1 202 and stage 2 204 in operation 222, that is, it is not necessary to store the base image as part of operation 222 in stage 2 204. However, more images can be stored in stage 2 204 for additional accuracy and performance. When the processing device 114 receives input indicating a user selection to replay some of the archived periodic screenshots, the method proceeds from operation 222 to the data reconstruction stage 206.

[0053]データ再形成段階206は、動作238と、段階3 240内の動作と、段階4 250内の動作と、段階5 252内の動作とを含む。動作238において、処理デバイス114はストレージからベース画像を検索する。すなわち、処理デバイス114は、段階1 202において生成され、動作222において記憶された、ベース画像にアクセスする。   [0053] The data reconstruction stage 206 includes an action 238, an action in stage 3 240, an action in stage 4 250, and an action in stage 5 252. In operation 238, the processing device 114 retrieves the base image from the storage. That is, the processing device 114 accesses the base image generated in stage 1202 and stored in operation 222.

[0054]段階3 240において、方法200は、各時間間隔(T)のための新しい画像を反復的に再構成することを含む。より詳細には、段階3 240において、記憶されたデータから画像を形成する方法は、処理デバイス114によって実装され、動作242において、記憶された色データを検索し、動作244において、検索された色データをベース画像に適用し、動作246において、記憶されたテキストデータを検索し、動作248において、検索されたテキストデータを色付きのベース画像に重ね合わせる。コンソールステーションスクリーンショットまたはベース画像において、段階1 202および/または段階2 204が、さらなる精度および性能のために、テキスト、領域、色情報とともに追加のパラメータを考慮する実施形態の場合、段階3 240において追加のそれぞれの動作があることに留意されたい。   [0054] At stage 3 240, the method 200 includes iteratively reconstructing a new image for each time interval (T). More particularly, the method of forming an image from the stored data at stage 3 240 is implemented by the processing device 114 and retrieves the stored color data at operation 242 and the retrieved color at operation 244. The data is applied to the base image, the stored text data is retrieved at operation 246, and the retrieved text data is superimposed on the colored base image at operation 248. In an embodiment where stage 1 202 and / or stage 2 204 considers additional parameters along with text, region, and color information for additional accuracy and performance in the console station screenshot or base image, in stage 3 240 Note that there are additional respective actions.

[0055]図3の初期ベーススクリーンショット300がその間にキャプチャされた時間間隔のための新しい画像を再構成することの非限定的な例として、処理デバイス114は、表2に記憶された色データを検索し(動作242)、表2に記憶された領域ロケーション情報に従って、検索された色データをベース画像の対応する領域に適用する(動作244)。図7B中のベース画像700は、表2中の正規化された色がどこでテキストなしベース画像700に適用されるかを位置特定するためにグリッド400が使用されることを示す。さらに、処理デバイス114は、表1に記憶されたテキストデータを検索し(動作246)、検索されたテキストデータを色付きのベース画像に重ね合わせる(動作248)。図8Aおよび図8Bは、初期ベーススクリーンショット300がその間にキャプチャされた時間間隔のための再構成された画像800および801の例を与える。処理デバイス114は、表1に記憶されたテキストロケーション情報に従って、初期ベーススクリーンショット300の表1からの各テキストデータがどこで色付きのベース画像700と重なり合うかを位置特定するためにグリッド400を使用する。アーカイブされた周期スクリーンショットのうちのいくつかをリプレイするためのユーザ選択に対応する時間間隔(T)の各々のための新しい画像が再構成されたとき、方法200は段階4 250に進む。   [0055] As a non-limiting example of reconstructing a new image for the time interval during which the initial base screenshot 300 of FIG. 3 was captured, the processing device 114 may store the color data stored in Table 2 (Operation 242), and applies the retrieved color data to the corresponding region of the base image according to the region location information stored in Table 2 (operation 244). The base image 700 in FIG. 7B shows that the grid 400 is used to locate where the normalized colors in Table 2 apply to the no-text base image 700. Further, the processing device 114 retrieves the text data stored in Table 1 (operation 246) and superimposes the retrieved text data on the colored base image (operation 248). 8A and 8B provide examples of reconstructed images 800 and 801 for the time interval during which the initial base screenshot 300 was captured. The processing device 114 uses the grid 400 to locate where each text data from Table 1 of the initial base screenshot 300 overlaps with the colored base image 700 according to the text location information stored in Table 1. . When a new image for each of the time intervals (T) corresponding to the user selection to replay some of the archived periodic screenshots is reconstructed, the method 200 proceeds to step 4250.

[0056]段階4 250において、処理デバイス114は、特色を呈する画像およびデータを識別する。すなわち、処理デバイス114は、特有の挙動を有する再構成されたベース画像およびデータを識別する。処理デバイス114は、特有の画像および/または特有のデータを視覚的にハイライトすることによって、それらを識別することができる。特有の挙動の例としては、急に(たとえば、あるフレームから次のフレームまでに、または限られた数の連続フレーム内に)色が変化したデバイスを有する画像、急な圧力および/または体積(PV)低下を有する画像、圧力および/または体積の急な増加を有する画像、あるいは(1つまたは複数の)急なアラームを有する画像がある。いくつかの実施形態では、ユーザ選択は、色、PV、またはアラームステータスの急変がその内で発生する、限られた数の連続フレームを、特有の挙動のインジケータとして設定することができる。いくつかの実施形態では、処理デバイス114は、特有の挙動のインジケータとしての、色、PV、またはアラームステータスの急変がその内で発生する、所定の限られた数の連続フレームにアクセスすることができる。   [0056] At stage 4 250, the processing device 114 identifies images and data that exhibit a spot color. That is, the processing device 114 identifies reconstructed base images and data that have unique behavior. The processing device 114 can identify specific images and / or specific data by visually highlighting them. Examples of specific behavior include images with devices that have suddenly changed color (eg, from one frame to the next, or within a limited number of consecutive frames), sudden pressure and / or volume ( There is an image with a PV) drop, an image with a sudden increase in pressure and / or volume, or an image with a sudden alarm (s). In some embodiments, the user selection can set a limited number of consecutive frames within which a sudden change in color, PV, or alarm status occurs as an indicator of the specific behavior. In some embodiments, the processing device 114 may access a predetermined limited number of consecutive frames within which a sudden change in color, PV, or alarm status occurs as a characteristic behavior indicator. it can.

[0057]段階5 252において、処理デバイス114は、再構成された画像と記憶されたデータとを表す。より詳細には、処理デバイス114は、前の段階中に形成された記憶されたデータと再構成された画像とを含むオペレータコンソール110中のディスプレイ画面を与えるために、(図9Aおよび図9Bに示されている)根本原因分析ツールユーザインターフェース(UI)を実装する。   [0057] At stage 5252, the processing device 114 represents the reconstructed image and stored data. More particularly, the processing device 114 provides a display screen in the operator console 110 that includes the stored data and reconstructed images formed during the previous phase (see FIGS. 9A and 9B). Implement the root cause analysis tool user interface (UI) (shown).

[0058]図2Aおよび図2Bは、OCR技法とICR技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための1つの例示的な方法200を示しているが、様々な変更が図2Aおよび図2Bに行われ得る。たとえば、図中の様々なステップは、重なり合うか、並列に行われるか、または任意の回数行われ得る。すなわち、これらの動作のうちのいくつかは、2回以上または異なる順序で実施され得るか、あるいは、いくつかの追加の指定されていない動作も、最良の性能および精度のために実施され得る。別の例として、動作210において、ベース画像は、各領域のおよびテキストの(図10に示されている)ピクセルのx−y座標値が、(図4に示されている)グリッドパターンの代替または追加として使用され得るように、分割されることになる。座標系を適用する場合、スクリーンショットの各ピクセルのロケーションは、各々が座標系の原点からの相対ロケーションに対応する、x値とy値とによって定義され得る。   [0058] FIGS. 2A and 2B illustrate one exemplary method 200 for performing post-mortem analysis of a tripped field device in the process industry using OCR and ICR techniques, Changes can be made to FIGS. 2A and 2B. For example, the various steps in the figures can be overlapped, performed in parallel, or performed any number of times. That is, some of these operations may be performed more than once or in a different order, or some additional unspecified operations may also be performed for best performance and accuracy. As another example, in operation 210, the base image may be replaced with a grid pattern (shown in FIG. 4) where the xy coordinate values of each region and text (shown in FIG. 10) pixels. Or it will be split so that it can be used as an addition. When applying a coordinate system, the location of each pixel in the screenshot may be defined by an x value and a y value, each corresponding to a relative location from the origin of the coordinate system.

[0059]図3は、本開示による、プロセスユニットの選択されたクリティカルデバイスのビューを与えるオペレータコンソール110ディスプレイ画面の例示的なベーススクリーンショット300を示す。ベーススクリーンショット300は、背景と、選択されたクリティカルデバイスを含むクリティカルプロセスユニットと、クリティカルデバイスのラベルと、プロセスフローコネクタ矢印と、クリティカルデバイスに関連するブロック内のプロセス変数値と、プロセス変数値を使用してクリティカルデバイスとプロセスフローとを制御するコントローラとを描く。コントローラはプロセスユニット内の構成要素であり得るか、または、コントローラは事前プログラムされた処理デバイスであり得、簡単のために、図3は、コントローラがプロセスユニットの選択されたクリティカルデバイスであるかのように説明される。   [0059] FIG. 3 illustrates an exemplary base screenshot 300 of an operator console 110 display screen that provides a view of a selected critical device of a process unit in accordance with the present disclosure. The base screenshot 300 shows the background, the critical process unit containing the selected critical device, the label of the critical device, the process flow connector arrow, the process variable value in the block associated with the critical device, and the process variable value. Use to draw a critical device and a controller to control the process flow. The controller can be a component within the process unit, or the controller can be a preprogrammed processing device, and for simplicity, FIG. 3 shows whether the controller is a selected critical device of the process unit. It is explained as follows.

[0060]図示の例では、背景305は、ダークグレーなど、背景色を有する。プロセスユニットの選択されたクリティカルデバイスは、バルブ310と、ボイラー315と、温度伝送器320と、コントローラ325とを含む。バルブ310は、たとえば、緑色を有し得、ボイラー315は赤色を有し得、温度伝送器320は赤色を有し得る。コントローラ325は、3つの同様のサイズの矩形ボックスおよびより長い矩形ボックスとして描かれ、それらの各々は、(左から右への方向で)白から黒に減衰する勾配色を有する。温度伝送器320は、クレセント、垂直方向に細長い矩形の上の円、垂直方向に細長い矩形として描かれ、それらの各々は赤色を有する。温度伝送器320は、さらに、円内に矩形部分330を含み、矩形部分330は、それの赤色の周囲とは異なる色である、(左から右への方向で)黒から白に減衰する勾配色を有する。テキスト、すなわち、クリティカルデバイスのラベルおよびプロセス変数値は黒である。さらに、プロセスフローコネクタ矢印は、テキストと同じ色、すなわち、黒を有する。プロセス変数値ブロック335a〜335bは、背景色と同じである色、すなわち、ダークグレーを有する。いくつかの実施形態では、プロセス工業コンソールステーション110は、国際計測制御学会(ISA:International Society of Automation)によって推奨される画像を使用するが、これは必須ではなく、非ISA画像が使用され得る。   [0060] In the illustrated example, the background 305 has a background color, such as dark gray. Selected critical devices of the process unit include valve 310, boiler 315, temperature transmitter 320, and controller 325. The valve 310 may have a green color, for example, the boiler 315 may have a red color, and the temperature transmitter 320 may have a red color. The controller 325 is drawn as three similarly sized rectangular boxes and a longer rectangular box, each of which has a gradient color that decays from white to black (in the direction from left to right). The temperature transmitter 320 is depicted as a crescent, a circle above a vertically elongated rectangle, a vertically elongated rectangle, each of which has a red color. The temperature transmitter 320 further includes a rectangular portion 330 within the circle, the rectangular portion 330 being a different color from its red surroundings, with a slope that attenuates from black to white (in the direction from left to right). Have a color. The text, ie the critical device label and the process variable value, is black. Furthermore, the process flow connector arrow has the same color as the text, ie black. The process variable value blocks 335a-335b have a color that is the same as the background color, i.e. dark gray. In some embodiments, the process industry console station 110 uses images recommended by the International Society of Automation (ISA), but this is not required and non-ISA images may be used.

[0061]プロセスユニットにおいて、バルブ310は、水の入口フローを受け取り、ウォーターポンプを使用して出口フローをボイラーにポンピングすることなどによって、出口フローをウォーターボイラー315に与える。プロセス変数値ブロック335a内に描かれるプロセス変数値「31%」は、バルブの開放状態のパーセントを示す。したがって、バルブ310は、それのスループット容量の31%を受け取るかまたは出力する。ボイラー315は、バルブ310から受け取った流体を沸騰させ、出力フローを与える。プロセス変数値ブロック335b内に描かれるプロセス変数値「21℃」は、ボイラー315内の流体の現在温度を示す。ボイラー315中の流体の温度を測定し、温度測定値を温度伝送器320に与えるために、温度センサーがボイラー315に関連し得る。温度伝送器320は、温度センサーを使用して温度測定値をプロセス変数値「21℃」として取得し、温度測定値をコントローラに与え、プロセス変数値を別のデバイスの受信機に送信することができる。たとえば、コントローラ325は、温度伝送器320によって与えられた温度測定値に基づいてバルブ310の位置を制御する。   [0061] In the process unit, the valve 310 receives the water inlet flow and provides the outlet flow to the water boiler 315, such as by pumping the outlet flow to the boiler using a water pump. The process variable value “31%” depicted in the process variable value block 335a indicates the percentage of the valve opened. Thus, the valve 310 receives or outputs 31% of its throughput capacity. Boiler 315 boiles the fluid received from valve 310 and provides output flow. The process variable value “21 ° C.” drawn in the process variable value block 335 b indicates the current temperature of the fluid in the boiler 315. A temperature sensor may be associated with the boiler 315 to measure the temperature of the fluid in the boiler 315 and provide a temperature measurement to the temperature transmitter 320. The temperature transmitter 320 may use the temperature sensor to obtain the temperature measurement as a process variable value “21 ° C.”, provide the temperature measurement to the controller, and send the process variable value to the receiver of another device. it can. For example, the controller 325 controls the position of the valve 310 based on the temperature measurement provided by the temperature transmitter 320.

[0062]図3は1つの例示的なベーススクリーンショット300を示しているが、様々な変更が図3に行われ得る。たとえば、異なるプロセスユニットが描かれ得るか、あるいは、プロセスユニットは、より多い、より少ない、または異なるフィールドデバイスを含むことができる。   [0062] Although FIG. 3 shows one exemplary base screenshot 300, various changes may be made to FIG. For example, different process units may be depicted, or process units may include more, fewer, or different field devices.

[0063]図4は、本開示による、グリッド400に分割された図3のベーススクリーンショット300を示す。図示の例では、グリッド400は、18個の行と30個の列とを含む。グリッド400は、ブロックが重なり合わないように、画像サイズに基づくブロックのセットを含む。すなわち、ベーススクリーンショット300の各部分は、グリッド400の1つのブロックによってカバーされる。いくつかの実施形態では、ベーススクリーンショット300の各部分は、グリッド400の1つのブロック全体によってカバーされ、したがって、ベーススクリーンショットのどの部分も、部分的な、ブロック全体よりも小さいブロックによってカバーされない。グリッド400中の各ブロックは、グリッド400中の各他のブロックにサイズが等しくなり得る。   [0063] FIG. 4 shows the base screenshot 300 of FIG. 3 divided into a grid 400 in accordance with the present disclosure. In the illustrated example, the grid 400 includes 18 rows and 30 columns. Grid 400 includes a set of blocks based on image size so that the blocks do not overlap. That is, each part of the base screen shot 300 is covered by one block of the grid 400. In some embodiments, each portion of the base screenshot 300 is covered by an entire block of the grid 400, and thus no portion of the base screenshot is covered by a partial, smaller block than the entire block. . Each block in grid 400 may be equal in size to each other block in grid 400.

[0064]図4に示されているグリッド400の実施形態は説明のためのものにすぎない。本開示の範囲から逸脱することなく、他の実施形態が使用され得る。たとえば、他の実施形態は、グリッド中に異なる数の行または列を含むことができる。   [0064] The embodiment of the grid 400 shown in FIG. 4 is for illustration only. Other embodiments may be used without departing from the scope of this disclosure. For example, other embodiments can include a different number of rows or columns in the grid.

[0065]図5は、本開示による、テキストなしベーススクリーンショット500を示す。すなわち、図5は、テキストデータが削除された図3のベーススクリーンショットを示す。   [0065] FIG. 5 illustrates a textless base screenshot 500 in accordance with the present disclosure. That is, FIG. 5 shows the base screenshot of FIG. 3 with the text data deleted.

[0066]テキストなしベーススクリーンショット500から削除された初期ベーススクリーンショット300のテキストデータは、クリティカルデバイスラベル、すなわち、「コントローラ」、「温度伝送器」、「ウォーターボイラー」、および「バルブ」を含む。テキストなしベーススクリーンショット500から削除された初期ベーススクリーンショット300のテキストデータは、プロセス変数値「21℃」および「31%」をさらに含む。   [0066] The text data of the initial base screenshot 300 deleted from the no text base screenshot 500 includes critical device labels, ie, “controller”, “temperature transmitter”, “water boiler”, and “valve”. . The text data of the initial base screenshot 300 deleted from the no text base screenshot 500 further includes process variable values “21 ° C.” and “31%”.

[0067]OCR技法およびICR技法は、プロセス変数値ブロック335a〜335bの境界を、各々が含んでいるテキストデータと区別することができることに留意されたい。したがって、テキストなしベーススクリーンショット500はプロセス変数値ブロック335a〜335bを含む。   [0067] Note that the OCR and ICR techniques can distinguish the boundaries of the process variable value blocks 335a-335b from the text data that each contains. Accordingly, the no text base screenshot 500 includes process variable value blocks 335a-335b.

[0068]図6は、本開示による、図5のテキストなしベーススクリーンショット500の領域および下位領域を示す。すなわち、図6に示されている領域IDは、説明のためのものにすぎず、テキストなしベーススクリーンショット500の画像の一部ではない。   [0068] FIG. 6 illustrates regions and subregions of the textless base screenshot 500 of FIG. 5, in accordance with this disclosure. That is, the region ID shown in FIG. 6 is for illustration only and is not part of the image of the base screen shot 500 without text.

[0069]図示の例では、テキストなしベーススクリーンショット500は領域0〜11と下位領域9.1とを含む。領域0は背景305である。領域1は、コントローラ325のより長い矩形ボックスである。領域2、3、および4は、コントローラ325の3つの同様のサイズの矩形ボックスである。領域5はボイラー315である。領域6は、バルブ310のボタン縦断面型部分であり、領域7および8は、バルブ310の三角部分である。領域9は、温度伝送器320の円部分であり、領域10は、温度伝送器320の垂直方向に細長い矩形部分である。下位領域9.1は、温度伝送器320の円内の矩形部分330である。領域11はプロセス変数値ブロック335bであり、領域12はプロセス変数値ブロック335aである。   [0069] In the illustrated example, the no text base screenshot 500 includes regions 0-11 and a subregion 9.1. Region 0 is the background 305. Region 1 is the longer rectangular box of controller 325. Regions 2, 3, and 4 are three similarly sized rectangular boxes of the controller 325. Region 5 is a boiler 315. Region 6 is a button vertical section type portion of the valve 310, and regions 7 and 8 are triangular portions of the valve 310. The region 9 is a circular portion of the temperature transmitter 320, and the region 10 is a rectangular portion elongated in the vertical direction of the temperature transmitter 320. The lower region 9.1 is a rectangular portion 330 in the circle of the temperature transmitter 320. Area 11 is a process variable value block 335b, and area 12 is a process variable value block 335a.

[0070]図6は、テキストなしベーススクリーンショットの領域および下位領域の1つの例示的な識別を示しているが、様々な変更が図6に行われ得る。たとえば、領域は、異なる順序で識別され得るか、あるいはアルファベット順で、または英数字順で識別され得る。   [0070] Although FIG. 6 shows one exemplary identification of the region and subregion of the base screenshot without text, various changes may be made to FIG. For example, the regions may be identified in a different order, or may be identified in alphabetical order or alphanumeric order.

[0071]図7Aおよび図7Bは、本開示によるベース画像700を示す。図7Aは、ベース画像700が、図5のテキストなしベーススクリーンショット500に色等化を適用した、色正規化された結果であることを示す。図7Bは、図4のグリッド400に従って分割された図7Aのベース画像700を示す。   [0071] FIGS. 7A and 7B illustrate a base image 700 according to the present disclosure. FIG. 7A shows that the base image 700 is a color normalized result of applying color equalization to the textless base screenshot 500 of FIG. FIG. 7B shows the base image 700 of FIG. 7A divided according to the grid 400 of FIG.

[0072]非限定的な例として、領域0、11、および12はダークグレー色を割り当てられ得、領域1〜4および下位領域9.1はライトグレー色を割り当てられ得、領域5および9〜10は赤色を割り当てられ得、領域6〜8は緑色を割り当てられ得る。この色規約は、説明のために使用されるにすぎない。他の事例では、各要素の健全性を表すための任意の色があり得る。   [0072] As a non-limiting example, regions 0, 11, and 12 can be assigned a dark gray color, regions 1-4 and subregion 9.1 can be assigned a light gray color, and regions 5 and 9-10. May be assigned a red color and regions 6-8 may be assigned a green color. This color convention is only used for illustration. In other cases, there can be any color to represent the health of each element.

[0073]図7Aおよび図7Bは1つの例示的なベース画像700を示しているが、様々な変更が図7Aおよび図7Bに行われ得る。たとえば、領域1〜4および下位領域9.1は、異なるシェードまたは色に正規化され得る。   [0073] Although FIGS. 7A and 7B show one exemplary base image 700, various changes may be made to FIGS. 7A and 7B. For example, regions 1-4 and subregion 9.1 can be normalized to different shades or colors.

[0074]図8Aおよび図8Bは、図3の初期スクリーンショット300がその間にキャプチャされた時間間隔のための再構成された画像800および801の例を示す。図8Aおよび図8Bに示されている再構成された画像800、801の実施形態は説明のためのものにすぎない。本開示の範囲から逸脱することなく、他の実施形態が使用され得る。   [0074] FIGS. 8A and 8B show examples of reconstructed images 800 and 801 for the time interval during which the initial screenshot 300 of FIG. 3 was captured. The embodiment of reconstructed images 800, 801 shown in FIGS. 8A and 8B is for illustration only. Other embodiments may be used without departing from the scope of this disclosure.

[0075]オペレータコンソール110中のディスプレイ画面上に示されるテキストデータの変化なしに間隔Tが経過する状況では、再構成された画像800は、前のベーススクリーンショットの色正規化されたバージョンのように見え得る。特定の例として、図8Aの再構成された画像800は、図3の初期ベーススクリーンショット300の色正規化されたバージョンのように見えることがある。オペレータコンソール110中のディスプレイ画面上に示されるテキストデータまたは色データの変化が間隔T中に発生する他の状況では、再構成された画像は、前のベーススクリーンショットの色正規化されたバージョンとは異なって見え得る。   [0075] In situations where the interval T elapses without any change in the text data shown on the display screen in the operator console 110, the reconstructed image 800 is like a color normalized version of the previous base screenshot. Can be seen. As a specific example, the reconstructed image 800 of FIG. 8A may look like a color normalized version of the initial base screenshot 300 of FIG. In other situations where a change in text or color data shown on the display screen in operator console 110 occurs during interval T, the reconstructed image is a color normalized version of the previous base screenshot. Can look different.

[0076]図8Bは、色の勾配の情報が動作222の一部として記憶されたとき、再構成された画像801が、色の勾配をもつ領域を有することができることを示す。いずれかの領域が2つ以上の勾配色を有する場合、およびコンソールステーション110のスクリーンショット300との完全な一致のための画像再構成要件がある場合、各可能な領域画像が抽出され、(ローカルストレージになど)記憶され得、記憶された領域画像へのそれぞれのリンクが表2において与えられることになる。同様に、各領域と各テキストとのピクセルのx−y座標が記憶され得、再構成された画像801は、元のコンソールステーションスクリーンショットと正確に一致するように構成されることになる。   [0076] FIG. 8B shows that when color gradient information is stored as part of operation 222, the reconstructed image 801 can have regions with color gradients. If any region has more than one gradient color, and if there is an image reconstruction requirement for a perfect match with the screenshot 300 of the console station 110, each possible region image is extracted and (local Each link to the stored region image will be given in Table 2. Similarly, the xy coordinates of the pixels for each region and each text may be stored, and the reconstructed image 801 will be configured to exactly match the original console station screenshot.

[0077]図9Aおよび図9Bは、本開示による、オペレータコンソール110中のディスプレイ画面の根本原因分析ツールユーザインターフェース(UI)を示す。FAMSアプリケーション120はRCAツールUIを含む。図9Aは、RCAツールUIの画像ビュー900を示し、図9Bは、RCAツールUIのテーブルビュー901を示す。RCAツールUIは、段階1〜4 202、204、240、250中に形成された、記憶されたデータと再構成された画像とを示す。処理デバイス114は、オペレータコンソール110中のディスプレイ画面を制御することまたはそれと通信することによって、RCAツールUIの画像ビュー900とテーブルビュー901とを実装することができる。   [0077] FIGS. 9A and 9B illustrate a root cause analysis tool user interface (UI) of a display screen in an operator console 110 according to the present disclosure. The FAMS application 120 includes an RCA tool UI. FIG. 9A shows an image view 900 of the RCA tool UI, and FIG. 9B shows a table view 901 of the RCA tool UI. The RCA tool UI shows the stored data and the reconstructed image formed during stages 1-4202, 204, 240, 250. The processing device 114 may implement the RCA tool UI image view 900 and table view 901 by controlling or communicating with a display screen in the operator console 110.

[0078]図9Aに示されているように、RCAツールUIの画像ビュー900は、画像表示ボックス905と、画像のカテゴリーごとのサムネイルのセット910、915、920と、画像の選択されたカテゴリーのためのタイムライン925と、画像の選択されたカテゴリーからの画像サムネイル930a〜930gとを含む。画像表示ボックス905は、現在選択されている画像をフルサイズフォーマットで表示する。たとえば、画像表示ボックス905は、初期ベーススクリーンショットの再構成を示すことができる。別の例として、サムネイルのセット910、915、920に対応する画像のカテゴリーのうちの1つのユーザ選択を受信したことに応答して、画像表示ボックス905は、サムネイルの選択されたセットからの画像を示すことができる。別の例として、画像サムネイル930a〜930gのうちの1つのユーザ選択を受信したことに応答して、画像表示ボックス905は、選択された画像サムネイルのフルサイズフォーマットを示すことができる。   [0078] As shown in FIG. 9A, the image view 900 of the RCA tool UI includes an image display box 905, a set of thumbnails 910, 915, 920 for each category of images, and a selected category of images. Timeline 925 for image and image thumbnails 930a-930g from the selected category of images. An image display box 905 displays the currently selected image in the full size format. For example, the image display box 905 can indicate the reconstruction of the initial base screenshot. As another example, in response to receiving a user selection of one of the image categories corresponding to the set of thumbnails 910, 915, 920, the image display box 905 displays images from the selected set of thumbnails. Can be shown. As another example, in response to receiving a user selection of one of the image thumbnails 930a-930g, the image display box 905 can indicate the full size format of the selected image thumbnail.

[0079]図示の例では、画像のカテゴリーがあり、「すべての画像」カテゴリーはサムネイルのセット910に対応し、「特有の画像」カテゴリーはサムネイルのセット915に対応し、「ユーザ選択された画像」カテゴリーはサムネイルのセット920に対応する。サムネイルのすべての画像セット910は、OCR技法とICR技法とを使用したプロセス工業におけるトリップされたフィールドデバイスのポストモーテム分析を実施するための方法200を使用して形成された画像のすべてを含む。   [0079] In the illustrated example, there are image categories, the "all images" category corresponds to the set of thumbnails 910, the "specific image" category corresponds to the set of thumbnails 915, and the "user selected image" The category corresponds to a set 920 of thumbnails. All image sets 910 of thumbnails include all of the images formed using the method 200 for performing post-mortem analysis of a tripped field device in the process industry using OCR and ICR techniques.

[0080]サムネイルの特有の画像セット915は、ユーザが、プロセスユニット内のフィールドデバイスのトリッピング発生の根本原因を特定するのを支援する。処理デバイス114は、フィールドデバイスの動作限界が超えられた1つまたは複数の画像をオペレータに示すために、段階4 250の動作を実行する。サムネイルの特有の画像セット915は、段階4 250内の動作において識別された、特色を呈する画像を含む。すなわち、サムネイルのセット915は、サムネイルのすべての画像セット910のサブセットを含む。サムネイルの特有の画像セット915は、画像のいずれもプロセスユニットの特有の挙動を呈しないとき、ヌルセットであり得る。   [0080] The thumbnail specific image set 915 assists the user in identifying the root cause of field device tripping occurrences in the process unit. The processing device 114 performs the operation of stage 4 250 to show the operator one or more images that have exceeded the operational limits of the field device. The thumbnail specific image set 915 includes images exhibiting the features identified in the operations within stage 4250. That is, the thumbnail set 915 includes a subset of all thumbnail image sets 910. The thumbnail specific image set 915 may be a null set when none of the images exhibit the process unit specific behavior.

[0081]サムネイルのユーザ選択された画像セット920は、ユーザ選択によって選択された画像を含む。たとえば、ユーザは、新しいカテゴリー、すなわち、「ユーザ選択された画像」と呼ばれるカテゴリーを形成するために当該の画像を選択するための選択権を有する。ユーザは、ユーザ選択された画像カテゴリーにドラッグ/ドロップされた画像を追加するために、「すべての画像」カテゴリーまたは「特有の画像」カテゴリーからサムネイルのユーザ選択された画像セット920に任意の画像をドラッグアンドドロップし得る。サムネイルのユーザ選択された画像セット920は、画像のいずれもオペレータによって選択されていないとき、ヌルセットであり得る。   [0081] A user-selected image set 920 of thumbnails includes images selected by user selection. For example, the user has a selection right to select the image to form a new category, i.e. a category called "user selected image". The user can add any image from the “all images” category or the “specific image” category to the user selected image set 920 of thumbnails to add the dragged / dropped image to the user selected image category. Can be dragged and dropped. The user-selected image set 920 of thumbnails can be a null set when none of the images are selected by the operator.

[0082]画像の選択されたカテゴリーのためのタイムライン925は、画像の選択されたカテゴリーがその間にキャプチャされた時間期間を表す。たとえば、「すべての画像」カテゴリーが選択されたとき、タイムライン925は、(たとえば、図9Bの参照番号960aによって示される)開始時間から(たとえば、図9Bの参照番号960bによって示される)停止時間までの時間期間を表す。開始時間は、初期ベーススクリーンショットがキャプチャされた時であり得る。停止時間の例としては、限定はしないが、直近の追加のベーススクリーンショットがキャプチャされた時、ユーザ選択された時点、または、初期ベーススクリーンショットがキャプチャされた後の選択された数の間隔Tがある。タイムライン925は、さらに、開始時間と停止時間との間の特定の時点または時間の特定のサブセットを視覚的に表す、タイムラインバー928を含む。たとえば、タイムラインバー928は、画像サムネイル930a〜930gに対応する画像のキャプチャリングがその間に行われた時間のサブセットを表すことができる。   [0082] The timeline 925 for the selected category of images represents the time period during which the selected category of images was captured. For example, when the “all images” category is selected, the timeline 925 is displayed from a start time (eg, indicated by reference number 960a in FIG. 9B) to a stop time (eg, indicated by reference number 960b in FIG. 9B). Represents the time period until. The start time may be when the initial base screenshot is captured. Examples of stop times include, but are not limited to, when the most recent additional base screenshot was captured, at a user-selected time, or a selected number of intervals T after the initial base screenshot was captured. There is. The timeline 925 further includes a timeline bar 928 that visually represents a particular time point or a particular subset of times between the start time and the stop time. For example, the timeline bar 928 may represent a subset of times during which image captures corresponding to the image thumbnails 930a-930g occurred.

[0083]図示の例では、画像サムネイル930a〜930gは、「タイムライン中の画像サムネイル」とラベル付けされる。すなわち、画像の選択されたカテゴリーからの画像サムネイル930a〜930gは、タイムラインに従う順序で現れる。   [0083] In the illustrated example, the image thumbnails 930a-930g are labeled "image thumbnails in the timeline". That is, image thumbnails 930a-930g from the selected category of images appear in an order according to the timeline.

[0084]図9AはRCAツールUIの1つの例示的な画像ビュー900を示しているが、様々な変更が図9Aに行われ得る。たとえば、図9A中の各構成要素は、任意の他のサイズ、形状、および寸法を有することができる。   [0084] Although FIG. 9A shows one exemplary image view 900 of the RCA tool UI, various changes may be made to FIG. 9A. For example, each component in FIG. 9A can have any other size, shape, and dimensions.

[0085]図9Bに示されているように、RCAツールUIのテーブルビュー901は、特定の時間期間中のフィールドデバイスのデータのテーブル955と、フィールドデバイスデータをフィルタ処理するための様々なフィルタ960a〜960dと、他のステーションビューのためのテーブルを表すサムネイル画像965a〜965dとを含む。テーブル955は、データが記録された時間の列970を含む。たとえば、間隔Tは1秒であり得、したがって、各行は、間隔Tごとに記録されたフィールドデバイスデータを含むことができる。テーブル955は、特定のプロセスユニット中の各フィールドデバイスのための列975をさらに含む。特定のプロセスユニットは、圧力バルブあるいは圧力および/または体積に関連する他のデバイスなど、任意の数のフィールドデバイス(Dev−1−PV、Dev−2−PV、...Dev−n−PV)を含むことができる。テーブル955内のセルは、異なって色付けされたセルまたは異なって強調されたフォントを表示することなどによって、特色を視覚的にハイライトすることができる。特色は、フィールドデバイスデータ内の値の注目すべき変化であり得る。すなわち、ハイライトされたデータ980a〜980bは、ユーザが、プロセスユニット内のフィールドデバイスのトリッピング発生の根本原因を特定するのを支援する。処理デバイス114は、フィールドデバイスの動作限界が超えられた1つまたは複数の画像をオペレータに示すために、段階4 250の動作を実行する。   [0085] As shown in FIG. 9B, the table view 901 of the RCA tool UI includes a table 955 of field device data during a particular time period and various filters 960a for filtering the field device data. -960d and thumbnail images 965a-965d representing tables for other station views. Table 955 includes a column 970 of times when data was recorded. For example, the interval T can be 1 second, so each row can contain field device data recorded for each interval T. Table 955 further includes a column 975 for each field device in a particular process unit. A particular process unit may be any number of field devices (Dev-1-PV, Dev-2-PV, ... Dev-n-PV), such as pressure valves or other devices related to pressure and / or volume. Can be included. The cells in the table 955 can highlight highlights visually, such as by displaying differently colored cells or differently highlighted fonts. A spot color can be a noticeable change in a value in field device data. That is, the highlighted data 980a-980b assists the user in identifying the root cause of field device tripping in the process unit. The processing device 114 performs the operation of stage 4 250 to show the operator one or more images that have exceeded the operational limits of the field device.

[0086]特定の非限定的な例として、フィールドデバイスDEV−3−PVは、それの急な、すなわち、時間10:01:04における20の値から時間10:01:05における0の値への、値の低減によって特有の挙動を呈する。値の20単位変化または低減は、RCAツールユーザインターフェース(UI)の設定によっては、注目すべき変化(たとえば、しきい値量だけの変化)であり得る。別の例として、フィールドデバイスDEV−5−PVは、それの急な、すなわち、時間10:01:04における20の値から時間10:01:05における155の値への、値の増加によって特有の挙動を呈する。値の135単位変化または増加は、RCAツールユーザインターフェース(UI)の設定によっては、注目すべき変化であり得る。これらの例では、フィールドデバイスデータのための0値および155値は、デバイスの通常動作範囲または他の動作限界の外にあり得、したがって、特有でない値を含んでいるセルの色(たとえば、ラベンダー)とは異なる色(たとえば、赤)でセルがハイライトされる。すなわち、時間10:01:05から時間10:01:09まで、フィールドデバイスDEV−3−PVおよびDEV−5−PVは、ハイライトされたフィールドデバイスデータを有する。   [0086] As a specific non-limiting example, the field device DEV-3-PV is its steep, ie, from a value of 20 at time 10:01:04 to a value of 0 at time 10:01:05. It exhibits a unique behavior by reducing its value. A 20 unit change or reduction in value may be a noticeable change (eg, a change in threshold amount), depending on the RCA tool user interface (UI) settings. As another example, the field device DEV-5-PV is characterized by its abrupt, ie increasing value from a value of 20 at time 10:01:04 to a value of 155 at time 10:01:05. It exhibits the following behavior. A 135 unit change or increase in value may be a noticeable change depending on the RCA tool user interface (UI) settings. In these examples, the 0 and 155 values for field device data may be outside the normal operating range of the device or other operating limits, and thus the color of the cell containing the non-unique value (eg, lavender ) Is highlighted in a color different from (for example, red). That is, from time 10:01:05 to time 10:01:09, field devices DEV-3-PV and DEV-5-PV have highlighted field device data.

[0087]図示の例では、RCAツールUIのテーブルビュー901は4つのフィルタを含むが、任意の好適な数のフィルタがテーブル955に適用され得る。フィルタの例は、開始時間フィルタ960aのためのテキストボックス、停止時間フィルタ960bのためのテキストボックス、デバイスリストフィルタ960cのためのリストボックス、またはユーザ定義されたフィルタ960dのための他の好適な選択方法を使用することなど、ユーザ選択に基づいて調整される。時間の列970の範囲は、開始時間フィルタ960aの設定としての時間10:01:01と停止時間フィルタ960bの設定としての時間10:01:10とによって決定される。   [0087] In the illustrated example, the table view 901 of the RCA tool UI includes four filters, but any suitable number of filters may be applied to the table 955. Examples of filters include a text box for start time filter 960a, a text box for stop time filter 960b, a list box for device list filter 960c, or other suitable selection for user defined filter 960d. Adjusted based on user selection, such as using the method. The range of the time column 970 is determined by the time 10:01:01 as the setting of the start time filter 960a and the time 10:01:10 as the setting of the stop time filter 960b.

[0088]図示の例では、サムネイル画像965a〜965dは、4つの他のステーションビューのためのテーブルを表すが、任意の好適な数のサムネイル画像がRCAツールUIのテーブルビュー901中に表示され得る。上記で説明されたように、FAMSアプリケーション120は、様々なオペレータコンソール110上で稼動する様々なプロセスユニットの利用可能なビューを選択するためのツールを与え、したがって、サムネイル画像965aは、1つのオペレータコンソール110上で稼動する第1のプロセスユニットに対応することができ、他のサムネイル画像965b〜965dの各々は、異なるオペレータコンソール110上で各々が稼動する、第2〜第4のプロセスユニットに対応することができる。   [0088] In the illustrated example, the thumbnail images 965a-965d represent a table for four other station views, but any suitable number of thumbnail images may be displayed in the table view 901 of the RCA tool UI. . As explained above, the FAMS application 120 provides a tool for selecting available views of various process units running on various operator consoles 110, and thus the thumbnail image 965a is one operator. Each of the other thumbnail images 965b to 965d corresponds to the second to fourth process units that run on different operator consoles 110, respectively. can do.

[0089]図9BはRCAツールUIの1つの例示的なテーブルビュー901を示しているが、様々な変更が図9Bに行われ得る。たとえば、図9B中の各構成要素は、任意の他のサイズ、形状、および寸法を有することができる。   [0089] Although FIG. 9B shows one exemplary table view 901 of the RCA tool UI, various changes may be made to FIG. 9B. For example, each component in FIG. 9B can have any other size, shape, and dimensions.

[0090]図10は、本開示による、図3のベーススクリーンショット300に適用された座標系1000を示す。さらなる精度および性能のために、処理デバイス114は、ベーススクリーンショット中の各テキストデータと各領域とのロケーションをパラメータ化する際に使用するために、任意の初期または後続のスクリーンショットに座標系1000を適用することができる。座標系1000では、スクリーンショットの各ピクセルのロケーションは、各々が座標系の原点1015からの相対ロケーションに対応する、x値1005とy値1010とによって定義され得る。一例として、原点1015はベーススクリーンショット300の左上コーナーであり得、したがって、原点1015におけるピクセルは、0のy値と0のx値とを有する。   [0090] FIG. 10 illustrates a coordinate system 1000 applied to the base screenshot 300 of FIG. 3, in accordance with the present disclosure. For further accuracy and performance, the processing device 114 may include a coordinate system 1000 on any initial or subsequent screenshot for use in parameterizing the location of each text data and each region in the base screenshot. Can be applied. In coordinate system 1000, the location of each pixel in the screenshot may be defined by an x value 1005 and a y value 1010, each corresponding to a relative location from the origin 1015 of the coordinate system. As an example, the origin 1015 can be the upper left corner of the base screenshot 300, so the pixel at the origin 1015 has a zero y value and a zero x value.

[0091]一例として、処理デバイス114は、プロセス変数値ブロック335b、すなわち、領域12内のテキストデータが、ピクセル1030において頂点を形成する左境界1020と上境界1025とを有すると決定することができる。処理デバイス114は、頂点ピクセル1030または左境界1020が、原点1015からx値1005個のピクセルだけ水平方向にまたは右方向に配置されると決定することができる。処理デバイス114は、頂点ピクセル1030または上境界1025が、原点1015からy値1010個のピクセルだけ垂直方向にまたは下方向に配置されると決定することができる。処理デバイス114は、領域の他の境界または他のテキストデータのロケーションを決定するために、同様のプロセスを適用することができる。たとえば、処理デバイス114は、プロセス変数値ブロック335b、すなわち、領域11内のテキストデータが、ピクセル1045において頂点を形成する左境界1035と上境界1040とを有すると決定することができる。   [0091] As an example, the processing device 114 may determine that the process variable value block 335b, ie, the text data in the region 12, has a left boundary 1020 and an upper boundary 1025 that form vertices at the pixel 1030. . The processing device 114 may determine that the vertex pixel 1030 or the left boundary 1020 is arranged horizontally or rightward by an x value of 1005 pixels from the origin 1015. Processing device 114 may determine that vertex pixel 1030 or upper boundary 1025 is positioned vertically or downward by 1010 pixels of y value from origin 1015. The processing device 114 can apply a similar process to determine other boundaries of the region or other text data locations. For example, the processing device 114 may determine that the process variable value block 335 b, ie, the text data in the region 11, has a left boundary 1035 and an upper boundary 1040 that form a vertex at the pixel 1045.

[0092]図10に示されているように、ピクセルのxおよびy座標は、さらなる精度および性能のために使用され得る。いくつかの実施形態では、ベーススクリーンショット300中の要素(すなわち、テキスト、領域など)をカバーする矩形のピクセルのx−y座標値も、図4のグリッド400よりも良好な精度のために使用され得る。   [0092] As shown in FIG. 10, the x and y coordinates of a pixel may be used for further accuracy and performance. In some embodiments, the xy coordinate values of the rectangular pixels that cover the elements (ie, text, regions, etc.) in the base screenshot 300 are also used for better accuracy than the grid 400 of FIG. Can be done.

[0093]いくつかの実施形態では、上記で説明された様々な機能は、コンピュータ可読プログラムコードから形成され、コンピュータ可読媒体において実施される、コンピュータプログラムによって実装またはサポートされる。「コンピュータ可読プログラムコード」という句は、ソースコード、オブジェクトコード、および実行可能コードを含む、任意のタイプのコンピュータコードを含む。「コンピュータ可読媒体」という句は、読取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、または他のタイプのメモリなど、コンピュータによってアクセスされることが可能な任意のタイプの媒体を含む。「非一時的」コンピュータ可読媒体は、一時的な電気信号または他の信号をトランスポートする、ワイヤード、ワイヤレス、光、または他の通信リンクを除外する。非一時的コンピュータ可読媒体は、データが永続的に記憶され得るメディアと、書き換え可能な光ディスクまたは消去可能メモリデバイスなど、データが記憶され、後で上書きされ得るメディアとを含む。   [0093] In some embodiments, the various functions described above are implemented or supported by a computer program formed from computer-readable program code and implemented on a computer-readable medium. The phrase “computer readable program code” includes any type of computer code, including source code, object code, and executable code. The phrase “computer readable medium” is accessed by a computer, such as read only memory (ROM), random access memory (RAM), hard disk drive, compact disk (CD), digital video disk (DVD), or other type of memory. Any type of media that can be played. “Non-transitory” computer-readable media excludes wired, wireless, optical, or other communication links that transport transient electrical or other signals. Non-transitory computer readable media include media in which data can be permanently stored and media in which data can be stored and later overwritten, such as rewritable optical discs or erasable memory devices.

[0094]本特許文献全体にわたって使用されるいくつかの語および句の定義を記載することが有利であり得る。「アプリケーション」および「プログラム」という用語は、1つまたは複数のコンピュータプログラム、ソフトウェア構成要素、命令のセット、プロシージャ、関数、オブジェクト、クラス、インスタンス、関係するデータ、または(ソースコード、オブジェクトコード、または実行可能コードを含む)好適なコンピュータコードにおける実装のために適応されたそれらの一部分を指す。「含む(include)」および「備える、含む(comprise)」という用語ならびにそれの派生語は、限定はしないが含むことを意味する。「または(or)」という用語は包含的であり、および/または(and/or)を意味する。「〜に関連する(associated with)」という句ならびにそれの派生語は、含むこと、〜内に含まれること、〜と相互接続すること、含んでいること、〜内に含まれていること、〜にまたは〜と接続すること、〜にまたは〜と結合すること、〜と通信可能であること、〜と協働すること、インターリーブすること、並置すること、〜に近接すること、〜にまたは〜と結び付けられること、有すること、〜のプロパティを有すること、〜へのまたは〜との関係を有することなどを意味し得る。「のうちの少なくとも1つ」という句は、項目の列挙とともに使用されるとき、列挙された項目のうちの1つまたは複数の異なる組合せが使用され得ること、および列挙中の1つの項目のみが必要とされ得ることを意味する。たとえば、「A、B、およびCのうちの少なくとも1つ」は、以下の組合せ、すなわち、A、B、C、AおよびB、AおよびC、BおよびC、ならびにAおよびBおよびCのいずれをも含む。   [0094] It may be advantageous to provide definitions of some words and phrases used throughout this patent document. The terms “application” and “program” refer to one or more computer programs, software components, sets of instructions, procedures, functions, objects, classes, instances, related data, or (source code, object code, or Refers to those portions adapted for implementation in suitable computer code (including executable code). The terms “include” and “comprise” and derivatives thereof are meant to include, but not be limited to. The term “or” is inclusive and / or means and / or. The phrase “associated with” and its derivatives are included, included within, interconnected with, included, included within. To or to, to or to, to be able to communicate with, to cooperate with, to interleave, juxtapose to, to be close to, to or It may mean to be associated with, having, having the property of, having a relation to or with. The phrase “at least one of” when used with an enumeration of items means that one or more different combinations of the listed items can be used, and that only one item in the enumeration It means that it can be needed. For example, “at least one of A, B, and C” means any of the following combinations: A, B, C, A and B, A and C, B and C, and A and B and C Is also included.

[0095]本開示は、いくつかの実施形態および概して関連する方法について説明したが、これらの実施形態および方法の改変および置換は当業者にとって明らかであろう。したがって、例示的な実施形態の上記の説明は本開示を定義または制約しない。他の変更、代替、および改変も、以下の特許請求の範囲によって定義される本開示の趣旨および範囲から逸脱することなく可能である。   [0095] Although this disclosure describes several embodiments and generally related methods, modifications and substitutions to these embodiments and methods will be apparent to those skilled in the art. Accordingly, the above description of example embodiments does not define or constrain this disclosure. Other changes, substitutions, and modifications are possible without departing from the spirit and scope of the present disclosure as defined by the following claims.

Claims (15)

初期スクリーンショット(300)を含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャするステップ(208)と、
ベース画像(500、700)を生成するために前記初期スクリーンショットからテキストを削除するステップ(212)と、
前記初期スクリーンショットの背景(領域0)を閉領域として識別するステップ(216)と、
前記少なくとも1つのスクリーンショットの各々について、
前記スクリーンショットをキャプチャする時間(970)を記憶するステップ(222)と、
前記スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別するステップ(212、226)と、
前記初期スクリーンショットの前記背景とは異なる前記スクリーンショット中の各閉領域(領域1〜12)と、前記スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別するステップ(216、230)と、
各識別された閉領域のための前記領域色と前記領域ロケーションとを記憶するステップ(222)と、
前記識別されたテキストの前記テキスト色と前記テキストロケーションとを記憶するステップ(214、228)と
を含む方法。
Capturing (208) at least one screenshot of a display screen including an initial screenshot (300);
Deleting text from the initial screenshot to generate a base image (500, 700) (212);
Identifying the background (region 0) of the initial screenshot as a closed region (216);
For each of the at least one screenshot,
Storing (222) the time (970) to capture the screenshot;
Identifying (212, 226) text, text color, and text location in the screenshot;
Identifying each closed region (regions 1-12) in the screenshot that is different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot. (216, 230),
Storing (222) the region color and the region location for each identified closed region;
Storing (214, 228) the text color and the text location of the identified text.
各新しい画像について、
前記ベース画像を検索するステップ(238)と、
前記少なくとも1つのキャプチャされたスクリーンショットのうちの1つと、それの記憶された、キャプチャする時間とに対応して、
各識別された領域のための前記領域色と前記領域ロケーションと、前記識別されたテキストの前記テキスト色と前記テキストロケーションとを検索するステップ(242)と、
前記検索された領域ロケーションにおいて、前記検索された領域色を前記ベース画像の各領域に適用するステップ(244)と、
前記検索されたテキストロケーションにおいて、前記検索されたベース画像を前記検索されたテキスト色での前記テキストと重ね合わせるステップ(248)と
によって、前記少なくとも1つのキャプチャされたスクリーンショットの再構成として少なくとも1つの新しい画像(800、801)を生成するステップ(238、240)をさらに含む、請求項1に記載の方法。
For each new image,
Retrieving the base image (238);
Corresponding to one of the at least one captured screenshot and its stored time to capture,
Retrieving (242) the region color and region location for each identified region, and the text color and text location of the identified text;
Applying the searched area color to each area of the base image at the searched area location (244);
Overlaying the retrieved base image with the text in the retrieved text color (248) at the retrieved text location as at least one reconstruction of the at least one captured screenshot. The method of claim 1, further comprising generating (238, 240) two new images (800, 801).
特色(980a、980b)を呈する新しい画像を識別するステップ(250)であって、前記特色が、少なくともしきい値量だけのフィールドデバイスデータの変化、または動作限界外で動作するフィールドデバイスデータのうちの少なくとも1つを含む、識別するステップ(250)と、
前記特色をハイライトするユーザインターフェースディスプレイ画面(900、901)を生成するステップ(252)と
をさらに含む、請求項1に記載の方法。
Identifying (250) a new image exhibiting a spot color (980a, 980b), wherein the spot color is a change in field device data by at least a threshold amount or field device data operating outside operating limits Identifying (250) comprising at least one of:
Generating a user interface display screen (900, 901) that highlights the spot color (252).
前記ディスプレイ画面の前記少なくとも1つのスクリーンショットをキャプチャするステップが、
指定された時間間隔に従って追加のスクリーンショットを周期的にキャプチャするステップ(224)
を含む、請求項1に記載の方法。
Capturing the at least one screenshot of the display screen;
Periodically capturing additional screen shots according to a specified time interval (224);
The method of claim 1 comprising:
前記スクリーンショットをグリッドに分割するステップ(210)と、
前記グリッドに従って前記テキストロケーションを決定するステップと、
前記グリッドに従って前記領域ロケーションを決定するステップと
をさらに含む、請求項1に記載の方法。
Dividing the screenshot into grids (210);
Determining the text location according to the grid;
The method of claim 1, further comprising determining the region location according to the grid.
前記スクリーンショットを前記グリッドに分割するステップが、
前記スクリーンショットに座標系(1000)を適用するステップ、または
前記スクリーンショットを、行と列とに構成されたブロック(400)のセットに分割するステップ
のうちの1つを含む、請求項5に記載の方法。
Dividing the screenshot into grids;
6. The method of claim 5, comprising one of applying a coordinate system (1000) to the screen shot, or dividing the screen shot into a set of blocks (400) organized in rows and columns. The method described.
メモリ(116)と、
前記メモリに結合された少なくとも1つのプロセッサ(114)と
を備え、前記少なくとも1つのプロセッサが、
初期スクリーンショット(300)を含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャすることと、
ベース画像(500、700)を生成するために前記初期スクリーンショットからテキストを削除することと、
前記初期スクリーンショットの背景(領域0)を閉領域として識別することと、
前記少なくとも1つのスクリーンショットの各々について、
前記スクリーンショットをキャプチャする時間(970)を前記メモリに記憶することと、
前記スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別することと、
前記初期スクリーンショットの前記背景とは異なる前記スクリーンショット中の各閉領域(領域1〜12)と、前記スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別することと、
各識別された閉領域のための前記領域色と前記領域ロケーションとを前記メモリに記憶することと、
前記識別されたテキストの前記テキスト色と前記テキストロケーションとを前記メモリに記憶することと
を行うように構成された、装置。
A memory (116);
At least one processor (114) coupled to the memory, the at least one processor comprising:
Capturing at least one screenshot of the display screen including an initial screenshot (300);
Deleting text from the initial screenshot to generate a base image (500, 700);
Identifying the background (region 0) of the initial screenshot as a closed region;
For each of the at least one screenshot,
Storing the time to capture the screenshot (970) in the memory;
Identifying the text, text color and text location in the screenshot;
Identifying each closed region (regions 1-12) in the screenshot that is different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot When,
Storing the region color and the region location for each identified closed region in the memory;
An apparatus configured to: store the text color and the text location of the identified text in the memory.
前記プロセッサが、各新しい画像について、
前記ベース画像を検索することと、
前記少なくとも1つのキャプチャされたスクリーンショットのうちの1つと、それの記憶された、キャプチャする時間とに対応して、
各識別された領域のための前記領域色と前記領域ロケーションと、前記識別されたテキストの前記テキスト色と前記テキストロケーションとを検索することと、
前記検索された領域ロケーションにおいて、前記検索された領域色を前記ベース画像の各領域に適用することと、
前記検索されたテキストロケーションにおいて、前記検索されたベース画像を前記検索されたテキスト色での前記テキストと重ね合わせることと
によって、前記少なくとも1つのキャプチャされたスクリーンショットの再構成として少なくとも1つの新しい画像(800、801)を生成するようにさらに構成された、請求項7に記載の装置。
For each new image, the processor
Retrieving the base image;
Corresponding to one of the at least one captured screenshot and its stored time to capture,
Retrieving the region color and region location for each identified region, and the text color and text location of the identified text;
Applying the searched area color to each area of the base image at the searched area location;
At the retrieved text location, at least one new image as a reconstruction of the at least one captured screenshot by overlaying the retrieved base image with the text in the retrieved text color. The apparatus of claim 7, further configured to generate (800, 801).
前記プロセッサは、
特色(980a、980b)を呈する新しい画像を識別することであって、前記特色が、少なくともしきい値量だけのフィールドデバイスデータの変化、または動作限界外で動作するフィールドデバイスデータのうちの少なくとも1つを含む、識別することと、
前記特色をハイライトするユーザインターフェースディスプレイ画面(900、901)を生成することと
を行うようにさらに構成された、請求項7に記載の装置。
The processor is
Identifying a new image exhibiting a spot color (980a, 980b), wherein the spot color is a change in field device data by at least a threshold amount, or at least one of field device data operating outside operating limits. Including, identifying,
8. The apparatus of claim 7, further configured to generate a user interface display screen (900, 901) that highlights the spot color.
前記プロセッサが、
指定された時間間隔に従って追加のスクリーンショットを周期的にキャプチャすること
によって、前記ディスプレイ画面の前記少なくとも1つのスクリーンショットをキャプチャするようにさらに構成された、請求項7に記載の装置。
The processor is
The apparatus of claim 7, further configured to capture the at least one screen shot of the display screen by periodically capturing additional screen shots according to a specified time interval.
コンピュータプログラムを実施する非一時的コンピュータ可読媒体であって、前記コンピュータプログラムが、処理回路によって実行されたとき、前記処理回路に、
初期スクリーンショット(300)を含むディスプレイ画面の少なくとも1つのスクリーンショットをキャプチャすること(208)と、
ベース画像を生成するために前記初期スクリーンショットからテキストを削除すること(212)と、
前記初期スクリーンショットの背景(領域0)を閉領域として識別すること(216)と、
前記少なくとも1つのスクリーンショットの各々について、
前記スクリーンショットをキャプチャする時間(970)をメモリに記憶すること(222)と、
前記スクリーンショット中のテキストとテキスト色とテキストロケーションとを識別すること(212、226)と、
前記初期スクリーンショットの前記背景とは異なる前記スクリーンショット中の各閉領域(領域1〜12)と、前記スクリーンショット中の各識別された閉領域のための領域色と領域ロケーションとを識別すること(216、230)と、
各識別された閉領域のための前記領域色と前記領域ロケーションとを記憶すること(222)と、
前記識別されたテキストの前記テキスト色と前記テキストロケーションとを記憶すること(214、228)と
を行わせるコンピュータ可読プログラムコードを含む、非一時的コンピュータ可読媒体。
A non-transitory computer readable medium for implementing a computer program, wherein when the computer program is executed by a processing circuit, the processing circuit
Capturing (208) at least one screenshot of a display screen including an initial screenshot (300);
Deleting text from the initial screenshot to generate a base image (212);
Identifying the background (region 0) of the initial screenshot as a closed region (216);
For each of the at least one screenshot,
Storing in memory a time to capture the screenshot (970) (222);
Identifying (212, 226) the text, text color, and text location in the screenshot;
Identifying each closed region (regions 1-12) in the screenshot that is different from the background of the initial screenshot, and the region color and region location for each identified closed region in the screenshot (216, 230),
Storing the region color and the region location for each identified closed region (222);
A non-transitory computer readable medium comprising computer readable program code for causing said text color and said text location of said identified text to be stored (214, 228).
前記コンピュータプログラムが、前記処理回路によって実行されたとき、前記処理回路に、各新しい画像について、
前記ベース画像を検索すること(238)と、
前記少なくとも1つのキャプチャされたスクリーンショットのうちの1つと、それの記憶された、キャプチャする時間とに対応して、
各識別された領域のための前記領域色と前記領域ロケーションと、前記識別されたテキストの前記テキスト色と前記テキストロケーションとを検索すること(242)と、
前記検索された領域ロケーションにおいて、前記検索された領域色を前記ベース画像の各領域に適用すること(244)と、
前記検索されたテキストロケーションにおいて、前記検索されたベース画像を前記検索されたテキスト色での前記テキストと重ね合わせること(248)と
によって、前記少なくとも1つのキャプチャされたスクリーンショットの再構成として少なくとも1つの新しい画像(800、801)を生成すること(238、240)を行わせるコンピュータ可読プログラムコードをさらに含む、請求項11に記載の非一時的コンピュータ可読媒体。
When the computer program is executed by the processing circuit, the processing circuit
Retrieving the base image (238);
Corresponding to one of the at least one captured screenshot and its stored time to capture,
Retrieving (242) the region color and region location for each identified region, and the text color and text location of the identified text;
Applying the retrieved region color to each region of the base image at the retrieved region location (244);
At least one reconstruction of the at least one captured screenshot by superimposing (248) the retrieved base image with the text in the retrieved text color at the retrieved text location. 12. The non-transitory computer readable medium of claim 11, further comprising computer readable program code that causes generating (238, 240) two new images (800, 801).
前記コンピュータプログラムは、前記処理回路によって実行されたとき、前記処理回路に、
特色(980a、980b)を呈する新しい画像を識別すること(250)であって、前記特色が、少なくともしきい値量だけのフィールドデバイスデータの変化、または動作限界外で動作するフィールドデバイスデータのうちの少なくとも1つを含む、識別すること(250)と、
前記特色をハイライトするユーザインターフェースディスプレイ画面(900、901)を生成すること(252)と
を行わせるコンピュータ可読プログラムコードをさらに含む、請求項11に記載の非一時的コンピュータ可読媒体。
When the computer program is executed by the processing circuit, the processing circuit
Identifying (250) a new image exhibiting a spot color (980a, 980b), wherein the spot color is a change in field device data by at least a threshold amount or field device data operating outside operating limits Identifying (250) including at least one of:
The non-transitory computer readable medium of claim 11, further comprising computer readable program code for generating (252) a user interface display screen (900, 901) that highlights the feature.
前記コンピュータプログラムが、前記処理回路によって実行されたとき、前記処理回路に、
指定された時間間隔に従って追加のスクリーンショットを周期的にキャプチャすること(224)によって、前記ディスプレイ画面の前記少なくとも1つのスクリーンショットをキャプチャすること
を行わせるコンピュータ可読プログラムコードをさらに含む、請求項11に記載の非一時的コンピュータ可読媒体。
When the computer program is executed by the processing circuit, the processing circuit
The computer-readable program code for causing the at least one screenshot of the display screen to be captured by periodically capturing (224) additional screen shots according to a specified time interval. A non-transitory computer readable medium according to claim 1.
前記コンピュータプログラムが、前記処理回路によって実行されたとき、前記処理回路に、
識別された領域内の各閉領域を下位領域(領域9.1)として識別することと、
ツリー構造を使用して各識別された領域および下位領域に領域識別を割り当てることと
を行わせるコンピュータ可読プログラムコードをさらに含む、請求項11に記載の非一時的コンピュータ可読媒体。
When the computer program is executed by the processing circuit, the processing circuit
Identifying each closed region within the identified region as a subregion (region 9.1);
The non-transitory computer readable medium of claim 11, further comprising computer readable program code for causing a region identification to be assigned to each identified region and subregion using a tree structure.
JP2018539392A 2016-01-27 2017-01-12 Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition Active JP6851385B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/008,282 2016-01-27
US15/008,282 US9779293B2 (en) 2016-01-27 2016-01-27 Method and tool for post-mortem analysis of tripped field devices in process industry using optical character recognition and intelligent character recognition
PCT/US2017/013130 WO2017131960A1 (en) 2016-01-27 2017-01-12 Method and tool for post-mortem analysis of tripped field devices in process industry using optical character recognition & intelligent character recognition

Publications (2)

Publication Number Publication Date
JP2019509548A true JP2019509548A (en) 2019-04-04
JP6851385B2 JP6851385B2 (en) 2021-03-31

Family

ID=59360503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018539392A Active JP6851385B2 (en) 2016-01-27 2017-01-12 Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition

Country Status (5)

Country Link
US (1) US9779293B2 (en)
EP (1) EP3408793B1 (en)
JP (1) JP6851385B2 (en)
CN (1) CN108475335B (en)
WO (1) WO2017131960A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022527873A (en) * 2020-05-01 2022-06-07 ユーアイパス,インコーポレイテッド Text detection, caret tracking, and active element detection
JP2022531026A (en) * 2020-05-01 2022-07-06 ユーアイパス,インコーポレイテッド Text detection, caret tracking, and active element detection
US11461164B2 (en) 2020-05-01 2022-10-04 UiPath, Inc. Screen response validation of robot execution for robotic process automation
US11594007B2 (en) 2020-05-01 2023-02-28 UiPath, Inc. Text detection, caret tracking, and active element detection

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11113800B2 (en) * 2017-01-18 2021-09-07 Nvidia Corporation Filtering image data using a neural network
US11386636B2 (en) 2019-04-04 2022-07-12 Datalogic Usa, Inc. Image preprocessing for optical character recognition
JP2023524605A (en) * 2020-05-01 2023-06-13 ユーアイパス,インコーポレイテッド Text detection, caret tracking and active element detection
KR102297356B1 (en) * 2020-05-01 2021-09-01 유아이패스, 인크. Text detection, caret tracking, and active element detection
CN111797933B (en) * 2020-07-10 2023-07-28 百度在线网络技术(北京)有限公司 Template matching method, device, electronic equipment and storage medium
JP2022145219A (en) * 2021-03-19 2022-10-03 株式会社リコー Display device, data sharing system, display control method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021300A (en) * 2002-06-12 2004-01-22 Toshiba Corp Screen control device
JP2006262116A (en) * 2005-03-17 2006-09-28 Nec Viewtechnology Ltd Image transmitting apparatus and image transmitting method

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69519980T2 (en) * 1994-12-28 2001-06-07 Siemens Corp Res Inc Method and device for the detection and interpretation of subtitles in digital video signals
KR20040041082A (en) * 2000-07-24 2004-05-13 비브콤 인코포레이티드 System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
JP3817442B2 (en) 2001-05-14 2006-09-06 日本電信電話株式会社 Image recognition apparatus, image recognition method, program for realizing image recognition method, and recording medium for the program
US7609894B2 (en) * 2004-02-17 2009-10-27 Corel Corporation Adaptive sampling region for a region editing tool
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US20070150368A1 (en) * 2005-09-06 2007-06-28 Samir Arora On-line personalized content and merchandising environment
US8082123B2 (en) 2005-09-30 2011-12-20 Rockwell Automated Technologies, Inc. Interactive diagnostics having graphical playback and solution implementation capabilities
CN101093545A (en) * 2006-06-22 2007-12-26 王宏源 Method for carrying out highlighted marking searching words on snapshot pictures of ancient books in document retrieval system for ancient books
CN101441713B (en) * 2007-11-19 2010-12-08 汉王科技股份有限公司 Optical character recognition method and apparatus of PDF document
JP4772888B2 (en) * 2009-03-27 2011-09-14 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof
US9135277B2 (en) * 2009-08-07 2015-09-15 Google Inc. Architecture for responding to a visual query
KR101670956B1 (en) * 2009-08-07 2016-10-31 구글 인코포레이티드 User interface for presenting search results for multiple regions of a visual query
US8457347B2 (en) * 2009-09-30 2013-06-04 F. Scott Deaver Monitoring usage of a computer by performing character recognition on screen capture images
US20110312414A1 (en) * 2010-06-16 2011-12-22 Microsoft Corporation Automated certification of video game advertising using ocr
US20120033249A1 (en) * 2010-08-05 2012-02-09 David Van Trigger-activated Contextual User Session Recording
US20120050316A1 (en) * 2010-08-31 2012-03-01 Nokia Corporation Methods and apparatuses for enhancing wallpaper display
CN102624576B (en) * 2011-01-27 2016-04-20 腾讯科技(深圳)有限公司 A kind of method and system of web page download time of automatic test browser
CN102622595A (en) * 2011-01-28 2012-08-01 北京千橡网景科技发展有限公司 Method and equipment used for positioning picture contained in image
CN102207966B (en) * 2011-06-01 2013-07-10 华南理工大学 Video content quick retrieving method based on object tag
US8615683B2 (en) 2011-06-24 2013-12-24 Rockwell Automation Technologies, Inc. Capturing data during operation of an industrial controller for the debugging of control programs
US9239574B2 (en) 2011-06-30 2016-01-19 Honeywell International Inc. Apparatus for automating field device operations by capturing device method execution steps for later use and related method
CN103020624B (en) * 2011-09-23 2015-12-02 杭州海康威视系统技术有限公司 All-purpose road monitor video smart tags, retrieval back method and device thereof
US9740912B2 (en) * 2011-12-20 2017-08-22 Definiens Ag Evaluation of co-registered images of differently stained tissue slices
US9218233B2 (en) 2012-07-24 2015-12-22 Paul Venditti Systems and methods for control reliability operations
CN102915438B (en) * 2012-08-21 2016-11-23 北京捷成世纪科技股份有限公司 The extracting method of a kind of video caption and device
US10254952B2 (en) * 2012-09-26 2019-04-09 Google Llc Progress display of handwriting input
CN102930263A (en) * 2012-09-27 2013-02-13 百度国际科技(深圳)有限公司 Information processing method and device
CN103942212B (en) * 2013-01-21 2018-01-09 腾讯科技(深圳)有限公司 The character detecting method and device of a kind of user interface
CN103274272B (en) * 2013-06-20 2015-06-10 李天彤 Elevator integrated management system and elevator integrated management method
US9384393B2 (en) 2013-10-29 2016-07-05 Bank Of America Corporation Check data lift for error detection
US9477457B1 (en) * 2014-03-31 2016-10-25 Juniper Networks, Inc. Automated software installation using a click area prediction model
US9396404B2 (en) 2014-08-04 2016-07-19 Datalogic ADC, Inc. Robust industrial optical character recognition
CN104270498B (en) * 2014-08-28 2017-07-14 小米科技有限责任公司 To the method and apparatus of communication interface input communication number
CN104268512B (en) * 2014-09-17 2018-04-27 清华大学 Character identifying method and device in image based on optical character identification
CN104766043A (en) * 2014-10-15 2015-07-08 南通北城科技创业管理有限公司 Method of fast identification of ballot image
CN104714934B (en) * 2014-12-30 2017-10-13 上海孩子国科教设备有限公司 The implementation method and client of convenient editor
CN104715497A (en) * 2014-12-30 2015-06-17 上海孩子国科教设备有限公司 Data replacement method and system
CN104978565B (en) * 2015-05-11 2019-06-28 厦门翼歌软件科技有限公司 A kind of pictograph extracting method of universality
CN104992152A (en) * 2015-06-30 2015-10-21 深圳訾岽科技有限公司 Character recognition method and system based on template character library

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021300A (en) * 2002-06-12 2004-01-22 Toshiba Corp Screen control device
JP2006262116A (en) * 2005-03-17 2006-09-28 Nec Viewtechnology Ltd Image transmitting apparatus and image transmitting method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022527873A (en) * 2020-05-01 2022-06-07 ユーアイパス,インコーポレイテッド Text detection, caret tracking, and active element detection
JP2022531026A (en) * 2020-05-01 2022-07-06 ユーアイパス,インコーポレイテッド Text detection, caret tracking, and active element detection
JP7114157B2 (en) 2020-05-01 2022-08-08 ユーアイパス,インコーポレイテッド Text detection, caret tracking and active element detection
JP7115804B2 (en) 2020-05-01 2022-08-09 ユーアイパス,インコーポレイテッド Text detection, caret tracking and active element detection
US11461164B2 (en) 2020-05-01 2022-10-04 UiPath, Inc. Screen response validation of robot execution for robotic process automation
US11594007B2 (en) 2020-05-01 2023-02-28 UiPath, Inc. Text detection, caret tracking, and active element detection
US11625138B2 (en) 2020-05-01 2023-04-11 UiPath, Inc. Text detection, caret tracking, and active element detection
US11630549B2 (en) 2020-05-01 2023-04-18 UiPath, Inc. Text detection, caret tracking, and active element detection
US11734104B2 (en) 2020-05-01 2023-08-22 UiPath, Inc. Screen response validation of robot execution for robotic process automation

Also Published As

Publication number Publication date
JP6851385B2 (en) 2021-03-31
WO2017131960A1 (en) 2017-08-03
CN108475335A (en) 2018-08-31
US9779293B2 (en) 2017-10-03
CN108475335B (en) 2022-10-14
US20170213082A1 (en) 2017-07-27
EP3408793B1 (en) 2021-04-14
EP3408793A1 (en) 2018-12-05
EP3408793A4 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
JP6851385B2 (en) Methods and tools for post-mortem analysis of tripped field devices in the process industry using optical character recognition and intelligent character recognition
US11671478B1 (en) Remote asset monitoring and control
US10739746B2 (en) Using soft-sensors in a programmable logic controller
CN108474806B (en) System and method for monitoring manufacturing
CA2871443C (en) System and method for device cluster data display
JP5646802B2 (en) Batch display system and batch display method
JP6601433B2 (en) Event analysis device, event analysis system, event analysis method, event analysis program, and recording medium
US10838938B2 (en) Process monitorer, process monitering system, process monitering method, process monitering program, and recording mediam
WO2020168190A9 (en) Process mapping and monitoring using artificial intelligence
WO2008118891A2 (en) Apparatus and method for visualization of control techniques in a process control system
US10635083B2 (en) Apparatus and method for generating smart visualizations for effective monitoring and control in industrial process control and automation systems
US20210318675A1 (en) Method for alarm handling in a processing system
US20180357465A1 (en) System and method for automatic logging of events in industrial process control and automation system using change point analysis
US20130253866A1 (en) Intelligent visualisation in the monitoring of process and/or system variables
US10614702B2 (en) Alarm tuning using alarm and process data for condition monitoring
CN107729912A (en) Technology for monitoring technology equipment
JP6382680B2 (en) Programmable controller for sampling signal address of SFC active state step
US20170351250A1 (en) Method and apparatus to represent process alarms in parent-child relationships
CN103605645A (en) Method and apparatus for determining when an event occurred in an industrial plant
GB2477447A (en) Analyzing batch runs by using a batch signature to perform a user interface function

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6851385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250