JP2020064623A - Drone-enabled operator rounds - Google Patents

Drone-enabled operator rounds Download PDF

Info

Publication number
JP2020064623A
JP2020064623A JP2019177739A JP2019177739A JP2020064623A JP 2020064623 A JP2020064623 A JP 2020064623A JP 2019177739 A JP2019177739 A JP 2019177739A JP 2019177739 A JP2019177739 A JP 2019177739A JP 2020064623 A JP2020064623 A JP 2020064623A
Authority
JP
Japan
Prior art keywords
process plant
unmanned
vehicle
user interface
interface device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019177739A
Other languages
Japanese (ja)
Other versions
JP2020064623A5 (en
Inventor
ロバート・ジー・ザ・サード・ハルグレン
G Halgren Robert Iii
クラウディオ・ファヤド
Fayad Claudio
ギャリー・ケイ・ロー
K Law Gary
マーク・ジェイ・ニクソン
J Nixon Mark
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fisher Rosemount Systems Inc
Original Assignee
Fisher Rosemount Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/580,793 external-priority patent/US11281200B2/en
Application filed by Fisher Rosemount Systems Inc filed Critical Fisher Rosemount Systems Inc
Publication of JP2020064623A publication Critical patent/JP2020064623A/en
Publication of JP2020064623A5 publication Critical patent/JP2020064623A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/4189Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the transport system
    • G05B19/41895Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the transport system using automatic guided vehicles [AGV]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/4185Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the network communication
    • G05B19/4186Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the network communication by protocol, e.g. MAP, TOP
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0027Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/55UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use
    • B64U2101/57UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use for bringing emergency supplies to persons or animals in danger, e.g. ropes or life vests

Abstract

To provide a method for monitoring the state in a process plant without the physical entrance of an operator into dangerous field environment of the process plant.SOLUTION: Drones (unmanned aerial vehicles) 72a and 72b equipped with cameras 74a and 74b and sensors 76a and 76b may be configured to travel throughout the field environment of a process plant 10 to monitor the conditions of the process plant 10. Included are the steps of: determining destinations of the unmanned aerial vehicles in the process plant based on user instruction selection; and taking in camera data with one or a plurality of cameras of the unmanned aerial vehicles; transmitting the camera data to user interface devices by onboard computing devices associated with the unmanned aerial vehicles; and displaying the camera data in parallel with the outline in the process plant by the user interface device.SELECTED DRAWING: Figure 1

Description

本開示は、全般的には、産業プロセスプラントおよびプロセス制御システムに関し、特に、ドローンを使用してプロセスプラントの状態を監視するシステムおよび方法に関する。   The present disclosure relates generally to industrial process plants and process control systems, and more particularly to systems and methods for using drones to monitor process plant conditions.

物理的な材料または製品を製造し、精製し、変換し、生成し、または生産するための化学プロセスプラント、石油プロセスプラント、または他のプロセスプラントで使用されるような分散プロセス制御システムは、典型的には、アナログバス、デジタルバス、もしくはアナログバス/デジタルバスの組み合わせ、または無線通信リンクもしくはネットワークを介して、1つまたは複数のフィールドデバイスに通信可能に結合された1つまたは複数のプロセスコントローラを含む。例えば、弁、弁ポジショナ、スイッチ、および伝送器(例えば、温度センサ、圧力センサ、レベルセンサおよび流量センサ)であり得るフィールドデバイスは、プロセス環境内に位置付けられ、一般に、弁の開閉、測定プロセスおよび/または環境パラメータ(温度または圧力など)のような物理的機能またはプロセス制御機能を実行して、プロセスプラントまたはシステム内で実行している1つまたは複数のプロセスを制御する。さらに、周知のFieldbusプロトコル準拠のフィールドデバイスのようなスマート・フィールド・デバイスはさらに、制御計算、警告機能、および一般にコントローラ内に実装される他の制御機能を実行し得る。典型的には、プラント環境内に位置付けられるプロセスコントローラは、フィールドデバイスによって作成されたプロセス測定値および/またはフィールドデバイスに関する他の情報を表す信号を受信し、例えば、プロセス制御決定を行う種々の制御モジュールを動作させるコントローラアプリケーションを実行し、受信情報に基づいて制御信号を生成し、HART(登録商標)、WirelessHART(登録商標)、およびFOUNDATION(登録商標)Fieldbusのフィールドデバイスのようなフィールドデバイス内で実行されている制御モジュールまたはブロックとの調整を行う。コントローラ内の制御モジュールは、通信回線またはリンク経由で制御信号をフィールドデバイスに送信して、プロセスプラントまたはシステムの少なくとも一部の動作を制御し、例えば、プラントまたはシステム内で動作する、または実行する1つまたは複数の工業プロセスの少なくとも一部を制御する。例えば、コントローラおよびフィールドデバイスは、プロセスプラントまたはシステムによって制御されているプロセスの少なくとも一部を制御する。一般に同様にプラント環境内に位置付けされるI/Oデバイスは、典型的には、コントローラと1つまたは複数のフィールドデバイスとの間に配置され、例えば、電気信号をデジタル値に、またデジタル値を電気信号に変換することによって、これらの間の通信を可能にする。本明細書内で使用される場合、フィールドデバイス、コントローラ、およびI/Oデバイスは、一般に「プロセス制御装置」と呼ばれ、一般に、プロセス制御システムまたはプラントのフィールド環境内に位置付けられる、配置される、または設置される。   Distributed process control systems, such as those used in chemical process plants, petroleum process plants, or other process plants for manufacturing, refining, converting, producing, or producing physical materials or products are typically Typically, one or more process controllers communicatively coupled to one or more field devices via an analog bus, a digital bus, or a combination analog / digital bus, or a wireless communication link or network. including. Field devices, which can be, for example, valves, valve positioners, switches, and transmitters (eg, temperature sensors, pressure sensors, level sensors, and flow sensors) are located within the process environment and are commonly used to open and close valves, measure processes, and And / or perform physical or process control functions such as environmental parameters (such as temperature or pressure) to control one or more processes running within a process plant or system. Moreover, smart field devices, such as the well known Fieldbus protocol compliant field devices, may also perform control calculations, alert functions, and other control functions commonly implemented in controllers. A process controller, typically located within the plant environment, receives signals representative of process measurements made by the field device and / or other information about the field device and, for example, various controls that make process control decisions. In a field device, such as a field device such as a HART®, WirelessHART®, and FOUNDATION® Fieldbus, which executes a controller application that operates a module and generates control signals based on received information. Coordinate with a running control module or block. A control module in the controller sends control signals to the field device via a communication line or link to control the operation of at least a portion of the process plant or system, for example operating or executing in the plant or system. Control at least a portion of one or more industrial processes. For example, the controller and field device control at least a portion of the process being controlled by the process plant or system. I / O devices, which are also commonly located within a plant environment, are typically located between a controller and one or more field devices, for example, electrical signals to digital values and digital values to digital values. Converting them into electrical signals enables communication between them. As used herein, field devices, controllers, and I / O devices, commonly referred to as "process controllers," are commonly located and located within the field environment of a process control system or plant. , Or installed.

フィールドデバイスおよびコントローラからの情報は、通常、データハイウェイまたは通信ネットワーク経由で、例えば、オペレータワークステーション、パーソナルコンピュータもしくはコンピューティングデバイス、データヒストリアン、レポートジェネレータ、集中データベース、または典型的に、プラントのより過酷なフィールド環境から離れた制御室または他の場所(例えば、プロセスプラントのバックエンド環境)に配置される他の集中管理コンピューティングデバイスのような1つまたは複数の他のハードウェアデバイスで入手可能である。これらのハードウェアデバイスの各々は、典型的には、プロセスプラント全体またはプロセスプラントの一部にわたる集中デバイスである。これらのハードウェアデバイスは、例えば、オペレータがプロセスの制御および/またはプロセスプラントの操作に関する機能、例えば、プロセス制御ルーチンの設定の変更、コントローラまたはフィールドデバイス内の制御モジュールの動作の修正、プロセスの現在の状態の表示、フィールドデバイスおよびコントローラによって生成された警告の表示、要員のトレーニングまたはプロセス制御ソフトウェアの試験のためのプロセスの動作のシミュレーション、構成データベースの維持および更新などを実行することを可能にするアプリケーションを動作させる。ハードウェアデバイス、コントローラおよびフィールドデバイスによって利用されるデータハイウェイは、有線通信経路、無線通信経路、または有線通信経路と無線通信の組み合わせを含み得る。   Information from field devices and controllers is typically provided via data highways or communication networks, such as operator workstations, personal computers or computing devices, data historians, report generators, centralized databases, or, typically, plant data. Available in one or more other hardware devices, such as other centrally managed computing devices located in control rooms or other locations away from harsh field environments (eg, back end environment of a process plant) Is. Each of these hardware devices is typically a centralized device over the entire process plant or a portion of the process plant. These hardware devices are, for example, functions that the operator is involved in controlling the process and / or operating the process plant, for example changing the settings of the process control routines, modifying the operation of the control module in the controller or field device, the current process Allows you to view the status of devices, view alerts generated by field devices and controllers, simulate process behavior for training personnel or testing process control software, maintain and update configuration databases, etc. Run the application. The data highways utilized by hardware devices, controllers and field devices may include wired communication paths, wireless communication paths, or a combination of wired and wireless communication paths.

一例として、Emerson Process Management社から販売されているDeltaV(商標)制御システムは、プロセスプラント内の様々な場所に位置付けられた種々のデバイス内に記憶され、異なるデバイスによって実行される複数のアプリケーションを含む。プロセス制御システムまたはプラントのバックエンド環境内の1つまたは複数のワークステーションまたはコンピューティングデバイス内に常駐する構成アプリケーションは、ユーザがプロセス制御モジュールを作成または変更して、データハイウェイ経由でこれらのプロセス制御モジュールを専用分散コントローラにダウンロードするのを可能にする。典型的には、これらの制御モジュールは、通信可能に相互接続された機能ブロックから成り、機能ブロックは、機能ブロックへの入力に基づいて制御スキーム内の機能を実行し、制御スキーム内の他の機能ブロックへの出力を生成するオブジェクト指向プログラミングプロトコル内のオブジェクトである。構成アプリケーションはさらに、構成設計者が、オペレータにデータを表示するために閲覧アプリケーションによって使用されるオペレータインターフェースを作成または変更できるようにし、オペレータがプロセス制御ルーチン内の設定(例えば、設定値)を変更するのを可能にする。各々の専用コントローラおよび、場合によっては、1つまたは複数のフィールドデバイスは、実際のプロセス制御機能を実装するために割り当てられダウンロードされた制御モジュールを動作させる個々のコントローラアプリケーションを記憶し、実行する。1つまたは複数のオペレータワークステーション上(またはオペレータワークステーションおよびデータハイウェイと通信接続された1つまたは複数のリモートコンピューティングデバイス上)で実行され得る閲覧アプリケーションは、データハイウェイ経由でコントローラアプリケーションからデータを受信し、このデータをプロセス制御システム設計者、オペレータ、またはユーザインターフェースを使用するユーザに表示し、オペレータビュー、エンジニアビュー、技術者ビューなど多数の異なるビューのうちのいずれかを提供し得る。データ・ヒストリアン・アプリケーションは、典型的には、データハイウェイ経由で提供されたデータの一部または全てを収集して蓄積するデータ・ヒストリアン・デバイス内に記憶され、データ・ヒストリアン・デバイスによって実行されるが、構成データベースアプリケーションは、現在のプロセス制御ルーチン構成およびそれに関連付けられたデータを記憶するためにデータハイウェイに接続されているさらに別のコンピュータ内で動作し得る。あるいは、構成データベースは、構成アプリケーションと同じワークステーション内に位置付けられ得る。   As an example, the DeltaV ™ control system sold by Emerson Process Management Inc. includes multiple applications stored in various devices located at various locations within a process plant and executed by different devices. . A configuration application that resides in one or more workstations or computing devices in the back end environment of a process control system or plant allows a user to create or modify process control modules to control those process controls via the data highway. Allows the module to be downloaded to a dedicated distributed controller. Typically, these control modules consist of communicatively interconnected functional blocks that perform functions within the control scheme based on inputs to the functional blocks and other functional blocks within the control scheme. An object in an object-oriented programming protocol that produces output to a functional block. The configuration application further allows the configuration designer to create or modify the operator interface used by the viewing application to display data to the operator, allowing the operator to change settings (eg, settings) within the process control routine. Enable you to do. Each dedicated controller, and optionally one or more field devices, stores and executes a separate controller application that operates the assigned and downloaded control modules to implement the actual process control functions. A browsing application, which may be executed on one or more operator workstations (or on one or more remote computing devices communicatively coupled to the operator workstation and the data highway), retrieves data from the controller application via the data highway. This data may be received and displayed to a process control system designer, operator, or user using a user interface to provide any of a number of different views, such as an operator view, an engineer view, a technician view. The data historian application is typically stored within a data historian device that collects and accumulates some or all of the data provided via the data highway. Although executed, the configuration database application may run in yet another computer connected to the data highway to store the current process control routine configuration and its associated data. Alternatively, the configuration database may be located in the same workstation as the configuration application.

これらの閲覧アプリケーションは、現在では、プラントのフィールド環境から離れて位置付けされたオペレータワークステーションを介してオペレータに大量の情報を提供するが、オペレータは、一部のタイプの情報を取得するためには、依然としてプラントのフィールド環境に出向かなければならない。例えば、これらの閲覧アプリケーションはプラント内に位置決めされたカメラから取り込まれたライブ画像または静止画像を表示し得るが、これらのカメラは、典型的には、固定視野を有する。したがって、オペレータは、これらのカメラの視野から外れるプロセスプラントのイベントを調べるために、プラントのフィールド環境に入る必要があり得る。さらに、オペレータは、現在では、予定された巡回の間プロセスプラントのフィールド環境の中を歩いて、フィールド環境内で、プラントの状態を検査し、プラント内でアクションを実行するなどして、プラントの安全性チェックリストを完成させる。しかしながら、プロセスプラントのフィールド環境では、例えば、有害化学物質、高温、危険な機器、および/または大きな雑音のような危険な状態が高頻度で見られるために、オペレータがプロセスプラントのフィールド環境に物理的に入るのは安全でない場合が多い。   These viewing applications currently provide large amounts of information to operators via operator workstations located remotely from the field environment of the plant, but operators are not able to obtain some types of information. , Still have to go to the field environment of the plant. For example, these viewing applications may display live or still images captured from cameras positioned in the plant, but these cameras typically have a fixed field of view. Therefore, the operator may need to enter the plant's field environment to look for events in the process plant that are out of the field of view of these cameras. Further, the operator is now walking through the field environment of the process plant during the scheduled tours, inspecting the condition of the plant within the field environment, performing actions within the plant, etc. Complete the safety checklist. However, in the process plant field environment, operators often physically enter the process plant field environment because of hazardous conditions such as hazardous chemicals, high temperatures, hazardous equipment, and / or loud noise. Often it is not safe to hit the target.

カメラおよびセンサが装備された複数のドローンは、プロセスプラントの状態を監視するためにプロセスプラントのフィールド環境全体を移動するように構成され得る。一般に、ドローンは、無人ロボット車両である。いくつかの実施例では、ドローンは、空中ドローン(例えば、無人航空機または「UAV」)であるが、他の実施例では、ドローンは、地上ドローンもしくは水上ドローン、または空中、地上、ならびに/もしくは水上の機能の何らかの組み合わせを有するドローンである。
ドローンに関連付けられた搭載コンピューティングデバイスは、プロセスプラントのフィールド環境内を通るドローンの動きを制御する。さらに、搭載コンピューティングデバイスは、カメラおよび他のセンサとインターフェースし、ネットワークを介してユーザ・インターフェース・デバイス、コントローラ、サーバおよび/またはデータベースと通信する。例えば、搭載コンピューティングデバイスは、ユーザ・インターフェース・デバイスおよび/またはサーバからドローンコマンドを受信し得る、または1つまたは複数のデータベース内に記憶されているドローンコマンドにアクセスし得る。さらに、搭載コンピューティングデバイスは、カメラおよび/または他のセンサによって取り込まれたデータをUIデバイス、コントローラ、サーバなどに伝送し得る。したがって、ユーザ・インターフェース・デバイスは、ドローンカメラおよび/またはドローンセンサによって取り込まれたデータ(ライブビデオフィードを含む)をヒューマン・マシン・インターフェース(HMI)アプリケーション内でオペレータに対して表示し得る。
Multiple drones equipped with cameras and sensors may be configured to move throughout the field environment of the process plant to monitor the condition of the process plant. Generally, drones are unmanned robot vehicles. In some embodiments, the drone is an aerial drone (eg, unmanned aerial vehicle or "UAV"), while in other embodiments, the drone is a ground drone or a surface drone, or an air, ground, and / or water surface. It is a drone that has some combination of features.
An on-board computing device associated with the drone controls movement of the drone through the field environment of the process plant. In addition, the on-board computing device interfaces with cameras and other sensors and communicates over the network with user interface devices, controllers, servers and / or databases. For example, the on-board computing device may receive drone commands from the user interface device and / or server, or may access drone commands stored in one or more databases. In addition, the on-board computing device may transmit data captured by the camera and / or other sensors to UI devices, controllers, servers, etc. Thus, the user interface device may display the data captured by the drone camera and / or the drone sensor (including the live video feed) to the operator within a human machine interface (HMI) application.

一態様では、1つの方法が提供される。該方法は、ユーザ・インターフェース・デバイスによって、無人ロボット車両を配備する必要があるユーザ・インターフェース・デバイスによって表示されたプロセスプラントの概観内の機器のユーザ選択の指示を受信するステップであって、プロセスプラントの概観はプロセスプラント内の様々な機器の物理的位置の表現を示す、前記受信ステップと、ユーザ・インターフェース・デバイスによって、ユーザ選択の指示を無人ロボット車両に関連付けられた搭載コンピューティングデバイスに伝送するステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、ユーザ選択の指示に基づいてプロセスプラント内の無人ロボット車両の目的地を決定するステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように無人ロボット車両を制御するステップと、無人ロボット車両の1つまたは複数のカメラによってカメラデータを取り込むステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、カメラデータをユーザ・インターフェース・デバイスに伝送するステップと、ユーザ・インターフェース・デバイスによって、プロセスプラントの概観と並べてカメラデータを表示するステップとを含む。   In one aspect, one method is provided. The method comprises receiving, by the user interface device, an indication of a user selection of equipment within the overview of the process plant displayed by the user interface device requiring deployment of an unmanned robotic vehicle, the process comprising: A plant overview shows a representation of the physical location of various equipment within the process plant, said receiving step and transmitting a user selection instruction to an on-board computing device associated with the unmanned robot vehicle by means of a user interface device. And an on-board computing device associated with the unmanned robot vehicle to determine the destination of the unmanned robot vehicle in the process plant based on user-selected instructions. Controlling the unmanned robot vehicle to move from a current position in the process plant to a destination in the process plant by the pewting device; capturing camera data by one or more cameras of the unmanned robot vehicle; Transmitting camera data to a user interface device by an on-board computing device associated with the unmanned robotic vehicle, and displaying the camera data by the user interface device alongside an overview of the process plant.

別の態様では、ユーザ・インターフェース・デバイスが提供される。ユーザインターフェースは、1つまたは複数のカメラが装備された無人ロボット車両と通信するように構成されたユーザ・インターフェース・デバイスであって、ディスプレイと、1つまたは複数のプロセッサと、コンピュータ実行可能命令のセットを記憶する1つまたは複数のメモリとを備えるユーザ・インターフェース・デバイスを備える。コンピュータ実行可能命令は、1つまたは複数のプロセッサによって実行されたときに、ユーザ・インターフェース・デバイスに、無人ロボット車両の搭載コンピューティングデバイスから、無人ロボット車両の1つまたは複数のカメラによって取り込まれたデータを受信させ、無人ロボット車両の1つまたは複数のカメラによって取り込まれたデータと並べて、プロセスプラント内の様々な機器の物理的位置の表現を示すプロセスプラントの概観を表示させ、無人ロボット車両を配備する必要があるプロセスプラントの概観内の機器のオペレータ選択を受信させ、無人ロボット車両の搭載コンピューティングデバイスに、無人ロボット車両を配備する必要があるプロセスプラントの概観内の選択された機器を指示するコマンドを伝送させる。   In another aspect, a user interface device is provided. The user interface is a user interface device configured to communicate with an unmanned robotic vehicle equipped with one or more cameras, including a display, one or more processors, and computer-executable instructions. A user interface device comprising one or more memories for storing the set. Computer-executable instructions, when executed by one or more processors, are captured by a user interface device from an on-board computing device of the unmanned robot vehicle by one or more cameras of the unmanned robot vehicle. The unmanned robot vehicle is displayed with an overview of the process plant that receives the data and aligns it with the data captured by one or more cameras of the unmanned robot vehicle to show a representation of the physical location of various equipment within the process plant. Receive operator selection of equipment in the overview of the process plant that needs to be deployed, and direct the onboard computing device of the unmanned robot vehicle to the selected equipment in the overview of the process plant in which the unmanned robot vehicle needs to be deployed. Command to be transmitted

さらに別の態様では、無人ロボット車両が提供される。無人ロボット車両は、無人ロボット車両がプロセスプラント内を移動するときに画像を取り込むように構成された1つまたは複数のカメラと、1つまたは複数のプロセッサと、コンピュータ実行可能命令のセットを記憶する1つまたは複数のメモリとを備える。コンピュータ実行可能命令は、1つまたは複数のプロセッサによって実行されたときに、無人ロボット車両に、無人ロボット車両を配備する必要があるプロセスプラント内の機器を指示するコマンドを含むユーザ・インターフェース・デバイスからのコマンドを受信させ、プロセスプラント内の機器の指示に基づいてプロセスプラント内の目的地を決定させ、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動させ、1つまたは複数のカメラによって取り込まれた画像をユーザ・インターフェース・デバイスに伝送させる。   In yet another aspect, an unmanned robot vehicle is provided. The unmanned robot vehicle stores one or more cameras configured to capture images as the unmanned robot vehicle moves through a process plant, one or more processors, and a set of computer-executable instructions. And one or more memories. Computer-executable instructions from a user interface device including commands that, when executed by one or more processors, direct an unmanned robot vehicle to equipment in a process plant to which the unmanned robot vehicle should be deployed. Command is received, the destination in the process plant is determined based on the instruction of the equipment in the process plant, the current position in the process plant is moved to the destination in the process plant, and one or more cameras are used. The captured image is transmitted to the user interface device.

プロセスプラントの状態を監視するためにドローンが実装され、および/または含まれ得るプロセスプラントの一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a process plant in which a drone may be implemented and / or included to monitor the status of the process plant. ドローンに搭載されたコンピューティングデバイスの一例および図1に概略的に示されているユーザ・インターフェース・デバイスの一例のブロック図である。2 is a block diagram of an example of a computing device on board a drone and an example of a user interface device shown schematically in FIG. 1. FIG. ドローンを使用してプロセスプラントの状態を監視するためのオペレータアプリケーションのユーザインターフェースの表示ビューの一例を示す図である。FIG. 6 is a diagram showing an example of a display view of a user interface of an operator application for monitoring the state of a process plant using a drone. 無人ロボット車両を使用してプロセスプラントの状態を監視するための方法の一例のフロー図である。FIG. 6 is a flow diagram of an example method for monitoring the status of a process plant using an unmanned robotic vehicle.

上述したように、閲覧アプリケーションは、現在では、プラントのフィールド環境から離れて位置付けされたオペレータワークステーションを介してオペレータに大量の情報を提供するが、オペレータは、一部のタイプの情報を取得するためには、依然としてプラントのフィールド環境に出向かなければならない。例えば、これらの閲覧アプリケーションはプラント内に位置決めされたカメラから取り込まれたライブ画像または静止画像を表示し得るが、これらのカメラは、典型的には、固定視野を有する。したがって、オペレータは、これらのカメラの視野から外れるプロセスプラントのイベントを調べるために、プラントのフィールド環境に入る必要があり得る。さらに、オペレータは、現在では、予定された巡回の間プロセスプラントのフィールド環境の中を歩いて、フィールド環境内で、プラントの状態を検査し、プラント内でアクションを実行するなどして、プラントの安全性チェックリストを完成させる。しかしながら、プロセスプラントのフィールド環境では、例えば、有害化学物質、高温、危険な機器、および/または大きな雑音のような危険な状態が高頻度で見られるために、オペレータがプロセスプラントのフィールド環境に物理的に入るのは安全でない場合が多い。   As mentioned above, the browsing application currently provides a large amount of information to the operator via an operator workstation located away from the field environment of the plant, but the operator gets some type of information. In order to do so, one must still go to the field environment of the plant. For example, these viewing applications may display live or still images captured from cameras positioned in the plant, but these cameras typically have a fixed field of view. Therefore, the operator may need to enter the plant's field environment to look for events in the process plant that are out of the field of view of these cameras. Further, the operator is now walking through the field environment of the process plant during the scheduled tours, inspecting the condition of the plant within the field environment, performing actions within the plant, etc. Complete the safety checklist. However, in the process plant field environment, operators often physically enter the process plant field environment because of hazardous conditions such as hazardous chemicals, high temperatures, hazardous equipment, and / or loud noise. Often it is not safe to hit the target.

本明細書に開示されているシステム、方法、デバイス、および技術は、オペレータがプロセスプラントの危険なフィールド環境に物理的に入らずにプロセスプラント内の状態を監視することができるようにすることによって、周知のシステムの上記の欠点および他の欠点に対処する。特に、ドローンを使用してプロセスプラントの状態を監視するためのシステム、方法、デバイス、および技術が本明細書内で開示されている。有利には、カメラおよび他のセンサが装備されたドローンは、危険過ぎてオペレータが入ることができないプロセスプラントの区域を安全に監視することができる。例えば、カメラおよび他のセンサによって取り込まれたデータは、ユーザ・インターフェース・デバイスに伝送され、フィールド環境の外側に安全に位置するオペレータに表示され得る。   The systems, methods, devices, and techniques disclosed herein enable an operator to monitor conditions within a process plant without physically entering the hazardous field environment of the process plant. Addresses the above and other shortcomings of known systems. In particular, disclosed herein are systems, methods, devices, and techniques for monitoring the status of process plants using drones. Advantageously, a drone equipped with cameras and other sensors can safely monitor areas of the process plant that are too dangerous for operators to enter. For example, data captured by cameras and other sensors can be transmitted to a user interface device and displayed to an operator safely located outside the field environment.

図1は、本明細書に記載されているドローンを使用してプロセスプラントの状態を監視するためのシステム、方法、および技術の実施形態が共におよび/または内部で利用され得る、プロセス制御システムまたはプロセスプラント10内で動作する例示的なプロセス制御ネットワークまたはシステム2のブロック図である。プロセス制御ネットワークまたはシステム2は、様々な他のデバイス間の直接的または間接的な接続を提供するネットワークバックボーン5を含み得る。ネットワークバックボーン5に結合されたデバイスは、様々な実施形態では、1つまたは複数のアクセスポイント7a、(例えば、イントラネットまたは企業の広域ネットワークを介する)他のプロセスプラントへの1つまたは複数のゲートウェイ7b、外部システムへの(例えば、インターネットに対する)1つまたは複数のゲートウェイ7c、固定のコンピューティングデバイス(例えば、従来のオペレータワークステーション)またはモバイル・コンピューティング・デバイス(例えば、モバイル機器スマートフォン)であり得る1つまたは複数のユーザインターフェース(UI)デバイス8、1つまたは複数のサーバ12(例えば、クラウド・コンピューティング・システムのようなサーババンク、または別の適切な構成として実装され得る)、コントローラ11、入出力(I/O)カード26、28、有線フィールドデバイス15〜22、無線ゲートウェイ35、および無線通信ネットワーク70の組み合わせを含む。通信ネットワーク70は、無線フィールドデバイス40〜46と、無線アダプタ52a、52bと、アクセスポイント55a、55bと、ルータ58とを含む無線デバイスを含み得る。無線アダプタ52a、52bは、非無線フィールドデバイス48、50にそれぞれ接続され得る。コントローラ11は、プロセッサ30と、メモリ32と、1つまたは複数の制御ルーチン38とを含み得る。図1は、ネットワークバックボーン5に直接および/または通信可能に接続されるデバイスのいくつかのうちの1つのみを示しているが、当然のことながら、デバイスの各々はネットワークバックボーン5上に複数のインスタンスを有し得、実際に、プロセスプラント10は複数のネットワークバックボーン5を含み得る。   FIG. 1 illustrates a process control system or with which embodiments of systems, methods, and techniques for monitoring the status of a process plant using a drone described herein may be utilized together and / or internally. 1 is a block diagram of an exemplary process control network or system 2 operating within process plant 10. FIG. The process control network or system 2 may include a network backbone 5 that provides direct or indirect connections between various other devices. The device coupled to the network backbone 5 may, in various embodiments, be one or more access points 7a, one or more gateways 7b to other process plants (eg, via an intranet or a corporate wide area network). , One or more gateways 7c to external systems (eg to the Internet), fixed computing devices (eg conventional operator workstations) or mobile computing devices (eg mobile equipment smartphones). Implemented as one or more user interface (UI) devices 8, one or more servers 12 (eg, a server bank such as a cloud computing system, or another suitable configuration) That may be), including the controller 11, input-output (I / O) cards 26 and 28, the wired field devices 15 - 22, the combination of the wireless gateway 35 and wireless communications network 70,. Communication network 70 may include wireless devices including wireless field devices 40-46, wireless adapters 52a, 52b, access points 55a, 55b, and router 58. Wireless adapters 52a, 52b may be connected to non-wireless field devices 48, 50, respectively. The controller 11 may include a processor 30, a memory 32, and one or more control routines 38. Although FIG. 1 shows only one of a number of devices that are directly and / or communicatively connected to the network backbone 5, it should be understood that each of the devices may be more than one on the network backbone 5. It may have instances and, in fact, the process plant 10 may include multiple network backbones 5.

UIデバイス8は、ネットワークバックボーン5を介してコントローラ11および無線ゲートウェイ35に通信可能に接続され得る。コントローラ11は、入出力(I/O)カード26、28を介して有線フィールドデバイス15〜22に通信可能に接続され得、ネットワークバックボーン5および無線ゲートウェイ35を介して無線フィールドデバイス40〜46に通信可能に接続され得る。コントローラ11は、フィールドデバイス15〜22、40〜50の少なくともいくつかを使用してバッチプロセスまたは連続プロセスを実装するように動作し得る。コントローラ11(例として、Emerson社から販売されているDeltaV(商標)コントローラであり得る)は、プロセス制御ネットワークバックボーン5に通信可能に接続される。コントローラ11はさらに、例えば、標準4〜20mAのデバイス、I/Oカード26、28、および/または任意のスマート通信プロトコル(例えば、FOUNDATION(登録商標)Fieldbusプロトコル、HART(登録商標)プロトコル、WirelessHART(登録商標)プロトコルなど)に関連付けられた任意の所望のハードウェアおよびソフトウェアを使用して、フィールドデバイス15〜22、40〜50に通信可能に接続され得る。図1に示されている実施形態では、コントローラ11、フィールドデバイス15〜22、48、50、およびI/Oカード26、28は、有線デバイスであり、フィールドデバイス40〜46は無線フィールドデバイスである。   The UI device 8 may be communicatively connected to the controller 11 and the wireless gateway 35 via the network backbone 5. The controller 11 may be communicatively coupled to the wired field devices 15-22 via input / output (I / O) cards 26, 28 and communicate to the wireless field devices 40-46 via the network backbone 5 and wireless gateway 35. Can be connected. The controller 11 may operate to implement a batch or continuous process using at least some of the field devices 15-22, 40-50. A controller 11 (which may be, for example, a DeltaV ™ controller sold by Emerson) is communicatively connected to the process control network backbone 5. The controller 11 may further include, for example, a standard 4-20 mA device, I / O cards 26, 28, and / or any smart communication protocol (eg, FOUNDATION® Fieldbus protocol, HART® protocol, WirelessHART ( Any desired hardware and software associated with the .TM. Protocol, etc.) may be used to communicatively connect to the field devices 15-22, 40-50. In the embodiment shown in FIG. 1, the controller 11, field devices 15-22, 48, 50 and I / O cards 26, 28 are wired devices and field devices 40-46 are wireless field devices. .

UIデバイス8の動作時に、いくつかの実施形態では、UIデバイス8は、ユーザインターフェース(「UI」)を実行し、UIデバイス8が入力インターフェースを介して入力を受け入れ、ディスプレイで出力を行うことができるようにする。UIデバイス8は、サーバ12から、データ(例えば、プロセスパラメータ、ログデータ、および/または取り込まれ記憶され得る任意の他のデータのようなプロセス関連データ)を受信し得る。他の実施形態では、UIは、サーバ12において、全てまたは一部が実行され得、サーバ12は、UIデバイス8に表示データを伝送し得る。UIデバイス8は、コントローラ11、無線ゲートウェイ35、および/またはサーバ12のようなプロセス制御ネットワークまたはシステム2内の他のノードから、バックボーン5を介して、UIデータ(表示データおよびプロセスパラメータデータを含み得る)を受信し得る。UIデバイス8で受信されたUIデータに基づいて、UIデバイス8は、プロセス制御ネットワークまたはシステム2に関連付けられたプロセスの態様を表す出力(すなわち、視覚的表現またはグラフィック、この一部はランタイム中に更新され得る)を行う。ユーザはさらに、UIデバイス8で入力を行うことによってプロセスの制御に影響を与え得る。図で説明するために、UIデバイス8は、例えば、タンク充填プロセスを表すグラフィックを提供し得る。このようなシナリオでは、ユーザは、タンクレベル測定値を読み取って、タンクを充填する必要があることを判断し得る。ユーザは、UIデバイス8で表示された入口弁のグラフィックと対話して、入口弁を開放させるコマンドを入力し得る。   During operation of the UI device 8, in some embodiments, the UI device 8 executes a user interface (“UI”), which allows the UI device 8 to accept input via an input interface and output on a display. It can be so. The UI device 8 may receive data (eg, process-related data such as process parameters, log data, and / or any other data that may be captured and stored) from the server 12. In other embodiments, the UI may be implemented in whole or in part at server 12, which may transmit display data to UI device 8. The UI device 8 includes UI data (including display data and process parameter data, via a backbone 5 from a process control network or other node in the system 2, such as a controller 11, a wireless gateway 35, and / or a server 12. To get). Based on the UI data received at the UI device 8, the UI device 8 outputs (ie, a visual representation or graphic, a portion of which during runtime, is representative of aspects of a process associated with the process control network or system 2. Can be updated). The user may further influence the control of the process by making inputs on the UI device 8. For purposes of illustration, the UI device 8 may provide, for example, a graphic representing the tank filling process. In such a scenario, the user may read the tank level readings and determine that the tank needs to be filled. The user may interact with the inlet valve graphic displayed on the UI device 8 and enter a command to open the inlet valve.

特定の実施形態では、UIデバイス8は、シンクライアント、ウェブクライアント、またはシッククライアントのような任意のタイプクライアントを実装し得る。例えば、UIデバイス8は、UIデバイスのメモリ、バッテリパワーなどが制限されている場合(例えば、ウエアラブルデバイスにおいて)に該当し得るように、UIデバイス8の動作に必要な処理の大部分を他のノード、コンピュータ、UIデバイス、またはサーバに依存し得る。このような実施例において、UIデバイス8は、サーバ12または別のUIデバイスと通信し得、サーバ12または他のUIデバイスは、プロセス制御ネットワークまたはシステム2上の1つまたは複数の他のノード(例えば、サーバ)と通信し、UIデバイス8に伝送するための表示データおよび/またはプロセスデータを決定し得る。さらに、UIデバイス8は、受信されたユーザ入力に関連する任意のデータをサーバ12に渡すことができるので、サーバ12は、ユーザ入力に関連するデータを処理し、それに応じて動作することができる。すなわち、UIデバイス8は、グラフィックをレンダリングし、データを記憶してUIデバイス8の動作に必要なルーチンを実行する1つまたは複数のノードまたはサーバに対するポータルとしての役割を果たすだけであり得る。シンクライアントUIデバイスは、UIデバイス8に対する最小限のハードウェア要件の利点を提供する。   In particular embodiments, UI device 8 may implement any type of client, such as a thin client, a web client, or a thick client. For example, the UI device 8 performs most of the processing necessary for the operation of the UI device 8 so as to be applicable when the memory, battery power, etc. of the UI device are limited (for example, in a wearable device). It may depend on nodes, computers, UI devices, or servers. In such an embodiment, the UI device 8 may be in communication with a server 12 or another UI device, which may be one or more other nodes on the process control network or system 2 ( (Eg, server) and may determine display data and / or process data for transmission to the UI device 8. Further, the UI device 8 can pass any data associated with the received user input to the server 12, so that the server 12 can process the data associated with the user input and act accordingly. . That is, the UI device 8 may only serve as a portal to one or more nodes or servers that render graphics, store data, and execute routines necessary for the operation of the UI device 8. The thin client UI device offers the advantage of minimal hardware requirements for the UI device 8.

他の実施形態では、UIデバイス8は、ウェブクライアントであり得る。このような実施形態では、UIデバイス8のユーザは、UIデバイス8においてブラウザを介してプロセス制御システムと対話し得る。ブラウザにより、ユーザは、バックボーン5を介して別のノードまたはサーバ12(例えば、サーバ12)におけるデータおよびリソースにアクセスすることができる。例えば、ブラウザはサーバ12から表示データまたはプロセスパラメータデータのようなUIデータを受信し、そのことにより、ブラウザはプロセスの一部または全てを制御し、および/または監視するためにグラフィックを表示することができる。ブラウザはさらに、ユーザ入力(例えば、グラフィック上のマウスクリック)を受信し得る。ユーザ入力は、ブラウザにサーバ12上に記憶されている情報リソースを取り出させる、またはアクセスさせ得る。例えば、マウスクリックは、ブラウザに、クリックされたグラフィックに関する情報を(サーバ12から)取り出させて表示させ得る。さらに他の実施形態では、UIデバイス8の処理の大部分は、UIデバイス8において行われ得る。例えば、UIデバイス8は、上述のUIを実行し得る。UIデバイス8はさらに、ローカルでデータを記憶し、データにアクセスし、データを分析し得る。   In other embodiments, the UI device 8 may be a web client. In such an embodiment, a user of UI device 8 may interact with the process control system via a browser at UI device 8. The browser allows the user to access data and resources at another node or server 12 (eg, server 12) via the backbone 5. For example, the browser receives UI data, such as display data or process parameter data, from the server 12, which causes the browser to display graphics to control and / or monitor some or all of the process. You can The browser may also receive user input (eg, mouse click on a graphic). User input may cause the browser to retrieve or access information resources stored on server 12. For example, a mouse click may cause the browser to retrieve (from the server 12) information about the clicked graphic and display it. In yet other embodiments, most of the processing of UI device 8 may occur at UI device 8. For example, the UI device 8 may execute the UI described above. The UI device 8 may also store, access, and analyze the data locally.

動作時に、ユーザは、プロセス制御ネットワークまたはシステム2内の1つまたは複数のデバイス(例えば、フィールドデバイス15〜22またはデバイス40〜50のいずれか)を監視するまたは制御するために、UIデバイス8と対話し得る。さらに、ユーザは、例えば、コントローラ11内に記憶されている制御ルーチンに関連付けられたパラメータを修正するまたは変更するために、UIデバイス8と対話し得る。プロセスコントローラ11のプロセッサ30は、制御ループを含み得る1つまたは複数のプロセス制御ルーチン(メモリ32内に記憶されている)を実装する、または監視する。プロセッサ30は、フィールドデバイス15〜22、40〜50と通信し、さらにバックボーン5に通信可能に接続されている他のノードと通信し得る。本明細書内に記載されている任意の制御ルーチンまたはモジュール(品質予測モジュールおよび障害検出モジュールまたは機能ブロックを含む)の一部は、望ましい場合には、異なるコントローラまたは他のデバイスによって実装され得るまたは実行され得ることに留意されたい。同様に、プロセス制御システム内に実装すべき本明細書に記載されている制御ルーチンまたはモジュールは、ソフトウェア、ファームウェア、ハードウェアなどの任意の形態を取り得る。制御ルーチンは、例えば、オブジェクト指向プログラミング、ラダー・ロジック、シーケンシャル・ファンクション・チャート、機能ブロック図を使用する、または任意の他のソフトウェアプログラミング言語もしくは設計パラダイムを使用するような任意の所望のソフトウェアフォーマットで実装され得る。特に、制御ルーチンは、UIデバイス8を介してユーザによって定義され、実装され得る。制御ルーチンは、コントローラ11のランダム・アクセス・メモリ(RAM)またはリード・オンリ・メモリ(ROM)のような任意の所望のタイプのメモリに記憶され得る。同様に、制御ルーチンは、例えば、1つまたは複数のEPROM、EEPROM、特定用途向け集積回路(ASIC)、またはコントローラ11の任意の他のハードウェアもしくはファームウェア要素にハードコードされ得る。このように、コントローラ11は、任意の所望の方法で制御ストラテジまたは制御ルーチンを実装する(例えば、受信する、記憶する、および/または実行する)ように(特定の実施形態ではUIデバイス8を使用してユーザによって)構成され得る。   In operation, a user interacts with the UI device 8 to monitor or control one or more devices (eg, either field devices 15-22 or devices 40-50) in the process control network or system 2. Can interact. Further, the user may interact with the UI device 8 to modify or change parameters associated with control routines stored in the controller 11, for example. Processor 30 of process controller 11 implements or monitors one or more process control routines (stored in memory 32) that may include a control loop. The processor 30 may communicate with the field devices 15-22, 40-50, and also with other nodes communicatively coupled to the backbone 5. Some of the control routines or modules described herein, including quality prediction modules and fault detection modules or functional blocks, may be implemented by different controllers or other devices, if desired, or Note that it can be performed. Similarly, the control routines or modules described herein to be implemented within a process control system can take any form such as software, firmware, hardware and the like. The control routines are in any desired software format, such as using object-oriented programming, ladder logic, sequential function charts, functional block diagrams, or any other software programming language or design paradigm. Can be implemented. In particular, the control routines may be defined and implemented by the user via the UI device 8. The control routines may be stored in any desired type of memory such as random access memory (RAM) or read only memory (ROM) of controller 11. Similarly, the control routines may be hard coded into, for example, one or more EPROMs, EEPROMs, application specific integrated circuits (ASICs), or any other hardware or firmware element of controller 11. As such, the controller 11 implements (eg, receives, stores, and / or executes) a control strategy or routine in any desired manner (using the UI device 8 in certain embodiments). Can be configured by the user).

UIデバイス8のいくつかの実施形態では、ユーザは、一般に機能ブロックと呼ばれるものを使用してコントローラ11において制御ストラテジを定義して実装するためにUIデバイス8と対話し得、この場合、各々の機能ブロックは、オブジェクトまたは制御ルーチン全体の他の部分(例えば、サブルーチン)であり、プロセス制御システム内のプロセス制御ループを実装するために、(リンクと呼ばれる通信を介して)他の機能ブロックと共に動作する。制御ベースの機能ブロックは、典型的には、プロセス制御システム内のいくつかの物理的機能を実行するために、入力機能(例えば、伝送器、センサまたは他のプロセスパラメータ測定デバイスに関連付けられた入力機能)、制御機能(例えば、PID、ファジー論理などの制御を実行する制御ルーチンに関連付けられた制御機能)、またはいくつかの装置(例えば、弁)の動作を制御する出力機能のうちの1つを実行する。当然、混合タイプおよび他のタイプの機能ブロックも存在する。機能ブロックは、UIデバイス8で提供されるグラフィック表現を有し得るので、ユーザは、機能ブロックのタイプ、機能ブロック間の接続、およびプロセス制御システム内で実装されている機能ブロックの各々に関連付けられた入出力を容易に修正することができる。機能ブロックは、典型的には、機能ブロックが標準4〜20mAデバイスおよび一部のタイプのスマート・フィールド・デバイス(例えば、HARTデバイス)に使用される、または関連付けられる場合に、これらの機能ブロックは、コントローラ11にダウンロードされ、コントローラ11内に記憶され、コントローラ11によって実行され得る、または機能ブロックがFieldbusデバイスに関連付けられる場合に、これらの機能ブロックは、フィールドデバイス自身に記憶され、フィールドデバイス自身によって実装され得る。コントローラ11は、1つまたは複数の制御ループを実装し得る1つまたは複数の制御ルーチン38を含み得る。各々の制御ループは、一般的には、制御モジュールと呼ばれ、機能ブロックの1つまたは複数を実行することによって実施され得る。   In some embodiments of the UI device 8, the user may interact with the UI device 8 to define and implement control strategies in the controller 11 using what are commonly referred to as functional blocks, in which case each A functional block is an object or other part of an overall control routine (eg, a subroutine) that works with other functional blocks (via communications called links) to implement a process control loop within a process control system. To do. A control-based functional block is typically an input function (eg, an input associated with a transmitter, sensor, or other process parameter measuring device) for performing some physical function within a process control system. Function), a control function (eg, a control function associated with a control routine that performs control such as PID, fuzzy logic, etc.), or an output function that controls the operation of some device (eg, valve). To execute. Of course, there are mixed and other types of functional blocks. The functional blocks may have a graphical representation provided on the UI device 8 so that the user is associated with each of the functional blocks types, the connections between the functional blocks, and the functional blocks implemented within the process control system. The input and output can be easily modified. Functional blocks are typically those that are used or associated with standard 4-20 mA devices and some types of smart field devices (eg, HART devices). , Downloaded to the controller 11, stored in the controller 11, can be executed by the controller 11, or if functional blocks are associated with the Fieldbus device, these functional blocks are stored in the field device itself and by the field device itself. Can be implemented. Controller 11 may include one or more control routines 38 that may implement one or more control loops. Each control loop, commonly referred to as a control module, may be implemented by executing one or more of the functional blocks.

図1をさらに参照すると、無線フィールドデバイス40〜46は、Wireless HARTプロトコルのような無線プロトコルを使用して、無線ネットワーク70内で通信する。特定の実施形態では、UIデバイス8は、無線ネットワーク70を使用して無線フィールドデバイス40〜46と通信することが可能であり得る。このような無線フィールドデバイス40〜46は、(例えば、無線プロトコルを使用して)同様に無線で通信するように構成されたプロセス制御ネットワークまたはシステム2の1つまたは複数の他のノードと直接通信し得る。無線フィールドデバイス40〜46は、無線で通信するように構成されていない1つまたは複数の他のノードと通信するために、バックボーン5に接続されている無線ゲートウェイ35を利用し得る。当然、フィールドデバイス15〜22、40〜46は、将来開発される任意の標準またはプロトコルを含む任意の有線または無線プロトコルのような任意の他の所望の標準(単数または複数)またはプロトコルに準拠し得る。   With further reference to FIG. 1, the wireless field devices 40-46 communicate within a wireless network 70 using a wireless protocol, such as the Wireless HART protocol. In particular embodiments, UI device 8 may be capable of communicating with wireless field devices 40-46 using wireless network 70. Such wireless field devices 40-46 communicate directly with one or more other nodes of the process control network or system 2 that are also configured to wirelessly communicate (eg, using a wireless protocol). You can The wireless field devices 40-46 may utilize the wireless gateway 35 connected to the backbone 5 to communicate with one or more other nodes that are not configured to communicate wirelessly. Of course, the field devices 15-22, 40-46 are compliant with any other desired standard (s) or protocols, such as any wired or wireless protocol, including any standards or protocols developed in the future. obtain.

無線ゲートウェイ35は、無線通信ネットワーク70の様々な無線デバイスまたはノード40〜46、52〜58へのアクセスを提供し得る。特に、無線ゲートウェイ35は、無線デバイス40〜46、52〜58とプロセス制御ネットワークまたはシステム2の他のノード(図1のコントローラ11を含む)との間の通信接続を提供する。無線ゲートウェイ35は、場合によっては、ルーティングサービス、バッファリングサービス、およびタイミングサービスによって、有線および無線プロトコルスタックの下層(例えば、アドレス変換、ルーティング、パケット分割、優先順位付けなど)に対する通信接続を提供し、一実装例では、有線および無線プロトコルスタックの共有層(単数または複数)をトンネリングする。別の場合では、無線ゲートウェイ35は、いずれのプロトコル層も共有しない有線プロトコルと無線プロトコルとの間でコマンドを翻訳し得る。   Wireless gateway 35 may provide access to various wireless devices or nodes 40-46, 52-58 of wireless communication network 70. In particular, the wireless gateway 35 provides a communication connection between the wireless devices 40-46, 52-58 and other nodes of the process control network or system 2 (including the controller 11 of FIG. 1). The wireless gateway 35 provides communication connectivity to lower layers of the wired and wireless protocol stacks (eg, address translation, routing, packet splitting, prioritization, etc.), possibly with routing, buffering, and timing services. In one implementation, tunnel the shared layer (s) of the wired and wireless protocol stacks. In other cases, the wireless gateway 35 may translate commands between wired and wireless protocols that do not share any protocol layers.

有線フィールドデバイス15〜22と同様に、無線ネットワーク70の無線フィールドデバイス40〜46は、プロセスプラント10内の物理的制御機能(例えば、弁の開閉、またはプロセスパラメータの測定)を実行し得る。しかしながら、無線フィールドデバイス40〜46は、ネットワーク70の無線プロトコルを使用して通信するように構成される。したがって、無線フィールドデバイス40〜46、無線ゲートウェイ35、および無線ネットワーク70の他の無線ノード52〜58は、無線通信パケットのプロデューサでありコンシューマである。   Similar to the wired field devices 15-22, the wireless field devices 40-46 of the wireless network 70 may perform physical control functions within the process plant 10, such as opening and closing valves or measuring process parameters. However, the wireless field devices 40-46 are configured to communicate using the wireless protocol of the network 70. Therefore, the wireless field devices 40 to 46, the wireless gateway 35, and the other wireless nodes 52 to 58 of the wireless network 70 are producers and consumers of wireless communication packets.

いくつかのシナリオでは、無線ネットワーク70は、有線デバイスであり得る非無線デバイス48、50を含み得る。例えば、図1のフィールドデバイス48は、レガシー4〜20mAデバイスであり得、フィールドデバイス50は、従来の有線HARTデバイスであり得る。フィールドデバイス48、50は、ネットワーク70内で通信するために、個々の無線アダプタ(WA)52a、52bを介して無線通信ネットワーク70に接続され得る。さらに、無線アダプタ52a、52bは、Foundation(登録商標)Fieldbus、PROFIBUS、DeviceNetなどのような他の通信プロトコルもサポートし得る。さらに、無線ネットワーク70は、無線ゲートウェイ35と有線通信している別個の物理的デバイスであり得る、または一体型デバイスとして無線ゲートウェイ35と共に配設され得る、1つまたは複数のネットワーク・アクセス・ポイント55a、55bを含み得る。無線ネットワーク70はさらに、無線通信ネットワーク70内の1つの無線デバイスから別の無線デバイスへパケットを転送するための1つまたは複数のルータ58を含み得る。無線デバイス40〜46、52〜58は、無線通信ネットワーク70の無線リンク60経由で、互いに通信し、無線ゲートウェイ35と通信し得る。   In some scenarios, wireless network 70 may include non-wireless devices 48, 50, which may be wired devices. For example, the field device 48 of FIG. 1 can be a legacy 4-20 mA device and the field device 50 can be a conventional wired HART device. The field devices 48, 50 may be connected to the wireless communication network 70 via individual wireless adapters (WA) 52a, 52b for communicating within the network 70. Further, the wireless adapters 52a, 52b may also support other communication protocols such as Foundation® Fieldbus, PROFIBUS, DeviceNet, and the like. Further, the wireless network 70 may be a separate physical device in wired communication with the wireless gateway 35, or may be co-located with the wireless gateway 35 as an integrated device, one or more network access points 55a. , 55b. The wireless network 70 may further include one or more routers 58 for forwarding packets from one wireless device within the wireless communication network 70 to another wireless device. The wireless devices 40-46, 52-58 may communicate with each other and the wireless gateway 35 via the wireless link 60 of the wireless communication network 70.

特定の実施形態では、プロセス制御ネットワークまたはシステム2は、他の無線プロトコルを使用して通信するネットワークバックボーン5に接続された他のノードを含み得る。例えば、プロセス制御ネットワークまたはシステム2は、例えば、Wi−Fiもしくは他のIEEE802.11準拠無線ローカルエリア・ネットワーク・プロトコル、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)もしくは他のITU−R(国際電気通信連合無線通信部門:International Telecommunication Union Radiocommunication Sector)準拠プロトコルのようなモバイル通信プロトコル、近距離無線通信(NFC)およびBluetooth(登録商標)のような短波長無線通信、および/または他の無線通信プロトコルのような他の無線プロトコルを利用する1つまたは複数の無線アクセスポイント7aを含み得る。典型的には、このような無線アクセスポイント7aにより、ハンドヘルドまたは他の携帯コンピューティングデバイスは、無線ネットワーク70とは異なり、無線ネットワーク70とは異なる無線プロトコルをサポートしている個々の無線ネットワーク経由で通信することができる。いくつかの実施形態では、UIデバイス8は、無線アクセスポイント7aを使用して、プロセス制御ネットワークまたはシステム2経由で通信する。いくつかのシナリオでは、携帯コンピューティングデバイス以外に、1つまたは複数のプロセス制御装置(例えば、コントローラ11、フィールドデバイス15〜22、無線デバイス35、40〜46、52〜58)も、アクセスポイント7aによってサポートされている無線ネットワークを使用して通信し得る。   In particular embodiments, the process control network or system 2 may include other nodes connected to a network backbone 5 that communicate using other wireless protocols. For example, the process control network or system 2 may be, for example, Wi-Fi or other IEEE 802.11 compliant wireless local area network protocol, WiMAX (Worldwide interoperability Access), LTE (Long Term Evolution-) or others. R (International Telecommunications Union Radio Communications Division) compliant protocols such as mobile communication protocols, near field communication (NFC) and short wavelength wireless communication such as Bluetooth, and / or others. Other wireless communication protocols such as It may include one or more wireless access points 7a utilizing a protocol. Typically, such a wireless access point 7a allows a handheld or other portable computing device to communicate over an individual wireless network that supports a different wireless protocol than the wireless network 70. Can communicate. In some embodiments, the UI device 8 uses the wireless access point 7a to communicate via the process control network or system 2. In some scenarios, in addition to portable computing devices, one or more process controllers (eg, controller 11, field devices 15-22, wireless devices 35, 40-46, 52-58) may also access point 7a. May be communicated using a wireless network supported by.

追加的にまたは代替的に、プロセス制御ネットワークまたはシステム2は、対象のプロセス制御システムの外部にあるシステムに対する1つまたは複数のゲートウェイ7b、7cを含み得る。このような実施形態では、UIデバイス8は、前記外部システムを制御する、監視する、または別の形で前記外部システムと通信するのに使用され得る。典型的には、このようなシステムは、プロセス制御システムによって生成されるまたは操作される情報のコンシューマおよび/またはサプライヤである。例えば、プラント・ゲートウェイ・ノード7bは、(自身の個々のプロセス制御データネットワークバックボーン5を有する)対象のプロセスプラント10を、自身の個々のネットワークバックボーンを有する別のプロセスプラントと通信可能に接続する。一実施形態では、1つのネットワークバックボーン5が複数のプロセスプラントまたはプロセス制御環境を使用可能にし得る。   Additionally or alternatively, the process control network or system 2 may include one or more gateways 7b, 7c to systems external to the subject process control system. In such an embodiment, the UI device 8 may be used to control, monitor, or otherwise communicate with the external system. Typically, such systems are consumers and / or suppliers of information produced or manipulated by process control systems. For example, the plant gateway node 7b communicatively connects the process plant 10 of interest (having its own individual process control data network backbone 5) to another process plant having its own individual network backbone. In one embodiment, one network backbone 5 may enable multiple process plants or process control environments.

別の実施例では、プラント・ゲートウェイ・ノード7bは、対象のプロセスプラントを、プロセス制御ネットワークもしくはシステム2またはバックボーン5を含まないレガシーまたは先行技術のプロセスプラントに通信可能に接続し得る。この実施例では、プラント・ゲートウェイ・ノード7bは、プラント10のプロセス制御ビッグ・データ・バックボーン5によって利用されるプロトコルとレガシーシステムによって利用される異なるプロトコル(例えば、Ethernet、Profibus、Fieldbus、DeviceNetなど)との間でメッセージを変換し得る、または翻訳し得る。このような実施例では、UIデバイス8は、前記レガシーまたは先行技術のプロセスプラント内のシステムまたはネットワークを制御する、監視する、または別の形でそのシステムまたはネットワークと通信するのに使用され得る。   In another example, the plant gateway node 7b may communicatively connect the process plant of interest to a legacy or prior art process plant that does not include the process control network or system 2 or backbone 5. In this embodiment, the plant gateway node 7b is a protocol used by the process control big data backbone 5 of the plant 10 and a different protocol used by the legacy system (eg, Ethernet, Profibus, Fieldbus, DeviceNet, etc.). Messages can be translated or translated to and from. In such an embodiment, the UI device 8 may be used to control, monitor, or otherwise communicate with a system or network within the legacy or prior art process plant.

プロセス制御ネットワークまたはシステム2は、プロセス制御ネットワークまたはシステム2を、ラボラトリシステム(例えば、Laboratory Information Management SystemまたはLIMS)、要員巡回データベース、マテリアル・ハンドリング・システム、維持管理システム、製品在庫制御システム、生産スケジューリングシステム、気象データシステム、出荷処理システム、包装システム、インターネット、別のプロバイダのプロセス制御システム、および/または他の外部システムのような外部の公的または私的なシステムのネットワークと通信可能に接続するために1つまたは複数の外部システム・ゲートウェイ・ノード7cを含み得る。外部システム・ゲートウェイ・ノード7cは、例えば、プロセス制御システムとプロセスプラントの外側の要員(例えば、在宅の要員)との間の通信を容易にし得る。   The process control network or system 2 may be a process control network or system 2 that is a laboratory system (eg, Laboratory Information Management System or LIMS), personnel circulation database, material handling system, maintenance management system, product inventory control system, production scheduling. Communicates with a network of external public or private systems, such as systems, weather data systems, shipping processing systems, packaging systems, the Internet, process control systems from another provider, and / or other external systems. May include one or more external system gateway nodes 7c. The external system gateway node 7c may facilitate, for example, communication between the process control system and personnel outside the process plant (eg, home personnel).

図1は、通信可能に接続される有限数のフィールドデバイス15〜22、40〜46、48〜50と共に1つのコントローラ11のみが示されているが、これは例示的かつ非限定的な実施形態に過ぎない。任意の数のコントローラ11は、プロセス制御ネットワークまたはシステム2内に含まれ得、コントローラ11のいずれかは、任意の数の有線または無線デバイス15〜22、40〜50と通信して、プラント10内のプロセスを制御し得る。また、プロセスプラント10はさらに、任意の数の無線ゲートウェイ35、ルータ58、アクセスポイント55、無線プロトコル制御通信ネットワーク70、アクセスポイント7a、および/またはゲートウェイ7b、7cを含み得る。   Although FIG. 1 shows only one controller 11 with a finite number of field devices 15-22, 40-46, 48-50 communicatively connected, this is an exemplary and non-limiting embodiment. Nothing more than. Any number of controllers 11 may be included in the process control network or system 2 and any of the controllers 11 may communicate with any number of wired or wireless devices 15-22, 40-50 to provide the same in the plant 10. Can control the process of. Also, the process plant 10 may further include any number of wireless gateways 35, routers 58, access points 55, wireless protocol control communication networks 70, access points 7a, and / or gateways 7b, 7c.

プロセスプラント10の構成の一例では、個々のカメラ74a、74bおよび/または他のセンサ76a、76bが装備された複数のドローン72a、72bは、プロセスプラント10のフィールド環境全体を移動して、プロセスプラントの状態を監視する。一般に、ドローン72a、72bは、無人ロボット車両である。いくつかの実施例では、ドローン72a、72bは、空中ドローン(例えば、無人航空機または「UAV」)であるが、他の実施例では、ドローン72a、72bは、地上ドローンもしくは水上ドローン、または空中、地上、ならびに/もしくは水上の機能の何らかの組み合わせを有するドローンである。ドローン72a、72bに関連付けられた搭載コンピューティングデバイス78a、78bは、プロセスプラント10のフィールド環境内を通るドローン72a、72bの動きを制御する。さらに、搭載コンピューティングデバイス78a、78bは、カメラ74a、74bおよび/または他のセンサ76a、76bとインターフェースし、例えば、ネットワーク70を介して、ユーザ・インターフェース・デバイス8、コントローラ11、サーバ12および/または1つまたは複数のデータベースと通信する。例えば、搭載コンピューティングデバイス78a、78bは、ユーザ・インターフェース・デバイス8および/またはサーバ12からドローンコマンドを受信し得る、または1つまたは複数のデータベース内に記憶されているドローンコマンドにアクセスし得る。別の実施例として、搭載コンピューティングデバイス78a、78bは、カメラ74a、74bおよび/または他のセンサ76a、76bによって取り込まれたデータをUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスに伝送し得る。それに応じて、ユーザ・インターフェース・デバイス8は、カメラ74a、74bおよび/または他のセンサ76a、76bによって取り込まれたデータをオペレータに対して表示する。   In one exemplary configuration of the process plant 10, a plurality of drones 72a, 72b equipped with individual cameras 74a, 74b and / or other sensors 76a, 76b move across the field environment of the process plant 10 to Monitor the status of. Generally, drones 72a, 72b are unmanned robot vehicles. In some embodiments, drones 72a, 72b are airborne drones (eg, unmanned aerial vehicles or "UAVs"), while in other embodiments, drones 72a, 72b may be ground or surface drones, or airborne drones. It is a drone that has some combination of ground and / or water functions. On-board computing devices 78a, 78b associated with drones 72a, 72b control movement of drones 72a, 72b through the field environment of process plant 10. Further, the on-board computing devices 78a, 78b interface with the cameras 74a, 74b and / or other sensors 76a, 76b, eg, via the network 70, the user interface device 8, controller 11, server 12 and / or Or communicate with one or more databases. For example, on-board computing devices 78a, 78b may receive drone commands from user interface device 8 and / or server 12 or may access drone commands stored in one or more databases. As another example, the on-board computing devices 78a, 78b may transfer the data captured by the cameras 74a, 74b and / or other sensors 76a, 76b to the UI device 8, controller 11, server 12, and / or any other. Can be transmitted to any suitable computing device. In response, the user interface device 8 displays to the operator the data captured by the cameras 74a, 74b and / or other sensors 76a, 76b.

図2は、ドローン例72(例えば、ドローン72a、72b)およびUIデバイス例8に関連付けられた搭載コンピューティングデバイス例78(例えば、搭載コンピューティングデバイス78a、78b)のブロック図であり、搭載コンピューティングデバイス78は、本明細書に記載されているドローンを使用してプロセスプラントの状態を監視するためのシステムの実施形態と共に利用され得る。図2に示されているように、ドローン例72には、1つまたは複数のカメラ74(赤外線カメラを含み得る)、1つまたは複数の他のセンサ76、および搭載コンピューティングデバイス78が装備される。カメラ74、センサ76、および搭載コンピューティングデバイス78は、ドローン72に取り付けられ得る、ドローン72内に含まれ得る、ドローン72によって運ばれ得る、または別の形でドローン72に関連付けられ得る。センサ76は、例えば、位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、モーションセンサ、および/または他の適切なセンサを含み得る。いくつかの実施例では、ドローン72には、例えば、ライト、スピーカ、マイクなどのような追加の付属品がさらに装備される。さらに、いくつかの実施例では、サンプルを採取するための装置、医療用具一式、呼吸装置、除細動器ユニットなどが、ドローン72に取り付けられる、ドローン72内に含まれる、ドローン72によって運ばれる、または別の形でドローン72に関連付けられる。また、ドローン72には、プラント10内で様々なアクションを実行するための追加の機械部品が装備され得る。例えば、ドローン72には、スイッチを作動させる、またはサンプルを採取するためのロボットアームが装備される。   FIG. 2 is a block diagram of an example onboard computing device 78 (eg, onboard computing devices 78 a, 78 b) associated with example drone 72 (eg, drone 72 a, 72 b) and example UI device 8. The device 78 may be utilized with embodiments of systems for monitoring the status of a process plant using the drone described herein. As shown in FIG. 2, example drone 72 is equipped with one or more cameras 74 (which may include infrared cameras), one or more other sensors 76, and an on-board computing device 78. It The camera 74, the sensor 76, and the on-board computing device 78 may be attached to the drone 72, contained within the drone 72, carried by the drone 72, or otherwise associated with the drone 72. Sensors 76 may include, for example, position sensors, temperature sensors, flame sensors, gas sensors, wind sensors, accelerometers, motion sensors, and / or other suitable sensors. In some embodiments, drone 72 is further equipped with additional accessories such as, for example, lights, speakers, microphones, and the like. Further, in some embodiments, a device for taking a sample, a set of medical equipment, a respiratory device, a defibrillator unit, etc., is carried by the drone 72, which is attached to the drone 72 and is contained within the drone 72. , Or otherwise associated with the drone 72. The drone 72 may also be outfitted with additional mechanical components to perform various actions within the plant 10. For example, the drone 72 is equipped with a robot arm for actuating a switch or taking a sample.

搭載コンピューティングデバイス78は、カメラ74、センサ76、および/または追加の機械部品とインターフェースし、ドローン経路コマンドを受信し、ドローン72の経路を制御し、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータを記憶して伝送するためのアプリケーションを実行する。搭載コンピューティングデバイス78は、一般に、1つまたは複数のプロセッサまたはCPU80、メモリ82、ランダム・アクセサリ・メモリ(RAM)84、入出力(I/O)回路86、およびローカルエリア・ネットワーク、広域ネットワーク、および/または有線ならびに/もしくは無線であり得る任意の他の適切なネットワーク(例えば、ネットワーク70)を介してデータを送受信するための通信ユニット88を含む。例えば、搭載コンピューティング78は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスと通信し得る。   The on-board computing device 78 interfaces with the camera 74, the sensor 76, and / or additional mechanical components, receives drone path commands, controls the path of the drone 72, and is captured by the drone camera 74 and / or drone sensor 76. An application for storing and transmitting the stored data. The on-board computing device 78 generally includes one or more processors or CPUs 80, memory 82, random accessory memory (RAM) 84, input / output (I / O) circuitry 86, and local area networks, wide area networks, And / or a communication unit 88 for sending and receiving data via any other suitable network, which may be wired and / or wireless (eg, network 70). For example, on-board computing 78 may communicate with UI device 8, controller 11, server 12, and / or any other suitable computing device.

さらに、搭載コンピューティングデバイス78は、ドローン72に関連付けられたデータを記憶するデータベース90を含む。例えば、データベース90は、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータを記憶し得る。さらに、データベース90は、例えば、プラント10のマップのようなナビゲーションデータを記憶し得る。マップは、ドローン72がプラント10全体を移動するための1つまたは複数の経路、およびプラント10内の様々な機器の位置の指示を含み得る。様々なプラント機器の位置の指示は、各々の機器の近くの様々な見晴らしの良い地点の位置の指示を含み得る。さらに、様々なプラント機器の位置の指示は、1つまたは複数のドローンによって作動されるスイッチ(例えば、キルスイッチ)の位置の指示を含み得る。   In addition, the onboard computing device 78 includes a database 90 that stores data associated with the drone 72. For example, database 90 may store data captured by drone camera 74 and / or drone sensor 76. Further, the database 90 may store navigation data such as, for example, a map of the plant 10. The map may include one or more paths for the drone 72 to travel through the plant 10, and an indication of the location of various equipment within the plant 10. The location indications of the various plant equipment may include location indications of various vantage points near each equipment. Further, various plant equipment position indications may include indications of the position of a switch (eg, a kill switch) operated by one or more drones.

メモリ82はさらに、制御ユニット92と、1つまたは複数のドローンアプリケーション96を含むオペレーティングシステム94とを含む。制御ユニット94は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスと通信するように構成される。例えば、いくつかの実施形態では、制御ユニット94は、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータをUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスに伝えることができる。さらに、制御ユニット94は、プラント内のドローン72の動きおよびアクションを制御するように構成される。   The memory 82 further includes a control unit 92 and an operating system 94 that includes one or more drone applications 96. The control unit 94 is configured to communicate with the UI device 8, the controller 11, the server 12, and / or any other suitable computing device. For example, in some embodiments the control unit 94 controls the data captured by the drone camera 74 and / or the drone sensor 76 to the UI device 8, the controller 11, the server 12, and / or any other suitable computing. Can tell the device. Further, the control unit 94 is configured to control the movement and action of the drone 72 within the plant.

一般的に、オペレーティングシステム94上で動作するドローンアプリケーション96は、制御ユニット94にプラント内のドローン72の動きおよびアクションを制御するための命令を出すアプリケーションを含み得る。さらに、ドローンアプリケーション96は、カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのアプリケーション、およびUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスからデータを送受信するためのアプリケーションを含み得る。   In general, drone applications 96 running on operating system 94 may include applications that issue instructions to control unit 94 to control the movement and actions of drone 72 within the plant. In addition, drone application 96 may include an application for analyzing data captured by camera 74 and / or sensor 76, and from UI device 8, controller 11, server 12, and / or any other suitable computing device. It may include applications for sending and receiving data.

例えば、制御ユニット94にプラント内のドローン72の動きおよびアクションを制御するための命令を出すドローンアプリケーション96は、ドローン・ナビゲーション・アプリケーションを含み得る。一般に、ドローン・ナビゲーション・アプリケーションは、データベース90内に記憶されているナビゲーションデータおよびセンサ76によって取り込まれた位置データの何らかの組み合わせを利用して、プラント10内のドローン72の現在位置を決定する。ドローン72の目的地が受信されるまたは決定されると、ドローン・ナビゲーション・アプリケーションは、現在位置から目的地までのルートを計算し得る。   For example, drone application 96 that issues instructions to control unit 94 to control the movement and actions of drone 72 within the plant may include a drone navigation application. In general, drone navigation applications utilize some combination of navigation data stored in database 90 and position data captured by sensors 76 to determine the current position of drone 72 within plant 10. Once the drone 72 destination is received or determined, the drone navigation application may calculate a route from the current location to the destination.

いくつかの実施例では、ドローン72の目的地は、データベース90内で事前に構成され、記憶され得る。例えば、データベース90は、ドローン72が繰り返し移動すべきルートまたは経路を記憶し得る、またはドローン72がホバリングすべき特定の位置(例えば、プラント内の特定の機器に最も近い)を記憶し得る。さらに、データベース90は、プラント10内の様々な誘因または状態に基づいてドローンが移動すべきルートまたは目的地のリストを記憶し得る。例えば、データベース90は、プラント10内の警報またはプラントの状態に基づいて、ドローン72がプラント10内の特定の位置まで移動しなければならないこと、または特定のルートを移動しなければならないことを示すデータを記憶し得る。例えば、データベース90は、火災、毒ガス漏れ、流出、爆発などが発生した場合に、ドローン72がプラント10へ移動するための安全な位置、またはドローン72がプラント10から出るための安全なルートの指示を記憶し得る。例えば、プラント10内にいる人は、これらの危険な状態の間、ドローン72についてプラントから出ることができる。他の例では、データベース90は、(例えば、写真、ビデオ、または警報もしくは他の状態に関連付けられた他のデータを取り込むために、安全でない状態の周辺を保護するドローンの「フェンス」を作成するために、プラントの状態に対する緊急支援を誘導するために)火災、毒ガス漏れ、流出、爆発などに近い位置またはルートの指示を記憶し得る。さらに、例えば、データベース90は、トリガ・センサ・データ(例えば、プラントの状態を示すセンサデータ)の取り込みに基づいて、ドローン72が特定の位置まで移動しなければならないこと、または特定のルートを移動しなければならないことを示すデータを記憶し得る。   In some embodiments, the drone 72's destination may be preconfigured and stored in the database 90. For example, the database 90 may store a route or path over which the drone 72 should travel repeatedly, or it may store a particular location at which the drone 72 should hover (eg, closest to a particular piece of equipment in the plant). Further, the database 90 may store a list of routes or destinations that the drone should travel based on various incentives or conditions within the plant 10. For example, the database 90 indicates that the drone 72 must travel to a particular location within the plant 10 or travel along a particular route based on alerts within the plant 10 or conditions of the plant. Data can be stored. For example, the database 90 may indicate a safe location for the drone 72 to move to the plant 10 or a safe route for the drone 72 to exit the plant 10 in the event of a fire, poisonous gas leak, spill, explosion, etc. Can be remembered. For example, a person within the plant 10 may leave the plant for the drone 72 during these dangerous conditions. In another example, the database 90 creates a drone “fence” that protects around unsafe conditions (eg, to capture photos, videos, or other data associated with alerts or other conditions). In order to guide emergency assistance to the condition of the plant, location or route instructions near a fire, poisonous gas leak, spill, explosion, etc. may be stored. Further, for example, the database 90 may require the drone 72 to travel to a particular location or travel a particular route based on the capture of trigger sensor data (eg, sensor data indicative of plant condition). Data may be stored that indicates what to do.

他の実施例では、ドローン72の目的地は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスから受信されたコマンド(例えば、オペレータコマンド)に基づいて、ナビゲーションアプリケーションによって選択され得る。例えば、オペレータは、UIデバイス8を介してプラント10の区域またはプラント10内の機器を選択することができ、目的地は、プラント10の区域または機器に対してデータベース90内に記憶されている位置に基づいて選択され得る。さらに、オペレータは、UIデバイス8を介してプラント10内にいる人を選択することができ、目的地は、人に関連付けられた位置に基づいて(例えば、人に関連付けられたGPSデータに基づいて、またはデータベース90内に記憶されている人に関連付けられた位置に基づいて)選択され得る。別の実施例として、オペレータは、方向制御装置(例えば、左、右、上、下、前方、後方など)を利用することができ、目的地は、ドローン72の現在位置からの方向性のある動きに基づいて、ナビゲーションアプリケーションによって選択され得る。   In another example, the destination of drone 72 may be based on commands received from UI device 8, controller 11, server 12, and / or any other suitable computing device (eg, operator commands). Can be selected by the navigation application. For example, the operator can select an area of the plant 10 or equipment within the plant 10 via the UI device 8, and the destination is a location stored in the database 90 for the area or equipment of the plant 10. Can be selected based on Further, the operator can select a person in the plant 10 via the UI device 8 and the destination can be based on a location associated with the person (eg, based on GPS data associated with the person. , Or based on the location associated with the person stored in the database 90). As another example, an operator may utilize a directional control device (eg, left, right, up, down, forward, backward, etc.), where the destination is directional from the drone's 72 current location. It may be selected by the navigation application based on the movement.

さらに、制御ユニット94にプラント内のドローン72のアクションを制御するための命令を出すドローンアプリケーション96は、ドローンにスイッチ(例えば、掘削場所のような安全でない位置の機器を停止させるためのキルスイッチ)を作動させ、測定を行わせ、評価を実施させ、サンプルを採取させ、(付属スピーカシステムを介して)警告を提示させ、(付属マイクを介して)音声コマンドを聞かせ、物体(例えば、工具、医療用具一式など)を持たせてプラント内の新しい位置(例えば、人がいる近くの位置)まで運ばせ、様々なシチュエーションで必要に応じて物を入れ替え、(例えば、「便利屋」として)必要に応じてプラント内の人を支援させるなどのための命令を制御ユニットに出すアプリケーションを含み得る。ナビゲーション目的地と同様に、いくつかの実施例では、ドローン72が実行するアクションは、データベース90内で事前に構成され、記憶され得るが、他の実施例では、ドローン72が実行するアクションは、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスから受信されたコマンド(例えば、オペレータコマンド)に基づいて選択され得る。   In addition, the drone application 96, which issues a command to the control unit 94 to control the actions of the drone 72 in the plant, causes the drone to switch (eg, a kill switch to shut down equipment in unsafe locations such as excavation sites). Activate, perform a measurement, perform an evaluation, take a sample, present a warning (via an attached speaker system), hear a voice command (via an attached microphone), and object (eg, tool, Carry a set of medical equipment, etc. to a new location in the plant (eg a location near people), swap things as needed in various situations (eg as a “handyman”) An application may be included that issues commands to the control unit to, for example, assist people in the plant. Similar to the navigation destination, in some embodiments the actions performed by the drone 72 may be preconfigured and stored in the database 90, while in other embodiments the actions performed by the drone 72 are: Selection may be based on commands (eg, operator commands) received from the UI device 8, controller 11, server 12, and / or any other suitable computing device.

さらに、カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのドローンアプリケーション96は、例えば、過熱、火、煙、移動、漏出物(漏出物の大きさの識別を含む)、液滴、水溜まり、蒸気、または弁の状態(開放しているか閉鎖しているかの識別を含む)のようなプロセスプラント内の様々な状態の指示を自動的に識別するために、カメラ74からの写真またはビデオを分析するための画像認識アプリケーション、またはドローンセンサ76からのデータを分析するように構成されたセンサ分析アプリケーション、またはこれら2つの何らかの組み合わせを含み得る。また、オペレーティングシステム90上で動作するアプリケーションは、ドローンセンサ76からのデータに基づいて、(例えば、毒ガス漏れの影響を評価するのを支援するために)卓越風の風速および風向きを決定するためのセンサ分析アプリケーションを含み得る。カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのドローンアプリケーション96はさらに、監視アプリケーションを含み得る。例えば、監視アプリケーションは、プラント内にいる人の顔の特徴を分析して、プラント内の権限のない人を識別し得る。別の実施例として、監視アプリケーションは、モーションセンサによって取り込まれたデータを分析して、権限のない人がプラントの中を移動しているかどうかを判断し得る。さらに、監視アプリケーションは、ドローンカメラ74によって取り込まれた写真またはビデオを分析して、例えば、損傷したフェンスまたは壊れたドアのようなプロセスプラントへの無許可の進入の証拠を識別し得る。   Further, the drone application 96 for analyzing the data captured by the camera 74 and / or the sensor 76 may include, for example, overheating, fire, smoke, movement, spills (including spill size identification), droplets. , A photo from the camera 74 to automatically identify an indication of various conditions within the process plant, such as, water pool, steam, or valve condition (including identification of open or closed). It may include an image recognition application for analyzing video, or a sensor analysis application configured to analyze data from drone sensor 76, or some combination of the two. An application running on operating system 90 also determines the prevailing wind speed and direction (eg, to assist in assessing the effects of poison gas leaks) based on data from drone sensor 76. It may include a sensor analysis application. Drone application 96 for analyzing the data captured by camera 74 and / or sensor 76 may further include a surveillance application. For example, the monitoring application may analyze facial features of people in the plant to identify unauthorized persons in the plant. As another example, a monitoring application may analyze data captured by motion sensors to determine if an unauthorized person is moving through the plant. In addition, the surveillance application may analyze photos or videos captured by the drone camera 74 to identify evidence of unauthorized entry into the process plant, such as a damaged fence or broken door.

追加的にまたは代替的に、ドローンアプリケーション96は、準備の整った通信システムの無い位置または一時的に通信機能を失った位置での通信を可能にするために、ドローン72にプラント内の他のドローンと対話させてフィールドメッシュおよび/または無線バックホールを形成するアプリケーションを含み得る。さらに、オペレーティングシステム90上で動作するアプリケーションは、ローカル一時的GPSシステムを作成するために、ドローン72にGPS情報を他のドローンに伝送させる、またはマスタードローンからGPS情報を受信させるGPSアプリケーションを含み得る。   Additionally or alternatively, the drone application 96 allows the drone 72 to communicate with other locations in the plant to enable communication in locations without a ready communications system or in locations that have temporarily lost communication capabilities. It may include applications that interact with drones to form field meshes and / or wireless backhauls. Additionally, applications running on operating system 90 may include GPS applications that cause drone 72 to transmit GPS information to other drones or to receive GPS information from a master drone to create a local transitory GPS system. .

UIデバイス8に話を戻すと、このデバイス8は、従来のオペレータワークステーションのようなデスクトップコンピュータ、制御室ディスプレイ、またはラップトップコンピュータ、タブレットコンピュータ、モバイル機器スマートフォン、携帯情報端末(PDA)、ウェアラブル・コンピューティング・デバイス、もしくは任意の他の適切なクライアント・コンピューティング・デバイスのようなモバイル・コンピューティング・デバイスであり得る。UIデバイス8は、様々な表示ビュー定義または構成を作成し、生成し、および/または編集すると同時に、様々な表示ビュー要素定義または構成を作成し、生成し、および/または編集するために、構成環境内の構成エンジニアによって利用されるグラフィック表示構成アプリケーションを実行し得る。UIデバイス8はさらに、オペレーティング環境内のプロセスの様々な状況および状態を監視し、観察して、対応するためにオペレータによって利用されるオペレータアプリケーションを実行し得る。UIデバイス8は、ディスプレイ98を含み得る。さらに、UIデバイス8は、1つまたは複数のプロセッサまたはCPU100、メモリ102、ランダム・アクセサリ・メモリ(RAM)104、入出力(I/O)回路105、およびローカルエリア・ネットワーク、広域ネットワーク、および/または有線ならびに/もしくは無線であり得る任意の他の適切なネットワーク(例えば、ネットワーク70)を介してデータを送受信するための通信ユニット106を含む。UIデバイス8は、コントローラ11、サーバ12、ドローン搭載コンピューティングデバイス78、および/または任意の他の適切なコンピューティングデバイスと通信し得る。   Returning to the UI device 8, the device 8 may be a desktop computer such as a conventional operator workstation, a control room display, or a laptop computer, tablet computer, mobile device smartphone, personal digital assistant (PDA), wearable device. It may be a mobile computing device such as a computing device, or any other suitable client computing device. The UI device 8 is configured to create, generate and / or edit various display view definitions or configurations, as well as to create, generate and / or edit various display view element definitions or configurations. A graphical display configuration application utilized by a configuration engineer in the environment may be executed. The UI device 8 may also execute operator applications utilized by the operator to monitor, observe, and respond to various conditions and states of processes within the operating environment. The UI device 8 may include a display 98. Further, the UI device 8 may include one or more processors or CPUs 100, memory 102, random accessory memory (RAM) 104, input / output (I / O) circuits 105, and local area networks, wide area networks, and / or Or communication unit 106 for sending and receiving data via any other suitable network, which may be wired and / or wireless (eg, network 70). UI device 8 may communicate with controller 11, server 12, drone-based computing device 78, and / or any other suitable computing device.

メモリ102は、オペレーティングシステム108と、グラフィック表示構成アプリケーションおよびオペレータアプリケーションのようなオペレーティングシステム108上で動作するアプリケーションと、ディスプレイ98を制御し、プロセスプラントのオンライン動作を制御するためにコントローラ11と通信するための制御ユニット110とを含み得る。いくつかの実施形態では、サーバ12はプロセスプラントの一部のグラフィック表現をUIデバイス8に伝送し、次に、制御ユニット110がプロセスプラントの一部のグラフィック表現をディスプレイ98上に提示し得る。さらに、制御ユニット110は、オペレータまたは構成エンジニア(本明細書では、ユーザとも呼ばれる)からのユーザ入力のようなI/O回路105からのユーザ入力を取得して、ユーザ入力を、特定の言語でグラフィック表示ビューを提示する要求、表示ビューに含まれるActive MinitorまたはWatchウィンドウ内に特定の制御要素を示すグラフィックを含める要求、プロセスセクションの1つに含まれるプロセスパラメータの調整を表示する要求などに翻訳し得る。   The memory 102 communicates with the operating system 108, applications running on the operating system 108, such as graphical display configuration applications and operator applications, the display 98, and the controller 11 to control the online operation of the process plant. And a control unit 110 for In some embodiments, the server 12 may transmit the graphical representation of the portion of the process plant to the UI device 8, and the control unit 110 may then present the graphical representation of the portion of the process plant on the display 98. Further, the control unit 110 obtains user input from the I / O circuit 105, such as user input from an operator or configuration engineer (also referred to herein as a user), and outputs the user input in a particular language. Translated into a request to present a graphic display view, a request to include a graphic showing a particular control element within an Active Minitor or Watch window contained in the display view, a request to display the adjustment of a process parameter contained in one of the process sections, etc. You can

いくつかの実施形態では、制御ユニット110は、要求UIを生成して、表示するために要求UIをUIデバイス8に伝送し得るサーバ12に、翻訳済みユーザ入力を伝え得る。
他の実施形態では、制御ユニット110は、翻訳済みユーザ入力に基づいて新規UIを生成し、UIデバイス8のディスプレイ98上に新規UIを提示し得る。翻訳済みユーザ入力がプロセスセクションの1つに含まれるプロセスパラメータの調整を表示する要求である場合、制御ユニット110は、オペレータからのユーザ入力に従ってディスプレイ98上でプロセスパラメータ値を調整し、プロセスプラント内のプロセスパラメータを調整するためにコントローラ11に命令を出し得る。他の実施形態では、制御ユニット110は、調整済みプロセスパラメータ値を生成して、表示するために調整済みプロセスパラメータ値をUIデバイス8に伝送し得るサーバ12に、翻訳済みユーザ入力を伝え、プロセスプラント内のプロセスパラメータを調整するためにコントローラ11に命令を出し得る。
In some embodiments, the control unit 110 may generate the request UI and communicate the translated user input to the server 12, which may transmit the request UI to the UI device 8 for display.
In other embodiments, control unit 110 may generate a new UI based on the translated user input and present the new UI on display 98 of UI device 8. If the translated user input is a request to display an adjustment of a process parameter contained in one of the process sections, the control unit 110 adjusts the process parameter value on the display 98 according to the user input from the operator to determine whether the process parameter has been adjusted. The controller 11 may be commanded to adjust the process parameters of In another embodiment, the control unit 110 communicates the translated user input to the server 12, which may generate adjusted process parameter values and transfer the adjusted process parameter values to the UI device 8 for display. The controller 11 may be commanded to adjust process parameters within the plant.

ここで、図3を参照すると、一実施形態に係る、ドローン(例えば、ドローン72、72a、72b)を使用してプロセスプラントの状態を監視するためのオペレータアプリケーションのユーザインターフェース表示ビュー200の一例が示されている。図3に示されている例示的なユーザインターフェース表示ビュー200は、ユーザインターフェース8のディスプレイ92を介して表示される。ユーザインターフェース表示ビュー200は、第1のドローンおよび第2のドローンに関連付けられたライブビデオフィード204、206およびドローン制御装置セット207と並べて表示されるプロセスプラントの概観202を含む。図3には2つのドローンのビデオフィードが表示されているが、様々な実施形態では、それよりも多いまたは少ないドローンに関連付けられたライブビデオフィードが表示される場合もある。さらに、いくつかの実施形態では、ユーザインターフェース表示ビュー200は、プロセスプラント内のドローンに関連付けられたセンサによって取り込まれたセンサデータに関連付けられた表示を含む。   Referring now to FIG. 3, an example user interface display view 200 of an operator application for monitoring the status of a process plant using a drone (eg, drones 72, 72a, 72b) according to one embodiment is shown. It is shown. The exemplary user interface display view 200 shown in FIG. 3 is displayed via the display 92 of the user interface 8. The user interface display view 200 includes a process plant overview 202 displayed side by side with live video feeds 204, 206 and drone controller sets 207 associated with the first and second drones. Although FIG. 3 shows two drone video feeds, various embodiments may display live video feeds associated with more or less drones. Further, in some embodiments, user interface display view 200 includes a display associated with sensor data captured by sensors associated with drones in the process plant.

一般的に、プロセスプラントの概観202は、プラント内の様々な機器の物理的位置の表現、および機器に対するプロセスプラント内の様々なドローンの物理的位置の表現を示している。例えば、ドローン1(208)は、機器210の近くに描かれている。別の実施例として、ドローン2(212)は機器214の近くに描かれており、ドローン3(216)は機器218の近くに描かれている。したがって、ドローン1に関連付けられたライブビデオフィード204は、機器210の現在の状況を示すビデオのライブフードを示している。同様に、ドローン2に関連付けられたライブビデオフィード206は、機器214の現在の状況を示すビデオのライブフードを示している。一実施例では、オペレータが(例えば、カーソル220を使用して)ドローンを選択すると、そのドローンに関連付けられたライブフィードが表示される。例えば、オペレータがドローン3(216)を選択すると、ドローン3に関連付けられたライブビデオフィードが表示され、機器218の現在の状況のライブフードが示される。   In general, the process plant overview 202 shows a representation of the physical location of various equipment within the plant and of various drones within the process plant relative to the equipment. For example, drone 1 (208) is depicted near device 210. As another example, drone 2 (212) is depicted near device 214 and drone 3 (216) is depicted near device 218. Thus, the live video feed 204 associated with drone 1 represents a live video feed showing the current status of device 210. Similarly, the live video feed 206 associated with drone 2 shows a live hood of video showing the current status of device 214. In one example, when an operator selects a drone (eg, using cursor 220), a live feed associated with that drone is displayed. For example, when the operator selects drone 3 (216), the live video feed associated with drone 3 is displayed, showing the live food of the current status of device 218.

いくつかの実施例では、ドローンは、プロセスプラント内の一定の経路に沿って移動する。他の実施例では、ドローンは、オペレータによって完全に制御される。さらに他の実施例では、ドローンは、一般に、オペレータがドローンの経路を制御するアクションを取るまでプロセスプラント内の一定の経路に沿って移動する。一実施例では、オペレータは、ドローン制御装置207を使用してプロセスプラント内の各々のドローンの物理的な動きを手動で制御する。例えば、オペレータは、様々なドローン制御装置207を使用して、ドローンを物理的に上昇もしくは下降させる、回転させる、前方および後方に移動させるなどを行うことができる。したがって、ドローンは、プロセスプラント内の様々な機器のより近いビューを取得するためにプロセスプラント内で移動され得るので、オペレータは、ユーザ・インターフェース・デバイス8を介して(すなわち、フィールド環境に入らずに)プラント内の状態を検査することができる。   In some embodiments, the drone travels along a path within the process plant. In another embodiment, the drone is fully controlled by the operator. In yet another embodiment, the drone generally travels along a path within the process plant until the operator takes action to control the path of the drone. In one example, the operator uses drone controller 207 to manually control the physical movement of each drone within the process plant. For example, an operator can use various drone controls 207 to physically raise or lower the drone, rotate it, move it forward and backward, and the like. Thus, the drone may be moved within the process plant to obtain a closer view of the various equipment within the process plant so that the operator may not be able to access the user interface device 8 (i.e., do not enter the field environment). In addition, the condition inside the plant can be inspected.

別の実施例では、オペレータは、プロセスプラントの概観202内の各々のドローンの描写208、212、216を選択することによって、またはドローンを配備する必要があるプロセスプラントの概観202内の区域を選択することによって、プロセスプラント内のドローンの物理的な動きを制御する。一実施例では、オペレータが(例えば、カーソル220を使用して)ドローンを選択し、それをクリックして新規の位置にドラッグすると、そのドローンは、新規の位置に物理的に移動するように構成される。例えば、空中ドローンは、自動的に離陸して、選択された位置に関連付けられたホバリング点までの所定の安全なルートで飛行し得る。別の実施例では、オペレータが(例えば、カーソル220を使用して)現在ドローンが位置付けられていないプロセスプラント概観202の区域(および/またはプロセスプラント概観202内に示されている機器)を選択すると、ドローンは、プロセスプラントのその区域まで物理的に移動するように構成される。したがって、オペレータは、ドローンがその目的地に到着すると、プロセスプラントの選択された区域のライブビデオフィードを見ることができる。   In another example, the operator may select a depiction 208, 212, 216 of each drone within the process plant overview 202, or select an area within the process plant overview 202 where the drone needs to be deployed. By controlling the physical movement of the drone in the process plant. In one embodiment, when the operator selects a drone (eg, using cursor 220), clicks it and drags it to a new location, the drone is configured to physically move to the new location. To be done. For example, an aerial drone may automatically take off and fly on a predetermined safe route to a hovering point associated with the selected location. In another example, if an operator selects (eg, using cursor 220) an area of process plant overview 202 (and / or equipment shown within process plant overview 202) in which the drone is not currently located. , The drone is configured to physically move to that area of the process plant. Thus, the operator can view a live video feed of selected areas of the process plant as the drone arrives at its destination.

一実施例では、オペレータは、プロセスプラントの概観202内のドローンを選択して、そのドローンを現在位置から安全な位置(オペレータによって選択され得る、または事前に決定され得る)に移動させる。例えば、人がプロセスプラント内の安全でない場所に閉じ込められている場合、オペレータは、現在位置から安全な位置まで移動するためにその人の近くのドローンを選択することができ、その人は安全な場所までドローンについていくことができる。別の実施例では、オペレータは、プロセスプラントの概観202内のドローンを選択して、そのドローンをプロセスプラントの入口からプロセスプラントの特定の区域まで移動させる。例えば、プラント内に緊急事態が発生した場合、救急隊員がプラントの入口から緊急事態に関連するプラントの区域までドローンについていくことができる。   In one example, an operator selects a drone within the overview 202 of the process plant to move the drone from its current location to a safe location (which may be selected by the operator or may be predetermined). For example, if a person is confined to an unsafe location within a process plant, the operator can select a drone near him to move from his current location to a safe location, and You can follow the drone to the place. In another example, an operator selects a drone within the process plant overview 202 and moves the drone from a process plant entrance to a particular area of the process plant. For example, if an emergency occurs in the plant, paramedics can follow the drone from the entrance of the plant to the area of the plant associated with the emergency.

さらに、一実施例では、オペレータは、プロセスプラントの概観202内のドローンまたは区域を選択して、そのドローンにプラント内の他のタスクを実行させる。例えば、ドローンは、例えば、放送で警告することによって、または安全でない領域の周辺に標識を付けることによって、人にプロセスプラント内の危険性を警告するように構成され得る。例えば、オペレータは、概観202内の安全でない領域を選択して、ドローンをその領域まで移動させて、ドローンにその領域の危険性を人に警告させることができる。さらに、場合によっては、オペレータは、医療用具一式、呼吸装置、または除細動器ユニットをプラントの安全でない領域に閉じ込められている人のところまで搬送するドローンを選択することができる。さらに、オペレータは、プラント内のスイッチ(掘削場所のような安全でない位置の機器を停止させるキルスイッチを含む)を作動させ、プラント内の測定を行い、および/またはプラント内から製品サンプルを採取させるドローンを選択することができる。   Further, in one embodiment, the operator selects a drone or area within the process plant overview 202 to cause the drone to perform other tasks within the plant. For example, a drone may be configured to alert a person of a hazard within a process plant, for example, by alerting by broadcast or by marking around an unsafe area. For example, an operator can select an unsafe area in overview 202, move the drone to that area, and have the drone alert a person to the danger of that area. In addition, in some cases, the operator may choose a drone to carry the medical kit, respiratory apparatus, or defibrillator unit to a person confined to an unsafe area of the plant. In addition, the operator actuates switches within the plant (including kill switches that shut down equipment in unsafe locations such as excavation sites) to perform measurements within the plant and / or to take product samples from within the plant. You can choose a drone.

図4を参照すると、いくつかの実施形態に係る、無人ロボット車両を使用してプロセスプラントの状態を監視するための方法の一例のフロー図400が示されている。例えば、無人ロボット車両72の搭載コンピューティングデバイス78のメモリ82および/またはユーザ・インターフェース・デバイス8のメモリ102は、プロセッサ80またはプロセッサ100によって実行されたときに、無人ロボット車両72および/またはユーザ・インターフェース・デバイス8それぞれに、方法400の少なくとも一部を実行させる命令を記憶し得る。実施形態では、方法400は、追加の、それより少ない、および/または代替のアクションを含み得る。   Referring to FIG. 4, a flow diagram 400 of an example method for monitoring the status of a process plant using an unmanned robotic vehicle is shown, according to some embodiments. For example, the memory 82 of the onboard computing device 78 of the unmanned robot vehicle 72 and / or the memory 102 of the user interface device 8 may, when executed by the processor 80 or processor 100, unmanned robot vehicle 72 and / or the user. Each interface device 8 may store instructions that cause it to perform at least a portion of method 400. In embodiments, method 400 may include additional, fewer, and / or alternative actions.

ブロック402において、ユーザ・インターフェース・デバイス8は、無人ロボット車両72を配備する必要があるユーザ・インターフェース・デバイス8によって表示されたプロセスプラントの概観内の機器のユーザ選択の指示を受信し得る。例えば、プロセスプラントの概観は、プロセスプラント内の様々な機器の物理的位置の表現を示し得る。いくつかの実施例では、プロセスプラントの概観の表示は、プロセスプラント内の機器に対するプロセスプラント内の無人ロボット車両の物理的位置の表現の表示を含み得る。   At block 402, the user interface device 8 may receive an indication of user selection of equipment within the overview of the process plant displayed by the user interface device 8 that needs to deploy the unmanned robotic vehicle 72. For example, an overview of a process plant may show a representation of the physical location of various equipment within the process plant. In some examples, displaying the overview of the process plant may include displaying a representation of the physical location of the unmanned robotic vehicle within the process plant relative to the equipment within the process plant.

ブロック404において、ユーザ選択の指示が無人ロボット車両72に関連付けられた搭載コンピューティングデバイス78に伝送され得る。   At block 404, the user-selected instruction may be transmitted to the on-board computing device 78 associated with the unmanned robotic vehicle 72.

ブロック406において、ユーザ選択の指示に基づいて、プロセスプラント内の無人ロボット車両72の目的地が決定され得る。いくつかの実施例では、プロセスプラント内の無人ロボット車両の目的地を決定するステップは、ユーザによって選択された機器の物理的位置の近くの安全なホバリング点を決定するステップを含み得る。   At block 406, the destination of the unmanned robotic vehicle 72 within the process plant may be determined based on the user-selected instructions. In some embodiments, determining the destination of the unmanned robotic vehicle in the process plant may include determining a safe hovering point near the physical location of the equipment selected by the user.

ブロック408において、無人ロボット車両72は、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように制御され得る。例えば、いくつかの実施例では、現在位置から目的地まで移動するように無人ロボット車両72を制御するステップは、プロセスプラント内の現在位置からプロセスプラント内の目的地までの安全なルートを識別するステップと、安全なルートを通ってプロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように無人ロボット車両72を制御するステップとを含み得る。   At block 408, the unmanned robotic vehicle 72 may be controlled to move from its current location within the process plant to a destination within the process plant. For example, in some embodiments controlling the unmanned robotic vehicle 72 to travel from the current location to the destination identifies a safe route from the current location within the process plant to the destination within the process plant. The steps may include controlling the unmanned robotic vehicle 72 to travel from a current location within the process plant to a destination within the process plant through a safe route.

ブロック410において、無人ロボット車両72の1つまたは複数のカメラによってカメラデータが取り込まれ得る。いくつかの実施例では、カメラデータは、ライブビデオフィードを含み得る。いくつかの実施例では、カメラデータは、無人ロボット車両72の1つまたは複数の赤外線カメラによって取り込まれた赤外線カメラデータを含み得る。   At block 410, camera data may be captured by one or more cameras of the unmanned robotic vehicle 72. In some examples, the camera data may include a live video feed. In some examples, the camera data may include infrared camera data captured by one or more infrared cameras of unmanned robotic vehicle 72.

ブロック412において、カメラデータがユーザ・インターフェース・デバイス8に伝送され得る。   At block 412, the camera data may be transmitted to the user interface device 8.

ブロック414において、カメラデータがプロセスプラントの概観と並べて表示され得る。いくつかの実施例では、プロセスプラントの概観と並べてカメラデータを表示するステップは、プロセスプラントの概観と並べられたカメラデータに基づいてライブビデオフィードを表示するステップを含み得る。   At block 414, the camera data may be displayed alongside the process plant overview. In some examples, displaying the camera data side-by-side with the process plant overview can include displaying a live video feed based on the camera data aligned with the process plant overview.

いくつかの実施例では、方法400はさらに、無人ロボット車両の1つまたはセンサによってセンサデータを取り込むステップ、ユーザ・インターフェース・デバイスにセンサデータを伝送するステップ、および/またはユーザ・インターフェース・デバイスによってセンサデータを表示するステップを含み得る(図4に図示せず)。無人ロボット車両の1つまたは複数のセンサによってセンサデータを取り込むステップは、無人ロボット車両の位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、および/またはモーションセンサのうちの1つまたは複数のセンサからセンサデータを取り込むステップを含み得る。また、方法400は、プロセスプラント内の状態の指示を識別するために、カメラデータおよび/またはセンサデータを分析するステップをさらに含み得る。例えば、状態は、過熱状態、火災状態、煙状態、漏出状態、蒸気状態、溜り水または滴下水の状態、弁の状態、プロセスプラント内の動きの状態などであり得る。   In some embodiments, the method 400 further comprises capturing sensor data by one or a sensor of the unmanned robotic vehicle, transmitting the sensor data to a user interface device, and / or the sensor by the user interface device. It may include the step of displaying the data (not shown in FIG. 4). Capturing sensor data by one or more sensors of the unmanned robot vehicle comprises one or more of a position sensor, temperature sensor, flame sensor, gas sensor, wind sensor, accelerometer, and / or motion sensor of the unmanned robot vehicle. The step of capturing sensor data from a plurality of sensors may be included. The method 400 may also further include analyzing camera data and / or sensor data to identify an indication of conditions within the process plant. For example, the condition can be an overheat condition, a fire condition, a smoke condition, a leak condition, a steam condition, a pool or drip water condition, a valve condition, a motion condition within the process plant, and the like.

さらに、いくつかの実施例では、方法400はさらに、無人ロボット車両によって作動される必要があるプロセスプラント内のスイッチのユーザ選択の指示を受信するステップと、プロセスプラント内のスイッチを作動させるように無人ロボット車両のロボットアームを制御するステップとを含み得る。   Further, in some embodiments, the method 400 further comprises receiving a user-selected indication of a switch in the process plant that needs to be activated by the unmanned robotic vehicle, and actuating the switch in the process plant. Controlling the robot arm of the unmanned robot vehicle.

さらに、いくつかの実施例では、方法400はさらに、プロセスプラント内のサンプルを採取するように無人ロボット車両のロボットアームを制御するステップを含み得る。   Further, in some embodiments, method 400 may further include controlling a robot arm of the unmanned robotic vehicle to take a sample in the process plant.

以下の追加の考察は、上述の説明にも当てはまる。本明細書全体を通して、任意のデバイスまたはルーチンによって実行されるものとして説明されているアクションは、一般に、機械可読命令に従ってデータを操作するまたは変換するプロセッサのアクションまたはプロセスを指す。機械可読命令は、プロセッサに通信可能に結合されたメモリデバイスに記憶され、メモリデバイスから取り出され得る。すなわち、本明細書に記載されている方法は、図2に示されているように、コンピュータ可読媒体(すなわち、メモリデバイス)に記憶されている機械実行可能命令のセットによって具現化され得る。命令は、対応するデバイス(例えば、サーバ、ユーザ・インターフェース・デバイスなど)の1つまたは複数のプロセッサによって実行されたときに、プロセッサにその方法を実行させる。本明細書において、命令、ルーチン、モジュール、プロセス、サービス、プログラム、および/またはアプリケーションがコンピュータ可読メモリまたはコンピュータ可読媒体に記憶されるまたは保存されるものであると言及される場合、「記憶される」および「保存される」という単語は、一時的な信号を除外するものとする。   The following additional considerations also apply to the above description. Actions described throughout this specification as performed by any device or routine generally refer to processor actions or processes that manipulate or transform data in accordance with machine-readable instructions. Machine-readable instructions may be stored in and retrieved from a memory device communicatively coupled to the processor. That is, the methods described herein may be embodied by a set of machine-executable instructions stored in a computer-readable medium (ie, a memory device), as shown in FIG. The instructions, when executed by one or more processors of a corresponding device (eg, server, user interface device, etc.) cause the processor to perform the method. When referred to herein, instructions, routines, modules, processes, services, programs, and / or applications, which are stored or stored in a computer-readable memory or medium, are "stored." The words "and" are preserved shall exclude transitory signals.

また、用語「オペレータ」、「要員」、「人」、「ユーザ」、「技術者」および同様の他の用語は、本明細書に記載されているシステム、装置、および方法を使用し得るまたはそれらと対話し得るプロセスプラント環境内にいる人を示すのに使用されるが、これらの用語は限定的であることを意図するものではない。本明細書内で特定の用語が使用される箇所において、その用語は、1つにはプラント要員が関わる従来の活動であるという理由で使用されるが、その特定の活動に関わっている可能性がある要員に限定するものではない。   Also, the terms “operator,” “personnel,” “person,” “user,” “technician,” and other terms may use the systems, devices, and methods described herein, or Although used to indicate a person within a process plant environment with whom they may interact, these terms are not intended to be limiting. Wherever a particular term is used in this specification, the term may be related to that particular activity, although it is used in part because it is a conventional activity involving plant personnel. It is not limited to certain personnel.

さらに、本明細書全体を通して、1つのインスタンスとして記載されているコンポーネント、動作、または構造を複数のインスタンスが実装する場合がある。1つまたは複数の方法の個々の動作は別個の動作として図示されて説明されているが、個々の動作の1つまたは複数は、同時に実行される場合もあり、動作は図示されている順序で実行される必要はない。構成例において別個のコンポーネントとして示されている構造および機能は、組み合わせられた構造またはコンポーネントとして実装され得る。同様に、単一コンポーネントとして示されている構造および機能は、別個のコンポーネントとして実装され得る。上述および他の変形、修正、追加、および改良の形態も本明細書の対象の範囲内にある。   Furthermore, multiple instances may implement components, acts, or structures that are described as one instance throughout this specification. Although the individual acts of one or more methods are illustrated and described as separate acts, one or more of the individual acts may be performed concurrently and the acts may be performed in the order shown. Does not need to be done. Structures and functions shown as separate components in the example configurations may be implemented as a combined structure or component. Similarly, structures and functionality depicted as a single component may be implemented as separate components. The above and other variations, modifications, additions and improvements are within the scope of the present specification.

本明細書に記載されているアプリケーション、サービス、およびエンジンのいずれかは、ソフトウェア内で実装されるときに、磁気ディスク、レーザディスク、ソリッドステート・メモリ・デバイス、分子メモリ記憶装置、または他の記憶媒体のような任意の有形の非一時的なコンピュータ可読メモリ、コンピュータもしくはプロセッサのRAMまたはROM内などに記憶され得る。本明細書に開示されているシステム例は、数あるコンポーネントの中でも特に、ハードウェア上で実行されるソフトウェアおよび/またはファームウェアを含むものとして開示されているが、このようなシステムは単なる例に過ぎず、限定的であると考えるべきではないことに留意されたい。例えば、これらのハードウェアコンポーネント、ソフトウェアコンポーネント、およびファームウェアコンポーネントのいずれかまたは全てがハードウェア内でのみ、ソフトウェア内でのみ、またはハードウェアとソフトウェアの任意の組み合わせ内で具現化され得ることが考えられる。したがって、当業者は、提供されている実施例がこのようなシステムを実装する唯一の方法ではないことを容易に理解するであろう。   Any of the applications, services, and engines described herein, when implemented in software, may include magnetic disks, laser disks, solid state memory devices, molecular memory storage, or other storage. It may be stored in any tangible, non-transitory computer-readable memory, such as a medium, RAM or ROM of a computer or processor, etc. Although the example systems disclosed herein are disclosed to include software and / or firmware executing on hardware, among other components, such systems are merely examples. Note that this should not be considered limiting. For example, it is contemplated that any or all of these hardware, software, and firmware components may be embodied only in hardware, only in software, or in any combination of hardware and software. . Therefore, one of ordinary skill in the art will readily appreciate that the provided embodiment is not the only way to implement such a system.

したがって、本発明は、単なる例に過ぎず本発明を限定するものではない特定の実施例に関して説明されているが、当然のことながら、本発明の精神および範囲から逸脱せずに、開示されている実施形態に対して変更、追加、または削除がなされてもよいことは当業者には明らかであろう。さらに、上記では多数の異なる実施形態の詳細な説明を述べているが、詳細な説明は、単なる例に過ぎないと解釈すべきであり、可能な全ての実施形態を記載するのは不可能とは言えないまでも実現するのは困難であるので、可能な全ての実施形態を記載していない。現在の技術または本願の出願日の後に開発される技術を使用して、多数の代替形態が実現可能である。
Accordingly, while the present invention has been described with respect to particular embodiments that are illustrative only and not limiting of the present invention, it should be understood that the present invention is disclosed without departing from the spirit and scope of the invention. It will be apparent to those skilled in the art that changes, additions or deletions may be made to the described embodiments. Moreover, while the above provides a detailed description of a number of different embodiments, the detailed description should be construed as merely an example, and it is not possible to describe all possible embodiments. Not all possible embodiments have been described as they are difficult to realize if not stated. Numerous alternatives are feasible using current technology or technology developed after the filing date of the present application.

Claims (29)

ユーザ・インターフェース・デバイスによって、無人ロボット車両を配備する必要がある前記ユーザ・インターフェース・デバイスによって表示されたプロセスプラントの概観内の機器のユーザ選択の指示を受信するステップであって、前記プロセスプラントの前記概観は、前記プロセスプラント内の様々な機器の物理的位置の表現を示す、前記受信ステップと、
前記ユーザ・インターフェース・デバイスによって、前記無人ロボット車両に関連付けられた搭載コンピューティングデバイスに、前記ユーザ選択の前記指示を伝送するステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ選択の前記指示に基づいて、前記プロセスプラント内の前記無人ロボット車両の目的地を決定するステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記プロセスプラント内の現在位置から前記プロセスプラント内の前記目的地まで移動するように前記無人ロボット車両を制御するステップと、
前記無人ロボット車両の1つまたは複数のカメラによってカメラデータを取り込むステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ・インターフェース・デバイスに前記カメラデータを伝送するステップと、
前記ユーザ・インターフェース・デバイスによって、前記プロセスプラント内の前記概観と並べて前記カメラデータを表示するステップと
を含む方法。
Receiving, by a user interface device, an instruction for user selection of equipment within the overview of a process plant displayed by said user interface device that requires the deployment of an unmanned robotic vehicle, said process plant comprising: Said overview showing said representation of the physical location of various equipment within said process plant;
Transmitting, by the user interface device, the indication of the user selection to an onboard computing device associated with the unmanned robotic vehicle;
Determining a destination of the unmanned robot vehicle in the process plant based on the user-selected instruction by the on-board computing device associated with the unmanned robot vehicle;
Controlling the unmanned robot vehicle to move from a current location in the process plant to the destination in the process plant by the on-board computing device associated with the unmanned robot vehicle;
Capturing camera data by one or more cameras of the unmanned robot vehicle;
Transmitting the camera data to the user interface device by the on-board computing device associated with the unmanned robotic vehicle;
Displaying the camera data alongside the overview in the process plant by the user interface device.
前記プロセスプラント内の前記無人ロボット車両の前記目的地を決定するステップは、前記ユーザによって選択された前記機器の物理的位置の近くの安全なホバリング点を決定するステップを含む、請求項1に記載の方法。   The method of claim 1, wherein determining the destination of the unmanned robotic vehicle in the process plant comprises determining a safe hovering point near a physical location of the equipment selected by the user. the method of. 現在位置から前記目的地まで移動するように前記無人ロボット車両を制御するステップは、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地までの安全なルートを識別するステップと、
前記搭載コンピューティングデバイスによって、前記安全なルートを通って前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地まで移動するように前記無人ロボット車両を制御するステップと
を含む、請求項1に記載の方法。
Controlling the unmanned robot vehicle to move from the current position to the destination,
Identifying a safe route from the current location within the process plant to the destination within the process plant by the on-board computing device associated with the unmanned robotic vehicle;
Controlling the unmanned robotic vehicle by the on-board computing device to travel through the secure route from the current location within the process plant to the destination within the process plant. The method according to 1.
前記プロセスプラントの前記概観と並べて前記カメラデータを表示するステップは、前記プロセスプラントの前記概観と並べられた前記カメラデータに基づいてライブビデオフィードを表示するステップを含む、請求項1に記載の方法。   The method of claim 1, wherein displaying the camera data alongside the overview of the process plant comprises displaying a live video feed based on the camera data alongside the overview of the process plant. . 前記ユーザ・インターフェース・デバイスによって、前記プロセスプラントの前記概観内の前記機器に対する前記プロセスプラント内の前記無人ロボット車両の物理的位置の表現を表示するステップをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising displaying, by the user interface device, a representation of a physical location of the unmanned robotic vehicle in the process plant with respect to the equipment in the overview of the process plant. 前記無人ロボット車両の1つまたは複数のカメラによってカメラデータを取り込むステップは、前記無人ロボット車両の1つまたは複数の赤外線カメラデータによって赤外線カメラデータを取り込むステップを含む、請求項1に記載の方法。   The method of claim 1, wherein capturing camera data with one or more cameras of the unmanned robotic vehicle comprises capturing infrared camera data with one or more infrared camera data of the unmanned robotic vehicle. 前記無人ロボット車両の1つまたは複数のセンサによってセンサデータを取り込むステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ・インターフェース・デバイスに前記センサデータを伝送するステップと、
前記ユーザ・インターフェース・デバイスによって、前記センサデータを表示するステップと
をさらに含む、請求項1に記載の方法。
Capturing sensor data by one or more sensors of the unmanned robotic vehicle;
Transmitting the sensor data to the user interface device by the on-board computing device associated with the unmanned robotic vehicle;
The method of claim 1, further comprising displaying the sensor data by the user interface device.
前記無人ロボット車両の1つまたは複数のセンサによってセンサデータを取り込むステップは、前記無人ロボット車両の位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、および/またはモーションセンサのうちの1つまたは複数のセンサからセンサデータを取り込むステップを含む、請求項7に記載の方法。   The step of capturing sensor data by one or more sensors of the unmanned robot vehicle comprises one of a position sensor, a temperature sensor, a flame sensor, a gas sensor, a wind sensor, an accelerometer, and / or a motion sensor of the unmanned robot vehicle. The method of claim 7, including the step of capturing sensor data from one or more sensors. 前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記プロセスプラント内の状態の指示を識別するために、前記カメラデータおよび/または前記センサデータを分析するステップをさらに含む、請求項7に記載の方法。   8. The method of claim 7, further comprising analyzing the camera data and / or the sensor data to identify an indication of a condition in the process plant by the on-board computing device associated with the unmanned robot vehicle. The method described. 前記状態は、過熱状態、火災状態、煙状態、漏出状態、蒸気状態、溜り水または滴下水の状態、弁の状態、または前記プロセスプラント内の動きの状態のうちの1つまたは複数の状態である、請求項8に記載の方法。   The condition may be one or more of overheated, fired, smoked, leaked, steamed, pooled or drip, valved, or in motion within the process plant. The method of claim 8, wherein the method is: ユーザ・インターフェース・デバイスによって、前記無人ロボット車両によって作動される必要がある前記プロセスプラント内のスイッチのユーザ選択の指示を受信するステップと、
前記搭載コンピューティングデバイスによって、前記プロセスプラント内の前記スイッチを作動させるように前記無人ロボット車両のロボットアームを制御するステップと
をさらに含む、請求項1に記載の方法。
Receiving, by a user interface device, user-selected instructions for switches in the process plant that need to be actuated by the unmanned robotic vehicle;
Controlling the robot arm of the unmanned robotic vehicle by the on-board computing device to actuate the switch in the process plant.
前記搭載コンピューティングデバイスによって、前記プロセスプラント内のサンプルを採取するように前記無人ロボット車両のロボットアームを制御するステップをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising controlling, by the on-board computing device, a robot arm of the unmanned robot vehicle to take a sample in the process plant. 1つまたは複数のカメラが装備された無人ロボット車両と通信するように構成されたユーザ・インターフェース・デバイスであって、
ディスプレイと、
1つまたは複数のプロセッサと、
1つまたは複数のメモリであって、前記1つまたは複数のプロセッサによって実行されたときに、前記ユーザ・インターフェース・デバイスに、
前記無人ロボット車両の搭載コンピューティングデバイスから、前記無人ロボット車両の前記1つまたは複数のカメラによって取り込まれたデータを受信させ、
前記無人ロボット車両の前記1つまたは複数のカメラによって取り込まれた前記データと並べて、前記プロセスプラント内の様々な機器の物理的位置の表現を示す前記プロセスプラントの概観を表示させ、
前記無人ロボット車両を配備する必要がある前記プロセスプラントの前記概観内の機器のユーザ選択を受信させ、
前記無人ロボット車両を配備する必要がある前記プロセスプラントの前記概観内の前記選択された機器を指示するコマンドを前記搭載コンピューティングデバイスに伝送させる、コンピュータ実行可能命令のセットを記憶するメモリと
を備える、ユーザ・インターフェース・デバイス。
A user interface device configured to communicate with an unmanned robotic vehicle equipped with one or more cameras, comprising:
Display,
One or more processors,
One or more memories, wherein the user interface device, when executed by the one or more processors, comprises:
Receiving data captured by the one or more cameras of the unmanned robotic vehicle from an onboard computing device of the unmanned robotic vehicle,
Aligning with the data captured by the one or more cameras of the unmanned robotic vehicle to display an overview of the process plant showing a representation of the physical location of various equipment within the process plant,
Receiving a user selection of equipment within the overview of the process plant that needs to deploy the unmanned robotic vehicle,
A memory storing a set of computer-executable instructions for transmitting to the on-board computing device a command indicating the selected equipment within the overview of the process plant in which the unmanned robot vehicle needs to be deployed. , User interface devices.
前記ユーザ・インターフェース・デバイスに前記無人ロボット車両の前記1つまたは複数のカメラによって取り込まれたデータを表示させる命令は、前記1つまたは複数のカメラによって取り込まれたデータに基づいてライブビデオフィードを表示する命令を含む、請求項13に記載のユーザ・インターフェース・デバイス。   The instructions for causing the user interface device to display data captured by the one or more cameras of the unmanned robot vehicle display a live video feed based on the data captured by the one or more cameras. 14. The user interface device of claim 13, including instructions to: 前記ユーザ・インターフェース・デバイスに前記プロセスプラントの前記概観を表示させる命令は、前記プロセスプラント内の前記概観内の前記機器に対する前記プロセスプラント内の前記無人ロボット車両の物理的位置の表現を表示する命令を含む、請求項13に記載のユーザ・インターフェース・デバイス。   The instructions for causing the user interface device to display the overview of the process plant are instructions for displaying a representation of a physical location of the unmanned robot vehicle within the process plant with respect to the equipment within the overview within the process plant. 14. The user interface device of claim 13, including: 前記命令はさらに、前記ユーザ・インターフェース・デバイスに前記無人ロボット車両の前記1つまたは複数のセンサによって取り込まれたセンサデータを表示させる、請求項13に記載のユーザ・インターフェース・デバイス。   14. The user interface device of claim 13, wherein the instructions further cause the user interface device to display sensor data captured by the one or more sensors of the unmanned robotic vehicle. 前記センサデータは、前記無人ロボット車両の位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、および/またはモーションセンサのうちの1つまたは複数のセンサによって取り込まれたデータを含む、請求項16に記載のユーザ・インターフェース・デバイス。   The sensor data includes data captured by one or more of a position sensor, temperature sensor, flame sensor, gas sensor, wind sensor, accelerometer, and / or motion sensor of the unmanned robot vehicle. Item 16. The user interface device according to item 16. 前記命令はさらに、前記ユーザ・インターフェース・デバイスに、
前記無人ロボット車両によって作動される必要がある前記プロセスプラント内のスイッチのユーザ選択の指示を受信させ、
前記無人ロボット車両によって作動される必要がある前記スイッチの選択を指示するコマンドを前記無人ロボット車の前記搭載コンピューティングデバイスに伝送させる、請求項13に記載のユーザ・インターフェース・デバイス。
The instructions further cause the user interface device to:
Receiving user-selected instructions for switches in the process plant that need to be actuated by the unmanned robotic vehicle,
14. The user interface device of claim 13, causing a command directing selection of the switch that needs to be activated by the unmanned robotic vehicle to be transmitted to the onboard computing device of the unmanned robotic vehicle.
無人ロボット車両であって、
前記無人ロボット車両がプロセスプラント内を移動するときに画像を取り込むように構成された1つまたは複数のカメラと、
1つまたは複数のプロセッサと、
1つまたは複数のメモリであって、前記1つまたは複数のプロセッサによって実行されたときに、前記無人ロボット車両に、
前記無人ロボット車両を配備する必要がある前記プロセスプラント内の機器を指示するコマンドを含むユーザ・インターフェース・デバイスからのコマンドを受信させ、
前記プロセスプラント内の前記機器の指示に基づいて、前記プロセスプラント内の目的地を決定させ、
前記プロセスプラント内の現在位置から前記プロセスプラント内の前記目的地まで移動させ、
前記1つまたは複数のカメラによって取り込まれた画像を前記ユーザ・インターフェース・デバイスへ伝送させる、メモリと
を備える、無人ロボット車両。
An unmanned robot vehicle,
One or more cameras configured to capture images as the unmanned robot vehicle travels within a process plant;
One or more processors,
One or more memories, the unmanned robot vehicle, when executed by the one or more processors,
Receiving a command from a user interface device including a command to instruct equipment in the process plant that the unmanned robot vehicle needs to be deployed,
Based on the instructions of the equipment in the process plant, to determine the destination in the process plant,
Moving from the current position in the process plant to the destination in the process plant,
An unmanned robotic vehicle, comprising: a memory that causes images captured by the one or more cameras to be transmitted to the user interface device.
前記無人ロボット車両に前記プロセスプラント内の前記機器の指示に基づいて前記プロセスプラント内の前記無人ロボット車両の前記目的地を決定させる命令は、前記無人ロボット車両に前記プロセスプラント内の前記機器の物理的位置の近くの安全なホバリング点を決定させる命令を含む、請求項19に記載の無人ロボット車両。   The instruction for causing the unmanned robot vehicle to determine the destination of the unmanned robot vehicle in the process plant based on an instruction of the equipment in the process plant is a physical instruction of the unmanned robot vehicle in the process plant. The unmanned robot vehicle of claim 19, including instructions for determining a safe hovering point near a physical location. 前記無人ロボット車両に前記現在位置から前記目的地まで移動させる命令は、前記無人ロボット車両に、
前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地までの安全なルートを識別させ、
前記安全なルートを通って前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地まで移動させる命令を含む、請求項19に記載の方法。
The command to move the unmanned robot vehicle from the current position to the destination is the unmanned robot vehicle,
Identifying a safe route from the current location within the process plant to the destination within the process plant,
20. The method of claim 19, including instructions for traveling through the secure route from the current location within the process plant to the destination within the process plant.
前記無人ロボット車両は、無人航空機である、請求項19に記載の無人ロボット車両。   The unmanned robot vehicle according to claim 19, wherein the unmanned robot vehicle is an unmanned aerial vehicle. 前記1つまたは複数のカメラは、1つまたは複数の赤外線カメラを含む、請求項19に記載の無人ロボット車両。   20. The unmanned robot vehicle of claim 19, wherein the one or more cameras include one or more infrared cameras. 前記無人ロボット車両が前記プロセスプラント内を移動するときにセンサデータを取り込むように構成された1つまたは複数のセンサをさらに含み、
前記命令はさらに、前記無人ロボット車両に、前記1つまたは複数のセンサによって取り込まれたセンサデータを前記ユーザ・インターフェース・デバイスに伝送させる、請求項19に記載の無人ロボット車両。
Further comprising one or more sensors configured to capture sensor data as the unmanned robotic vehicle moves through the process plant,
20. The unmanned robot vehicle of claim 19, wherein the instructions further cause the unmanned robot vehicle to transmit sensor data captured by the one or more sensors to the user interface device.
前記1つまたは複数のセンサは、位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、およびモーションセンサのうちの1つまたは複数のセンサを含む、請求項24に記載の無人ロボット車両。   25. The unmanned robot vehicle of claim 24, wherein the one or more sensors include one or more of a position sensor, a temperature sensor, a flame sensor, a gas sensor, a wind sensor, an accelerometer, and a motion sensor. . 前記命令はさらに、前記無人ロボット車両に、
前記プロセスプラント内の状態の指示を識別するために、1つまたは複数の前記カメラデータおよび前記センサデータを分析させる、請求項24に記載の無人ロボット車両。
The instructions further direct the unmanned robot vehicle to:
25. The unmanned robot vehicle of claim 24, having one or more of the camera data and the sensor data analyzed to identify an indication of a condition within the process plant.
前記状態は、過熱状態、火災状態、煙状態、漏出状態、蒸気状態、溜り水または滴下水の状態、弁の状態、または前記プロセスプラント内の動きの状態のうちの1つまたは複数の状態である、請求項26に記載の無人ロボット車両。   The condition may be one or more of overheated, fired, smoked, leaked, steamed, pooled or drip, valved, or in motion within the process plant. 27. The unmanned robot vehicle of claim 26. (i)前記プロセスプラント内のスイッチを作動させる、または(ii)前記プロセスプラント内のサンプルを採取するうちの一方または両方を実行するように構成されたロボットアームをさらに備える、請求項19に記載の無人ロボット車両。   20. The method of claim 19, further comprising a robot arm configured to (i) actuate a switch in the process plant, or (ii) perform one or both of taking samples in the process plant. Unmanned robot vehicle. 前記命令はさらに、前記無人ロボット車両に、
前記無人ロボット車両によって作動される必要がある前記プロセスプラント内のスイッチのユーザ選択の指示を受信させ、
前記プロセスプラント内の前記スイッチを作動させるように前記無人ロボット車両の前記ロボットアームを制御させる、請求項19に記載の無人ロボット車両。
The instructions further direct the unmanned robot vehicle to:
Receiving user-selected instructions for switches in the process plant that need to be actuated by the unmanned robotic vehicle,
The unmanned robot vehicle of claim 19, wherein the robot arm of the unmanned robot vehicle is controlled to activate the switch in the process plant.
JP2019177739A 2018-10-01 2019-09-27 Drone-enabled operator rounds Pending JP2020064623A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862739829P 2018-10-01 2018-10-01
US62/739,829 2018-10-01
US16/580,793 US11281200B2 (en) 2018-10-01 2019-09-24 Drone-enabled operator rounds
US16/580,793 2019-09-24

Publications (2)

Publication Number Publication Date
JP2020064623A true JP2020064623A (en) 2020-04-23
JP2020064623A5 JP2020064623A5 (en) 2022-09-09

Family

ID=69945748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019177739A Pending JP2020064623A (en) 2018-10-01 2019-09-27 Drone-enabled operator rounds

Country Status (2)

Country Link
JP (1) JP2020064623A (en)
CN (1) CN110968054A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114482885B (en) * 2022-01-25 2024-03-29 西南石油大学 Intelligent control system for pressure-controlled drilling

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682502B2 (en) * 2007-03-28 2014-03-25 Irobot Corporation Remote vehicle control system and method
US9845164B2 (en) * 2015-03-25 2017-12-19 Yokogawa Electric Corporation System and method of monitoring an industrial plant
US10310617B2 (en) * 2015-06-11 2019-06-04 Intel Corporation Drone controlling device and method
CN106339079A (en) * 2016-08-08 2017-01-18 清华大学深圳研究生院 Method and device for realizing virtual reality by using unmanned aerial vehicle based on computer vision
CN106325290A (en) * 2016-09-30 2017-01-11 北京奇虎科技有限公司 Monitoring system and device based on unmanned aerial vehicle
CN108268121A (en) * 2016-12-30 2018-07-10 昊翔电能运动科技(昆山)有限公司 Control method, control device and the control system of unmanned vehicle
KR101866239B1 (en) * 2017-05-30 2018-06-12 (주)이피에스이앤이 Method for Monitoring Water Quality Environment Using Drone
CN108132675B (en) * 2017-11-23 2020-02-21 东南大学 Autonomous path cruising and intelligent obstacle avoidance method for factory inspection unmanned aerial vehicle

Also Published As

Publication number Publication date
CN110968054A (en) 2020-04-07

Similar Documents

Publication Publication Date Title
US11281200B2 (en) Drone-enabled operator rounds
JP6768864B2 (en) Methods and devices for seamlessly communicating state between user interface devices in a mobile control room
US10535202B2 (en) Virtual reality and augmented reality for industrial automation
US10445944B2 (en) Augmented reality safety automation zone system and method
EP3318945B1 (en) Virtual reality and augmented reality for industrial automation
EP3076253B1 (en) Systems and methods for presenting an augmented reality
CN107643735A (en) Process control communication framework
JP2018073272A (en) Setting device and setting system for performing setting for a plurality of apparatuses
JP2020064623A (en) Drone-enabled operator rounds
WO2021168810A1 (en) Unmanned aerial vehicle control method and apparatus, and unmanned aerial vehicle
US20210191368A1 (en) Virtual job control

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213