JP7530166B2 - Drone-enabled operator patrols - Google Patents

Drone-enabled operator patrols Download PDF

Info

Publication number
JP7530166B2
JP7530166B2 JP2019177739A JP2019177739A JP7530166B2 JP 7530166 B2 JP7530166 B2 JP 7530166B2 JP 2019177739 A JP2019177739 A JP 2019177739A JP 2019177739 A JP2019177739 A JP 2019177739A JP 7530166 B2 JP7530166 B2 JP 7530166B2
Authority
JP
Japan
Prior art keywords
robotic vehicle
process plant
unmanned robotic
user interface
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019177739A
Other languages
Japanese (ja)
Other versions
JP2020064623A5 (en
JP2020064623A (en
Inventor
ロバート・ジー・ザ・サード・ハルグレン
クラウディオ・ファヤド
ギャリー・ケイ・ロー
マーク・ジェイ・ニクソン
Original Assignee
フィッシャー-ローズマウント システムズ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/580,793 external-priority patent/US11281200B2/en
Application filed by フィッシャー-ローズマウント システムズ,インコーポレイテッド filed Critical フィッシャー-ローズマウント システムズ,インコーポレイテッド
Publication of JP2020064623A publication Critical patent/JP2020064623A/en
Publication of JP2020064623A5 publication Critical patent/JP2020064623A5/ja
Application granted granted Critical
Publication of JP7530166B2 publication Critical patent/JP7530166B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4185Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication
    • G05B19/4186Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication by protocol, e.g. MAP, TOP
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4189Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system
    • G05B19/41895Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system using automatic guided vehicles [AGV]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/55UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use
    • B64U2101/57UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use for bringing emergency supplies to persons or animals in danger, e.g. ropes or life vests

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本開示は、全般的には、産業プロセスプラントおよびプロセス制御システムに関し、特に、ドローンを使用してプロセスプラントの状態を監視するシステムおよび方法に関する。 The present disclosure relates generally to industrial process plants and process control systems, and more particularly to systems and methods for monitoring the condition of a process plant using drones.

物理的な材料または製品を製造し、精製し、変換し、生成し、または生産するための化学プロセスプラント、石油プロセスプラント、または他のプロセスプラントで使用されるような分散プロセス制御システムは、典型的には、アナログバス、デジタルバス、もしくはアナログバス/デジタルバスの組み合わせ、または無線通信リンクもしくはネットワークを介して、1つまたは複数のフィールドデバイスに通信可能に結合された1つまたは複数のプロセスコントローラを含む。例えば、弁、弁ポジショナ、スイッチ、および伝送器(例えば、温度センサ、圧力センサ、レベルセンサおよび流量センサ)であり得るフィールドデバイスは、プロセス環境内に位置付けられ、一般に、弁の開閉、測定プロセスおよび/または環境パラメータ(温度または圧力など)のような物理的機能またはプロセス制御機能を実行して、プロセスプラントまたはシステム内で実行している1つまたは複数のプロセスを制御する。さらに、周知のFieldbusプロトコル準拠のフィールドデバイスのようなスマート・フィールド・デバイスはさらに、制御計算、警告機能、および一般にコントローラ内に実装される他の制御機能を実行し得る。典型的には、プラント環境内に位置付けられるプロセスコントローラは、フィールドデバイスによって作成されたプロセス測定値および/またはフィールドデバイスに関する他の情報を表す信号を受信し、例えば、プロセス制御決定を行う種々の制御モジュールを動作させるコントローラアプリケーションを実行し、受信情報に基づいて制御信号を生成し、HART(登録商標)、WirelessHART(登録商標)、およびFOUNDATION(登録商標)Fieldbusのフィールドデバイスのようなフィールドデバイス内で実行されている制御モジュールまたはブロックとの調整を行う。コントローラ内の制御モジュールは、通信回線またはリンク経由で制御信号をフィールドデバイスに送信して、プロセスプラントまたはシステムの少なくとも一部の動作を制御し、例えば、プラントまたはシステム内で動作する、または実行する1つまたは複数の工業プロセスの少なくとも一部を制御する。例えば、コントローラおよびフィールドデバイスは、プロセスプラントまたはシステムによって制御されているプロセスの少なくとも一部を制御する。一般に同様にプラント環境内に位置付けされるI/Oデバイスは、典型的には、コントローラと1つまたは複数のフィールドデバイスとの間に配置され、例えば、電気信号をデジタル値に、またデジタル値を電気信号に変換することによって、これらの間の通信を可能にする。本明細書内で使用される場合、フィールドデバイス、コントローラ、およびI/Oデバイスは、一般に「プロセス制御装置」と呼ばれ、一般に、プロセス制御システムまたはプラントのフィールド環境内に位置付けられる、配置される、または設置される。 Distributed process control systems, such as those used in chemical, petroleum, or other process plants for manufacturing, refining, converting, creating, or producing physical materials or products, typically include one or more process controllers communicatively coupled to one or more field devices via an analog bus, a digital bus, or a combination analog/digital bus, or a wireless communication link or network. The field devices, which may be, for example, valves, valve positioners, switches, and transmitters (e.g., temperature, pressure, level, and flow sensors), are positioned within the process environment and generally perform physical or process control functions, such as opening and closing valves, measuring process and/or environmental parameters (such as temperature or pressure), to control one or more processes running within the process plant or system. Additionally, smart field devices, such as well-known Fieldbus protocol-compliant field devices, may further perform control calculations, alarm functions, and other control functions typically implemented within a controller. Typically, a process controller located within a plant environment receives signals representative of process measurements made by field devices and/or other information regarding the field devices, executes a controller application that operates various control modules that make process control decisions, for example, generates control signals based on the received information, and coordinates with control modules or blocks executing within the field devices, such as HART®, WirelessHART®, and FOUNDATION® Fieldbus field devices. The control modules within the controller send control signals over communication lines or links to the field devices to control the operation of at least a portion of the process plant or system, for example, to control at least a portion of one or more industrial processes operating or executing within the plant or system. For example, the controller and the field devices control at least a portion of the processes being controlled by the process plant or system. I/O devices, also typically located within a plant environment, are typically disposed between the controller and one or more field devices and enable communication therebetween, for example, by converting electrical signals to digital values and digital values to electrical signals. As used herein, field devices, controllers, and I/O devices are generally referred to as "process control equipment" and are generally located, disposed, or installed within the field environment of a process control system or plant.

フィールドデバイスおよびコントローラからの情報は、通常、データハイウェイまたは通信ネットワーク経由で、例えば、オペレータワークステーション、パーソナルコンピュータもしくはコンピューティングデバイス、データヒストリアン、レポートジェネレータ、集中データベース、または典型的に、プラントのより過酷なフィールド環境から離れた制御室または他の場所(例えば、プロセスプラントのバックエンド環境)に配置される他の集中管理コンピューティングデバイスのような1つまたは複数の他のハードウェアデバイスで入手可能である。これらのハードウェアデバイスの各々は、典型的には、プロセスプラント全体またはプロセスプラントの一部にわたる集中デバイスである。これらのハードウェアデバイスは、例えば、オペレータがプロセスの制御および/またはプロセスプラントの操作に関する機能、例えば、プロセス制御ルーチンの設定の変更、コントローラまたはフィールドデバイス内の制御モジュールの動作の修正、プロセスの現在の状態の表示、フィールドデバイスおよびコントローラによって生成された警告の表示、要員のトレーニングまたはプロセス制御ソフトウェアの試験のためのプロセスの動作のシミュレーション、構成データベースの維持および更新などを実行することを可能にするアプリケーションを動作させる。ハードウェアデバイス、コントローラおよびフィールドデバイスによって利用されるデータハイウェイは、有線通信経路、無線通信経路、または有線通信経路と無線通信の組み合わせを含み得る。 Information from the field devices and controllers is typically available via a data highway or communication network to one or more other hardware devices, such as, for example, operator workstations, personal computers or computing devices, data historians, report generators, centralized databases, or other centralized computing devices that are typically located in a control room or other location (e.g., a back-end environment of a process plant) away from the plant's harsher field environment. Each of these hardware devices is typically a centralized device across the entire process plant or a portion of the process plant. These hardware devices operate applications that enable operators to perform functions related to the control of the process and/or operation of the process plant, such as changing settings of process control routines, modifying the operation of control modules in controllers or field devices, viewing the current state of the process, viewing alerts generated by field devices and controllers, simulating the operation of the process for training personnel or testing process control software, maintaining and updating configuration databases, etc. The data highway utilized by the hardware devices, controllers, and field devices may include wired communication paths, wireless communication paths, or a combination of wired and wireless communication paths.

一例として、Emerson Process Management社から販売されているDeltaV(商標)制御システムは、プロセスプラント内の様々な場所に位置付けられた種々のデバイス内に記憶され、異なるデバイスによって実行される複数のアプリケーションを含む。プロセス制御システムまたはプラントのバックエンド環境内の1つまたは複数のワークステーションまたはコンピューティングデバイス内に常駐する構成アプリケーションは、ユーザがプロセス制御モジュールを作成または変更して、データハイウェイ経由でこれらのプロセス制御モジュールを専用分散コントローラにダウンロードするのを可能にする。典型的には、これらの制御モジュールは、通信可能に相互接続された機能ブロックから成り、機能ブロックは、機能ブロックへの入力に基づいて制御スキーム内の機能を実行し、制御スキーム内の他の機能ブロックへの出力を生成するオブジェクト指向プログラミングプロトコル内のオブジェクトである。構成アプリケーションはさらに、構成設計者が、オペレータにデータを表示するために閲覧アプリケーションによって使用されるオペレータインターフェースを作成または変更できるようにし、オペレータがプロセス制御ルーチン内の設定(例えば、設定値)を変更するのを可能にする。各々の専用コントローラおよび、場合によっては、1つまたは複数のフィールドデバイスは、実際のプロセス制御機能を実装するために割り当てられダウンロードされた制御モジュールを動作させる個々のコントローラアプリケーションを記憶し、実行する。1つまたは複数のオペレータワークステーション上(またはオペレータワークステーションおよびデータハイウェイと通信接続された1つまたは複数のリモートコンピューティングデバイス上)で実行され得る閲覧アプリケーションは、データハイウェイ経由でコントローラアプリケーションからデータを受信し、このデータをプロセス制御システム設計者、オペレータ、またはユーザインターフェースを使用するユーザに表示し、オペレータビュー、エンジニアビュー、技術者ビューなど多数の異なるビューのうちのいずれかを提供し得る。データ・ヒストリアン・アプリケーションは、典型的には、データハイウェイ経由で提供されたデータの一部または全てを収集して蓄積するデータ・ヒストリアン・デバイス内に記憶され、データ・ヒストリアン・デバイスによって実行されるが、構成データベースアプリケーションは、現在のプロセス制御ルーチン構成およびそれに関連付けられたデータを記憶するためにデータハイウェイに接続されているさらに別のコンピュータ内で動作し得る。あるいは、構成データベースは、構成アプリケーションと同じワークステーション内に位置付けられ得る。 As an example, the DeltaV™ control system sold by Emerson Process Management includes multiple applications stored in and executed by various devices located at various locations within a process plant. Configuration applications residing in one or more workstations or computing devices within the back-end environment of the process control system or plant allow users to create or modify process control modules and download these process control modules to dedicated distributed controllers via a data highway. Typically, these control modules consist of communicatively interconnected function blocks, which are objects in an object-oriented programming protocol that perform functions within a control scheme based on inputs to the function blocks and generate outputs to other function blocks in the control scheme. The configuration application also allows the configuration designer to create or modify an operator interface used by a viewing application to display data to an operator and allows the operator to change settings (e.g., setpoints) within a process control routine. Each dedicated controller and, in some cases, one or more field devices, stores and executes an individual controller application that runs the assigned and downloaded control modules to implement the actual process control functions. A viewing application, which may be running on one or more operator workstations (or on one or more remote computing devices communicatively coupled to the operator workstations and the data highway), receives data from the controller application via the data highway and displays this data to a process control system designer, operator, or user using a user interface, and may provide any of a number of different views, such as an operator view, an engineer view, a technician view, etc. While the data historian application is typically stored in and executed by a data historian device that collects and accumulates some or all of the data provided via the data highway, a configuration database application may operate in yet another computer connected to the data highway to store the current process control routine configuration and data associated therewith. Alternatively, the configuration database may be located in the same workstation as the configuration application.

これらの閲覧アプリケーションは、現在では、プラントのフィールド環境から離れて位置付けされたオペレータワークステーションを介してオペレータに大量の情報を提供するが、オペレータは、一部のタイプの情報を取得するためには、依然としてプラントのフィールド環境に出向かなければならない。例えば、これらの閲覧アプリケーションはプラント内に位置決めされたカメラから取り込まれたライブ画像または静止画像を表示し得るが、これらのカメラは、典型的には、固定視野を有する。したがって、オペレータは、これらのカメラの視野から外れるプロセスプラントのイベントを調べるために、プラントのフィールド環境に入る必要があり得る。さらに、オペレータは、現在では、予定された巡回の間プロセスプラントのフィールド環境の中を歩いて、フィールド環境内で、プラントの状態を検査し、プラント内でアクションを実行するなどして、プラントの安全性チェックリストを完成させる。しかしながら、プロセスプラントのフィールド環境では、例えば、有害化学物質、高温、危険な機器、および/または大きな雑音のような危険な状態が高頻度で見られるために、オペレータがプロセスプラントのフィールド環境に物理的に入るのは安全でない場合が多い。 Although these viewing applications currently provide a large amount of information to operators via operator workstations located away from the plant's field environment, operators must still travel to the plant's field environment to obtain some types of information. For example, these viewing applications may display live or still images captured from cameras positioned within the plant, but these cameras typically have a fixed field of view. Thus, operators may need to enter the plant's field environment to examine process plant events that are outside the field of view of these cameras. Additionally, operators currently walk through the process plant's field environment during scheduled rounds to inspect plant conditions, perform actions within the plant, etc., complete plant safety checklists within the field environment. However, it is often unsafe for operators to physically enter the process plant's field environment due to the high frequency of hazardous conditions, such as, for example, hazardous chemicals, high temperatures, dangerous equipment, and/or loud noises, in the process plant's field environment.

カメラおよびセンサが装備された複数のドローンは、プロセスプラントの状態を監視するためにプロセスプラントのフィールド環境全体を移動するように構成され得る。一般に、ドローンは、無人ロボット車両である。いくつかの実施例では、ドローンは、空中ドローン(例えば、無人航空機または「UAV」)であるが、他の実施例では、ドローンは、地上ドローンもしくは水上ドローン、または空中、地上、ならびに/もしくは水上の機能の何らかの組み合わせを有するドローンである。
ドローンに関連付けられた搭載コンピューティングデバイスは、プロセスプラントのフィールド環境内を通るドローンの動きを制御する。さらに、搭載コンピューティングデバイスは、カメラおよび他のセンサとインターフェースし、ネットワークを介してユーザ・インターフェース・デバイス、コントローラ、サーバおよび/またはデータベースと通信する。例えば、搭載コンピューティングデバイスは、ユーザ・インターフェース・デバイスおよび/またはサーバからドローンコマンドを受信し得る、または1つまたは複数のデータベース内に記憶されているドローンコマンドにアクセスし得る。さらに、搭載コンピューティングデバイスは、カメラおよび/または他のセンサによって取り込まれたデータをUIデバイス、コントローラ、サーバなどに伝送し得る。したがって、ユーザ・インターフェース・デバイスは、ドローンカメラおよび/またはドローンセンサによって取り込まれたデータ(ライブビデオフィードを含む)をヒューマン・マシン・インターフェース(HMI)アプリケーション内でオペレータに対して表示し得る。
Multiple drones equipped with cameras and sensors can be configured to move throughout a process plant's field environment to monitor the conditions of the process plant. Generally, drones are unmanned robotic vehicles. In some examples, the drones are aerial drones (e.g., unmanned aerial vehicles or "UAVs"), while in other examples, the drones are terrestrial or water drones, or drones with some combination of aerial, terrestrial, and/or water capabilities.
An on-board computing device associated with the drone controls the movement of the drone through the field environment of the process plant. Additionally, the on-board computing device interfaces with cameras and other sensors and communicates with user interface devices, controllers, servers and/or databases over a network. For example, the on-board computing device may receive drone commands from the user interface devices and/or servers or access drone commands stored in one or more databases. Additionally, the on-board computing device may transmit data captured by the cameras and/or other sensors to a UI device, controller, server, etc. Thus, the user interface device may display data captured by the drone cameras and/or drone sensors (including live video feeds) to an operator within a human machine interface (HMI) application.

一態様では、1つの方法が提供される。該方法は、ユーザ・インターフェース・デバイスによって、無人ロボット車両を配備する必要があるユーザ・インターフェース・デバイスによって表示されたプロセスプラントの概観内の機器のユーザ選択の指示を受信するステップであって、プロセスプラントの概観はプロセスプラント内の様々な機器の物理的位置の表現を示す、前記受信ステップと、ユーザ・インターフェース・デバイスによって、ユーザ選択の指示を無人ロボット車両に関連付けられた搭載コンピューティングデバイスに伝送するステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、ユーザ選択の指示に基づいてプロセスプラント内の無人ロボット車両の目的地を決定するステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように無人ロボット車両を制御するステップと、無人ロボット車両の1つまたは複数のカメラによってカメラデータを取り込むステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、カメラデータをユーザ・インターフェース・デバイスに伝送するステップと、ユーザ・インターフェース・デバイスによって、プロセスプラントの概観と並べてカメラデータを表示するステップとを含む。 In one aspect, a method is provided. The method includes receiving, by a user interface device, an indication of a user selection of equipment within an overview of a process plant displayed by the user interface device to which the unmanned robotic vehicle should be deployed, the overview of the process plant showing a representation of the physical locations of various equipment within the process plant; transmitting, by the user interface device, the indication of the user selection to an on-board computing device associated with the unmanned robotic vehicle; determining, by the on-board computing device associated with the unmanned robotic vehicle, a destination of the unmanned robotic vehicle within the process plant based on the indication of the user selection; controlling, by the on-board computing device associated with the unmanned robotic vehicle, the unmanned robotic vehicle to move from a current location within the process plant to a destination within the process plant; capturing camera data by one or more cameras of the unmanned robotic vehicle; transmitting, by the on-board computing device associated with the unmanned robotic vehicle, the camera data to a user interface device; and displaying, by the user interface device, the camera data alongside the overview of the process plant.

別の態様では、ユーザ・インターフェース・デバイスが提供される。ユーザインターフェースは、1つまたは複数のカメラが装備された無人ロボット車両と通信するように構成されたユーザ・インターフェース・デバイスであって、ディスプレイと、1つまたは複数のプロセッサと、コンピュータ実行可能命令のセットを記憶する1つまたは複数のメモリとを備えるユーザ・インターフェース・デバイスを備える。コンピュータ実行可能命令は、1つまたは複数のプロセッサによって実行されたときに、ユーザ・インターフェース・デバイスに、無人ロボット車両の搭載コンピューティングデバイスから、無人ロボット車両の1つまたは複数のカメラによって取り込まれたデータを受信させ、無人ロボット車両の1つまたは複数のカメラによって取り込まれたデータと並べて、プロセスプラント内の様々な機器の物理的位置の表現を示すプロセスプラントの概観を表示させ、無人ロボット車両を配備する必要があるプロセスプラントの概観内の機器のオペレータ選択を受信させ、無人ロボット車両の搭載コンピューティングデバイスに、無人ロボット車両を配備する必要があるプロセスプラントの概観内の選択された機器を指示するコマンドを伝送させる。 In another aspect, a user interface device is provided. The user interface comprises a user interface device configured to communicate with an unmanned robotic vehicle equipped with one or more cameras, the user interface device comprising a display, one or more processors, and one or more memories storing a set of computer-executable instructions. The computer-executable instructions, when executed by the one or more processors, cause the user interface device to receive data captured by one or more cameras of the unmanned robotic vehicle from an on-board computing device of the unmanned robotic vehicle, display an overview of the process plant showing a representation of the physical location of various equipment within the process plant alongside the data captured by the one or more cameras of the unmanned robotic vehicle, receive an operator selection of equipment within the overview of the process plant to which the unmanned robotic vehicle should be deployed, and transmit a command to the on-board computing device of the unmanned robotic vehicle indicating the selected equipment within the overview of the process plant to which the unmanned robotic vehicle should be deployed.

さらに別の態様では、無人ロボット車両が提供される。無人ロボット車両は、無人ロボット車両がプロセスプラント内を移動するときに画像を取り込むように構成された1つまたは複数のカメラと、1つまたは複数のプロセッサと、コンピュータ実行可能命令のセットを記憶する1つまたは複数のメモリとを備える。コンピュータ実行可能命令は、1つまたは複数のプロセッサによって実行されたときに、無人ロボット車両に、無人ロボット車両を配備する必要があるプロセスプラント内の機器を指示するコマンドを含むユーザ・インターフェース・デバイスからのコマンドを受信させ、プロセスプラント内の機器の指示に基づいてプロセスプラント内の目的地を決定させ、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動させ、1つまたは複数のカメラによって取り込まれた画像をユーザ・インターフェース・デバイスに伝送させる。 In yet another aspect, an unmanned robotic vehicle is provided. The unmanned robotic vehicle comprises one or more cameras configured to capture images as the unmanned robotic vehicle moves through a process plant, one or more processors, and one or more memories storing a set of computer-executable instructions. The computer-executable instructions, when executed by the one or more processors, cause the unmanned robotic vehicle to receive commands from a user interface device including commands indicating an equipment within the process plant where the unmanned robotic vehicle should be deployed, determine a destination within the process plant based on the indication of the equipment within the process plant, move from a current location within the process plant to the destination within the process plant, and transmit images captured by the one or more cameras to the user interface device.

プロセスプラントの状態を監視するためにドローンが実装され、および/または含まれ得るプロセスプラントの一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a process plant in which drones may be implemented and/or included to monitor conditions in the process plant. ドローンに搭載されたコンピューティングデバイスの一例および図1に概略的に示されているユーザ・インターフェース・デバイスの一例のブロック図である。FIG. 2 is a block diagram of an example of a computing device onboard a drone and an example of a user interface device as shown generally in FIG. ドローンを使用してプロセスプラントの状態を監視するためのオペレータアプリケーションのユーザインターフェースの表示ビューの一例を示す図である。FIG. 1 illustrates an example of a display view of a user interface of an operator application for monitoring conditions in a process plant using drones. 無人ロボット車両を使用してプロセスプラントの状態を監視するための方法の一例のフロー図である。FIG. 1 is a flow diagram of an example of a method for monitoring conditions in a process plant using an unmanned robotic vehicle.

上述したように、閲覧アプリケーションは、現在では、プラントのフィールド環境から離れて位置付けされたオペレータワークステーションを介してオペレータに大量の情報を提供するが、オペレータは、一部のタイプの情報を取得するためには、依然としてプラントのフィールド環境に出向かなければならない。例えば、これらの閲覧アプリケーションはプラント内に位置決めされたカメラから取り込まれたライブ画像または静止画像を表示し得るが、これらのカメラは、典型的には、固定視野を有する。したがって、オペレータは、これらのカメラの視野から外れるプロセスプラントのイベントを調べるために、プラントのフィールド環境に入る必要があり得る。さらに、オペレータは、現在では、予定された巡回の間プロセスプラントのフィールド環境の中を歩いて、フィールド環境内で、プラントの状態を検査し、プラント内でアクションを実行するなどして、プラントの安全性チェックリストを完成させる。しかしながら、プロセスプラントのフィールド環境では、例えば、有害化学物質、高温、危険な機器、および/または大きな雑音のような危険な状態が高頻度で見られるために、オペレータがプロセスプラントのフィールド環境に物理的に入るのは安全でない場合が多い。 As discussed above, viewing applications currently provide a large amount of information to operators via operator workstations located away from the plant's field environment, but operators still must travel to the plant's field environment to obtain some types of information. For example, these viewing applications may display live or still images captured from cameras positioned within the plant, but these cameras typically have a fixed field of view. Thus, operators may need to enter the plant's field environment to examine process plant events that are outside the field of view of these cameras. Additionally, operators currently walk through the process plant's field environment during scheduled rounds to inspect plant conditions, perform actions within the plant, etc., complete plant safety checklists within the field environment. However, it is often unsafe for operators to physically enter the process plant's field environment due to the high frequency of hazardous conditions, such as, for example, hazardous chemicals, high temperatures, dangerous equipment, and/or loud noises, in the process plant's field environment.

本明細書に開示されているシステム、方法、デバイス、および技術は、オペレータがプロセスプラントの危険なフィールド環境に物理的に入らずにプロセスプラント内の状態を監視することができるようにすることによって、周知のシステムの上記の欠点および他の欠点に対処する。特に、ドローンを使用してプロセスプラントの状態を監視するためのシステム、方法、デバイス、および技術が本明細書内で開示されている。有利には、カメラおよび他のセンサが装備されたドローンは、危険過ぎてオペレータが入ることができないプロセスプラントの区域を安全に監視することができる。例えば、カメラおよび他のセンサによって取り込まれたデータは、ユーザ・インターフェース・デバイスに伝送され、フィールド環境の外側に安全に位置するオペレータに表示され得る。 The systems, methods, devices, and techniques disclosed herein address the above and other shortcomings of known systems by enabling an operator to monitor conditions within a process plant without physically entering the dangerous field environment of the process plant. In particular, systems, methods, devices, and techniques are disclosed herein for monitoring conditions in a process plant using drones. Advantageously, drones equipped with cameras and other sensors can safely monitor areas of a process plant that are too dangerous for an operator to enter. For example, data captured by the cameras and other sensors can be transmitted to a user interface device and displayed to an operator safely located outside the field environment.

図1は、本明細書に記載されているドローンを使用してプロセスプラントの状態を監視するためのシステム、方法、および技術の実施形態が共におよび/または内部で利用され得る、プロセス制御システムまたはプロセスプラント10内で動作する例示的なプロセス制御ネットワークまたはシステム2のブロック図である。プロセス制御ネットワークまたはシステム2は、様々な他のデバイス間の直接的または間接的な接続を提供するネットワークバックボーン5を含み得る。ネットワークバックボーン5に結合されたデバイスは、様々な実施形態では、1つまたは複数のアクセスポイント7a、(例えば、イントラネットまたは企業の広域ネットワークを介する)他のプロセスプラントへの1つまたは複数のゲートウェイ7b、外部システムへの(例えば、インターネットに対する)1つまたは複数のゲートウェイ7c、固定のコンピューティングデバイス(例えば、従来のオペレータワークステーション)またはモバイル・コンピューティング・デバイス(例えば、モバイル機器スマートフォン)であり得る1つまたは複数のユーザインターフェース(UI)デバイス8、1つまたは複数のサーバ12(例えば、クラウド・コンピューティング・システムのようなサーババンク、または別の適切な構成として実装され得る)、コントローラ11、入出力(I/O)カード26、28、有線フィールドデバイス15~22、無線ゲートウェイ35、および無線通信ネットワーク70の組み合わせを含む。通信ネットワーク70は、無線フィールドデバイス40~46と、無線アダプタ52a、52bと、アクセスポイント55a、55bと、ルータ58とを含む無線デバイスを含み得る。無線アダプタ52a、52bは、非無線フィールドデバイス48、50にそれぞれ接続され得る。コントローラ11は、プロセッサ30と、メモリ32と、1つまたは複数の制御ルーチン38とを含み得る。図1は、ネットワークバックボーン5に直接および/または通信可能に接続されるデバイスのいくつかのうちの1つのみを示しているが、当然のことながら、デバイスの各々はネットワークバックボーン5上に複数のインスタンスを有し得、実際に、プロセスプラント10は複数のネットワークバックボーン5を含み得る。 1 is a block diagram of an exemplary process control network or system 2 operating within a process control system or process plant 10 with and/or within which embodiments of the systems, methods, and techniques for monitoring process plant conditions using drones described herein may be utilized. The process control network or system 2 may include a network backbone 5 that provides direct or indirect connectivity between various other devices. The devices coupled to the network backbone 5, in various embodiments, include one or more access points 7a, one or more gateways 7b to other process plants (e.g., via an intranet or enterprise wide area network), one or more gateways 7c to external systems (e.g., to the Internet), one or more user interface (UI) devices 8, which may be fixed computing devices (e.g., traditional operator workstations) or mobile computing devices (e.g., mobile device smartphones), one or more servers 12 (which may be implemented, for example, as a server bank, such as a cloud computing system, or another suitable configuration), a controller 11, input/output (I/O) cards 26, 28, wired field devices 15-22, a wireless gateway 35, and a wireless communication network 70 in combination. The communication network 70 may include wireless devices including wireless field devices 40-46, wireless adapters 52a, 52b, access points 55a, 55b, and a router 58. The wireless adapters 52a, 52b may be connected to non-wireless field devices 48, 50, respectively. The controller 11 may include a processor 30, a memory 32, and one or more control routines 38. Although FIG. 1 shows only one of several devices directly and/or communicatively connected to the network backbone 5, it should be understood that each of the devices may have multiple instances on the network backbone 5, and in fact the process plant 10 may include multiple network backbones 5.

UIデバイス8は、ネットワークバックボーン5を介してコントローラ11および無線ゲートウェイ35に通信可能に接続され得る。コントローラ11は、入出力(I/O)カード26、28を介して有線フィールドデバイス15~22に通信可能に接続され得、ネットワークバックボーン5および無線ゲートウェイ35を介して無線フィールドデバイス40~46に通信可能に接続され得る。コントローラ11は、フィールドデバイス15~22、40~50の少なくともいくつかを使用してバッチプロセスまたは連続プロセスを実装するように動作し得る。コントローラ11(例として、Emerson社から販売されているDeltaV(商標)コントローラであり得る)は、プロセス制御ネットワークバックボーン5に通信可能に接続される。コントローラ11はさらに、例えば、標準4~20mAのデバイス、I/Oカード26、28、および/または任意のスマート通信プロトコル(例えば、FOUNDATION(登録商標)Fieldbusプロトコル、HART(登録商標)プロトコル、WirelessHART(登録商標)プロトコルなど)に関連付けられた任意の所望のハードウェアおよびソフトウェアを使用して、フィールドデバイス15~22、40~50に通信可能に接続され得る。図1に示されている実施形態では、コントローラ11、フィールドデバイス15~22、48、50、およびI/Oカード26、28は、有線デバイスであり、フィールドデバイス40~46は無線フィールドデバイスである。 The UI device 8 may be communicatively connected to the controller 11 and the wireless gateway 35 via the network backbone 5. The controller 11 may be communicatively connected to the wired field devices 15-22 via the input/output (I/O) cards 26, 28, and to the wireless field devices 40-46 via the network backbone 5 and the wireless gateway 35. The controller 11 may operate to implement a batch or continuous process using at least some of the field devices 15-22, 40-50. The controller 11 (which may be, by way of example, a DeltaV™ controller available from Emerson) is communicatively connected to the process control network backbone 5. The controller 11 may further be communicatively connected to the field devices 15-22, 40-50 using, for example, any desired hardware and software associated with standard 4-20 mA devices, I/O cards 26, 28, and/or any smart communication protocol (e.g., FOUNDATION® Fieldbus protocol, HART® protocol, WirelessHART® protocol, etc.). In the embodiment shown in FIG. 1, the controller 11, the field devices 15-22, 48, 50, and the I/O cards 26, 28 are wired devices and the field devices 40-46 are wireless field devices.

UIデバイス8の動作時に、いくつかの実施形態では、UIデバイス8は、ユーザインターフェース(「UI」)を実行し、UIデバイス8が入力インターフェースを介して入力を受け入れ、ディスプレイで出力を行うことができるようにする。UIデバイス8は、サーバ12から、データ(例えば、プロセスパラメータ、ログデータ、および/または取り込まれ記憶され得る任意の他のデータのようなプロセス関連データ)を受信し得る。他の実施形態では、UIは、サーバ12において、全てまたは一部が実行され得、サーバ12は、UIデバイス8に表示データを伝送し得る。UIデバイス8は、コントローラ11、無線ゲートウェイ35、および/またはサーバ12のようなプロセス制御ネットワークまたはシステム2内の他のノードから、バックボーン5を介して、UIデータ(表示データおよびプロセスパラメータデータを含み得る)を受信し得る。UIデバイス8で受信されたUIデータに基づいて、UIデバイス8は、プロセス制御ネットワークまたはシステム2に関連付けられたプロセスの態様を表す出力(すなわち、視覚的表現またはグラフィック、この一部はランタイム中に更新され得る)を行う。ユーザはさらに、UIデバイス8で入力を行うことによってプロセスの制御に影響を与え得る。図で説明するために、UIデバイス8は、例えば、タンク充填プロセスを表すグラフィックを提供し得る。このようなシナリオでは、ユーザは、タンクレベル測定値を読み取って、タンクを充填する必要があることを判断し得る。ユーザは、UIデバイス8で表示された入口弁のグラフィックと対話して、入口弁を開放させるコマンドを入力し得る。 During operation of the UI device 8, in some embodiments, the UI device 8 executes a user interface ("UI") that enables the UI device 8 to accept input via the input interface and provide output on the display. The UI device 8 may receive data (e.g., process related data such as process parameters, log data, and/or any other data that may be captured and stored) from the server 12. In other embodiments, the UI may be executed in whole or in part on the server 12, which may transmit display data to the UI device 8. The UI device 8 may receive UI data (which may include display data and process parameter data) from other nodes in the process control network or system 2, such as the controller 11, the wireless gateway 35, and/or the server 12, via the backbone 5. Based on the UI data received at the UI device 8, the UI device 8 provides output (i.e., a visual representation or graphic, some of which may be updated during run-time) that represents aspects of the process associated with the process control network or system 2. A user may further affect the control of the process by providing input at the UI device 8. To illustrate, the UI device 8 may, for example, provide a graphic depicting a tank filling process. In such a scenario, a user may read a tank level measurement and determine that the tank needs to be filled. The user may interact with a graphic of an inlet valve displayed on the UI device 8 to input a command to cause the inlet valve to open.

特定の実施形態では、UIデバイス8は、シンクライアント、ウェブクライアント、またはシッククライアントのような任意のタイプクライアントを実装し得る。例えば、UIデバイス8は、UIデバイスのメモリ、バッテリパワーなどが制限されている場合(例えば、ウエアラブルデバイスにおいて)に該当し得るように、UIデバイス8の動作に必要な処理の大部分を他のノード、コンピュータ、UIデバイス、またはサーバに依存し得る。このような実施例において、UIデバイス8は、サーバ12または別のUIデバイスと通信し得、サーバ12または他のUIデバイスは、プロセス制御ネットワークまたはシステム2上の1つまたは複数の他のノード(例えば、サーバ)と通信し、UIデバイス8に伝送するための表示データおよび/またはプロセスデータを決定し得る。さらに、UIデバイス8は、受信されたユーザ入力に関連する任意のデータをサーバ12に渡すことができるので、サーバ12は、ユーザ入力に関連するデータを処理し、それに応じて動作することができる。すなわち、UIデバイス8は、グラフィックをレンダリングし、データを記憶してUIデバイス8の動作に必要なルーチンを実行する1つまたは複数のノードまたはサーバに対するポータルとしての役割を果たすだけであり得る。シンクライアントUIデバイスは、UIデバイス8に対する最小限のハードウェア要件の利点を提供する。 In certain embodiments, the UI device 8 may implement any type of client, such as a thin client, a web client, or a thick client. For example, the UI device 8 may rely on other nodes, computers, UI devices, or servers for most of the processing required for the operation of the UI device 8, as may be the case when the UI device has limited memory, battery power, etc. (e.g., in a wearable device). In such an example, the UI device 8 may communicate with the server 12 or another UI device, which may communicate with one or more other nodes (e.g., servers) on the process control network or system 2 to determine display data and/or process data for transmission to the UI device 8. Additionally, the UI device 8 may pass any data associated with received user input to the server 12, so that the server 12 can process the data associated with the user input and act accordingly. That is, the UI device 8 may simply act as a portal to one or more nodes or servers that render graphics, store data, and perform routines required for the operation of the UI device 8. A thin client UI device offers the advantage of minimal hardware requirements for the UI device 8.

他の実施形態では、UIデバイス8は、ウェブクライアントであり得る。このような実施形態では、UIデバイス8のユーザは、UIデバイス8においてブラウザを介してプロセス制御システムと対話し得る。ブラウザにより、ユーザは、バックボーン5を介して別のノードまたはサーバ12(例えば、サーバ12)におけるデータおよびリソースにアクセスすることができる。例えば、ブラウザはサーバ12から表示データまたはプロセスパラメータデータのようなUIデータを受信し、そのことにより、ブラウザはプロセスの一部または全てを制御し、および/または監視するためにグラフィックを表示することができる。ブラウザはさらに、ユーザ入力(例えば、グラフィック上のマウスクリック)を受信し得る。ユーザ入力は、ブラウザにサーバ12上に記憶されている情報リソースを取り出させる、またはアクセスさせ得る。例えば、マウスクリックは、ブラウザに、クリックされたグラフィックに関する情報を(サーバ12から)取り出させて表示させ得る。さらに他の実施形態では、UIデバイス8の処理の大部分は、UIデバイス8において行われ得る。例えば、UIデバイス8は、上述のUIを実行し得る。UIデバイス8はさらに、ローカルでデータを記憶し、データにアクセスし、データを分析し得る。 In other embodiments, the UI device 8 may be a web client. In such an embodiment, a user of the UI device 8 may interact with the process control system through a browser on the UI device 8. The browser allows the user to access data and resources at another node or server 12 (e.g., server 12) via the backbone 5. For example, the browser may receive UI data, such as display data or process parameter data, from the server 12, which may allow the browser to display graphics to control and/or monitor some or all of the process. The browser may also receive user input (e.g., a mouse click on a graphic). The user input may cause the browser to retrieve or access information resources stored on the server 12. For example, a mouse click may cause the browser to retrieve and display information (from the server 12) about the clicked graphic. In yet other embodiments, the majority of the processing of the UI device 8 may occur in the UI device 8. For example, the UI device 8 may execute the UI described above. The UI device 8 may also store, access, and analyze data locally.

動作時に、ユーザは、プロセス制御ネットワークまたはシステム2内の1つまたは複数のデバイス(例えば、フィールドデバイス15~22またはデバイス40~50のいずれか)を監視するまたは制御するために、UIデバイス8と対話し得る。さらに、ユーザは、例えば、コントローラ11内に記憶されている制御ルーチンに関連付けられたパラメータを修正するまたは変更するために、UIデバイス8と対話し得る。プロセスコントローラ11のプロセッサ30は、制御ループを含み得る1つまたは複数のプロセス制御ルーチン(メモリ32内に記憶されている)を実装する、または監視する。プロセッサ30は、フィールドデバイス15~22、40~50と通信し、さらにバックボーン5に通信可能に接続されている他のノードと通信し得る。本明細書内に記載されている任意の制御ルーチンまたはモジュール(品質予測モジュールおよび障害検出モジュールまたは機能ブロックを含む)の一部は、望ましい場合には、異なるコントローラまたは他のデバイスによって実装され得るまたは実行され得ることに留意されたい。同様に、プロセス制御システム内に実装すべき本明細書に記載されている制御ルーチンまたはモジュールは、ソフトウェア、ファームウェア、ハードウェアなどの任意の形態を取り得る。制御ルーチンは、例えば、オブジェクト指向プログラミング、ラダー・ロジック、シーケンシャル・ファンクション・チャート、機能ブロック図を使用する、または任意の他のソフトウェアプログラミング言語もしくは設計パラダイムを使用するような任意の所望のソフトウェアフォーマットで実装され得る。特に、制御ルーチンは、UIデバイス8を介してユーザによって定義され、実装され得る。制御ルーチンは、コントローラ11のランダム・アクセス・メモリ(RAM)またはリード・オンリ・メモリ(ROM)のような任意の所望のタイプのメモリに記憶され得る。同様に、制御ルーチンは、例えば、1つまたは複数のEPROM、EEPROM、特定用途向け集積回路(ASIC)、またはコントローラ11の任意の他のハードウェアもしくはファームウェア要素にハードコードされ得る。このように、コントローラ11は、任意の所望の方法で制御ストラテジまたは制御ルーチンを実装する(例えば、受信する、記憶する、および/または実行する)ように(特定の実施形態ではUIデバイス8を使用してユーザによって)構成され得る。 In operation, a user may interact with the UI device 8 to monitor or control one or more devices (e.g., any of the field devices 15-22 or devices 40-50) in the process control network or system 2. Additionally, a user may interact with the UI device 8 to, for example, modify or change parameters associated with a control routine stored in the controller 11. The processor 30 of the process controller 11 implements or monitors one or more process control routines (stored in the memory 32), which may include a control loop. The processor 30 communicates with the field devices 15-22, 40-50, and may further communicate with other nodes communicatively connected to the backbone 5. It should be noted that some of the control routines or modules described herein (including the quality prediction module and the fault detection module or function block) may be implemented or executed by different controllers or other devices, if desired. Similarly, the control routines or modules described herein to be implemented in the process control system may take any form, such as software, firmware, hardware, etc. The control routines may be implemented in any desired software format, such as, for example, using object-oriented programming, ladder logic, sequential function charts, functional block diagrams, or using any other software programming language or design paradigm. In particular, the control routines may be defined and implemented by a user via the UI device 8. The control routines may be stored in any desired type of memory, such as a random access memory (RAM) or a read-only memory (ROM) of the controller 11. Similarly, the control routines may be hard-coded, for example, in one or more EPROMs, EEPROMs, application specific integrated circuits (ASICs), or any other hardware or firmware elements of the controller 11. In this manner, the controller 11 may be configured (by a user, in certain embodiments using the UI device 8) to implement (e.g., receive, store, and/or execute) a control strategy or control routine in any desired manner.

UIデバイス8のいくつかの実施形態では、ユーザは、一般に機能ブロックと呼ばれるものを使用してコントローラ11において制御ストラテジを定義して実装するためにUIデバイス8と対話し得、この場合、各々の機能ブロックは、オブジェクトまたは制御ルーチン全体の他の部分(例えば、サブルーチン)であり、プロセス制御システム内のプロセス制御ループを実装するために、(リンクと呼ばれる通信を介して)他の機能ブロックと共に動作する。制御ベースの機能ブロックは、典型的には、プロセス制御システム内のいくつかの物理的機能を実行するために、入力機能(例えば、伝送器、センサまたは他のプロセスパラメータ測定デバイスに関連付けられた入力機能)、制御機能(例えば、PID、ファジー論理などの制御を実行する制御ルーチンに関連付けられた制御機能)、またはいくつかの装置(例えば、弁)の動作を制御する出力機能のうちの1つを実行する。当然、混合タイプおよび他のタイプの機能ブロックも存在する。機能ブロックは、UIデバイス8で提供されるグラフィック表現を有し得るので、ユーザは、機能ブロックのタイプ、機能ブロック間の接続、およびプロセス制御システム内で実装されている機能ブロックの各々に関連付けられた入出力を容易に修正することができる。機能ブロックは、典型的には、機能ブロックが標準4~20mAデバイスおよび一部のタイプのスマート・フィールド・デバイス(例えば、HARTデバイス)に使用される、または関連付けられる場合に、これらの機能ブロックは、コントローラ11にダウンロードされ、コントローラ11内に記憶され、コントローラ11によって実行され得る、または機能ブロックがFieldbusデバイスに関連付けられる場合に、これらの機能ブロックは、フィールドデバイス自身に記憶され、フィールドデバイス自身によって実装され得る。コントローラ11は、1つまたは複数の制御ループを実装し得る1つまたは複数の制御ルーチン38を含み得る。各々の制御ループは、一般的には、制御モジュールと呼ばれ、機能ブロックの1つまたは複数を実行することによって実施され得る。 In some embodiments of the UI device 8, a user may interact with the UI device 8 to define and implement control strategies in the controller 11 using what are generally referred to as function blocks, where each function block is an object or other part of an overall control routine (e.g., a subroutine) that operates with other function blocks (through communications called links) to implement a process control loop in the process control system. A control-based function block typically performs one of the following functions: an input function (e.g., an input function associated with a transmitter, sensor or other process parameter measurement device), a control function (e.g., a control function associated with a control routine that performs control such as PID, fuzzy logic, etc.), or an output function that controls the operation of some device (e.g., a valve) to perform some physical function in the process control system. Of course, mixed and other types of function blocks also exist. The function blocks may have a graphical representation provided in the UI device 8 so that a user can easily modify the type of function block, the connections between the function blocks, and the inputs and outputs associated with each of the function blocks implemented in the process control system. The function blocks may be downloaded to, stored in, and executed by the controller 11, typically when the function blocks are used with or associated with standard 4-20 mA devices and some types of smart field devices (e.g., HART devices), or may be stored in and implemented by the field device itself when the function blocks are associated with Fieldbus devices. The controller 11 may include one or more control routines 38 that may implement one or more control loops. Each control loop, generally referred to as a control module, may be implemented by executing one or more of the function blocks.

図1をさらに参照すると、無線フィールドデバイス40~46は、Wireless HARTプロトコルのような無線プロトコルを使用して、無線ネットワーク70内で通信する。特定の実施形態では、UIデバイス8は、無線ネットワーク70を使用して無線フィールドデバイス40~46と通信することが可能であり得る。このような無線フィールドデバイス40~46は、(例えば、無線プロトコルを使用して)同様に無線で通信するように構成されたプロセス制御ネットワークまたはシステム2の1つまたは複数の他のノードと直接通信し得る。無線フィールドデバイス40~46は、無線で通信するように構成されていない1つまたは複数の他のノードと通信するために、バックボーン5に接続されている無線ゲートウェイ35を利用し得る。当然、フィールドデバイス15~22、40~46は、将来開発される任意の標準またはプロトコルを含む任意の有線または無線プロトコルのような任意の他の所望の標準(単数または複数)またはプロトコルに準拠し得る。 With further reference to FIG. 1, the wireless field devices 40-46 communicate within the wireless network 70 using a wireless protocol such as the Wireless HART protocol. In certain embodiments, the UI device 8 may be capable of communicating with the wireless field devices 40-46 using the wireless network 70. Such wireless field devices 40-46 may communicate directly with one or more other nodes of the process control network or system 2 that are also configured to communicate wirelessly (e.g., using a wireless protocol). The wireless field devices 40-46 may utilize a wireless gateway 35 connected to the backbone 5 to communicate with one or more other nodes that are not configured to communicate wirelessly. Of course, the field devices 15-22, 40-46 may conform to any other desired standard(s) or protocol, such as any wired or wireless protocol, including any standard or protocol developed in the future.

無線ゲートウェイ35は、無線通信ネットワーク70の様々な無線デバイスまたはノード40~46、52~58へのアクセスを提供し得る。特に、無線ゲートウェイ35は、無線デバイス40~46、52~58とプロセス制御ネットワークまたはシステム2の他のノード(図1のコントローラ11を含む)との間の通信接続を提供する。無線ゲートウェイ35は、場合によっては、ルーティングサービス、バッファリングサービス、およびタイミングサービスによって、有線および無線プロトコルスタックの下層(例えば、アドレス変換、ルーティング、パケット分割、優先順位付けなど)に対する通信接続を提供し、一実装例では、有線および無線プロトコルスタックの共有層(単数または複数)をトンネリングする。別の場合では、無線ゲートウェイ35は、いずれのプロトコル層も共有しない有線プロトコルと無線プロトコルとの間でコマンドを翻訳し得る。 The wireless gateway 35 may provide access to various wireless devices or nodes 40-46, 52-58 of the wireless communication network 70. In particular, the wireless gateway 35 provides communication connections between the wireless devices 40-46, 52-58 and other nodes of the process control network or system 2 (including the controller 11 of FIG. 1). The wireless gateway 35 provides communication connections to lower layers of the wired and wireless protocol stacks (e.g., address translation, routing, packet splitting, prioritization, etc.) in some cases through routing, buffering, and timing services, and in one implementation tunnels through a shared layer(s) of the wired and wireless protocol stacks. In other cases, the wireless gateway 35 may translate commands between wired and wireless protocols that do not share any protocol layers.

有線フィールドデバイス15~22と同様に、無線ネットワーク70の無線フィールドデバイス40~46は、プロセスプラント10内の物理的制御機能(例えば、弁の開閉、またはプロセスパラメータの測定)を実行し得る。しかしながら、無線フィールドデバイス40~46は、ネットワーク70の無線プロトコルを使用して通信するように構成される。したがって、無線フィールドデバイス40~46、無線ゲートウェイ35、および無線ネットワーク70の他の無線ノード52~58は、無線通信パケットのプロデューサでありコンシューマである。 Like the wired field devices 15-22, the wireless field devices 40-46 of the wireless network 70 may perform physical control functions within the process plant 10 (e.g., opening and closing a valve or measuring a process parameter). However, the wireless field devices 40-46 are configured to communicate using the wireless protocol of the network 70. Thus, the wireless field devices 40-46, the wireless gateway 35, and the other wireless nodes 52-58 of the wireless network 70 are producers and consumers of wireless communication packets.

いくつかのシナリオでは、無線ネットワーク70は、有線デバイスであり得る非無線デバイス48、50を含み得る。例えば、図1のフィールドデバイス48は、レガシー4~20mAデバイスであり得、フィールドデバイス50は、従来の有線HARTデバイスであり得る。フィールドデバイス48、50は、ネットワーク70内で通信するために、個々の無線アダプタ(WA)52a、52bを介して無線通信ネットワーク70に接続され得る。さらに、無線アダプタ52a、52bは、Foundation(登録商標)Fieldbus、PROFIBUS、DeviceNetなどのような他の通信プロトコルもサポートし得る。さらに、無線ネットワーク70は、無線ゲートウェイ35と有線通信している別個の物理的デバイスであり得る、または一体型デバイスとして無線ゲートウェイ35と共に配設され得る、1つまたは複数のネットワーク・アクセス・ポイント55a、55bを含み得る。無線ネットワーク70はさらに、無線通信ネットワーク70内の1つの無線デバイスから別の無線デバイスへパケットを転送するための1つまたは複数のルータ58を含み得る。無線デバイス40~46、52~58は、無線通信ネットワーク70の無線リンク60経由で、互いに通信し、無線ゲートウェイ35と通信し得る。 In some scenarios, the wireless network 70 may include non-wireless devices 48, 50 that may be wired devices. For example, the field device 48 in FIG. 1 may be a legacy 4-20 mA device, and the field device 50 may be a conventional wired HART device. The field devices 48, 50 may be connected to the wireless communication network 70 via individual wireless adapters (WA) 52a, 52b to communicate within the network 70. In addition, the wireless adapters 52a, 52b may also support other communication protocols such as Foundation® Fieldbus, PROFIBUS, DeviceNet, etc. In addition, the wireless network 70 may include one or more network access points 55a, 55b that may be separate physical devices in wired communication with the wireless gateway 35 or may be disposed with the wireless gateway 35 as an integrated device. The wireless network 70 may further include one or more routers 58 for forwarding packets from one wireless device to another in the wireless communication network 70. The wireless devices 40-46, 52-58 may communicate with each other and with the wireless gateway 35 via wireless links 60 of the wireless communication network 70.

特定の実施形態では、プロセス制御ネットワークまたはシステム2は、他の無線プロトコルを使用して通信するネットワークバックボーン5に接続された他のノードを含み得る。例えば、プロセス制御ネットワークまたはシステム2は、例えば、Wi-Fiもしくは他のIEEE802.11準拠無線ローカルエリア・ネットワーク・プロトコル、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)もしくは他のITU-R(国際電気通信連合無線通信部門:International Telecommunication Union Radiocommunication Sector)準拠プロトコルのようなモバイル通信プロトコル、近距離無線通信(NFC)およびBluetooth(登録商標)のような短波長無線通信、および/または他の無線通信プロトコルのような他の無線プロトコルを利用する1つまたは複数の無線アクセスポイント7aを含み得る。典型的には、このような無線アクセスポイント7aにより、ハンドヘルドまたは他の携帯コンピューティングデバイスは、無線ネットワーク70とは異なり、無線ネットワーク70とは異なる無線プロトコルをサポートしている個々の無線ネットワーク経由で通信することができる。いくつかの実施形態では、UIデバイス8は、無線アクセスポイント7aを使用して、プロセス制御ネットワークまたはシステム2経由で通信する。いくつかのシナリオでは、携帯コンピューティングデバイス以外に、1つまたは複数のプロセス制御装置(例えば、コントローラ11、フィールドデバイス15~22、無線デバイス35、40~46、52~58)も、アクセスポイント7aによってサポートされている無線ネットワークを使用して通信し得る。 In certain embodiments, the process control network or system 2 may include other nodes connected to the network backbone 5 that communicate using other wireless protocols. For example, the process control network or system 2 may include one or more wireless access points 7a that utilize other wireless protocols, such as, for example, Wi-Fi or other IEEE 802.11 compliant wireless local area network protocols, mobile communication protocols such as WiMAX (Worldwide Interoperability for Microwave Access), LTE (Long Term Evolution) or other ITU-R (International Telecommunication Union Radiocommunication Sector) compliant protocols, short wavelength wireless communications such as Near Field Communication (NFC) and Bluetooth, and/or other wireless communication protocols. Typically, such wireless access points 7a allow handheld or other portable computing devices to communicate over individual wireless networks that are different from the wireless network 70 and that support different wireless protocols than the wireless network 70. In some embodiments, the UI device 8 uses the wireless access point 7a to communicate over the process control network or system 2. In some scenarios, in addition to portable computing devices, one or more process control devices (e.g., controller 11, field devices 15-22, wireless devices 35, 40-46, 52-58) may also communicate using the wireless network supported by the access point 7a.

追加的にまたは代替的に、プロセス制御ネットワークまたはシステム2は、対象のプロセス制御システムの外部にあるシステムに対する1つまたは複数のゲートウェイ7b、7cを含み得る。このような実施形態では、UIデバイス8は、前記外部システムを制御する、監視する、または別の形で前記外部システムと通信するのに使用され得る。典型的には、このようなシステムは、プロセス制御システムによって生成されるまたは操作される情報のコンシューマおよび/またはサプライヤである。例えば、プラント・ゲートウェイ・ノード7bは、(自身の個々のプロセス制御データネットワークバックボーン5を有する)対象のプロセスプラント10を、自身の個々のネットワークバックボーンを有する別のプロセスプラントと通信可能に接続する。一実施形態では、1つのネットワークバックボーン5が複数のプロセスプラントまたはプロセス制御環境を使用可能にし得る。 Additionally or alternatively, the process control network or system 2 may include one or more gateways 7b, 7c to systems external to the subject process control system. In such an embodiment, the UI device 8 may be used to control, monitor, or otherwise communicate with said external systems. Typically, such systems are consumers and/or suppliers of information generated or manipulated by the process control system. For example, the plant gateway node 7b communicatively connects the subject process plant 10 (with its own individual process control data network backbone 5) to another process plant with its own individual network backbone. In an embodiment, one network backbone 5 may enable multiple process plants or process control environments.

別の実施例では、プラント・ゲートウェイ・ノード7bは、対象のプロセスプラントを、プロセス制御ネットワークもしくはシステム2またはバックボーン5を含まないレガシーまたは先行技術のプロセスプラントに通信可能に接続し得る。この実施例では、プラント・ゲートウェイ・ノード7bは、プラント10のプロセス制御ビッグ・データ・バックボーン5によって利用されるプロトコルとレガシーシステムによって利用される異なるプロトコル(例えば、Ethernet、Profibus、Fieldbus、DeviceNetなど)との間でメッセージを変換し得る、または翻訳し得る。このような実施例では、UIデバイス8は、前記レガシーまたは先行技術のプロセスプラント内のシステムまたはネットワークを制御する、監視する、または別の形でそのシステムまたはネットワークと通信するのに使用され得る。 In another example, the plant gateway node 7b may communicatively connect the process plant of interest to a legacy or prior art process plant that does not include a process control network or system 2 or backbone 5. In this example, the plant gateway node 7b may convert or translate messages between a protocol utilized by the process control big data backbone 5 of the plant 10 and a different protocol utilized by the legacy system (e.g., Ethernet, Profibus, Fieldbus, DeviceNet, etc.). In such an example, the UI device 8 may be used to control, monitor, or otherwise communicate with a system or network within the legacy or prior art process plant.

プロセス制御ネットワークまたはシステム2は、プロセス制御ネットワークまたはシステム2を、ラボラトリシステム(例えば、Laboratory Information Management SystemまたはLIMS)、要員巡回データベース、マテリアル・ハンドリング・システム、維持管理システム、製品在庫制御システム、生産スケジューリングシステム、気象データシステム、出荷処理システム、包装システム、インターネット、別のプロバイダのプロセス制御システム、および/または他の外部システムのような外部の公的または私的なシステムのネットワークと通信可能に接続するために1つまたは複数の外部システム・ゲートウェイ・ノード7cを含み得る。外部システム・ゲートウェイ・ノード7cは、例えば、プロセス制御システムとプロセスプラントの外側の要員(例えば、在宅の要員)との間の通信を容易にし得る。 The process control network or system 2 may include one or more external system gateway nodes 7c to communicatively connect the process control network or system 2 to a network of external public or private systems, such as a laboratory system (e.g., a Laboratory Information Management System or LIMS), a personnel rotation database, a material handling system, a maintenance management system, a product inventory control system, a production scheduling system, a weather data system, a shipping processing system, a packaging system, the Internet, another provider's process control system, and/or other external systems. The external system gateway node 7c may, for example, facilitate communication between the process control system and personnel outside the process plant (e.g., at-home personnel).

図1は、通信可能に接続される有限数のフィールドデバイス15~22、40~46、48~50と共に1つのコントローラ11のみが示されているが、これは例示的かつ非限定的な実施形態に過ぎない。任意の数のコントローラ11は、プロセス制御ネットワークまたはシステム2内に含まれ得、コントローラ11のいずれかは、任意の数の有線または無線デバイス15~22、40~50と通信して、プラント10内のプロセスを制御し得る。また、プロセスプラント10はさらに、任意の数の無線ゲートウェイ35、ルータ58、アクセスポイント55、無線プロトコル制御通信ネットワーク70、アクセスポイント7a、および/またはゲートウェイ7b、7cを含み得る。 1 shows only one controller 11 with a finite number of communicatively connected field devices 15-22, 40-46, 48-50, but this is merely an exemplary and non-limiting embodiment. Any number of controllers 11 may be included in the process control network or system 2, and any of the controllers 11 may communicate with any number of wired or wireless devices 15-22, 40-50 to control processes in the plant 10. Additionally, the process plant 10 may further include any number of wireless gateways 35, routers 58, access points 55, wireless protocol control communication networks 70, access points 7a, and/or gateways 7b, 7c.

プロセスプラント10の構成の一例では、個々のカメラ74a、74bおよび/または他のセンサ76a、76bが装備された複数のドローン72a、72bは、プロセスプラント10のフィールド環境全体を移動して、プロセスプラントの状態を監視する。一般に、ドローン72a、72bは、無人ロボット車両である。いくつかの実施例では、ドローン72a、72bは、空中ドローン(例えば、無人航空機または「UAV」)であるが、他の実施例では、ドローン72a、72bは、地上ドローンもしくは水上ドローン、または空中、地上、ならびに/もしくは水上の機能の何らかの組み合わせを有するドローンである。ドローン72a、72bに関連付けられた搭載コンピューティングデバイス78a、78bは、プロセスプラント10のフィールド環境内を通るドローン72a、72bの動きを制御する。さらに、搭載コンピューティングデバイス78a、78bは、カメラ74a、74bおよび/または他のセンサ76a、76bとインターフェースし、例えば、ネットワーク70を介して、ユーザ・インターフェース・デバイス8、コントローラ11、サーバ12および/または1つまたは複数のデータベースと通信する。例えば、搭載コンピューティングデバイス78a、78bは、ユーザ・インターフェース・デバイス8および/またはサーバ12からドローンコマンドを受信し得る、または1つまたは複数のデータベース内に記憶されているドローンコマンドにアクセスし得る。別の実施例として、搭載コンピューティングデバイス78a、78bは、カメラ74a、74bおよび/または他のセンサ76a、76bによって取り込まれたデータをUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスに伝送し得る。それに応じて、ユーザ・インターフェース・デバイス8は、カメラ74a、74bおよび/または他のセンサ76a、76bによって取り込まれたデータをオペレータに対して表示する。 In one example of a process plant 10 configuration, multiple drones 72a, 72b equipped with individual cameras 74a, 74b and/or other sensors 76a, 76b move throughout the field environment of the process plant 10 to monitor the conditions of the process plant. Generally, the drones 72a, 72b are unmanned robotic vehicles. In some examples, the drones 72a, 72b are aerial drones (e.g., unmanned aerial vehicles or "UAVs"), while in other examples, the drones 72a, 72b are ground or water drones, or drones with some combination of aerial, ground, and/or water capabilities. On-board computing devices 78a, 78b associated with the drones 72a, 72b control the movement of the drones 72a, 72b through the field environment of the process plant 10. Additionally, the on-board computing devices 78a, 78b interface with the cameras 74a, 74b and/or other sensors 76a, 76b and communicate with the user interface device 8, the controller 11, the server 12, and/or one or more databases, for example, via the network 70. For example, the on-board computing devices 78a, 78b may receive drone commands from the user interface device 8 and/or the server 12, or may access drone commands stored in one or more databases. As another example, the on-board computing devices 78a, 78b may transmit data captured by the cameras 74a, 74b and/or other sensors 76a, 76b to the UI device 8, the controller 11, the server 12, and/or any other suitable computing device. In response, the user interface device 8 displays the data captured by the cameras 74a, 74b and/or other sensors 76a, 76b to the operator.

図2は、ドローン例72(例えば、ドローン72a、72b)およびUIデバイス例8に関連付けられた搭載コンピューティングデバイス例78(例えば、搭載コンピューティングデバイス78a、78b)のブロック図であり、搭載コンピューティングデバイス78は、本明細書に記載されているドローンを使用してプロセスプラントの状態を監視するためのシステムの実施形態と共に利用され得る。図2に示されているように、ドローン例72には、1つまたは複数のカメラ74(赤外線カメラを含み得る)、1つまたは複数の他のセンサ76、および搭載コンピューティングデバイス78が装備される。カメラ74、センサ76、および搭載コンピューティングデバイス78は、ドローン72に取り付けられ得る、ドローン72内に含まれ得る、ドローン72によって運ばれ得る、または別の形でドローン72に関連付けられ得る。センサ76は、例えば、位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、モーションセンサ、および/または他の適切なセンサを含み得る。いくつかの実施例では、ドローン72には、例えば、ライト、スピーカ、マイクなどのような追加の付属品がさらに装備される。さらに、いくつかの実施例では、サンプルを採取するための装置、医療用具一式、呼吸装置、除細動器ユニットなどが、ドローン72に取り付けられる、ドローン72内に含まれる、ドローン72によって運ばれる、または別の形でドローン72に関連付けられる。また、ドローン72には、プラント10内で様々なアクションを実行するための追加の機械部品が装備され得る。例えば、ドローン72には、スイッチを作動させる、またはサンプルを採取するためのロボットアームが装備される。 FIG. 2 is a block diagram of example drones 72 (e.g., drones 72a, 72b) and example on-board computing devices 78 (e.g., on-board computing devices 78a, 78b) associated with example UI devices 8, which may be utilized with embodiments of a system for monitoring process plant conditions using drones described herein. As shown in FIG. 2, example drone 72 is equipped with one or more cameras 74 (which may include an infrared camera), one or more other sensors 76, and on-board computing device 78. Cameras 74, sensors 76, and on-board computing device 78 may be attached to drone 72, may be included within drone 72, may be carried by drone 72, or may be otherwise associated with drone 72. Sensors 76 may include, for example, position sensors, temperature sensors, flame sensors, gas sensors, wind sensors, accelerometers, motion sensors, and/or other suitable sensors. In some examples, drone 72 is further equipped with additional accessories, such as, for example, lights, speakers, microphones, and the like. Additionally, in some embodiments, devices for taking samples, medical kits, breathing apparatus, defibrillator units, etc. are attached to, contained within, carried by, or otherwise associated with drone 72. Drone 72 may also be equipped with additional mechanical components for performing various actions within plant 10. For example, drone 72 may be equipped with a robotic arm for actuating a switch or taking a sample.

搭載コンピューティングデバイス78は、カメラ74、センサ76、および/または追加の機械部品とインターフェースし、ドローン経路コマンドを受信し、ドローン72の経路を制御し、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータを記憶して伝送するためのアプリケーションを実行する。搭載コンピューティングデバイス78は、一般に、1つまたは複数のプロセッサまたはCPU80、メモリ82、ランダム・アクセサリ・メモリ(RAM)84、入出力(I/O)回路86、およびローカルエリア・ネットワーク、広域ネットワーク、および/または有線ならびに/もしくは無線であり得る任意の他の適切なネットワーク(例えば、ネットワーク70)を介してデータを送受信するための通信ユニット88を含む。例えば、搭載コンピューティング78は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスと通信し得る。 The on-board computing device 78 runs applications to interface with the camera 74, the sensor 76, and/or additional machine parts, receive drone path commands, control the path of the drone 72, and store and transmit data captured by the drone camera 74 and/or the drone sensor 76. The on-board computing device 78 generally includes one or more processors or CPUs 80, memory 82, random accessory memory (RAM) 84, input/output (I/O) circuitry 86, and a communication unit 88 for transmitting and receiving data over a local area network, a wide area network, and/or any other suitable network (e.g., network 70), which may be wired and/or wireless. For example, the on-board computing device 78 may communicate with the UI device 8, the controller 11, the server 12, and/or any other suitable computing device.

さらに、搭載コンピューティングデバイス78は、ドローン72に関連付けられたデータを記憶するデータベース90を含む。例えば、データベース90は、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータを記憶し得る。さらに、データベース90は、例えば、プラント10のマップのようなナビゲーションデータを記憶し得る。マップは、ドローン72がプラント10全体を移動するための1つまたは複数の経路、およびプラント10内の様々な機器の位置の指示を含み得る。様々なプラント機器の位置の指示は、各々の機器の近くの様々な見晴らしの良い地点の位置の指示を含み得る。さらに、様々なプラント機器の位置の指示は、1つまたは複数のドローンによって作動されるスイッチ(例えば、キルスイッチ)の位置の指示を含み得る。 Additionally, the on-board computing device 78 includes a database 90 that stores data associated with the drone 72. For example, the database 90 may store data captured by the drone camera 74 and/or the drone sensor 76. Additionally, the database 90 may store navigation data, such as, for example, a map of the plant 10. The map may include one or more routes for the drone 72 to travel throughout the plant 10, as well as indications of the locations of various equipment within the plant 10. The indications of the locations of the various plant equipment may include indications of the locations of various vantage points near each piece of equipment. Additionally, the indications of the locations of the various plant equipment may include indications of the locations of one or more drone-activated switches (e.g., kill switches).

メモリ82はさらに、制御ユニット92と、1つまたは複数のドローンアプリケーション96を含むオペレーティングシステム94とを含む。制御ユニット94は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスと通信するように構成される。例えば、いくつかの実施形態では、制御ユニット94は、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータをUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスに伝えることができる。さらに、制御ユニット94は、プラント内のドローン72の動きおよびアクションを制御するように構成される。 The memory 82 further includes a control unit 92 and an operating system 94 including one or more drone applications 96. The control unit 94 is configured to communicate with the UI device 8, the controller 11, the server 12, and/or any other suitable computing device. For example, in some embodiments, the control unit 94 can communicate data captured by the drone camera 74 and/or the drone sensor 76 to the UI device 8, the controller 11, the server 12, and/or any other suitable computing device. Additionally, the control unit 94 is configured to control the movement and actions of the drone 72 within the plant.

一般的に、オペレーティングシステム94上で動作するドローンアプリケーション96は、制御ユニット94にプラント内のドローン72の動きおよびアクションを制御するための命令を出すアプリケーションを含み得る。さらに、ドローンアプリケーション96は、カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのアプリケーション、およびUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスからデータを送受信するためのアプリケーションを含み得る。 Generally, the drone application 96 operating on the operating system 94 may include applications that issue commands to the control unit 94 to control the movement and actions of the drone 72 within the plant. Additionally, the drone application 96 may include applications for analyzing data captured by the camera 74 and/or sensors 76, and for receiving and sending data from the UI device 8, the controller 11, the server 12, and/or any other suitable computing device.

例えば、制御ユニット94にプラント内のドローン72の動きおよびアクションを制御するための命令を出すドローンアプリケーション96は、ドローン・ナビゲーション・アプリケーションを含み得る。一般に、ドローン・ナビゲーション・アプリケーションは、データベース90内に記憶されているナビゲーションデータおよびセンサ76によって取り込まれた位置データの何らかの組み合わせを利用して、プラント10内のドローン72の現在位置を決定する。ドローン72の目的地が受信されるまたは決定されると、ドローン・ナビゲーション・アプリケーションは、現在位置から目的地までのルートを計算し得る。 For example, the drone application 96, which issues commands to the control unit 94 to control the movement and actions of the drone 72 within the plant, may include a drone navigation application. Generally, the drone navigation application determines a current location of the drone 72 within the plant 10 using some combination of navigation data stored in the database 90 and position data captured by the sensor 76. Once a destination for the drone 72 is received or determined, the drone navigation application may calculate a route from the current location to the destination.

いくつかの実施例では、ドローン72の目的地は、データベース90内で事前に構成され、記憶され得る。例えば、データベース90は、ドローン72が繰り返し移動すべきルートまたは経路を記憶し得る、またはドローン72がホバリングすべき特定の位置(例えば、プラント内の特定の機器に最も近い)を記憶し得る。さらに、データベース90は、プラント10内の様々な誘因または状態に基づいてドローンが移動すべきルートまたは目的地のリストを記憶し得る。例えば、データベース90は、プラント10内の警報またはプラントの状態に基づいて、ドローン72がプラント10内の特定の位置まで移動しなければならないこと、または特定のルートを移動しなければならないことを示すデータを記憶し得る。例えば、データベース90は、火災、毒ガス漏れ、流出、爆発などが発生した場合に、ドローン72がプラント10へ移動するための安全な位置、またはドローン72がプラント10から出るための安全なルートの指示を記憶し得る。例えば、プラント10内にいる人は、これらの危険な状態の間、ドローン72についてプラントから出ることができる。他の例では、データベース90は、(例えば、写真、ビデオ、または警報もしくは他の状態に関連付けられた他のデータを取り込むために、安全でない状態の周辺を保護するドローンの「フェンス」を作成するために、プラントの状態に対する緊急支援を誘導するために)火災、毒ガス漏れ、流出、爆発などに近い位置またはルートの指示を記憶し得る。さらに、例えば、データベース90は、トリガ・センサ・データ(例えば、プラントの状態を示すセンサデータ)の取り込みに基づいて、ドローン72が特定の位置まで移動しなければならないこと、または特定のルートを移動しなければならないことを示すデータを記憶し得る。 In some examples, the destinations of the drone 72 may be preconfigured and stored in the database 90. For example, the database 90 may store a route or path along which the drone 72 should repeatedly travel, or may store a particular location (e.g., closest to a particular piece of equipment in the plant) at which the drone 72 should hover. Additionally, the database 90 may store a list of routes or destinations to which the drone should travel based on various triggers or conditions within the plant 10. For example, the database 90 may store data indicating that the drone 72 should travel to a particular location within the plant 10 or travel a particular route based on an alarm or plant condition within the plant 10. For example, the database 90 may store instructions of a safe location for the drone 72 to travel to the plant 10, or a safe route for the drone 72 to exit the plant 10 in the event of a fire, toxic gas leak, spill, explosion, or the like. For example, personnel within the plant 10 may follow the drone 72 out of the plant during these dangerous conditions. In other examples, database 90 may store location or route instructions near a fire, gas leak, spill, explosion, etc. (e.g., to capture photographs, videos, or other data associated with an alarm or other condition, to create a drone "fence" protecting the perimeter of an unsafe condition, to direct emergency assistance to a plant condition). Further, for example, database 90 may store data indicating that drone 72 should travel to a particular location or travel a particular route based on the capture of trigger sensor data (e.g., sensor data indicative of a plant condition).

他の実施例では、ドローン72の目的地は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスから受信されたコマンド(例えば、オペレータコマンド)に基づいて、ナビゲーションアプリケーションによって選択され得る。例えば、オペレータは、UIデバイス8を介してプラント10の区域またはプラント10内の機器を選択することができ、目的地は、プラント10の区域または機器に対してデータベース90内に記憶されている位置に基づいて選択され得る。さらに、オペレータは、UIデバイス8を介してプラント10内にいる人を選択することができ、目的地は、人に関連付けられた位置に基づいて(例えば、人に関連付けられたGPSデータに基づいて、またはデータベース90内に記憶されている人に関連付けられた位置に基づいて)選択され得る。別の実施例として、オペレータは、方向制御装置(例えば、左、右、上、下、前方、後方など)を利用することができ、目的地は、ドローン72の現在位置からの方向性のある動きに基づいて、ナビゲーションアプリケーションによって選択され得る。 In other examples, the destination of the drone 72 may be selected by the navigation application based on commands (e.g., operator commands) received from the UI device 8, the controller 11, the server 12, and/or any other suitable computing device. For example, the operator may select an area of the plant 10 or equipment within the plant 10 via the UI device 8, and the destination may be selected based on a location stored in the database 90 for the area or equipment of the plant 10. Additionally, the operator may select a person within the plant 10 via the UI device 8, and the destination may be selected based on a location associated with the person (e.g., based on GPS data associated with the person or based on a location associated with the person stored in the database 90). As another example, the operator may utilize a directional control device (e.g., left, right, up, down, forward, backward, etc.), and the destination may be selected by the navigation application based on a directional movement from the current location of the drone 72.

さらに、制御ユニット94にプラント内のドローン72のアクションを制御するための命令を出すドローンアプリケーション96は、ドローンにスイッチ(例えば、掘削場所のような安全でない位置の機器を停止させるためのキルスイッチ)を作動させ、測定を行わせ、評価を実施させ、サンプルを採取させ、(付属スピーカシステムを介して)警告を提示させ、(付属マイクを介して)音声コマンドを聞かせ、物体(例えば、工具、医療用具一式など)を持たせてプラント内の新しい位置(例えば、人がいる近くの位置)まで運ばせ、様々なシチュエーションで必要に応じて物を入れ替え、(例えば、「便利屋」として)必要に応じてプラント内の人を支援させるなどのための命令を制御ユニットに出すアプリケーションを含み得る。ナビゲーション目的地と同様に、いくつかの実施例では、ドローン72が実行するアクションは、データベース90内で事前に構成され、記憶され得るが、他の実施例では、ドローン72が実行するアクションは、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスから受信されたコマンド(例えば、オペレータコマンド)に基づいて選択され得る。 Additionally, the drone application 96, which issues commands to the control unit 94 to control the actions of the drone 72 within the plant, may include applications that issue commands to the control unit to cause the drone to activate switches (e.g., a kill switch to shut down equipment in unsafe locations such as drilling sites), take measurements, perform evaluations, take samples, provide warnings (via an attached speaker system), play voice commands (via an attached microphone), pick up objects (e.g., tools, medical kits, etc.) and carry them to new locations within the plant (e.g., locations near personnel), swap items as needed for various situations, assist personnel within the plant as needed (e.g., as a "handyman"), etc. As with navigation destinations, in some examples, the actions to be performed by the drone 72 may be pre-configured and stored in the database 90, while in other examples, the actions to be performed by the drone 72 may be selected based on commands (e.g., operator commands) received from the UI device 8, the controller 11, the server 12, and/or any other suitable computing device.

さらに、カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのドローンアプリケーション96は、例えば、過熱、火、煙、移動、漏出物(漏出物の大きさの識別を含む)、液滴、水溜まり、蒸気、または弁の状態(開放しているか閉鎖しているかの識別を含む)のようなプロセスプラント内の様々な状態の指示を自動的に識別するために、カメラ74からの写真またはビデオを分析するための画像認識アプリケーション、またはドローンセンサ76からのデータを分析するように構成されたセンサ分析アプリケーション、またはこれら2つの何らかの組み合わせを含み得る。また、オペレーティングシステム90上で動作するアプリケーションは、ドローンセンサ76からのデータに基づいて、(例えば、毒ガス漏れの影響を評価するのを支援するために)卓越風の風速および風向きを決定するためのセンサ分析アプリケーションを含み得る。カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのドローンアプリケーション96はさらに、監視アプリケーションを含み得る。例えば、監視アプリケーションは、プラント内にいる人の顔の特徴を分析して、プラント内の権限のない人を識別し得る。別の実施例として、監視アプリケーションは、モーションセンサによって取り込まれたデータを分析して、権限のない人がプラントの中を移動しているかどうかを判断し得る。さらに、監視アプリケーションは、ドローンカメラ74によって取り込まれた写真またはビデオを分析して、例えば、損傷したフェンスまたは壊れたドアのようなプロセスプラントへの無許可の進入の証拠を識別し得る。 Additionally, the drone application 96 for analyzing data captured by the camera 74 and/or the sensor 76 may include an image recognition application for analyzing photos or videos from the camera 74, or a sensor analysis application configured to analyze data from the drone sensor 76, or some combination of the two, to automatically identify indications of various conditions within the process plant, such as overheating, fire, smoke, movement, leaks (including identifying the size of the leak), droplets, puddles, steam, or valve status (including identifying whether open or closed). The applications operating on the operating system 90 may also include a sensor analysis application for determining prevailing wind speed and direction based on data from the drone sensor 76 (e.g., to help assess the impact of a toxic gas leak). The drone application 96 for analyzing data captured by the camera 74 and/or the sensor 76 may further include a surveillance application. For example, the surveillance application may analyze facial features of persons within the plant to identify unauthorized persons within the plant. As another example, the surveillance application may analyze data captured by a motion sensor to determine whether unauthorized persons are moving through the plant. Additionally, the surveillance application may analyze photographs or videos captured by the drone camera 74 to identify evidence of unauthorized entry into the process plant, such as, for example, a damaged fence or a broken door.

追加的にまたは代替的に、ドローンアプリケーション96は、準備の整った通信システムの無い位置または一時的に通信機能を失った位置での通信を可能にするために、ドローン72にプラント内の他のドローンと対話させてフィールドメッシュおよび/または無線バックホールを形成するアプリケーションを含み得る。さらに、オペレーティングシステム90上で動作するアプリケーションは、ローカル一時的GPSシステムを作成するために、ドローン72にGPS情報を他のドローンに伝送させる、またはマスタードローンからGPS情報を受信させるGPSアプリケーションを含み得る。 Additionally or alternatively, drone applications 96 may include applications that allow drone 72 to interact with other drones in the plant to form a field mesh and/or wireless backhaul to enable communication in locations without a ready communication system or that have temporarily lost communication capability. Further, applications running on operating system 90 may include a GPS application that allows drone 72 to transmit GPS information to other drones or receive GPS information from a master drone to create a local temporary GPS system.

UIデバイス8に話を戻すと、このデバイス8は、従来のオペレータワークステーションのようなデスクトップコンピュータ、制御室ディスプレイ、またはラップトップコンピュータ、タブレットコンピュータ、モバイル機器スマートフォン、携帯情報端末(PDA)、ウェアラブル・コンピューティング・デバイス、もしくは任意の他の適切なクライアント・コンピューティング・デバイスのようなモバイル・コンピューティング・デバイスであり得る。UIデバイス8は、様々な表示ビュー定義または構成を作成し、生成し、および/または編集すると同時に、様々な表示ビュー要素定義または構成を作成し、生成し、および/または編集するために、構成環境内の構成エンジニアによって利用されるグラフィック表示構成アプリケーションを実行し得る。UIデバイス8はさらに、オペレーティング環境内のプロセスの様々な状況および状態を監視し、観察して、対応するためにオペレータによって利用されるオペレータアプリケーションを実行し得る。UIデバイス8は、ディスプレイ98を含み得る。さらに、UIデバイス8は、1つまたは複数のプロセッサまたはCPU100、メモリ102、ランダム・アクセサリ・メモリ(RAM)104、入出力(I/O)回路105、およびローカルエリア・ネットワーク、広域ネットワーク、および/または有線ならびに/もしくは無線であり得る任意の他の適切なネットワーク(例えば、ネットワーク70)を介してデータを送受信するための通信ユニット106を含む。UIデバイス8は、コントローラ11、サーバ12、ドローン搭載コンピューティングデバイス78、および/または任意の他の適切なコンピューティングデバイスと通信し得る。 Returning to the UI device 8, the device 8 may be a desktop computer such as a conventional operator workstation, a control room display, or a mobile computing device such as a laptop computer, a tablet computer, a mobile device smart phone, a personal digital assistant (PDA), a wearable computing device, or any other suitable client computing device. The UI device 8 may execute a graphic display configuration application utilized by a configuration engineer within the configuration environment to create, generate, and/or edit various display view definitions or configurations while simultaneously creating, generating, and/or editing various display view element definitions or configurations. The UI device 8 may further execute an operator application utilized by an operator to monitor, observe, and respond to various conditions and states of processes within the operating environment. The UI device 8 may include a display 98. Further, the UI device 8 includes one or more processors or CPUs 100, memory 102, random accessory memory (RAM) 104, input/output (I/O) circuitry 105, and a communication unit 106 for transmitting and receiving data over a local area network, a wide area network, and/or any other suitable network (e.g., network 70), which may be wired and/or wireless. The UI device 8 may communicate with the controller 11, the server 12, the drone-mounted computing device 78, and/or any other suitable computing device.

メモリ102は、オペレーティングシステム108と、グラフィック表示構成アプリケーションおよびオペレータアプリケーションのようなオペレーティングシステム108上で動作するアプリケーションと、ディスプレイ98を制御し、プロセスプラントのオンライン動作を制御するためにコントローラ11と通信するための制御ユニット110とを含み得る。いくつかの実施形態では、サーバ12はプロセスプラントの一部のグラフィック表現をUIデバイス8に伝送し、次に、制御ユニット110がプロセスプラントの一部のグラフィック表現をディスプレイ98上に提示し得る。さらに、制御ユニット110は、オペレータまたは構成エンジニア(本明細書では、ユーザとも呼ばれる)からのユーザ入力のようなI/O回路105からのユーザ入力を取得して、ユーザ入力を、特定の言語でグラフィック表示ビューを提示する要求、表示ビューに含まれるActive MinitorまたはWatchウィンドウ内に特定の制御要素を示すグラフィックを含める要求、プロセスセクションの1つに含まれるプロセスパラメータの調整を表示する要求などに翻訳し得る。 The memory 102 may include an operating system 108, applications running on the operating system 108, such as a graphic display configuration application and an operator application, and a control unit 110 for controlling the display 98 and communicating with the controller 11 to control the on-line operation of the process plant. In some embodiments, the server 12 may transmit a graphic representation of a portion of the process plant to the UI device 8, which in turn may present the graphic representation of the portion of the process plant on the display 98. Additionally, the control unit 110 may obtain user input from the I/O circuitry 105, such as user input from an operator or configuration engineer (also referred to herein as a user), and translate the user input into a request to present a graphic display view in a particular language, a request to include a graphic showing a particular control element in an Active Minor or Watch window included in the display view, a request to display an adjustment of a process parameter included in one of the process sections, etc.

いくつかの実施形態では、制御ユニット110は、要求UIを生成して、表示するために要求UIをUIデバイス8に伝送し得るサーバ12に、翻訳済みユーザ入力を伝え得る。
他の実施形態では、制御ユニット110は、翻訳済みユーザ入力に基づいて新規UIを生成し、UIデバイス8のディスプレイ98上に新規UIを提示し得る。翻訳済みユーザ入力がプロセスセクションの1つに含まれるプロセスパラメータの調整を表示する要求である場合、制御ユニット110は、オペレータからのユーザ入力に従ってディスプレイ98上でプロセスパラメータ値を調整し、プロセスプラント内のプロセスパラメータを調整するためにコントローラ11に命令を出し得る。他の実施形態では、制御ユニット110は、調整済みプロセスパラメータ値を生成して、表示するために調整済みプロセスパラメータ値をUIデバイス8に伝送し得るサーバ12に、翻訳済みユーザ入力を伝え、プロセスプラント内のプロセスパラメータを調整するためにコントローラ11に命令を出し得る。
In some embodiments, the control unit 110 may communicate the translated user input to the server 12, which may generate a request UI and transmit the request UI to the UI device 8 for display.
In other embodiments, the control unit 110 may generate a new UI based on the translated user input and present the new UI on the display 98 of the UI device 8. If the translated user input is a request to display an adjustment of a process parameter included in one of the process sections, the control unit 110 may adjust the process parameter value on the display 98 according to the user input from the operator and issue a command to the controller 11 to adjust the process parameter in the process plant. In other embodiments, the control unit 110 may communicate the translated user input to the server 12, which may generate an adjusted process parameter value and transmit the adjusted process parameter value to the UI device 8 for display, and issue a command to the controller 11 to adjust the process parameter in the process plant.

ここで、図3を参照すると、一実施形態に係る、ドローン(例えば、ドローン72、72a、72b)を使用してプロセスプラントの状態を監視するためのオペレータアプリケーションのユーザインターフェース表示ビュー200の一例が示されている。図3に示されている例示的なユーザインターフェース表示ビュー200は、ユーザインターフェース8のディスプレイ92を介して表示される。ユーザインターフェース表示ビュー200は、第1のドローンおよび第2のドローンに関連付けられたライブビデオフィード204、206およびドローン制御装置セット207と並べて表示されるプロセスプラントの概観202を含む。図3には2つのドローンのビデオフィードが表示されているが、様々な実施形態では、それよりも多いまたは少ないドローンに関連付けられたライブビデオフィードが表示される場合もある。さらに、いくつかの実施形態では、ユーザインターフェース表示ビュー200は、プロセスプラント内のドローンに関連付けられたセンサによって取り込まれたセンサデータに関連付けられた表示を含む。 Now, referring to FIG. 3, an example of a user interface display view 200 of an operator application for monitoring a process plant condition using drones (e.g., drones 72, 72a, 72b) according to one embodiment is shown. The example user interface display view 200 shown in FIG. 3 is displayed via the display 92 of the user interface 8. The user interface display view 200 includes an overview 202 of the process plant displayed alongside live video feeds 204, 206 associated with a first drone and a second drone and a set of drone controls 207. While two drone video feeds are shown in FIG. 3, in various embodiments, live video feeds associated with more or fewer drones may be displayed. Additionally, in some embodiments, the user interface display view 200 includes a display associated with sensor data captured by sensors associated with the drones in the process plant.

一般的に、プロセスプラントの概観202は、プラント内の様々な機器の物理的位置の表現、および機器に対するプロセスプラント内の様々なドローンの物理的位置の表現を示している。例えば、ドローン1(208)は、機器210の近くに描かれている。別の実施例として、ドローン2(212)は機器214の近くに描かれており、ドローン3(216)は機器218の近くに描かれている。したがって、ドローン1に関連付けられたライブビデオフィード204は、機器210の現在の状況を示すビデオのライブフードを示している。同様に、ドローン2に関連付けられたライブビデオフィード206は、機器214の現在の状況を示すビデオのライブフードを示している。一実施例では、オペレータが(例えば、カーソル220を使用して)ドローンを選択すると、そのドローンに関連付けられたライブフィードが表示される。例えば、オペレータがドローン3(216)を選択すると、ドローン3に関連付けられたライブビデオフィードが表示され、機器218の現在の状況のライブフードが示される。 Generally, the process plant overview 202 shows a representation of the physical locations of various equipment within the plant, and a representation of the physical locations of various drones within the process plant relative to the equipment. For example, drone 1 (208) is depicted near equipment 210. As another example, drone 2 (212) is depicted near equipment 214, and drone 3 (216) is depicted near equipment 218. Thus, the live video feed 204 associated with drone 1 shows a live hood of video showing the current status of equipment 210. Similarly, the live video feed 206 associated with drone 2 shows a live hood of video showing the current status of equipment 214. In one example, when an operator selects a drone (e.g., using cursor 220), a live feed associated with that drone is displayed. For example, when an operator selects drone 3 (216), a live video feed associated with drone 3 is displayed showing a live hood of the current status of equipment 218.

いくつかの実施例では、ドローンは、プロセスプラント内の一定の経路に沿って移動する。他の実施例では、ドローンは、オペレータによって完全に制御される。さらに他の実施例では、ドローンは、一般に、オペレータがドローンの経路を制御するアクションを取るまでプロセスプラント内の一定の経路に沿って移動する。一実施例では、オペレータは、ドローン制御装置207を使用してプロセスプラント内の各々のドローンの物理的な動きを手動で制御する。例えば、オペレータは、様々なドローン制御装置207を使用して、ドローンを物理的に上昇もしくは下降させる、回転させる、前方および後方に移動させるなどを行うことができる。したがって、ドローンは、プロセスプラント内の様々な機器のより近いビューを取得するためにプロセスプラント内で移動され得るので、オペレータは、ユーザ・インターフェース・デバイス8を介して(すなわち、フィールド環境に入らずに)プラント内の状態を検査することができる。 In some examples, the drones move along a fixed path within the process plant. In other examples, the drones are fully controlled by the operator. In still other examples, the drones generally move along a fixed path within the process plant until the operator takes an action to control the path of the drone. In one example, the operator manually controls the physical movement of each drone within the process plant using the drone controllers 207. For example, the operator can physically raise or lower the drone, rotate it, move it forward and backward, etc. using the various drone controllers 207. Thus, the drones can be moved within the process plant to get a closer view of various equipment within the process plant, so that the operator can inspect conditions within the plant via the user interface device 8 (i.e., without entering the field environment).

別の実施例では、オペレータは、プロセスプラントの概観202内の各々のドローンの描写208、212、216を選択することによって、またはドローンを配備する必要があるプロセスプラントの概観202内の区域を選択することによって、プロセスプラント内のドローンの物理的な動きを制御する。一実施例では、オペレータが(例えば、カーソル220を使用して)ドローンを選択し、それをクリックして新規の位置にドラッグすると、そのドローンは、新規の位置に物理的に移動するように構成される。例えば、空中ドローンは、自動的に離陸して、選択された位置に関連付けられたホバリング点までの所定の安全なルートで飛行し得る。別の実施例では、オペレータが(例えば、カーソル220を使用して)現在ドローンが位置付けられていないプロセスプラント概観202の区域(および/またはプロセスプラント概観202内に示されている機器)を選択すると、ドローンは、プロセスプラントのその区域まで物理的に移動するように構成される。したがって、オペレータは、ドローンがその目的地に到着すると、プロセスプラントの選択された区域のライブビデオフィードを見ることができる。 In another example, an operator controls the physical movement of the drones within the process plant by selecting the depictions 208, 212, 216 of each drone within the process plant overview 202 or by selecting an area within the process plant overview 202 where the drone needs to be deployed. In one example, when an operator selects a drone (e.g., using the cursor 220) and clicks and drags it to a new location, the drone is configured to physically move to the new location. For example, an aerial drone may automatically take off and fly a predetermined safe route to a hover point associated with the selected location. In another example, when an operator selects (e.g., using the cursor 220) an area of the process plant overview 202 (and/or equipment depicted within the process plant overview 202) where the drone is not currently located, the drone is configured to physically move to that area of the process plant. Thus, the operator can view a live video feed of the selected area of the process plant once the drone arrives at its destination.

一実施例では、オペレータは、プロセスプラントの概観202内のドローンを選択して、そのドローンを現在位置から安全な位置(オペレータによって選択され得る、または事前に決定され得る)に移動させる。例えば、人がプロセスプラント内の安全でない場所に閉じ込められている場合、オペレータは、現在位置から安全な位置まで移動するためにその人の近くのドローンを選択することができ、その人は安全な場所までドローンについていくことができる。別の実施例では、オペレータは、プロセスプラントの概観202内のドローンを選択して、そのドローンをプロセスプラントの入口からプロセスプラントの特定の区域まで移動させる。例えば、プラント内に緊急事態が発生した場合、救急隊員がプラントの入口から緊急事態に関連するプラントの区域までドローンについていくことができる。 In one example, an operator selects a drone in the process plant overview 202 to move the drone from its current location to a safe location, which may be selected by the operator or may be predetermined. For example, if a person is trapped in an unsafe location in the process plant, the operator may select a drone near the person to move from its current location to a safe location, and the person may follow the drone to the safe location. In another example, an operator selects a drone in the process plant overview 202 to move the drone from an entrance to the process plant to a particular area of the process plant. For example, if an emergency occurs in the plant, emergency personnel may follow the drone from the entrance to the plant to the area of the plant associated with the emergency.

さらに、一実施例では、オペレータは、プロセスプラントの概観202内のドローンまたは区域を選択して、そのドローンにプラント内の他のタスクを実行させる。例えば、ドローンは、例えば、放送で警告することによって、または安全でない領域の周辺に標識を付けることによって、人にプロセスプラント内の危険性を警告するように構成され得る。例えば、オペレータは、概観202内の安全でない領域を選択して、ドローンをその領域まで移動させて、ドローンにその領域の危険性を人に警告させることができる。さらに、場合によっては、オペレータは、医療用具一式、呼吸装置、または除細動器ユニットをプラントの安全でない領域に閉じ込められている人のところまで搬送するドローンを選択することができる。さらに、オペレータは、プラント内のスイッチ(掘削場所のような安全でない位置の機器を停止させるキルスイッチを含む)を作動させ、プラント内の測定を行い、および/またはプラント内から製品サンプルを採取させるドローンを選択することができる。 Furthermore, in one embodiment, the operator may select a drone or area within the overview 202 of the process plant to have the drone perform other tasks within the plant. For example, the drone may be configured to warn personnel of hazards within the process plant, for example, by broadcasting a warning or by marking the perimeter of the unsafe area. For example, the operator may select an unsafe area within the overview 202 to have the drone travel to the area and warn personnel of the hazards in the area. Further, in some cases, the operator may select a drone to deliver a medical kit, breathing apparatus, or defibrillator unit to a person trapped in an unsafe area of the plant. Further, the operator may select a drone to activate a switch within the plant (including a kill switch to shut down equipment in an unsafe location, such as an excavation site), take measurements within the plant, and/or take product samples from within the plant.

図4を参照すると、いくつかの実施形態に係る、無人ロボット車両を使用してプロセスプラントの状態を監視するための方法の一例のフロー図400が示されている。例えば、無人ロボット車両72の搭載コンピューティングデバイス78のメモリ82および/またはユーザ・インターフェース・デバイス8のメモリ102は、プロセッサ80またはプロセッサ100によって実行されたときに、無人ロボット車両72および/またはユーザ・インターフェース・デバイス8それぞれに、方法400の少なくとも一部を実行させる命令を記憶し得る。実施形態では、方法400は、追加の、それより少ない、および/または代替のアクションを含み得る。 Referring to FIG. 4, a flow diagram 400 of an example method for monitoring a condition of a process plant using an unmanned robotic vehicle is shown, according to some embodiments. For example, memory 82 of on-board computing device 78 of unmanned robotic vehicle 72 and/or memory 102 of user interface device 8 may store instructions that, when executed by processor 80 or processor 100, cause unmanned robotic vehicle 72 and/or user interface device 8, respectively, to perform at least a portion of method 400. In embodiments, method 400 may include additional, fewer, and/or alternative actions.

ブロック402において、ユーザ・インターフェース・デバイス8は、無人ロボット車両72を配備する必要があるユーザ・インターフェース・デバイス8によって表示されたプロセスプラントの概観内の機器のユーザ選択の指示を受信し得る。例えば、プロセスプラントの概観は、プロセスプラント内の様々な機器の物理的位置の表現を示し得る。いくつかの実施例では、プロセスプラントの概観の表示は、プロセスプラント内の機器に対するプロセスプラント内の無人ロボット車両の物理的位置の表現の表示を含み得る。 In block 402, the user interface device 8 may receive an indication of a user selection of equipment within an overview of the process plant displayed by the user interface device 8 to which the unmanned robotic vehicle 72 should be deployed. For example, the overview of the process plant may show a representation of the physical locations of various equipment within the process plant. In some examples, the display of the overview of the process plant may include a display of a representation of the physical location of the unmanned robotic vehicle within the process plant relative to the equipment within the process plant.

ブロック404において、ユーザ選択の指示が無人ロボット車両72に関連付けられた搭載コンピューティングデバイス78に伝送され得る。 At block 404, an indication of the user selection may be transmitted to an on-board computing device 78 associated with the unmanned robotic vehicle 72.

ブロック406において、ユーザ選択の指示に基づいて、プロセスプラント内の無人ロボット車両72の目的地が決定され得る。いくつかの実施例では、プロセスプラント内の無人ロボット車両の目的地を決定するステップは、ユーザによって選択された機器の物理的位置の近くの安全なホバリング点を決定するステップを含み得る。 At block 406, a destination for the unmanned robotic vehicle 72 within the process plant may be determined based on the user-selected instructions. In some examples, determining a destination for the unmanned robotic vehicle within the process plant may include determining a safe hover point near the physical location of the equipment selected by the user.

ブロック408において、無人ロボット車両72は、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように制御され得る。例えば、いくつかの実施例では、現在位置から目的地まで移動するように無人ロボット車両72を制御するステップは、プロセスプラント内の現在位置からプロセスプラント内の目的地までの安全なルートを識別するステップと、安全なルートを通ってプロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように無人ロボット車両72を制御するステップとを含み得る。 In block 408, the unmanned robotic vehicle 72 may be controlled to move from a current location within the process plant to a destination within the process plant. For example, in some embodiments, controlling the unmanned robotic vehicle 72 to move from the current location to the destination may include identifying a safe route from the current location within the process plant to the destination within the process plant and controlling the unmanned robotic vehicle 72 to move from the current location within the process plant to the destination within the process plant via the safe route.

ブロック410において、無人ロボット車両72の1つまたは複数のカメラによってカメラデータが取り込まれ得る。いくつかの実施例では、カメラデータは、ライブビデオフィードを含み得る。いくつかの実施例では、カメラデータは、無人ロボット車両72の1つまたは複数の赤外線カメラによって取り込まれた赤外線カメラデータを含み得る。 At block 410, camera data may be captured by one or more cameras on the unmanned robotic vehicle 72. In some examples, the camera data may include a live video feed. In some examples, the camera data may include infrared camera data captured by one or more infrared cameras on the unmanned robotic vehicle 72.

ブロック412において、カメラデータがユーザ・インターフェース・デバイス8に伝送され得る。 In block 412, the camera data may be transmitted to the user interface device 8.

ブロック414において、カメラデータがプロセスプラントの概観と並べて表示され得る。いくつかの実施例では、プロセスプラントの概観と並べてカメラデータを表示するステップは、プロセスプラントの概観と並べられたカメラデータに基づいてライブビデオフィードを表示するステップを含み得る。 At block 414, the camera data may be displayed alongside the overview of the process plant. In some examples, displaying the camera data alongside the overview of the process plant may include displaying a live video feed based on the camera data aligned with the overview of the process plant.

いくつかの実施例では、方法400はさらに、無人ロボット車両の1つまたはセンサによってセンサデータを取り込むステップ、ユーザ・インターフェース・デバイスにセンサデータを伝送するステップ、および/またはユーザ・インターフェース・デバイスによってセンサデータを表示するステップを含み得る(図4に図示せず)。無人ロボット車両の1つまたは複数のセンサによってセンサデータを取り込むステップは、無人ロボット車両の位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、および/またはモーションセンサのうちの1つまたは複数のセンサからセンサデータを取り込むステップを含み得る。また、方法400は、プロセスプラント内の状態の指示を識別するために、カメラデータおよび/またはセンサデータを分析するステップをさらに含み得る。例えば、状態は、過熱状態、火災状態、煙状態、漏出状態、蒸気状態、溜り水または滴下水の状態、弁の状態、プロセスプラント内の動きの状態などであり得る。 In some examples, method 400 may further include capturing sensor data by one or a sensor of the unmanned robotic vehicle, transmitting the sensor data to a user interface device, and/or displaying the sensor data by a user interface device (not shown in FIG. 4). Capturing the sensor data by one or more sensors of the unmanned robotic vehicle may include capturing the sensor data from one or more of a position sensor, a temperature sensor, a flame sensor, a gas sensor, a wind sensor, an accelerometer, and/or a motion sensor of the unmanned robotic vehicle. Method 400 may also include analyzing the camera data and/or the sensor data to identify an indication of a condition within the process plant. For example, the condition may be an overheating condition, a fire condition, a smoke condition, a leak condition, a steam condition, a standing or dripping water condition, a valve condition, a movement condition within the process plant, and the like.

さらに、いくつかの実施例では、方法400はさらに、無人ロボット車両によって作動される必要があるプロセスプラント内のスイッチのユーザ選択の指示を受信するステップと、プロセスプラント内のスイッチを作動させるように無人ロボット車両のロボットアームを制御するステップとを含み得る。 Furthermore, in some embodiments, method 400 may further include receiving an indication of a user selection of a switch within the process plant that needs to be actuated by the unmanned robotic vehicle and controlling a robotic arm of the unmanned robotic vehicle to actuate the switch within the process plant.

さらに、いくつかの実施例では、方法400はさらに、プロセスプラント内のサンプルを採取するように無人ロボット車両のロボットアームを制御するステップを含み得る。 Furthermore, in some embodiments, method 400 may further include controlling a robotic arm of the unmanned robotic vehicle to collect a sample within the process plant.

以下の追加の考察は、上述の説明にも当てはまる。本明細書全体を通して、任意のデバイスまたはルーチンによって実行されるものとして説明されているアクションは、一般に、機械可読命令に従ってデータを操作するまたは変換するプロセッサのアクションまたはプロセスを指す。機械可読命令は、プロセッサに通信可能に結合されたメモリデバイスに記憶され、メモリデバイスから取り出され得る。すなわち、本明細書に記載されている方法は、図2に示されているように、コンピュータ可読媒体(すなわち、メモリデバイス)に記憶されている機械実行可能命令のセットによって具現化され得る。命令は、対応するデバイス(例えば、サーバ、ユーザ・インターフェース・デバイスなど)の1つまたは複数のプロセッサによって実行されたときに、プロセッサにその方法を実行させる。本明細書において、命令、ルーチン、モジュール、プロセス、サービス、プログラム、および/またはアプリケーションがコンピュータ可読メモリまたはコンピュータ可読媒体に記憶されるまたは保存されるものであると言及される場合、「記憶される」および「保存される」という単語は、一時的な信号を除外するものとする。 The following additional considerations also apply to the above description. Throughout this specification, actions described as being performed by any device or routine generally refer to the actions or processes of a processor that manipulates or transforms data according to machine-readable instructions. The machine-readable instructions may be stored in and retrieved from a memory device communicatively coupled to the processor. That is, the methods described herein may be embodied by a set of machine-executable instructions stored in a computer-readable medium (i.e., a memory device), as shown in FIG. 2. The instructions, when executed by one or more processors of a corresponding device (e.g., a server, a user interface device, etc.), cause the processor to perform the method. When instructions, routines, modules, processes, services, programs, and/or applications are referred to herein as being stored or saved in a computer-readable memory or computer-readable medium, the words "stored" and "saved" are intended to exclude transitory signals.

また、用語「オペレータ」、「要員」、「人」、「ユーザ」、「技術者」および同様の他の用語は、本明細書に記載されているシステム、装置、および方法を使用し得るまたはそれらと対話し得るプロセスプラント環境内にいる人を示すのに使用されるが、これらの用語は限定的であることを意図するものではない。本明細書内で特定の用語が使用される箇所において、その用語は、1つにはプラント要員が関わる従来の活動であるという理由で使用されるが、その特定の活動に関わっている可能性がある要員に限定するものではない。 Additionally, the terms "operator," "personnel," "people," "user," "technician," and other similar terms are used to indicate persons in a process plant environment who may use or interact with the systems, apparatus, and methods described herein, but these terms are not intended to be limiting. Where a particular term is used herein, that term is used in part because it is an activity traditionally involving plant personnel, but is not intended to be limiting to personnel who may be involved in that particular activity.

さらに、本明細書全体を通して、1つのインスタンスとして記載されているコンポーネント、動作、または構造を複数のインスタンスが実装する場合がある。1つまたは複数の方法の個々の動作は別個の動作として図示されて説明されているが、個々の動作の1つまたは複数は、同時に実行される場合もあり、動作は図示されている順序で実行される必要はない。構成例において別個のコンポーネントとして示されている構造および機能は、組み合わせられた構造またはコンポーネントとして実装され得る。同様に、単一コンポーネントとして示されている構造および機能は、別個のコンポーネントとして実装され得る。上述および他の変形、修正、追加、および改良の形態も本明細書の対象の範囲内にある。 Furthermore, throughout this specification, a component, operation, or structure described as one instance may be implemented by multiple instances. Although individual operations of one or more methods are illustrated and described as separate operations, one or more of the individual operations may be performed simultaneously, and the operations need not be performed in the order shown. Structures and functions shown as separate components in the example configurations may be implemented as combined structures or components. Similarly, structures and functions shown as single components may be implemented as separate components. The above and other variations, modifications, additions, and improvements are within the scope of this specification.

本明細書に記載されているアプリケーション、サービス、およびエンジンのいずれかは、ソフトウェア内で実装されるときに、磁気ディスク、レーザディスク、ソリッドステート・メモリ・デバイス、分子メモリ記憶装置、または他の記憶媒体のような任意の有形の非一時的なコンピュータ可読メモリ、コンピュータもしくはプロセッサのRAMまたはROM内などに記憶され得る。本明細書に開示されているシステム例は、数あるコンポーネントの中でも特に、ハードウェア上で実行されるソフトウェアおよび/またはファームウェアを含むものとして開示されているが、このようなシステムは単なる例に過ぎず、限定的であると考えるべきではないことに留意されたい。例えば、これらのハードウェアコンポーネント、ソフトウェアコンポーネント、およびファームウェアコンポーネントのいずれかまたは全てがハードウェア内でのみ、ソフトウェア内でのみ、またはハードウェアとソフトウェアの任意の組み合わせ内で具現化され得ることが考えられる。したがって、当業者は、提供されている実施例がこのようなシステムを実装する唯一の方法ではないことを容易に理解するであろう。 Any of the applications, services, and engines described herein, when implemented in software, may be stored in any tangible, non-transitory computer-readable memory, such as a magnetic disk, laser disk, solid-state memory device, molecular memory storage device, or other storage medium, in the RAM or ROM of a computer or processor, or the like. It should be noted that while the example systems disclosed herein are disclosed as including software and/or firmware running on hardware, among other components, such systems are merely examples and should not be considered limiting. For example, it is contemplated that any or all of these hardware, software, and firmware components may be embodied exclusively in hardware, exclusively in software, or in any combination of hardware and software. Thus, one skilled in the art will readily appreciate that the examples provided are not the only way to implement such systems.

したがって、本発明は、単なる例に過ぎず本発明を限定するものではない特定の実施例に関して説明されているが、当然のことながら、本発明の精神および範囲から逸脱せずに、開示されている実施形態に対して変更、追加、または削除がなされてもよいことは当業者には明らかであろう。さらに、上記では多数の異なる実施形態の詳細な説明を述べているが、詳細な説明は、単なる例に過ぎないと解釈すべきであり、可能な全ての実施形態を記載するのは不可能とは言えないまでも実現するのは困難であるので、可能な全ての実施形態を記載していない。現在の技術または本願の出願日の後に開発される技術を使用して、多数の代替形態が実現可能である。
Thus, the present invention has been described with respect to specific examples which are merely illustrative and not limiting of the present invention, but it will be appreciated that modifications, additions, or deletions may be made to the disclosed embodiments without departing from the spirit and scope of the present invention. Furthermore, while detailed descriptions of many different embodiments are set forth above, the detailed descriptions should be construed as merely illustrative and not all possible embodiments have been described, as describing all possible embodiments would be difficult, if not impossible, to achieve. Numerous alternatives are possible using current technology or technology developed after the filing date of this application.

Claims (29)

ユーザ・インターフェース・デバイスによって、無人ロボット車両を配備する必要がある前記ユーザ・インターフェース・デバイスによって表示されたプロセスプラントの概観内の機器のユーザ選択の指示を受信するステップであって、前記プロセスプラントの前記概観は、前記プロセスプラント内の様々な機器の物理的位置の表現を示す、前記受信ステップと、
前記ユーザ・インターフェース・デバイスによって、前記無人ロボット車両に関連付けられた搭載コンピューティングデバイスに、前記ユーザ選択の前記指示を伝送するステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ選択の前記指示に基づいて、前記プロセスプラント内の前記無人ロボット車両の目的地を決定するステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記プロセスプラント内の現在位置から前記プロセスプラント内の前記目的地まで移動するように前記無人ロボット車両を制御するステップと、
前記無人ロボット車両の1つまたは複数のカメラによってカメラデータを取り込むステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ・インターフェース・デバイスに前記カメラデータを伝送するステップと、
前記ユーザ・インターフェース・デバイスによって、前記プロセスプラント内の前記概観と並べて前記カメラデータを表示するステップと
を含む方法。
receiving, by a user interface device, an indication of a user selection of equipment within an overview of a process plant displayed by the user interface device to which an unmanned robotic vehicle should be deployed, the overview of the process plant showing a representation of a physical location of various equipment within the process plant;
transmitting, by the user interface device, the indication of the user selection to an on-board computing device associated with the unmanned robotic vehicle;
determining, by the on-board computing device associated with the unmanned robotic vehicle, a destination of the unmanned robotic vehicle within the process plant based on the indication of the user selection;
controlling, by the on-board computing device associated with the unmanned robotic vehicle, the unmanned robotic vehicle to move from a current location within the process plant to the destination within the process plant;
capturing camera data with one or more cameras of the unmanned robotic vehicle;
transmitting, by the on-board computing device associated with the unmanned robotic vehicle, the camera data to the user interface device;
and displaying the camera data alongside the overview within the process plant through the user interface device.
前記プロセスプラント内の前記無人ロボット車両の前記目的地を決定するステップは、前記ユーザによって選択された前記機器の物理的位置の近くの安全なホバリング点を決定するステップを含む、請求項1に記載の方法。 The method of claim 1, wherein determining the destination of the unmanned robotic vehicle within the process plant includes determining a safe hover point near a physical location of the equipment selected by the user. 現在位置から前記目的地まで移動するように前記無人ロボット車両を制御するステップは、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地までの安全なルートを識別するステップと、
前記搭載コンピューティングデバイスによって、前記安全なルートを通って前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地まで移動するように前記無人ロボット車両を制御するステップと
を含む、請求項1または請求項2に記載の方法。
The step of controlling the unmanned robotic vehicle to move from a current location to the destination includes:
identifying, by the on-board computing device associated with the unmanned robotic vehicle, a safe route from the current location within the process plant to the destination within the process plant;
and controlling, by the on-board computing device, the unmanned robotic vehicle to travel from the current location within the process plant to the destination within the process plant via the safe route.
前記プロセスプラントの前記概観と並べて前記カメラデータを表示するステップは、前記プロセスプラントの前記概観と並べられた前記カメラデータに基づいてライブビデオフィードを表示するステップを含む、請求項1から請求項3のいずれかに記載の方法。 The method of any one of claims 1 to 3, wherein displaying the camera data alongside the overview of the process plant includes displaying a live video feed based on the camera data alongside the overview of the process plant. 前記ユーザ・インターフェース・デバイスによって、前記プロセスプラントの前記概観内の前記機器に対する前記プロセスプラント内の前記無人ロボット車両の物理的位置の表現を表示するステップをさらに含む、請求項1から請求項4のいずれかに記載の方法。 The method of any one of claims 1 to 4, further comprising displaying, by the user interface device, a representation of the physical location of the unmanned robotic vehicle within the process plant relative to the equipment within the overview of the process plant. 前記無人ロボット車両の1つまたは複数のカメラによってカメラデータを取り込むステップは、前記無人ロボット車両の1つまたは複数の赤外線カメラデータによって赤外線カメラデータを取り込むステップを含む、請求項1から請求項5のいずれかに記載の方法。 The method of any one of claims 1 to 5, wherein the step of capturing camera data by one or more cameras of the unmanned robotic vehicle includes the step of capturing infrared camera data by one or more infrared camera data of the unmanned robotic vehicle. 前記無人ロボット車両の1つまたは複数のセンサによってセンサデータを取り込むステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ・インターフェース・デバイスに前記センサデータを伝送するステップと、
前記ユーザ・インターフェース・デバイスによって、前記センサデータを表示するステップと
をさらに含む、請求項1から請求項6のいずれかに記載の方法。
capturing sensor data with one or more sensors of the unmanned robotic vehicle;
transmitting, by the on-board computing device associated with the unmanned robotic vehicle, the sensor data to the user interface device;
The method of claim 1 , further comprising the step of: displaying the sensor data by the user interface device.
前記無人ロボット車両の1つまたは複数のセンサによってセンサデータを取り込むステップは、前記無人ロボット車両の位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、および/またはモーションセンサのうちの1つまたは複数のセンサからセンサデータを取り込むステップを含む、請求項7に記載の方法。 The method of claim 7, wherein capturing sensor data by one or more sensors of the unmanned robotic vehicle includes capturing sensor data from one or more of a position sensor, a temperature sensor, a flame sensor, a gas sensor, a wind sensor, an accelerometer, and/or a motion sensor of the unmanned robotic vehicle. 前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記プロセスプラント内の状態の指示を識別するために、前記カメラデータおよび/または前記センサデータを分析するステップをさらに含む、請求項7または請求項8に記載の方法。 The method of claim 7 or claim 8, further comprising analyzing, by the on-board computing device associated with the unmanned robotic vehicle, the camera data and/or the sensor data to identify an indication of conditions within the process plant. 前記状態は、過熱状態、火災状態、煙状態、漏出状態、蒸気状態、溜り水または滴下水の状態、弁の状態、または前記プロセスプラント内の動きの状態のうちの1つまたは複数の状態である、請求項9に記載の方法。 The method of claim 9, wherein the condition is one or more of an overheat condition, a fire condition, a smoke condition, a leak condition, a steam condition, a standing or dripping water condition, a valve condition, or a movement condition within the process plant. ユーザ・インターフェース・デバイスによって、前記無人ロボット車両によって作動される必要がある前記プロセスプラント内のスイッチのユーザ選択の指示を受信するステップと、
前記搭載コンピューティングデバイスによって、前記プロセスプラント内の前記スイッチを作動させるように前記無人ロボット車両のロボットアームを制御するステップと
をさらに含む、請求項1から請求項10のいずれかに記載の方法。
receiving, by a user interface device, an indication of a user selection of a switch within the process plant that is to be actuated by the unmanned robotic vehicle;
and controlling, by the on-board computing device, a robotic arm of the unmanned robotic vehicle to actuate the switch in the process plant.
前記搭載コンピューティングデバイスによって、前記プロセスプラント内のサンプルを採取するように前記無人ロボット車両のロボットアームを制御するステップをさらに含む、請求項1から請求項11のいずれかに記載の方法。 The method of any one of claims 1 to 11, further comprising controlling, by the on-board computing device, a robotic arm of the unmanned robotic vehicle to take a sample within the process plant. 1つまたは複数のカメラが装備された無人ロボット車両と通信するように構成されたユーザ・インターフェース・デバイスであって、
ディスプレイと、
1つまたは複数のプロセッサと、
1つまたは複数のメモリであって、前記1つまたは複数のプロセッサによって実行されたときに、前記ユーザ・インターフェース・デバイスに、
前記無人ロボット車両の搭載コンピューティングデバイスから、前記無人ロボット車両の前記1つまたは複数のカメラによって取り込まれたデータを受信させ、
前記無人ロボット車両の前記1つまたは複数のカメラによって取り込まれた前記データと並べて、プロセスプラント内の様々な機器の物理的位置の表現を示す前記プロセスプラントの概観を表示させ、
前記無人ロボット車両を配備する必要がある前記プロセスプラントの前記概観内の機器のユーザ選択を受信させ、
前記無人ロボット車両を配備する必要がある前記プロセスプラントの前記概観内の前記選択された機器を指示するコマンドを前記搭載コンピューティングデバイスに伝送させる、コンピュータ実行可能命令のセットを記憶するメモリと
を備える、ユーザ・インターフェース・デバイス。
1. A user interface device configured to communicate with an unmanned robotic vehicle equipped with one or more cameras, comprising:
A display and
one or more processors;
one or more memories that, when executed by the one or more processors, cause the user interface device to:
receiving, from an on-board computing device of the unmanned robotic vehicle, data captured by the one or more cameras of the unmanned robotic vehicle;
displaying, alongside the data captured by the one or more cameras of the unmanned robotic vehicle, an overview of the process plant showing a representation of the physical locations of various equipment within the process plant;
receiving a user selection of equipment within the overview of the process plant where the unmanned robotic vehicle should be deployed;
and a memory storing a set of computer-executable instructions that cause the on-board computing device to transmit a command indicating the selected equipment within the overview of the process plant where the unmanned robotic vehicle should be deployed.
前記ユーザ・インターフェース・デバイスに前記無人ロボット車両の前記1つまたは複数のカメラによって取り込まれたデータを表示させる命令は、前記1つまたは複数のカメラによって取り込まれたデータに基づいてライブビデオフィードを表示する命令を含む、請求項13に記載のユーザ・インターフェース・デバイス。 The user interface device of claim 13, wherein the instructions for causing the user interface device to display data captured by the one or more cameras of the unmanned robotic vehicle include instructions for displaying a live video feed based on data captured by the one or more cameras. 前記ユーザ・インターフェース・デバイスに前記プロセスプラントの前記概観を表示させる命令は、前記プロセスプラント内の前記概観内の前記機器に対する前記プロセスプラント内の前記無人ロボット車両の物理的位置の表現を表示する命令を含む、請求項13または請求項14に記載のユーザ・インターフェース・デバイス。 The user interface device of claim 13 or claim 14, wherein the instructions for causing the user interface device to display the overview of the process plant include instructions for displaying a representation of a physical location of the unmanned robotic vehicle within the process plant relative to the equipment within the overview of the process plant. 前記コンピュータ実行可能命令はさらに、前記ユーザ・インターフェース・デバイスに前記無人ロボット車両の前記1つまたは複数のセンサによって取り込まれたセンサデータを表示させる、請求項13から請求項15のいずれかに記載のユーザ・インターフェース・デバイス。 The user interface device of claim 13 , wherein the computer- executable instructions further cause the user interface device to display sensor data captured by the one or more sensors of the unmanned robotic vehicle. 前記センサデータは、前記無人ロボット車両の位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、および/またはモーションセンサのうちの1つまたは複数のセンサによって取り込まれたデータを含む、請求項16に記載のユーザ・インターフェース・デバイス。 The user interface device of claim 16, wherein the sensor data includes data captured by one or more of a position sensor, a temperature sensor, a flame sensor, a gas sensor, a wind sensor, an accelerometer, and/or a motion sensor of the unmanned robotic vehicle. 前記コンピュータ実行可能命令はさらに、前記ユーザ・インターフェース・デバイスに、
前記無人ロボット車両によって作動される必要がある前記プロセスプラント内のスイッチのユーザ選択の指示を受信させ、
前記無人ロボット車両によって作動される必要がある前記スイッチの選択を指示するコマンドを前記無人ロボット車両の前記搭載コンピューティングデバイスに伝送させる、請求項13から請求項17のいずれかに記載のユーザ・インターフェース・デバイス。
The computer executable instructions further include causing the user interface device to:
receiving an indication of a user selection of a switch within the process plant that is to be actuated by the unmanned robotic vehicle;
18. The user interface device of claim 13, configured to transmit a command to the on-board computing device of the unmanned robotic vehicle indicating a selection of the switch that needs to be actuated by the unmanned robotic vehicle.
無人ロボット車両であって、
前記無人ロボット車両がプロセスプラント内を移動するときに画像を取り込むように構成された1つまたは複数のカメラと、
1つまたは複数のプロセッサと、
1つまたは複数のメモリであって、前記1つまたは複数のプロセッサによって実行されたときに、前記無人ロボット車両に、
ーザ・インターフェース・デバイスからのコマンドを受信させることであって前記ユーザ・インターフェース・デバイスからのコマンドには、前記ユーザ・インターフェース・デバイスによって表示される前記プロセスプラントの概観内で前記無人ロボット車両を配備する必要がある機器のオペレータ選択が含まれ、前記プロセスプラントの前記概観は、前記プロセスプラント内の様々な機器の物理的位置の表現を示し、
前記ユーザ・インターフェース・デバイスからのコマンドに基づいて、前記プロセスプラント内の目的地を決定させ、
前記プロセスプラント内の現在位置から前記プロセスプラント内の前記目的地まで移動させ、
前記1つまたは複数のカメラによって取り込まれた画像を前記ユーザ・インターフェース・デバイスへ伝送させる、コンピュータ実行可能命令のセットを記憶するメモリと
を備える、無人ロボット車両。
An unmanned robotic vehicle,
one or more cameras configured to capture images as the unmanned robotic vehicle moves through a process plant;
one or more processors;
One or more memories that, when executed by the one or more processors, cause the unmanned robotic vehicle to:
receiving commands from a user interface device , the commands from the user interface device including an operator selection of equipment upon which the unmanned robotic vehicle should be deployed within an overview of the process plant displayed by the user interface device, the overview of the process plant showing a representation of a physical location of various equipment within the process plant;
determining a destination within the process plant based on commands from the user interface device ;
moving from a current location within the process plant to the destination within the process plant;
and a memory storing a set of computer-executable instructions that cause images captured by the one or more cameras to be transmitted to the user interface device.
前記無人ロボット車両に前記ユーザ・インターフェース・デバイスからのコマンドに基づいて前記プロセスプラント内の前記無人ロボット車両の前記目的地を決定させる前記コンピュータ実行可能命令は、前記無人ロボット車両に前記プロセスプラント内の前記機器の物理的位置の近くの安全なホバリング点を決定させる命令を含む、請求項19に記載の無人ロボット車両。 20. The unmanned robotic vehicle of claim 19, wherein the computer executable instructions for causing the unmanned robotic vehicle to determine the destination of the unmanned robotic vehicle within the process plant based on commands from the user interface device include instructions for causing the unmanned robotic vehicle to determine a safe hover point near a physical location of equipment within the process plant. 前記無人ロボット車両に前記現在位置から前記目的地まで移動させる前記コンピュータ実行可能命令は、前記無人ロボット車両に、
前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地までの安全なルートを識別させ、
前記安全なルートを通って前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地まで移動させる命令を含む、請求項19または請求項20に記載の無人ロボット車両。
The computer-executable instructions for causing the unmanned robotic vehicle to move from the current location to the destination include causing the unmanned robotic vehicle to:
identifying a safe route from the current location within the process plant to the destination within the process plant;
21. The unmanned robotic vehicle of claim 19 or claim 20, comprising instructions to move from the current location within the process plant to the destination within the process plant along the safe route.
前記無人ロボット車両は、無人航空機である、請求項19から請求項21のいずれかに記載の無人ロボット車両。 The unmanned robotic vehicle according to any one of claims 19 to 21, wherein the unmanned robotic vehicle is an unmanned aerial vehicle. 前記1つまたは複数のカメラは、1つまたは複数の赤外線カメラを含む、請求項19から請求項22のいずれかに記載の無人ロボット車両。 The unmanned robotic vehicle of any one of claims 19 to 22, wherein the one or more cameras include one or more infrared cameras. 前記無人ロボット車両が前記プロセスプラント内を移動するときにセンサデータを取り込むように構成された1つまたは複数のセンサをさらに含み、
前記コンピュータ実行可能命令はさらに、前記無人ロボット車両に、前記1つまたは複数のセンサによって取り込まれたセンサデータを前記ユーザ・インターフェース・デバイスに伝送させる、請求項19から請求項23のいずれかに記載の無人ロボット車両。
and one or more sensors configured to capture sensor data as the unmanned robotic vehicle moves through the process plant.
The unmanned robotic vehicle of claim 19 , wherein the computer-executable instructions further cause the unmanned robotic vehicle to transmit sensor data captured by the one or more sensors to the user interface device.
前記1つまたは複数のセンサは、位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、およびモーションセンサのうちの1つまたは複数のセンサを含む、請求項24に記載の無人ロボット車両。 The unmanned robotic vehicle of claim 24, wherein the one or more sensors include one or more of a position sensor, a temperature sensor, a flame sensor, a gas sensor, a wind sensor, an accelerometer, and a motion sensor. 前記コンピュータ実行可能命令はさらに、前記無人ロボット車両に、
前記プロセスプラント内の状態の指示を識別するために、1つまたは複数の前記カメラデータおよび前記センサデータを分析させる、請求項24または請求項25に記載の無人ロボット車両。
The computer executable instructions further include:
26. The unmanned robotic vehicle of claim 24 or claim 25, further comprising one or more of the camera data and the sensor data analyzed to identify indications of conditions within the process plant.
前記状態は、過熱状態、火災状態、煙状態、漏出状態、蒸気状態、溜り水または滴下水の状態、弁の状態、または前記プロセスプラント内の動きの状態のうちの1つまたは複数の状態である、請求項26に記載の無人ロボット車両。 The unmanned robotic vehicle of claim 26, wherein the condition is one or more of an overheat condition, a fire condition, a smoke condition, a leak condition, a steam condition, a standing or dripping water condition, a valve condition, or a movement condition within the process plant. (i)前記プロセスプラント内のスイッチを作動させる、または(ii)前記プロセスプラント内のサンプルを採取するうちの一方または両方を実行するように構成されたロボットアームをさらに備える、請求項19から請求項27のいずれかに記載の無人ロボット車両。 28. The unmanned robotic vehicle of any of claims 19 to 27, further comprising a robotic arm configured to perform one or both of: (i) actuating a switch within the process plant; or (ii) taking a sample within the process plant. 前記コンピュータ実行可能命令はさらに、前記無人ロボット車両に、
前記無人ロボット車両によって作動される必要がある前記プロセスプラント内のスイッチのユーザ選択の指示を受信させ、
前記プロセスプラント内の前記スイッチを作動させるように前記無人ロボット車両の前記ロボットアームを制御させる、請求項28に記載の無人ロボット車両。
The computer executable instructions further include:
receiving an indication of a user selection of a switch within the process plant that is to be actuated by the unmanned robotic vehicle;
30. The unmanned robotic vehicle of claim 28, further comprising: controlling the robotic arm of the unmanned robotic vehicle to actuate the switch in the process plant.
JP2019177739A 2018-10-01 2019-09-27 Drone-enabled operator patrols Active JP7530166B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862739829P 2018-10-01 2018-10-01
US62/739,829 2018-10-01
US16/580,793 2019-09-24
US16/580,793 US11281200B2 (en) 2018-10-01 2019-09-24 Drone-enabled operator rounds

Publications (3)

Publication Number Publication Date
JP2020064623A JP2020064623A (en) 2020-04-23
JP2020064623A5 JP2020064623A5 (en) 2022-09-09
JP7530166B2 true JP7530166B2 (en) 2024-08-07

Family

ID=69945748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019177739A Active JP7530166B2 (en) 2018-10-01 2019-09-27 Drone-enabled operator patrols

Country Status (2)

Country Link
JP (1) JP7530166B2 (en)
CN (1) CN110968054B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022012110A (en) * 2020-07-01 2022-01-17 三菱電機株式会社 Plant monitoring control system
CN114482885B (en) * 2022-01-25 2024-03-29 西南石油大学 Intelligent control system for pressure-controlled drilling

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002167737A (en) 2000-09-22 2002-06-11 Mitsubishi Heavy Ind Ltd Remote monitor control responding type drainage system and drainage pump station remote monitor device
JP2004171127A (en) 2002-11-18 2004-06-17 Hitachi Ltd Field work support method, system therefor and recording medium
JP2004348242A (en) 2003-05-20 2004-12-09 Hitachi Ltd Monitoring system and monitoring terminal
JP2005081447A (en) 2003-09-04 2005-03-31 Tech Res & Dev Inst Of Japan Def Agency Traveling robot
JP2016053819A (en) 2014-09-03 2016-04-14 村田機械株式会社 Carrying vehicle system and method of monitoring surroundings of route
US20160253908A1 (en) 2015-01-22 2016-09-01 Zipline International Inc. Unmanned aerial vehicle management system
JP2016197404A (en) 2015-03-25 2016-11-24 横河電機株式会社 System and method for monitoring industrial plant
JP6527299B1 (en) 2018-12-07 2019-06-05 楽天株式会社 Method of determining an article delivery location, method of determining a landing location, an article delivery system, and an information processing apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682502B2 (en) * 2007-03-28 2014-03-25 Irobot Corporation Remote vehicle control system and method
US10310617B2 (en) * 2015-06-11 2019-06-04 Intel Corporation Drone controlling device and method
CN106339079A (en) * 2016-08-08 2017-01-18 清华大学深圳研究生院 Method and device for realizing virtual reality by using unmanned aerial vehicle based on computer vision
CN106325290A (en) * 2016-09-30 2017-01-11 北京奇虎科技有限公司 Monitoring system and device based on unmanned aerial vehicle
CN108268121A (en) * 2016-12-30 2018-07-10 昊翔电能运动科技(昆山)有限公司 Control method, control device and the control system of unmanned vehicle
KR101866239B1 (en) * 2017-05-30 2018-06-12 (주)이피에스이앤이 Method for Monitoring Water Quality Environment Using Drone
CN108132675B (en) * 2017-11-23 2020-02-21 东南大学 Autonomous path cruising and intelligent obstacle avoidance method for factory inspection unmanned aerial vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002167737A (en) 2000-09-22 2002-06-11 Mitsubishi Heavy Ind Ltd Remote monitor control responding type drainage system and drainage pump station remote monitor device
JP2004171127A (en) 2002-11-18 2004-06-17 Hitachi Ltd Field work support method, system therefor and recording medium
JP2004348242A (en) 2003-05-20 2004-12-09 Hitachi Ltd Monitoring system and monitoring terminal
JP2005081447A (en) 2003-09-04 2005-03-31 Tech Res & Dev Inst Of Japan Def Agency Traveling robot
JP2016053819A (en) 2014-09-03 2016-04-14 村田機械株式会社 Carrying vehicle system and method of monitoring surroundings of route
US20160253908A1 (en) 2015-01-22 2016-09-01 Zipline International Inc. Unmanned aerial vehicle management system
JP2016197404A (en) 2015-03-25 2016-11-24 横河電機株式会社 System and method for monitoring industrial plant
JP6527299B1 (en) 2018-12-07 2019-06-05 楽天株式会社 Method of determining an article delivery location, method of determining a landing location, an article delivery system, and an information processing apparatus

Also Published As

Publication number Publication date
CN110968054B (en) 2024-08-20
CN110968054A (en) 2020-04-07
JP2020064623A (en) 2020-04-23

Similar Documents

Publication Publication Date Title
US11281200B2 (en) Drone-enabled operator rounds
US10445944B2 (en) Augmented reality safety automation zone system and method
JP6457182B2 (en) Method for starting or resuming a mobile control session in a process plant
EP3076253B1 (en) Systems and methods for presenting an augmented reality
EP3582054A1 (en) Virtual reality and augmented reality for industrial automation
EP3318944A2 (en) Virtual reality and augmented reality for industrial automation
CN107643735A (en) Process control communication framework
JP7530166B2 (en) Drone-enabled operator patrols
CN104049597A (en) Method and apparatus for managing a work flow in a process plant
CN104049585A (en) Context sensitive mobile control in process plant
CN104049586A (en) Mobile control room with function of real-time environment awareness
CN104049582A (en) Generating checklists in a process control environment
CN104049594A (en) Method and apparatus for seamless state transfer between user interface devices in a mobile control room
CN104049588A (en) Method and apparatus for seamless state transfer between user interface devices in a mobile control room
CN104049589A (en) Method and apparatus for seamless state transfer between user interface devices in a mobile control room
CN104049592A (en) Method and apparatus for seamless state transfer between user interface devices in a mobile control room
CN104049587A (en) Method and device for controlling process plant by utilizing location-aware mobile control equipment
CN104049593A (en) Mobile analysis of physical phenomena in a process plant
CN104049268A (en) Method and apparatus for determining the position of a mobile control device in a process plant
US20210191368A1 (en) Virtual job control
CN104049583A (en) Method for initiating or resuming a mobile control session in a process plant
CN104049591A (en) Method for initiating or resuming a mobile control session in a process plant
CN111844018A (en) Fire-fighting site detection robot management method and device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240726

R150 Certificate of patent or registration of utility model

Ref document number: 7530166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150