JP7530166B2 - Drone-enabled operator patrols - Google Patents
Drone-enabled operator patrols Download PDFInfo
- Publication number
- JP7530166B2 JP7530166B2 JP2019177739A JP2019177739A JP7530166B2 JP 7530166 B2 JP7530166 B2 JP 7530166B2 JP 2019177739 A JP2019177739 A JP 2019177739A JP 2019177739 A JP2019177739 A JP 2019177739A JP 7530166 B2 JP7530166 B2 JP 7530166B2
- Authority
- JP
- Japan
- Prior art keywords
- robotic vehicle
- process plant
- unmanned robotic
- user interface
- unmanned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 232
- 230000008569 process Effects 0.000 claims description 202
- 230000015654 memory Effects 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 17
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 7
- 239000000779 smoke Substances 0.000 claims description 4
- 238000004886 process control Methods 0.000 description 47
- 230000006870 function Effects 0.000 description 31
- 238000004891 communication Methods 0.000 description 30
- 230000009471 action Effects 0.000 description 13
- 238000012544 monitoring process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 239000007789 gas Substances 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011217 control strategy Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 239000000383 hazardous chemical Substances 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013021 overheating Methods 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 239000002341 toxic gas Substances 0.000 description 2
- 238000009412 basement excavation Methods 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000026058 directional locomotion Effects 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000004989 laser desorption mass spectroscopy Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4185—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication
- G05B19/4186—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication by protocol, e.g. MAP, TOP
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4189—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system
- G05B19/41895—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system using automatic guided vehicles [AGV]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4183—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0027—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/104—Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/003—Flight plan management
- G08G5/0034—Assembly of a flight plan
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/55—UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use
- B64U2101/57—UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use for bringing emergency supplies to persons or animals in danger, e.g. ropes or life vests
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本開示は、全般的には、産業プロセスプラントおよびプロセス制御システムに関し、特に、ドローンを使用してプロセスプラントの状態を監視するシステムおよび方法に関する。 The present disclosure relates generally to industrial process plants and process control systems, and more particularly to systems and methods for monitoring the condition of a process plant using drones.
物理的な材料または製品を製造し、精製し、変換し、生成し、または生産するための化学プロセスプラント、石油プロセスプラント、または他のプロセスプラントで使用されるような分散プロセス制御システムは、典型的には、アナログバス、デジタルバス、もしくはアナログバス/デジタルバスの組み合わせ、または無線通信リンクもしくはネットワークを介して、1つまたは複数のフィールドデバイスに通信可能に結合された1つまたは複数のプロセスコントローラを含む。例えば、弁、弁ポジショナ、スイッチ、および伝送器(例えば、温度センサ、圧力センサ、レベルセンサおよび流量センサ)であり得るフィールドデバイスは、プロセス環境内に位置付けられ、一般に、弁の開閉、測定プロセスおよび/または環境パラメータ(温度または圧力など)のような物理的機能またはプロセス制御機能を実行して、プロセスプラントまたはシステム内で実行している1つまたは複数のプロセスを制御する。さらに、周知のFieldbusプロトコル準拠のフィールドデバイスのようなスマート・フィールド・デバイスはさらに、制御計算、警告機能、および一般にコントローラ内に実装される他の制御機能を実行し得る。典型的には、プラント環境内に位置付けられるプロセスコントローラは、フィールドデバイスによって作成されたプロセス測定値および/またはフィールドデバイスに関する他の情報を表す信号を受信し、例えば、プロセス制御決定を行う種々の制御モジュールを動作させるコントローラアプリケーションを実行し、受信情報に基づいて制御信号を生成し、HART(登録商標)、WirelessHART(登録商標)、およびFOUNDATION(登録商標)Fieldbusのフィールドデバイスのようなフィールドデバイス内で実行されている制御モジュールまたはブロックとの調整を行う。コントローラ内の制御モジュールは、通信回線またはリンク経由で制御信号をフィールドデバイスに送信して、プロセスプラントまたはシステムの少なくとも一部の動作を制御し、例えば、プラントまたはシステム内で動作する、または実行する1つまたは複数の工業プロセスの少なくとも一部を制御する。例えば、コントローラおよびフィールドデバイスは、プロセスプラントまたはシステムによって制御されているプロセスの少なくとも一部を制御する。一般に同様にプラント環境内に位置付けされるI/Oデバイスは、典型的には、コントローラと1つまたは複数のフィールドデバイスとの間に配置され、例えば、電気信号をデジタル値に、またデジタル値を電気信号に変換することによって、これらの間の通信を可能にする。本明細書内で使用される場合、フィールドデバイス、コントローラ、およびI/Oデバイスは、一般に「プロセス制御装置」と呼ばれ、一般に、プロセス制御システムまたはプラントのフィールド環境内に位置付けられる、配置される、または設置される。 Distributed process control systems, such as those used in chemical, petroleum, or other process plants for manufacturing, refining, converting, creating, or producing physical materials or products, typically include one or more process controllers communicatively coupled to one or more field devices via an analog bus, a digital bus, or a combination analog/digital bus, or a wireless communication link or network. The field devices, which may be, for example, valves, valve positioners, switches, and transmitters (e.g., temperature, pressure, level, and flow sensors), are positioned within the process environment and generally perform physical or process control functions, such as opening and closing valves, measuring process and/or environmental parameters (such as temperature or pressure), to control one or more processes running within the process plant or system. Additionally, smart field devices, such as well-known Fieldbus protocol-compliant field devices, may further perform control calculations, alarm functions, and other control functions typically implemented within a controller. Typically, a process controller located within a plant environment receives signals representative of process measurements made by field devices and/or other information regarding the field devices, executes a controller application that operates various control modules that make process control decisions, for example, generates control signals based on the received information, and coordinates with control modules or blocks executing within the field devices, such as HART®, WirelessHART®, and FOUNDATION® Fieldbus field devices. The control modules within the controller send control signals over communication lines or links to the field devices to control the operation of at least a portion of the process plant or system, for example, to control at least a portion of one or more industrial processes operating or executing within the plant or system. For example, the controller and the field devices control at least a portion of the processes being controlled by the process plant or system. I/O devices, also typically located within a plant environment, are typically disposed between the controller and one or more field devices and enable communication therebetween, for example, by converting electrical signals to digital values and digital values to electrical signals. As used herein, field devices, controllers, and I/O devices are generally referred to as "process control equipment" and are generally located, disposed, or installed within the field environment of a process control system or plant.
フィールドデバイスおよびコントローラからの情報は、通常、データハイウェイまたは通信ネットワーク経由で、例えば、オペレータワークステーション、パーソナルコンピュータもしくはコンピューティングデバイス、データヒストリアン、レポートジェネレータ、集中データベース、または典型的に、プラントのより過酷なフィールド環境から離れた制御室または他の場所(例えば、プロセスプラントのバックエンド環境)に配置される他の集中管理コンピューティングデバイスのような1つまたは複数の他のハードウェアデバイスで入手可能である。これらのハードウェアデバイスの各々は、典型的には、プロセスプラント全体またはプロセスプラントの一部にわたる集中デバイスである。これらのハードウェアデバイスは、例えば、オペレータがプロセスの制御および/またはプロセスプラントの操作に関する機能、例えば、プロセス制御ルーチンの設定の変更、コントローラまたはフィールドデバイス内の制御モジュールの動作の修正、プロセスの現在の状態の表示、フィールドデバイスおよびコントローラによって生成された警告の表示、要員のトレーニングまたはプロセス制御ソフトウェアの試験のためのプロセスの動作のシミュレーション、構成データベースの維持および更新などを実行することを可能にするアプリケーションを動作させる。ハードウェアデバイス、コントローラおよびフィールドデバイスによって利用されるデータハイウェイは、有線通信経路、無線通信経路、または有線通信経路と無線通信の組み合わせを含み得る。 Information from the field devices and controllers is typically available via a data highway or communication network to one or more other hardware devices, such as, for example, operator workstations, personal computers or computing devices, data historians, report generators, centralized databases, or other centralized computing devices that are typically located in a control room or other location (e.g., a back-end environment of a process plant) away from the plant's harsher field environment. Each of these hardware devices is typically a centralized device across the entire process plant or a portion of the process plant. These hardware devices operate applications that enable operators to perform functions related to the control of the process and/or operation of the process plant, such as changing settings of process control routines, modifying the operation of control modules in controllers or field devices, viewing the current state of the process, viewing alerts generated by field devices and controllers, simulating the operation of the process for training personnel or testing process control software, maintaining and updating configuration databases, etc. The data highway utilized by the hardware devices, controllers, and field devices may include wired communication paths, wireless communication paths, or a combination of wired and wireless communication paths.
一例として、Emerson Process Management社から販売されているDeltaV(商標)制御システムは、プロセスプラント内の様々な場所に位置付けられた種々のデバイス内に記憶され、異なるデバイスによって実行される複数のアプリケーションを含む。プロセス制御システムまたはプラントのバックエンド環境内の1つまたは複数のワークステーションまたはコンピューティングデバイス内に常駐する構成アプリケーションは、ユーザがプロセス制御モジュールを作成または変更して、データハイウェイ経由でこれらのプロセス制御モジュールを専用分散コントローラにダウンロードするのを可能にする。典型的には、これらの制御モジュールは、通信可能に相互接続された機能ブロックから成り、機能ブロックは、機能ブロックへの入力に基づいて制御スキーム内の機能を実行し、制御スキーム内の他の機能ブロックへの出力を生成するオブジェクト指向プログラミングプロトコル内のオブジェクトである。構成アプリケーションはさらに、構成設計者が、オペレータにデータを表示するために閲覧アプリケーションによって使用されるオペレータインターフェースを作成または変更できるようにし、オペレータがプロセス制御ルーチン内の設定(例えば、設定値)を変更するのを可能にする。各々の専用コントローラおよび、場合によっては、1つまたは複数のフィールドデバイスは、実際のプロセス制御機能を実装するために割り当てられダウンロードされた制御モジュールを動作させる個々のコントローラアプリケーションを記憶し、実行する。1つまたは複数のオペレータワークステーション上(またはオペレータワークステーションおよびデータハイウェイと通信接続された1つまたは複数のリモートコンピューティングデバイス上)で実行され得る閲覧アプリケーションは、データハイウェイ経由でコントローラアプリケーションからデータを受信し、このデータをプロセス制御システム設計者、オペレータ、またはユーザインターフェースを使用するユーザに表示し、オペレータビュー、エンジニアビュー、技術者ビューなど多数の異なるビューのうちのいずれかを提供し得る。データ・ヒストリアン・アプリケーションは、典型的には、データハイウェイ経由で提供されたデータの一部または全てを収集して蓄積するデータ・ヒストリアン・デバイス内に記憶され、データ・ヒストリアン・デバイスによって実行されるが、構成データベースアプリケーションは、現在のプロセス制御ルーチン構成およびそれに関連付けられたデータを記憶するためにデータハイウェイに接続されているさらに別のコンピュータ内で動作し得る。あるいは、構成データベースは、構成アプリケーションと同じワークステーション内に位置付けられ得る。 As an example, the DeltaV™ control system sold by Emerson Process Management includes multiple applications stored in and executed by various devices located at various locations within a process plant. Configuration applications residing in one or more workstations or computing devices within the back-end environment of the process control system or plant allow users to create or modify process control modules and download these process control modules to dedicated distributed controllers via a data highway. Typically, these control modules consist of communicatively interconnected function blocks, which are objects in an object-oriented programming protocol that perform functions within a control scheme based on inputs to the function blocks and generate outputs to other function blocks in the control scheme. The configuration application also allows the configuration designer to create or modify an operator interface used by a viewing application to display data to an operator and allows the operator to change settings (e.g., setpoints) within a process control routine. Each dedicated controller and, in some cases, one or more field devices, stores and executes an individual controller application that runs the assigned and downloaded control modules to implement the actual process control functions. A viewing application, which may be running on one or more operator workstations (or on one or more remote computing devices communicatively coupled to the operator workstations and the data highway), receives data from the controller application via the data highway and displays this data to a process control system designer, operator, or user using a user interface, and may provide any of a number of different views, such as an operator view, an engineer view, a technician view, etc. While the data historian application is typically stored in and executed by a data historian device that collects and accumulates some or all of the data provided via the data highway, a configuration database application may operate in yet another computer connected to the data highway to store the current process control routine configuration and data associated therewith. Alternatively, the configuration database may be located in the same workstation as the configuration application.
これらの閲覧アプリケーションは、現在では、プラントのフィールド環境から離れて位置付けされたオペレータワークステーションを介してオペレータに大量の情報を提供するが、オペレータは、一部のタイプの情報を取得するためには、依然としてプラントのフィールド環境に出向かなければならない。例えば、これらの閲覧アプリケーションはプラント内に位置決めされたカメラから取り込まれたライブ画像または静止画像を表示し得るが、これらのカメラは、典型的には、固定視野を有する。したがって、オペレータは、これらのカメラの視野から外れるプロセスプラントのイベントを調べるために、プラントのフィールド環境に入る必要があり得る。さらに、オペレータは、現在では、予定された巡回の間プロセスプラントのフィールド環境の中を歩いて、フィールド環境内で、プラントの状態を検査し、プラント内でアクションを実行するなどして、プラントの安全性チェックリストを完成させる。しかしながら、プロセスプラントのフィールド環境では、例えば、有害化学物質、高温、危険な機器、および/または大きな雑音のような危険な状態が高頻度で見られるために、オペレータがプロセスプラントのフィールド環境に物理的に入るのは安全でない場合が多い。 Although these viewing applications currently provide a large amount of information to operators via operator workstations located away from the plant's field environment, operators must still travel to the plant's field environment to obtain some types of information. For example, these viewing applications may display live or still images captured from cameras positioned within the plant, but these cameras typically have a fixed field of view. Thus, operators may need to enter the plant's field environment to examine process plant events that are outside the field of view of these cameras. Additionally, operators currently walk through the process plant's field environment during scheduled rounds to inspect plant conditions, perform actions within the plant, etc., complete plant safety checklists within the field environment. However, it is often unsafe for operators to physically enter the process plant's field environment due to the high frequency of hazardous conditions, such as, for example, hazardous chemicals, high temperatures, dangerous equipment, and/or loud noises, in the process plant's field environment.
カメラおよびセンサが装備された複数のドローンは、プロセスプラントの状態を監視するためにプロセスプラントのフィールド環境全体を移動するように構成され得る。一般に、ドローンは、無人ロボット車両である。いくつかの実施例では、ドローンは、空中ドローン(例えば、無人航空機または「UAV」)であるが、他の実施例では、ドローンは、地上ドローンもしくは水上ドローン、または空中、地上、ならびに/もしくは水上の機能の何らかの組み合わせを有するドローンである。
ドローンに関連付けられた搭載コンピューティングデバイスは、プロセスプラントのフィールド環境内を通るドローンの動きを制御する。さらに、搭載コンピューティングデバイスは、カメラおよび他のセンサとインターフェースし、ネットワークを介してユーザ・インターフェース・デバイス、コントローラ、サーバおよび/またはデータベースと通信する。例えば、搭載コンピューティングデバイスは、ユーザ・インターフェース・デバイスおよび/またはサーバからドローンコマンドを受信し得る、または1つまたは複数のデータベース内に記憶されているドローンコマンドにアクセスし得る。さらに、搭載コンピューティングデバイスは、カメラおよび/または他のセンサによって取り込まれたデータをUIデバイス、コントローラ、サーバなどに伝送し得る。したがって、ユーザ・インターフェース・デバイスは、ドローンカメラおよび/またはドローンセンサによって取り込まれたデータ(ライブビデオフィードを含む)をヒューマン・マシン・インターフェース(HMI)アプリケーション内でオペレータに対して表示し得る。
Multiple drones equipped with cameras and sensors can be configured to move throughout a process plant's field environment to monitor the conditions of the process plant. Generally, drones are unmanned robotic vehicles. In some examples, the drones are aerial drones (e.g., unmanned aerial vehicles or "UAVs"), while in other examples, the drones are terrestrial or water drones, or drones with some combination of aerial, terrestrial, and/or water capabilities.
An on-board computing device associated with the drone controls the movement of the drone through the field environment of the process plant. Additionally, the on-board computing device interfaces with cameras and other sensors and communicates with user interface devices, controllers, servers and/or databases over a network. For example, the on-board computing device may receive drone commands from the user interface devices and/or servers or access drone commands stored in one or more databases. Additionally, the on-board computing device may transmit data captured by the cameras and/or other sensors to a UI device, controller, server, etc. Thus, the user interface device may display data captured by the drone cameras and/or drone sensors (including live video feeds) to an operator within a human machine interface (HMI) application.
一態様では、1つの方法が提供される。該方法は、ユーザ・インターフェース・デバイスによって、無人ロボット車両を配備する必要があるユーザ・インターフェース・デバイスによって表示されたプロセスプラントの概観内の機器のユーザ選択の指示を受信するステップであって、プロセスプラントの概観はプロセスプラント内の様々な機器の物理的位置の表現を示す、前記受信ステップと、ユーザ・インターフェース・デバイスによって、ユーザ選択の指示を無人ロボット車両に関連付けられた搭載コンピューティングデバイスに伝送するステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、ユーザ選択の指示に基づいてプロセスプラント内の無人ロボット車両の目的地を決定するステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように無人ロボット車両を制御するステップと、無人ロボット車両の1つまたは複数のカメラによってカメラデータを取り込むステップと、無人ロボット車両に関連付けられた搭載コンピューティングデバイスによって、カメラデータをユーザ・インターフェース・デバイスに伝送するステップと、ユーザ・インターフェース・デバイスによって、プロセスプラントの概観と並べてカメラデータを表示するステップとを含む。 In one aspect, a method is provided. The method includes receiving, by a user interface device, an indication of a user selection of equipment within an overview of a process plant displayed by the user interface device to which the unmanned robotic vehicle should be deployed, the overview of the process plant showing a representation of the physical locations of various equipment within the process plant; transmitting, by the user interface device, the indication of the user selection to an on-board computing device associated with the unmanned robotic vehicle; determining, by the on-board computing device associated with the unmanned robotic vehicle, a destination of the unmanned robotic vehicle within the process plant based on the indication of the user selection; controlling, by the on-board computing device associated with the unmanned robotic vehicle, the unmanned robotic vehicle to move from a current location within the process plant to a destination within the process plant; capturing camera data by one or more cameras of the unmanned robotic vehicle; transmitting, by the on-board computing device associated with the unmanned robotic vehicle, the camera data to a user interface device; and displaying, by the user interface device, the camera data alongside the overview of the process plant.
別の態様では、ユーザ・インターフェース・デバイスが提供される。ユーザインターフェースは、1つまたは複数のカメラが装備された無人ロボット車両と通信するように構成されたユーザ・インターフェース・デバイスであって、ディスプレイと、1つまたは複数のプロセッサと、コンピュータ実行可能命令のセットを記憶する1つまたは複数のメモリとを備えるユーザ・インターフェース・デバイスを備える。コンピュータ実行可能命令は、1つまたは複数のプロセッサによって実行されたときに、ユーザ・インターフェース・デバイスに、無人ロボット車両の搭載コンピューティングデバイスから、無人ロボット車両の1つまたは複数のカメラによって取り込まれたデータを受信させ、無人ロボット車両の1つまたは複数のカメラによって取り込まれたデータと並べて、プロセスプラント内の様々な機器の物理的位置の表現を示すプロセスプラントの概観を表示させ、無人ロボット車両を配備する必要があるプロセスプラントの概観内の機器のオペレータ選択を受信させ、無人ロボット車両の搭載コンピューティングデバイスに、無人ロボット車両を配備する必要があるプロセスプラントの概観内の選択された機器を指示するコマンドを伝送させる。 In another aspect, a user interface device is provided. The user interface comprises a user interface device configured to communicate with an unmanned robotic vehicle equipped with one or more cameras, the user interface device comprising a display, one or more processors, and one or more memories storing a set of computer-executable instructions. The computer-executable instructions, when executed by the one or more processors, cause the user interface device to receive data captured by one or more cameras of the unmanned robotic vehicle from an on-board computing device of the unmanned robotic vehicle, display an overview of the process plant showing a representation of the physical location of various equipment within the process plant alongside the data captured by the one or more cameras of the unmanned robotic vehicle, receive an operator selection of equipment within the overview of the process plant to which the unmanned robotic vehicle should be deployed, and transmit a command to the on-board computing device of the unmanned robotic vehicle indicating the selected equipment within the overview of the process plant to which the unmanned robotic vehicle should be deployed.
さらに別の態様では、無人ロボット車両が提供される。無人ロボット車両は、無人ロボット車両がプロセスプラント内を移動するときに画像を取り込むように構成された1つまたは複数のカメラと、1つまたは複数のプロセッサと、コンピュータ実行可能命令のセットを記憶する1つまたは複数のメモリとを備える。コンピュータ実行可能命令は、1つまたは複数のプロセッサによって実行されたときに、無人ロボット車両に、無人ロボット車両を配備する必要があるプロセスプラント内の機器を指示するコマンドを含むユーザ・インターフェース・デバイスからのコマンドを受信させ、プロセスプラント内の機器の指示に基づいてプロセスプラント内の目的地を決定させ、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動させ、1つまたは複数のカメラによって取り込まれた画像をユーザ・インターフェース・デバイスに伝送させる。 In yet another aspect, an unmanned robotic vehicle is provided. The unmanned robotic vehicle comprises one or more cameras configured to capture images as the unmanned robotic vehicle moves through a process plant, one or more processors, and one or more memories storing a set of computer-executable instructions. The computer-executable instructions, when executed by the one or more processors, cause the unmanned robotic vehicle to receive commands from a user interface device including commands indicating an equipment within the process plant where the unmanned robotic vehicle should be deployed, determine a destination within the process plant based on the indication of the equipment within the process plant, move from a current location within the process plant to the destination within the process plant, and transmit images captured by the one or more cameras to the user interface device.
上述したように、閲覧アプリケーションは、現在では、プラントのフィールド環境から離れて位置付けされたオペレータワークステーションを介してオペレータに大量の情報を提供するが、オペレータは、一部のタイプの情報を取得するためには、依然としてプラントのフィールド環境に出向かなければならない。例えば、これらの閲覧アプリケーションはプラント内に位置決めされたカメラから取り込まれたライブ画像または静止画像を表示し得るが、これらのカメラは、典型的には、固定視野を有する。したがって、オペレータは、これらのカメラの視野から外れるプロセスプラントのイベントを調べるために、プラントのフィールド環境に入る必要があり得る。さらに、オペレータは、現在では、予定された巡回の間プロセスプラントのフィールド環境の中を歩いて、フィールド環境内で、プラントの状態を検査し、プラント内でアクションを実行するなどして、プラントの安全性チェックリストを完成させる。しかしながら、プロセスプラントのフィールド環境では、例えば、有害化学物質、高温、危険な機器、および/または大きな雑音のような危険な状態が高頻度で見られるために、オペレータがプロセスプラントのフィールド環境に物理的に入るのは安全でない場合が多い。 As discussed above, viewing applications currently provide a large amount of information to operators via operator workstations located away from the plant's field environment, but operators still must travel to the plant's field environment to obtain some types of information. For example, these viewing applications may display live or still images captured from cameras positioned within the plant, but these cameras typically have a fixed field of view. Thus, operators may need to enter the plant's field environment to examine process plant events that are outside the field of view of these cameras. Additionally, operators currently walk through the process plant's field environment during scheduled rounds to inspect plant conditions, perform actions within the plant, etc., complete plant safety checklists within the field environment. However, it is often unsafe for operators to physically enter the process plant's field environment due to the high frequency of hazardous conditions, such as, for example, hazardous chemicals, high temperatures, dangerous equipment, and/or loud noises, in the process plant's field environment.
本明細書に開示されているシステム、方法、デバイス、および技術は、オペレータがプロセスプラントの危険なフィールド環境に物理的に入らずにプロセスプラント内の状態を監視することができるようにすることによって、周知のシステムの上記の欠点および他の欠点に対処する。特に、ドローンを使用してプロセスプラントの状態を監視するためのシステム、方法、デバイス、および技術が本明細書内で開示されている。有利には、カメラおよび他のセンサが装備されたドローンは、危険過ぎてオペレータが入ることができないプロセスプラントの区域を安全に監視することができる。例えば、カメラおよび他のセンサによって取り込まれたデータは、ユーザ・インターフェース・デバイスに伝送され、フィールド環境の外側に安全に位置するオペレータに表示され得る。 The systems, methods, devices, and techniques disclosed herein address the above and other shortcomings of known systems by enabling an operator to monitor conditions within a process plant without physically entering the dangerous field environment of the process plant. In particular, systems, methods, devices, and techniques are disclosed herein for monitoring conditions in a process plant using drones. Advantageously, drones equipped with cameras and other sensors can safely monitor areas of a process plant that are too dangerous for an operator to enter. For example, data captured by the cameras and other sensors can be transmitted to a user interface device and displayed to an operator safely located outside the field environment.
図1は、本明細書に記載されているドローンを使用してプロセスプラントの状態を監視するためのシステム、方法、および技術の実施形態が共におよび/または内部で利用され得る、プロセス制御システムまたはプロセスプラント10内で動作する例示的なプロセス制御ネットワークまたはシステム2のブロック図である。プロセス制御ネットワークまたはシステム2は、様々な他のデバイス間の直接的または間接的な接続を提供するネットワークバックボーン5を含み得る。ネットワークバックボーン5に結合されたデバイスは、様々な実施形態では、1つまたは複数のアクセスポイント7a、(例えば、イントラネットまたは企業の広域ネットワークを介する)他のプロセスプラントへの1つまたは複数のゲートウェイ7b、外部システムへの(例えば、インターネットに対する)1つまたは複数のゲートウェイ7c、固定のコンピューティングデバイス(例えば、従来のオペレータワークステーション)またはモバイル・コンピューティング・デバイス(例えば、モバイル機器スマートフォン)であり得る1つまたは複数のユーザインターフェース(UI)デバイス8、1つまたは複数のサーバ12(例えば、クラウド・コンピューティング・システムのようなサーババンク、または別の適切な構成として実装され得る)、コントローラ11、入出力(I/O)カード26、28、有線フィールドデバイス15~22、無線ゲートウェイ35、および無線通信ネットワーク70の組み合わせを含む。通信ネットワーク70は、無線フィールドデバイス40~46と、無線アダプタ52a、52bと、アクセスポイント55a、55bと、ルータ58とを含む無線デバイスを含み得る。無線アダプタ52a、52bは、非無線フィールドデバイス48、50にそれぞれ接続され得る。コントローラ11は、プロセッサ30と、メモリ32と、1つまたは複数の制御ルーチン38とを含み得る。図1は、ネットワークバックボーン5に直接および/または通信可能に接続されるデバイスのいくつかのうちの1つのみを示しているが、当然のことながら、デバイスの各々はネットワークバックボーン5上に複数のインスタンスを有し得、実際に、プロセスプラント10は複数のネットワークバックボーン5を含み得る。
1 is a block diagram of an exemplary process control network or
UIデバイス8は、ネットワークバックボーン5を介してコントローラ11および無線ゲートウェイ35に通信可能に接続され得る。コントローラ11は、入出力(I/O)カード26、28を介して有線フィールドデバイス15~22に通信可能に接続され得、ネットワークバックボーン5および無線ゲートウェイ35を介して無線フィールドデバイス40~46に通信可能に接続され得る。コントローラ11は、フィールドデバイス15~22、40~50の少なくともいくつかを使用してバッチプロセスまたは連続プロセスを実装するように動作し得る。コントローラ11(例として、Emerson社から販売されているDeltaV(商標)コントローラであり得る)は、プロセス制御ネットワークバックボーン5に通信可能に接続される。コントローラ11はさらに、例えば、標準4~20mAのデバイス、I/Oカード26、28、および/または任意のスマート通信プロトコル(例えば、FOUNDATION(登録商標)Fieldbusプロトコル、HART(登録商標)プロトコル、WirelessHART(登録商標)プロトコルなど)に関連付けられた任意の所望のハードウェアおよびソフトウェアを使用して、フィールドデバイス15~22、40~50に通信可能に接続され得る。図1に示されている実施形態では、コントローラ11、フィールドデバイス15~22、48、50、およびI/Oカード26、28は、有線デバイスであり、フィールドデバイス40~46は無線フィールドデバイスである。
The
UIデバイス8の動作時に、いくつかの実施形態では、UIデバイス8は、ユーザインターフェース(「UI」)を実行し、UIデバイス8が入力インターフェースを介して入力を受け入れ、ディスプレイで出力を行うことができるようにする。UIデバイス8は、サーバ12から、データ(例えば、プロセスパラメータ、ログデータ、および/または取り込まれ記憶され得る任意の他のデータのようなプロセス関連データ)を受信し得る。他の実施形態では、UIは、サーバ12において、全てまたは一部が実行され得、サーバ12は、UIデバイス8に表示データを伝送し得る。UIデバイス8は、コントローラ11、無線ゲートウェイ35、および/またはサーバ12のようなプロセス制御ネットワークまたはシステム2内の他のノードから、バックボーン5を介して、UIデータ(表示データおよびプロセスパラメータデータを含み得る)を受信し得る。UIデバイス8で受信されたUIデータに基づいて、UIデバイス8は、プロセス制御ネットワークまたはシステム2に関連付けられたプロセスの態様を表す出力(すなわち、視覚的表現またはグラフィック、この一部はランタイム中に更新され得る)を行う。ユーザはさらに、UIデバイス8で入力を行うことによってプロセスの制御に影響を与え得る。図で説明するために、UIデバイス8は、例えば、タンク充填プロセスを表すグラフィックを提供し得る。このようなシナリオでは、ユーザは、タンクレベル測定値を読み取って、タンクを充填する必要があることを判断し得る。ユーザは、UIデバイス8で表示された入口弁のグラフィックと対話して、入口弁を開放させるコマンドを入力し得る。
During operation of the
特定の実施形態では、UIデバイス8は、シンクライアント、ウェブクライアント、またはシッククライアントのような任意のタイプクライアントを実装し得る。例えば、UIデバイス8は、UIデバイスのメモリ、バッテリパワーなどが制限されている場合(例えば、ウエアラブルデバイスにおいて)に該当し得るように、UIデバイス8の動作に必要な処理の大部分を他のノード、コンピュータ、UIデバイス、またはサーバに依存し得る。このような実施例において、UIデバイス8は、サーバ12または別のUIデバイスと通信し得、サーバ12または他のUIデバイスは、プロセス制御ネットワークまたはシステム2上の1つまたは複数の他のノード(例えば、サーバ)と通信し、UIデバイス8に伝送するための表示データおよび/またはプロセスデータを決定し得る。さらに、UIデバイス8は、受信されたユーザ入力に関連する任意のデータをサーバ12に渡すことができるので、サーバ12は、ユーザ入力に関連するデータを処理し、それに応じて動作することができる。すなわち、UIデバイス8は、グラフィックをレンダリングし、データを記憶してUIデバイス8の動作に必要なルーチンを実行する1つまたは複数のノードまたはサーバに対するポータルとしての役割を果たすだけであり得る。シンクライアントUIデバイスは、UIデバイス8に対する最小限のハードウェア要件の利点を提供する。
In certain embodiments, the
他の実施形態では、UIデバイス8は、ウェブクライアントであり得る。このような実施形態では、UIデバイス8のユーザは、UIデバイス8においてブラウザを介してプロセス制御システムと対話し得る。ブラウザにより、ユーザは、バックボーン5を介して別のノードまたはサーバ12(例えば、サーバ12)におけるデータおよびリソースにアクセスすることができる。例えば、ブラウザはサーバ12から表示データまたはプロセスパラメータデータのようなUIデータを受信し、そのことにより、ブラウザはプロセスの一部または全てを制御し、および/または監視するためにグラフィックを表示することができる。ブラウザはさらに、ユーザ入力(例えば、グラフィック上のマウスクリック)を受信し得る。ユーザ入力は、ブラウザにサーバ12上に記憶されている情報リソースを取り出させる、またはアクセスさせ得る。例えば、マウスクリックは、ブラウザに、クリックされたグラフィックに関する情報を(サーバ12から)取り出させて表示させ得る。さらに他の実施形態では、UIデバイス8の処理の大部分は、UIデバイス8において行われ得る。例えば、UIデバイス8は、上述のUIを実行し得る。UIデバイス8はさらに、ローカルでデータを記憶し、データにアクセスし、データを分析し得る。
In other embodiments, the
動作時に、ユーザは、プロセス制御ネットワークまたはシステム2内の1つまたは複数のデバイス(例えば、フィールドデバイス15~22またはデバイス40~50のいずれか)を監視するまたは制御するために、UIデバイス8と対話し得る。さらに、ユーザは、例えば、コントローラ11内に記憶されている制御ルーチンに関連付けられたパラメータを修正するまたは変更するために、UIデバイス8と対話し得る。プロセスコントローラ11のプロセッサ30は、制御ループを含み得る1つまたは複数のプロセス制御ルーチン(メモリ32内に記憶されている)を実装する、または監視する。プロセッサ30は、フィールドデバイス15~22、40~50と通信し、さらにバックボーン5に通信可能に接続されている他のノードと通信し得る。本明細書内に記載されている任意の制御ルーチンまたはモジュール(品質予測モジュールおよび障害検出モジュールまたは機能ブロックを含む)の一部は、望ましい場合には、異なるコントローラまたは他のデバイスによって実装され得るまたは実行され得ることに留意されたい。同様に、プロセス制御システム内に実装すべき本明細書に記載されている制御ルーチンまたはモジュールは、ソフトウェア、ファームウェア、ハードウェアなどの任意の形態を取り得る。制御ルーチンは、例えば、オブジェクト指向プログラミング、ラダー・ロジック、シーケンシャル・ファンクション・チャート、機能ブロック図を使用する、または任意の他のソフトウェアプログラミング言語もしくは設計パラダイムを使用するような任意の所望のソフトウェアフォーマットで実装され得る。特に、制御ルーチンは、UIデバイス8を介してユーザによって定義され、実装され得る。制御ルーチンは、コントローラ11のランダム・アクセス・メモリ(RAM)またはリード・オンリ・メモリ(ROM)のような任意の所望のタイプのメモリに記憶され得る。同様に、制御ルーチンは、例えば、1つまたは複数のEPROM、EEPROM、特定用途向け集積回路(ASIC)、またはコントローラ11の任意の他のハードウェアもしくはファームウェア要素にハードコードされ得る。このように、コントローラ11は、任意の所望の方法で制御ストラテジまたは制御ルーチンを実装する(例えば、受信する、記憶する、および/または実行する)ように(特定の実施形態ではUIデバイス8を使用してユーザによって)構成され得る。
In operation, a user may interact with the
UIデバイス8のいくつかの実施形態では、ユーザは、一般に機能ブロックと呼ばれるものを使用してコントローラ11において制御ストラテジを定義して実装するためにUIデバイス8と対話し得、この場合、各々の機能ブロックは、オブジェクトまたは制御ルーチン全体の他の部分(例えば、サブルーチン)であり、プロセス制御システム内のプロセス制御ループを実装するために、(リンクと呼ばれる通信を介して)他の機能ブロックと共に動作する。制御ベースの機能ブロックは、典型的には、プロセス制御システム内のいくつかの物理的機能を実行するために、入力機能(例えば、伝送器、センサまたは他のプロセスパラメータ測定デバイスに関連付けられた入力機能)、制御機能(例えば、PID、ファジー論理などの制御を実行する制御ルーチンに関連付けられた制御機能)、またはいくつかの装置(例えば、弁)の動作を制御する出力機能のうちの1つを実行する。当然、混合タイプおよび他のタイプの機能ブロックも存在する。機能ブロックは、UIデバイス8で提供されるグラフィック表現を有し得るので、ユーザは、機能ブロックのタイプ、機能ブロック間の接続、およびプロセス制御システム内で実装されている機能ブロックの各々に関連付けられた入出力を容易に修正することができる。機能ブロックは、典型的には、機能ブロックが標準4~20mAデバイスおよび一部のタイプのスマート・フィールド・デバイス(例えば、HARTデバイス)に使用される、または関連付けられる場合に、これらの機能ブロックは、コントローラ11にダウンロードされ、コントローラ11内に記憶され、コントローラ11によって実行され得る、または機能ブロックがFieldbusデバイスに関連付けられる場合に、これらの機能ブロックは、フィールドデバイス自身に記憶され、フィールドデバイス自身によって実装され得る。コントローラ11は、1つまたは複数の制御ループを実装し得る1つまたは複数の制御ルーチン38を含み得る。各々の制御ループは、一般的には、制御モジュールと呼ばれ、機能ブロックの1つまたは複数を実行することによって実施され得る。
In some embodiments of the
図1をさらに参照すると、無線フィールドデバイス40~46は、Wireless HARTプロトコルのような無線プロトコルを使用して、無線ネットワーク70内で通信する。特定の実施形態では、UIデバイス8は、無線ネットワーク70を使用して無線フィールドデバイス40~46と通信することが可能であり得る。このような無線フィールドデバイス40~46は、(例えば、無線プロトコルを使用して)同様に無線で通信するように構成されたプロセス制御ネットワークまたはシステム2の1つまたは複数の他のノードと直接通信し得る。無線フィールドデバイス40~46は、無線で通信するように構成されていない1つまたは複数の他のノードと通信するために、バックボーン5に接続されている無線ゲートウェイ35を利用し得る。当然、フィールドデバイス15~22、40~46は、将来開発される任意の標準またはプロトコルを含む任意の有線または無線プロトコルのような任意の他の所望の標準(単数または複数)またはプロトコルに準拠し得る。
With further reference to FIG. 1, the wireless field devices 40-46 communicate within the
無線ゲートウェイ35は、無線通信ネットワーク70の様々な無線デバイスまたはノード40~46、52~58へのアクセスを提供し得る。特に、無線ゲートウェイ35は、無線デバイス40~46、52~58とプロセス制御ネットワークまたはシステム2の他のノード(図1のコントローラ11を含む)との間の通信接続を提供する。無線ゲートウェイ35は、場合によっては、ルーティングサービス、バッファリングサービス、およびタイミングサービスによって、有線および無線プロトコルスタックの下層(例えば、アドレス変換、ルーティング、パケット分割、優先順位付けなど)に対する通信接続を提供し、一実装例では、有線および無線プロトコルスタックの共有層(単数または複数)をトンネリングする。別の場合では、無線ゲートウェイ35は、いずれのプロトコル層も共有しない有線プロトコルと無線プロトコルとの間でコマンドを翻訳し得る。
The
有線フィールドデバイス15~22と同様に、無線ネットワーク70の無線フィールドデバイス40~46は、プロセスプラント10内の物理的制御機能(例えば、弁の開閉、またはプロセスパラメータの測定)を実行し得る。しかしながら、無線フィールドデバイス40~46は、ネットワーク70の無線プロトコルを使用して通信するように構成される。したがって、無線フィールドデバイス40~46、無線ゲートウェイ35、および無線ネットワーク70の他の無線ノード52~58は、無線通信パケットのプロデューサでありコンシューマである。
Like the wired field devices 15-22, the wireless field devices 40-46 of the
いくつかのシナリオでは、無線ネットワーク70は、有線デバイスであり得る非無線デバイス48、50を含み得る。例えば、図1のフィールドデバイス48は、レガシー4~20mAデバイスであり得、フィールドデバイス50は、従来の有線HARTデバイスであり得る。フィールドデバイス48、50は、ネットワーク70内で通信するために、個々の無線アダプタ(WA)52a、52bを介して無線通信ネットワーク70に接続され得る。さらに、無線アダプタ52a、52bは、Foundation(登録商標)Fieldbus、PROFIBUS、DeviceNetなどのような他の通信プロトコルもサポートし得る。さらに、無線ネットワーク70は、無線ゲートウェイ35と有線通信している別個の物理的デバイスであり得る、または一体型デバイスとして無線ゲートウェイ35と共に配設され得る、1つまたは複数のネットワーク・アクセス・ポイント55a、55bを含み得る。無線ネットワーク70はさらに、無線通信ネットワーク70内の1つの無線デバイスから別の無線デバイスへパケットを転送するための1つまたは複数のルータ58を含み得る。無線デバイス40~46、52~58は、無線通信ネットワーク70の無線リンク60経由で、互いに通信し、無線ゲートウェイ35と通信し得る。
In some scenarios, the
特定の実施形態では、プロセス制御ネットワークまたはシステム2は、他の無線プロトコルを使用して通信するネットワークバックボーン5に接続された他のノードを含み得る。例えば、プロセス制御ネットワークまたはシステム2は、例えば、Wi-Fiもしくは他のIEEE802.11準拠無線ローカルエリア・ネットワーク・プロトコル、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)もしくは他のITU-R(国際電気通信連合無線通信部門:International Telecommunication Union Radiocommunication Sector)準拠プロトコルのようなモバイル通信プロトコル、近距離無線通信(NFC)およびBluetooth(登録商標)のような短波長無線通信、および/または他の無線通信プロトコルのような他の無線プロトコルを利用する1つまたは複数の無線アクセスポイント7aを含み得る。典型的には、このような無線アクセスポイント7aにより、ハンドヘルドまたは他の携帯コンピューティングデバイスは、無線ネットワーク70とは異なり、無線ネットワーク70とは異なる無線プロトコルをサポートしている個々の無線ネットワーク経由で通信することができる。いくつかの実施形態では、UIデバイス8は、無線アクセスポイント7aを使用して、プロセス制御ネットワークまたはシステム2経由で通信する。いくつかのシナリオでは、携帯コンピューティングデバイス以外に、1つまたは複数のプロセス制御装置(例えば、コントローラ11、フィールドデバイス15~22、無線デバイス35、40~46、52~58)も、アクセスポイント7aによってサポートされている無線ネットワークを使用して通信し得る。
In certain embodiments, the process control network or
追加的にまたは代替的に、プロセス制御ネットワークまたはシステム2は、対象のプロセス制御システムの外部にあるシステムに対する1つまたは複数のゲートウェイ7b、7cを含み得る。このような実施形態では、UIデバイス8は、前記外部システムを制御する、監視する、または別の形で前記外部システムと通信するのに使用され得る。典型的には、このようなシステムは、プロセス制御システムによって生成されるまたは操作される情報のコンシューマおよび/またはサプライヤである。例えば、プラント・ゲートウェイ・ノード7bは、(自身の個々のプロセス制御データネットワークバックボーン5を有する)対象のプロセスプラント10を、自身の個々のネットワークバックボーンを有する別のプロセスプラントと通信可能に接続する。一実施形態では、1つのネットワークバックボーン5が複数のプロセスプラントまたはプロセス制御環境を使用可能にし得る。
Additionally or alternatively, the process control network or
別の実施例では、プラント・ゲートウェイ・ノード7bは、対象のプロセスプラントを、プロセス制御ネットワークもしくはシステム2またはバックボーン5を含まないレガシーまたは先行技術のプロセスプラントに通信可能に接続し得る。この実施例では、プラント・ゲートウェイ・ノード7bは、プラント10のプロセス制御ビッグ・データ・バックボーン5によって利用されるプロトコルとレガシーシステムによって利用される異なるプロトコル(例えば、Ethernet、Profibus、Fieldbus、DeviceNetなど)との間でメッセージを変換し得る、または翻訳し得る。このような実施例では、UIデバイス8は、前記レガシーまたは先行技術のプロセスプラント内のシステムまたはネットワークを制御する、監視する、または別の形でそのシステムまたはネットワークと通信するのに使用され得る。
In another example, the
プロセス制御ネットワークまたはシステム2は、プロセス制御ネットワークまたはシステム2を、ラボラトリシステム(例えば、Laboratory Information Management SystemまたはLIMS)、要員巡回データベース、マテリアル・ハンドリング・システム、維持管理システム、製品在庫制御システム、生産スケジューリングシステム、気象データシステム、出荷処理システム、包装システム、インターネット、別のプロバイダのプロセス制御システム、および/または他の外部システムのような外部の公的または私的なシステムのネットワークと通信可能に接続するために1つまたは複数の外部システム・ゲートウェイ・ノード7cを含み得る。外部システム・ゲートウェイ・ノード7cは、例えば、プロセス制御システムとプロセスプラントの外側の要員(例えば、在宅の要員)との間の通信を容易にし得る。
The process control network or
図1は、通信可能に接続される有限数のフィールドデバイス15~22、40~46、48~50と共に1つのコントローラ11のみが示されているが、これは例示的かつ非限定的な実施形態に過ぎない。任意の数のコントローラ11は、プロセス制御ネットワークまたはシステム2内に含まれ得、コントローラ11のいずれかは、任意の数の有線または無線デバイス15~22、40~50と通信して、プラント10内のプロセスを制御し得る。また、プロセスプラント10はさらに、任意の数の無線ゲートウェイ35、ルータ58、アクセスポイント55、無線プロトコル制御通信ネットワーク70、アクセスポイント7a、および/またはゲートウェイ7b、7cを含み得る。
1 shows only one
プロセスプラント10の構成の一例では、個々のカメラ74a、74bおよび/または他のセンサ76a、76bが装備された複数のドローン72a、72bは、プロセスプラント10のフィールド環境全体を移動して、プロセスプラントの状態を監視する。一般に、ドローン72a、72bは、無人ロボット車両である。いくつかの実施例では、ドローン72a、72bは、空中ドローン(例えば、無人航空機または「UAV」)であるが、他の実施例では、ドローン72a、72bは、地上ドローンもしくは水上ドローン、または空中、地上、ならびに/もしくは水上の機能の何らかの組み合わせを有するドローンである。ドローン72a、72bに関連付けられた搭載コンピューティングデバイス78a、78bは、プロセスプラント10のフィールド環境内を通るドローン72a、72bの動きを制御する。さらに、搭載コンピューティングデバイス78a、78bは、カメラ74a、74bおよび/または他のセンサ76a、76bとインターフェースし、例えば、ネットワーク70を介して、ユーザ・インターフェース・デバイス8、コントローラ11、サーバ12および/または1つまたは複数のデータベースと通信する。例えば、搭載コンピューティングデバイス78a、78bは、ユーザ・インターフェース・デバイス8および/またはサーバ12からドローンコマンドを受信し得る、または1つまたは複数のデータベース内に記憶されているドローンコマンドにアクセスし得る。別の実施例として、搭載コンピューティングデバイス78a、78bは、カメラ74a、74bおよび/または他のセンサ76a、76bによって取り込まれたデータをUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスに伝送し得る。それに応じて、ユーザ・インターフェース・デバイス8は、カメラ74a、74bおよび/または他のセンサ76a、76bによって取り込まれたデータをオペレータに対して表示する。
In one example of a
図2は、ドローン例72(例えば、ドローン72a、72b)およびUIデバイス例8に関連付けられた搭載コンピューティングデバイス例78(例えば、搭載コンピューティングデバイス78a、78b)のブロック図であり、搭載コンピューティングデバイス78は、本明細書に記載されているドローンを使用してプロセスプラントの状態を監視するためのシステムの実施形態と共に利用され得る。図2に示されているように、ドローン例72には、1つまたは複数のカメラ74(赤外線カメラを含み得る)、1つまたは複数の他のセンサ76、および搭載コンピューティングデバイス78が装備される。カメラ74、センサ76、および搭載コンピューティングデバイス78は、ドローン72に取り付けられ得る、ドローン72内に含まれ得る、ドローン72によって運ばれ得る、または別の形でドローン72に関連付けられ得る。センサ76は、例えば、位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、モーションセンサ、および/または他の適切なセンサを含み得る。いくつかの実施例では、ドローン72には、例えば、ライト、スピーカ、マイクなどのような追加の付属品がさらに装備される。さらに、いくつかの実施例では、サンプルを採取するための装置、医療用具一式、呼吸装置、除細動器ユニットなどが、ドローン72に取り付けられる、ドローン72内に含まれる、ドローン72によって運ばれる、または別の形でドローン72に関連付けられる。また、ドローン72には、プラント10内で様々なアクションを実行するための追加の機械部品が装備され得る。例えば、ドローン72には、スイッチを作動させる、またはサンプルを採取するためのロボットアームが装備される。
FIG. 2 is a block diagram of example drones 72 (e.g., drones 72a, 72b) and example on-board computing devices 78 (e.g., on-
搭載コンピューティングデバイス78は、カメラ74、センサ76、および/または追加の機械部品とインターフェースし、ドローン経路コマンドを受信し、ドローン72の経路を制御し、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータを記憶して伝送するためのアプリケーションを実行する。搭載コンピューティングデバイス78は、一般に、1つまたは複数のプロセッサまたはCPU80、メモリ82、ランダム・アクセサリ・メモリ(RAM)84、入出力(I/O)回路86、およびローカルエリア・ネットワーク、広域ネットワーク、および/または有線ならびに/もしくは無線であり得る任意の他の適切なネットワーク(例えば、ネットワーク70)を介してデータを送受信するための通信ユニット88を含む。例えば、搭載コンピューティング78は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスと通信し得る。
The on-
さらに、搭載コンピューティングデバイス78は、ドローン72に関連付けられたデータを記憶するデータベース90を含む。例えば、データベース90は、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータを記憶し得る。さらに、データベース90は、例えば、プラント10のマップのようなナビゲーションデータを記憶し得る。マップは、ドローン72がプラント10全体を移動するための1つまたは複数の経路、およびプラント10内の様々な機器の位置の指示を含み得る。様々なプラント機器の位置の指示は、各々の機器の近くの様々な見晴らしの良い地点の位置の指示を含み得る。さらに、様々なプラント機器の位置の指示は、1つまたは複数のドローンによって作動されるスイッチ(例えば、キルスイッチ)の位置の指示を含み得る。
Additionally, the on-
メモリ82はさらに、制御ユニット92と、1つまたは複数のドローンアプリケーション96を含むオペレーティングシステム94とを含む。制御ユニット94は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスと通信するように構成される。例えば、いくつかの実施形態では、制御ユニット94は、ドローンカメラ74および/またはドローンセンサ76によって取り込まれたデータをUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスに伝えることができる。さらに、制御ユニット94は、プラント内のドローン72の動きおよびアクションを制御するように構成される。
The
一般的に、オペレーティングシステム94上で動作するドローンアプリケーション96は、制御ユニット94にプラント内のドローン72の動きおよびアクションを制御するための命令を出すアプリケーションを含み得る。さらに、ドローンアプリケーション96は、カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのアプリケーション、およびUIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスからデータを送受信するためのアプリケーションを含み得る。
Generally, the
例えば、制御ユニット94にプラント内のドローン72の動きおよびアクションを制御するための命令を出すドローンアプリケーション96は、ドローン・ナビゲーション・アプリケーションを含み得る。一般に、ドローン・ナビゲーション・アプリケーションは、データベース90内に記憶されているナビゲーションデータおよびセンサ76によって取り込まれた位置データの何らかの組み合わせを利用して、プラント10内のドローン72の現在位置を決定する。ドローン72の目的地が受信されるまたは決定されると、ドローン・ナビゲーション・アプリケーションは、現在位置から目的地までのルートを計算し得る。
For example, the
いくつかの実施例では、ドローン72の目的地は、データベース90内で事前に構成され、記憶され得る。例えば、データベース90は、ドローン72が繰り返し移動すべきルートまたは経路を記憶し得る、またはドローン72がホバリングすべき特定の位置(例えば、プラント内の特定の機器に最も近い)を記憶し得る。さらに、データベース90は、プラント10内の様々な誘因または状態に基づいてドローンが移動すべきルートまたは目的地のリストを記憶し得る。例えば、データベース90は、プラント10内の警報またはプラントの状態に基づいて、ドローン72がプラント10内の特定の位置まで移動しなければならないこと、または特定のルートを移動しなければならないことを示すデータを記憶し得る。例えば、データベース90は、火災、毒ガス漏れ、流出、爆発などが発生した場合に、ドローン72がプラント10へ移動するための安全な位置、またはドローン72がプラント10から出るための安全なルートの指示を記憶し得る。例えば、プラント10内にいる人は、これらの危険な状態の間、ドローン72についてプラントから出ることができる。他の例では、データベース90は、(例えば、写真、ビデオ、または警報もしくは他の状態に関連付けられた他のデータを取り込むために、安全でない状態の周辺を保護するドローンの「フェンス」を作成するために、プラントの状態に対する緊急支援を誘導するために)火災、毒ガス漏れ、流出、爆発などに近い位置またはルートの指示を記憶し得る。さらに、例えば、データベース90は、トリガ・センサ・データ(例えば、プラントの状態を示すセンサデータ)の取り込みに基づいて、ドローン72が特定の位置まで移動しなければならないこと、または特定のルートを移動しなければならないことを示すデータを記憶し得る。
In some examples, the destinations of the
他の実施例では、ドローン72の目的地は、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスから受信されたコマンド(例えば、オペレータコマンド)に基づいて、ナビゲーションアプリケーションによって選択され得る。例えば、オペレータは、UIデバイス8を介してプラント10の区域またはプラント10内の機器を選択することができ、目的地は、プラント10の区域または機器に対してデータベース90内に記憶されている位置に基づいて選択され得る。さらに、オペレータは、UIデバイス8を介してプラント10内にいる人を選択することができ、目的地は、人に関連付けられた位置に基づいて(例えば、人に関連付けられたGPSデータに基づいて、またはデータベース90内に記憶されている人に関連付けられた位置に基づいて)選択され得る。別の実施例として、オペレータは、方向制御装置(例えば、左、右、上、下、前方、後方など)を利用することができ、目的地は、ドローン72の現在位置からの方向性のある動きに基づいて、ナビゲーションアプリケーションによって選択され得る。
In other examples, the destination of the
さらに、制御ユニット94にプラント内のドローン72のアクションを制御するための命令を出すドローンアプリケーション96は、ドローンにスイッチ(例えば、掘削場所のような安全でない位置の機器を停止させるためのキルスイッチ)を作動させ、測定を行わせ、評価を実施させ、サンプルを採取させ、(付属スピーカシステムを介して)警告を提示させ、(付属マイクを介して)音声コマンドを聞かせ、物体(例えば、工具、医療用具一式など)を持たせてプラント内の新しい位置(例えば、人がいる近くの位置)まで運ばせ、様々なシチュエーションで必要に応じて物を入れ替え、(例えば、「便利屋」として)必要に応じてプラント内の人を支援させるなどのための命令を制御ユニットに出すアプリケーションを含み得る。ナビゲーション目的地と同様に、いくつかの実施例では、ドローン72が実行するアクションは、データベース90内で事前に構成され、記憶され得るが、他の実施例では、ドローン72が実行するアクションは、UIデバイス8、コントローラ11、サーバ12、および/または任意の他の適切なコンピューティングデバイスから受信されたコマンド(例えば、オペレータコマンド)に基づいて選択され得る。
Additionally, the
さらに、カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのドローンアプリケーション96は、例えば、過熱、火、煙、移動、漏出物(漏出物の大きさの識別を含む)、液滴、水溜まり、蒸気、または弁の状態(開放しているか閉鎖しているかの識別を含む)のようなプロセスプラント内の様々な状態の指示を自動的に識別するために、カメラ74からの写真またはビデオを分析するための画像認識アプリケーション、またはドローンセンサ76からのデータを分析するように構成されたセンサ分析アプリケーション、またはこれら2つの何らかの組み合わせを含み得る。また、オペレーティングシステム90上で動作するアプリケーションは、ドローンセンサ76からのデータに基づいて、(例えば、毒ガス漏れの影響を評価するのを支援するために)卓越風の風速および風向きを決定するためのセンサ分析アプリケーションを含み得る。カメラ74および/またはセンサ76によって取り込まれたデータを分析するためのドローンアプリケーション96はさらに、監視アプリケーションを含み得る。例えば、監視アプリケーションは、プラント内にいる人の顔の特徴を分析して、プラント内の権限のない人を識別し得る。別の実施例として、監視アプリケーションは、モーションセンサによって取り込まれたデータを分析して、権限のない人がプラントの中を移動しているかどうかを判断し得る。さらに、監視アプリケーションは、ドローンカメラ74によって取り込まれた写真またはビデオを分析して、例えば、損傷したフェンスまたは壊れたドアのようなプロセスプラントへの無許可の進入の証拠を識別し得る。
Additionally, the
追加的にまたは代替的に、ドローンアプリケーション96は、準備の整った通信システムの無い位置または一時的に通信機能を失った位置での通信を可能にするために、ドローン72にプラント内の他のドローンと対話させてフィールドメッシュおよび/または無線バックホールを形成するアプリケーションを含み得る。さらに、オペレーティングシステム90上で動作するアプリケーションは、ローカル一時的GPSシステムを作成するために、ドローン72にGPS情報を他のドローンに伝送させる、またはマスタードローンからGPS情報を受信させるGPSアプリケーションを含み得る。
Additionally or alternatively,
UIデバイス8に話を戻すと、このデバイス8は、従来のオペレータワークステーションのようなデスクトップコンピュータ、制御室ディスプレイ、またはラップトップコンピュータ、タブレットコンピュータ、モバイル機器スマートフォン、携帯情報端末(PDA)、ウェアラブル・コンピューティング・デバイス、もしくは任意の他の適切なクライアント・コンピューティング・デバイスのようなモバイル・コンピューティング・デバイスであり得る。UIデバイス8は、様々な表示ビュー定義または構成を作成し、生成し、および/または編集すると同時に、様々な表示ビュー要素定義または構成を作成し、生成し、および/または編集するために、構成環境内の構成エンジニアによって利用されるグラフィック表示構成アプリケーションを実行し得る。UIデバイス8はさらに、オペレーティング環境内のプロセスの様々な状況および状態を監視し、観察して、対応するためにオペレータによって利用されるオペレータアプリケーションを実行し得る。UIデバイス8は、ディスプレイ98を含み得る。さらに、UIデバイス8は、1つまたは複数のプロセッサまたはCPU100、メモリ102、ランダム・アクセサリ・メモリ(RAM)104、入出力(I/O)回路105、およびローカルエリア・ネットワーク、広域ネットワーク、および/または有線ならびに/もしくは無線であり得る任意の他の適切なネットワーク(例えば、ネットワーク70)を介してデータを送受信するための通信ユニット106を含む。UIデバイス8は、コントローラ11、サーバ12、ドローン搭載コンピューティングデバイス78、および/または任意の他の適切なコンピューティングデバイスと通信し得る。
Returning to the
メモリ102は、オペレーティングシステム108と、グラフィック表示構成アプリケーションおよびオペレータアプリケーションのようなオペレーティングシステム108上で動作するアプリケーションと、ディスプレイ98を制御し、プロセスプラントのオンライン動作を制御するためにコントローラ11と通信するための制御ユニット110とを含み得る。いくつかの実施形態では、サーバ12はプロセスプラントの一部のグラフィック表現をUIデバイス8に伝送し、次に、制御ユニット110がプロセスプラントの一部のグラフィック表現をディスプレイ98上に提示し得る。さらに、制御ユニット110は、オペレータまたは構成エンジニア(本明細書では、ユーザとも呼ばれる)からのユーザ入力のようなI/O回路105からのユーザ入力を取得して、ユーザ入力を、特定の言語でグラフィック表示ビューを提示する要求、表示ビューに含まれるActive MinitorまたはWatchウィンドウ内に特定の制御要素を示すグラフィックを含める要求、プロセスセクションの1つに含まれるプロセスパラメータの調整を表示する要求などに翻訳し得る。
The
いくつかの実施形態では、制御ユニット110は、要求UIを生成して、表示するために要求UIをUIデバイス8に伝送し得るサーバ12に、翻訳済みユーザ入力を伝え得る。
他の実施形態では、制御ユニット110は、翻訳済みユーザ入力に基づいて新規UIを生成し、UIデバイス8のディスプレイ98上に新規UIを提示し得る。翻訳済みユーザ入力がプロセスセクションの1つに含まれるプロセスパラメータの調整を表示する要求である場合、制御ユニット110は、オペレータからのユーザ入力に従ってディスプレイ98上でプロセスパラメータ値を調整し、プロセスプラント内のプロセスパラメータを調整するためにコントローラ11に命令を出し得る。他の実施形態では、制御ユニット110は、調整済みプロセスパラメータ値を生成して、表示するために調整済みプロセスパラメータ値をUIデバイス8に伝送し得るサーバ12に、翻訳済みユーザ入力を伝え、プロセスプラント内のプロセスパラメータを調整するためにコントローラ11に命令を出し得る。
In some embodiments, the
In other embodiments, the
ここで、図3を参照すると、一実施形態に係る、ドローン(例えば、ドローン72、72a、72b)を使用してプロセスプラントの状態を監視するためのオペレータアプリケーションのユーザインターフェース表示ビュー200の一例が示されている。図3に示されている例示的なユーザインターフェース表示ビュー200は、ユーザインターフェース8のディスプレイ92を介して表示される。ユーザインターフェース表示ビュー200は、第1のドローンおよび第2のドローンに関連付けられたライブビデオフィード204、206およびドローン制御装置セット207と並べて表示されるプロセスプラントの概観202を含む。図3には2つのドローンのビデオフィードが表示されているが、様々な実施形態では、それよりも多いまたは少ないドローンに関連付けられたライブビデオフィードが表示される場合もある。さらに、いくつかの実施形態では、ユーザインターフェース表示ビュー200は、プロセスプラント内のドローンに関連付けられたセンサによって取り込まれたセンサデータに関連付けられた表示を含む。
Now, referring to FIG. 3, an example of a user
一般的に、プロセスプラントの概観202は、プラント内の様々な機器の物理的位置の表現、および機器に対するプロセスプラント内の様々なドローンの物理的位置の表現を示している。例えば、ドローン1(208)は、機器210の近くに描かれている。別の実施例として、ドローン2(212)は機器214の近くに描かれており、ドローン3(216)は機器218の近くに描かれている。したがって、ドローン1に関連付けられたライブビデオフィード204は、機器210の現在の状況を示すビデオのライブフードを示している。同様に、ドローン2に関連付けられたライブビデオフィード206は、機器214の現在の状況を示すビデオのライブフードを示している。一実施例では、オペレータが(例えば、カーソル220を使用して)ドローンを選択すると、そのドローンに関連付けられたライブフィードが表示される。例えば、オペレータがドローン3(216)を選択すると、ドローン3に関連付けられたライブビデオフィードが表示され、機器218の現在の状況のライブフードが示される。
Generally, the
いくつかの実施例では、ドローンは、プロセスプラント内の一定の経路に沿って移動する。他の実施例では、ドローンは、オペレータによって完全に制御される。さらに他の実施例では、ドローンは、一般に、オペレータがドローンの経路を制御するアクションを取るまでプロセスプラント内の一定の経路に沿って移動する。一実施例では、オペレータは、ドローン制御装置207を使用してプロセスプラント内の各々のドローンの物理的な動きを手動で制御する。例えば、オペレータは、様々なドローン制御装置207を使用して、ドローンを物理的に上昇もしくは下降させる、回転させる、前方および後方に移動させるなどを行うことができる。したがって、ドローンは、プロセスプラント内の様々な機器のより近いビューを取得するためにプロセスプラント内で移動され得るので、オペレータは、ユーザ・インターフェース・デバイス8を介して(すなわち、フィールド環境に入らずに)プラント内の状態を検査することができる。
In some examples, the drones move along a fixed path within the process plant. In other examples, the drones are fully controlled by the operator. In still other examples, the drones generally move along a fixed path within the process plant until the operator takes an action to control the path of the drone. In one example, the operator manually controls the physical movement of each drone within the process plant using the
別の実施例では、オペレータは、プロセスプラントの概観202内の各々のドローンの描写208、212、216を選択することによって、またはドローンを配備する必要があるプロセスプラントの概観202内の区域を選択することによって、プロセスプラント内のドローンの物理的な動きを制御する。一実施例では、オペレータが(例えば、カーソル220を使用して)ドローンを選択し、それをクリックして新規の位置にドラッグすると、そのドローンは、新規の位置に物理的に移動するように構成される。例えば、空中ドローンは、自動的に離陸して、選択された位置に関連付けられたホバリング点までの所定の安全なルートで飛行し得る。別の実施例では、オペレータが(例えば、カーソル220を使用して)現在ドローンが位置付けられていないプロセスプラント概観202の区域(および/またはプロセスプラント概観202内に示されている機器)を選択すると、ドローンは、プロセスプラントのその区域まで物理的に移動するように構成される。したがって、オペレータは、ドローンがその目的地に到着すると、プロセスプラントの選択された区域のライブビデオフィードを見ることができる。
In another example, an operator controls the physical movement of the drones within the process plant by selecting the
一実施例では、オペレータは、プロセスプラントの概観202内のドローンを選択して、そのドローンを現在位置から安全な位置(オペレータによって選択され得る、または事前に決定され得る)に移動させる。例えば、人がプロセスプラント内の安全でない場所に閉じ込められている場合、オペレータは、現在位置から安全な位置まで移動するためにその人の近くのドローンを選択することができ、その人は安全な場所までドローンについていくことができる。別の実施例では、オペレータは、プロセスプラントの概観202内のドローンを選択して、そのドローンをプロセスプラントの入口からプロセスプラントの特定の区域まで移動させる。例えば、プラント内に緊急事態が発生した場合、救急隊員がプラントの入口から緊急事態に関連するプラントの区域までドローンについていくことができる。
In one example, an operator selects a drone in the
さらに、一実施例では、オペレータは、プロセスプラントの概観202内のドローンまたは区域を選択して、そのドローンにプラント内の他のタスクを実行させる。例えば、ドローンは、例えば、放送で警告することによって、または安全でない領域の周辺に標識を付けることによって、人にプロセスプラント内の危険性を警告するように構成され得る。例えば、オペレータは、概観202内の安全でない領域を選択して、ドローンをその領域まで移動させて、ドローンにその領域の危険性を人に警告させることができる。さらに、場合によっては、オペレータは、医療用具一式、呼吸装置、または除細動器ユニットをプラントの安全でない領域に閉じ込められている人のところまで搬送するドローンを選択することができる。さらに、オペレータは、プラント内のスイッチ(掘削場所のような安全でない位置の機器を停止させるキルスイッチを含む)を作動させ、プラント内の測定を行い、および/またはプラント内から製品サンプルを採取させるドローンを選択することができる。
Furthermore, in one embodiment, the operator may select a drone or area within the
図4を参照すると、いくつかの実施形態に係る、無人ロボット車両を使用してプロセスプラントの状態を監視するための方法の一例のフロー図400が示されている。例えば、無人ロボット車両72の搭載コンピューティングデバイス78のメモリ82および/またはユーザ・インターフェース・デバイス8のメモリ102は、プロセッサ80またはプロセッサ100によって実行されたときに、無人ロボット車両72および/またはユーザ・インターフェース・デバイス8それぞれに、方法400の少なくとも一部を実行させる命令を記憶し得る。実施形態では、方法400は、追加の、それより少ない、および/または代替のアクションを含み得る。
Referring to FIG. 4, a flow diagram 400 of an example method for monitoring a condition of a process plant using an unmanned robotic vehicle is shown, according to some embodiments. For example,
ブロック402において、ユーザ・インターフェース・デバイス8は、無人ロボット車両72を配備する必要があるユーザ・インターフェース・デバイス8によって表示されたプロセスプラントの概観内の機器のユーザ選択の指示を受信し得る。例えば、プロセスプラントの概観は、プロセスプラント内の様々な機器の物理的位置の表現を示し得る。いくつかの実施例では、プロセスプラントの概観の表示は、プロセスプラント内の機器に対するプロセスプラント内の無人ロボット車両の物理的位置の表現の表示を含み得る。
In
ブロック404において、ユーザ選択の指示が無人ロボット車両72に関連付けられた搭載コンピューティングデバイス78に伝送され得る。
At
ブロック406において、ユーザ選択の指示に基づいて、プロセスプラント内の無人ロボット車両72の目的地が決定され得る。いくつかの実施例では、プロセスプラント内の無人ロボット車両の目的地を決定するステップは、ユーザによって選択された機器の物理的位置の近くの安全なホバリング点を決定するステップを含み得る。
At
ブロック408において、無人ロボット車両72は、プロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように制御され得る。例えば、いくつかの実施例では、現在位置から目的地まで移動するように無人ロボット車両72を制御するステップは、プロセスプラント内の現在位置からプロセスプラント内の目的地までの安全なルートを識別するステップと、安全なルートを通ってプロセスプラント内の現在位置からプロセスプラント内の目的地まで移動するように無人ロボット車両72を制御するステップとを含み得る。
In
ブロック410において、無人ロボット車両72の1つまたは複数のカメラによってカメラデータが取り込まれ得る。いくつかの実施例では、カメラデータは、ライブビデオフィードを含み得る。いくつかの実施例では、カメラデータは、無人ロボット車両72の1つまたは複数の赤外線カメラによって取り込まれた赤外線カメラデータを含み得る。
At
ブロック412において、カメラデータがユーザ・インターフェース・デバイス8に伝送され得る。
In
ブロック414において、カメラデータがプロセスプラントの概観と並べて表示され得る。いくつかの実施例では、プロセスプラントの概観と並べてカメラデータを表示するステップは、プロセスプラントの概観と並べられたカメラデータに基づいてライブビデオフィードを表示するステップを含み得る。
At
いくつかの実施例では、方法400はさらに、無人ロボット車両の1つまたはセンサによってセンサデータを取り込むステップ、ユーザ・インターフェース・デバイスにセンサデータを伝送するステップ、および/またはユーザ・インターフェース・デバイスによってセンサデータを表示するステップを含み得る(図4に図示せず)。無人ロボット車両の1つまたは複数のセンサによってセンサデータを取り込むステップは、無人ロボット車両の位置センサ、温度センサ、火炎センサ、ガスセンサ、風センサ、加速度計、および/またはモーションセンサのうちの1つまたは複数のセンサからセンサデータを取り込むステップを含み得る。また、方法400は、プロセスプラント内の状態の指示を識別するために、カメラデータおよび/またはセンサデータを分析するステップをさらに含み得る。例えば、状態は、過熱状態、火災状態、煙状態、漏出状態、蒸気状態、溜り水または滴下水の状態、弁の状態、プロセスプラント内の動きの状態などであり得る。
In some examples,
さらに、いくつかの実施例では、方法400はさらに、無人ロボット車両によって作動される必要があるプロセスプラント内のスイッチのユーザ選択の指示を受信するステップと、プロセスプラント内のスイッチを作動させるように無人ロボット車両のロボットアームを制御するステップとを含み得る。
Furthermore, in some embodiments,
さらに、いくつかの実施例では、方法400はさらに、プロセスプラント内のサンプルを採取するように無人ロボット車両のロボットアームを制御するステップを含み得る。
Furthermore, in some embodiments,
以下の追加の考察は、上述の説明にも当てはまる。本明細書全体を通して、任意のデバイスまたはルーチンによって実行されるものとして説明されているアクションは、一般に、機械可読命令に従ってデータを操作するまたは変換するプロセッサのアクションまたはプロセスを指す。機械可読命令は、プロセッサに通信可能に結合されたメモリデバイスに記憶され、メモリデバイスから取り出され得る。すなわち、本明細書に記載されている方法は、図2に示されているように、コンピュータ可読媒体(すなわち、メモリデバイス)に記憶されている機械実行可能命令のセットによって具現化され得る。命令は、対応するデバイス(例えば、サーバ、ユーザ・インターフェース・デバイスなど)の1つまたは複数のプロセッサによって実行されたときに、プロセッサにその方法を実行させる。本明細書において、命令、ルーチン、モジュール、プロセス、サービス、プログラム、および/またはアプリケーションがコンピュータ可読メモリまたはコンピュータ可読媒体に記憶されるまたは保存されるものであると言及される場合、「記憶される」および「保存される」という単語は、一時的な信号を除外するものとする。 The following additional considerations also apply to the above description. Throughout this specification, actions described as being performed by any device or routine generally refer to the actions or processes of a processor that manipulates or transforms data according to machine-readable instructions. The machine-readable instructions may be stored in and retrieved from a memory device communicatively coupled to the processor. That is, the methods described herein may be embodied by a set of machine-executable instructions stored in a computer-readable medium (i.e., a memory device), as shown in FIG. 2. The instructions, when executed by one or more processors of a corresponding device (e.g., a server, a user interface device, etc.), cause the processor to perform the method. When instructions, routines, modules, processes, services, programs, and/or applications are referred to herein as being stored or saved in a computer-readable memory or computer-readable medium, the words "stored" and "saved" are intended to exclude transitory signals.
また、用語「オペレータ」、「要員」、「人」、「ユーザ」、「技術者」および同様の他の用語は、本明細書に記載されているシステム、装置、および方法を使用し得るまたはそれらと対話し得るプロセスプラント環境内にいる人を示すのに使用されるが、これらの用語は限定的であることを意図するものではない。本明細書内で特定の用語が使用される箇所において、その用語は、1つにはプラント要員が関わる従来の活動であるという理由で使用されるが、その特定の活動に関わっている可能性がある要員に限定するものではない。 Additionally, the terms "operator," "personnel," "people," "user," "technician," and other similar terms are used to indicate persons in a process plant environment who may use or interact with the systems, apparatus, and methods described herein, but these terms are not intended to be limiting. Where a particular term is used herein, that term is used in part because it is an activity traditionally involving plant personnel, but is not intended to be limiting to personnel who may be involved in that particular activity.
さらに、本明細書全体を通して、1つのインスタンスとして記載されているコンポーネント、動作、または構造を複数のインスタンスが実装する場合がある。1つまたは複数の方法の個々の動作は別個の動作として図示されて説明されているが、個々の動作の1つまたは複数は、同時に実行される場合もあり、動作は図示されている順序で実行される必要はない。構成例において別個のコンポーネントとして示されている構造および機能は、組み合わせられた構造またはコンポーネントとして実装され得る。同様に、単一コンポーネントとして示されている構造および機能は、別個のコンポーネントとして実装され得る。上述および他の変形、修正、追加、および改良の形態も本明細書の対象の範囲内にある。 Furthermore, throughout this specification, a component, operation, or structure described as one instance may be implemented by multiple instances. Although individual operations of one or more methods are illustrated and described as separate operations, one or more of the individual operations may be performed simultaneously, and the operations need not be performed in the order shown. Structures and functions shown as separate components in the example configurations may be implemented as combined structures or components. Similarly, structures and functions shown as single components may be implemented as separate components. The above and other variations, modifications, additions, and improvements are within the scope of this specification.
本明細書に記載されているアプリケーション、サービス、およびエンジンのいずれかは、ソフトウェア内で実装されるときに、磁気ディスク、レーザディスク、ソリッドステート・メモリ・デバイス、分子メモリ記憶装置、または他の記憶媒体のような任意の有形の非一時的なコンピュータ可読メモリ、コンピュータもしくはプロセッサのRAMまたはROM内などに記憶され得る。本明細書に開示されているシステム例は、数あるコンポーネントの中でも特に、ハードウェア上で実行されるソフトウェアおよび/またはファームウェアを含むものとして開示されているが、このようなシステムは単なる例に過ぎず、限定的であると考えるべきではないことに留意されたい。例えば、これらのハードウェアコンポーネント、ソフトウェアコンポーネント、およびファームウェアコンポーネントのいずれかまたは全てがハードウェア内でのみ、ソフトウェア内でのみ、またはハードウェアとソフトウェアの任意の組み合わせ内で具現化され得ることが考えられる。したがって、当業者は、提供されている実施例がこのようなシステムを実装する唯一の方法ではないことを容易に理解するであろう。 Any of the applications, services, and engines described herein, when implemented in software, may be stored in any tangible, non-transitory computer-readable memory, such as a magnetic disk, laser disk, solid-state memory device, molecular memory storage device, or other storage medium, in the RAM or ROM of a computer or processor, or the like. It should be noted that while the example systems disclosed herein are disclosed as including software and/or firmware running on hardware, among other components, such systems are merely examples and should not be considered limiting. For example, it is contemplated that any or all of these hardware, software, and firmware components may be embodied exclusively in hardware, exclusively in software, or in any combination of hardware and software. Thus, one skilled in the art will readily appreciate that the examples provided are not the only way to implement such systems.
したがって、本発明は、単なる例に過ぎず本発明を限定するものではない特定の実施例に関して説明されているが、当然のことながら、本発明の精神および範囲から逸脱せずに、開示されている実施形態に対して変更、追加、または削除がなされてもよいことは当業者には明らかであろう。さらに、上記では多数の異なる実施形態の詳細な説明を述べているが、詳細な説明は、単なる例に過ぎないと解釈すべきであり、可能な全ての実施形態を記載するのは不可能とは言えないまでも実現するのは困難であるので、可能な全ての実施形態を記載していない。現在の技術または本願の出願日の後に開発される技術を使用して、多数の代替形態が実現可能である。
Thus, the present invention has been described with respect to specific examples which are merely illustrative and not limiting of the present invention, but it will be appreciated that modifications, additions, or deletions may be made to the disclosed embodiments without departing from the spirit and scope of the present invention. Furthermore, while detailed descriptions of many different embodiments are set forth above, the detailed descriptions should be construed as merely illustrative and not all possible embodiments have been described, as describing all possible embodiments would be difficult, if not impossible, to achieve. Numerous alternatives are possible using current technology or technology developed after the filing date of this application.
Claims (29)
前記ユーザ・インターフェース・デバイスによって、前記無人ロボット車両に関連付けられた搭載コンピューティングデバイスに、前記ユーザ選択の前記指示を伝送するステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ選択の前記指示に基づいて、前記プロセスプラント内の前記無人ロボット車両の目的地を決定するステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記プロセスプラント内の現在位置から前記プロセスプラント内の前記目的地まで移動するように前記無人ロボット車両を制御するステップと、
前記無人ロボット車両の1つまたは複数のカメラによってカメラデータを取り込むステップと、
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ・インターフェース・デバイスに前記カメラデータを伝送するステップと、
前記ユーザ・インターフェース・デバイスによって、前記プロセスプラント内の前記概観と並べて前記カメラデータを表示するステップと
を含む方法。 receiving, by a user interface device, an indication of a user selection of equipment within an overview of a process plant displayed by the user interface device to which an unmanned robotic vehicle should be deployed, the overview of the process plant showing a representation of a physical location of various equipment within the process plant;
transmitting, by the user interface device, the indication of the user selection to an on-board computing device associated with the unmanned robotic vehicle;
determining, by the on-board computing device associated with the unmanned robotic vehicle, a destination of the unmanned robotic vehicle within the process plant based on the indication of the user selection;
controlling, by the on-board computing device associated with the unmanned robotic vehicle, the unmanned robotic vehicle to move from a current location within the process plant to the destination within the process plant;
capturing camera data with one or more cameras of the unmanned robotic vehicle;
transmitting, by the on-board computing device associated with the unmanned robotic vehicle, the camera data to the user interface device;
and displaying the camera data alongside the overview within the process plant through the user interface device.
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地までの安全なルートを識別するステップと、
前記搭載コンピューティングデバイスによって、前記安全なルートを通って前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地まで移動するように前記無人ロボット車両を制御するステップと
を含む、請求項1または請求項2に記載の方法。 The step of controlling the unmanned robotic vehicle to move from a current location to the destination includes:
identifying, by the on-board computing device associated with the unmanned robotic vehicle, a safe route from the current location within the process plant to the destination within the process plant;
and controlling, by the on-board computing device, the unmanned robotic vehicle to travel from the current location within the process plant to the destination within the process plant via the safe route.
前記無人ロボット車両に関連付けられた前記搭載コンピューティングデバイスによって、前記ユーザ・インターフェース・デバイスに前記センサデータを伝送するステップと、
前記ユーザ・インターフェース・デバイスによって、前記センサデータを表示するステップと
をさらに含む、請求項1から請求項6のいずれかに記載の方法。 capturing sensor data with one or more sensors of the unmanned robotic vehicle;
transmitting, by the on-board computing device associated with the unmanned robotic vehicle, the sensor data to the user interface device;
The method of claim 1 , further comprising the step of: displaying the sensor data by the user interface device.
前記搭載コンピューティングデバイスによって、前記プロセスプラント内の前記スイッチを作動させるように前記無人ロボット車両のロボットアームを制御するステップと
をさらに含む、請求項1から請求項10のいずれかに記載の方法。 receiving, by a user interface device, an indication of a user selection of a switch within the process plant that is to be actuated by the unmanned robotic vehicle;
and controlling, by the on-board computing device, a robotic arm of the unmanned robotic vehicle to actuate the switch in the process plant.
ディスプレイと、
1つまたは複数のプロセッサと、
1つまたは複数のメモリであって、前記1つまたは複数のプロセッサによって実行されたときに、前記ユーザ・インターフェース・デバイスに、
前記無人ロボット車両の搭載コンピューティングデバイスから、前記無人ロボット車両の前記1つまたは複数のカメラによって取り込まれたデータを受信させ、
前記無人ロボット車両の前記1つまたは複数のカメラによって取り込まれた前記データと並べて、プロセスプラント内の様々な機器の物理的位置の表現を示す前記プロセスプラントの概観を表示させ、
前記無人ロボット車両を配備する必要がある前記プロセスプラントの前記概観内の機器のユーザ選択を受信させ、
前記無人ロボット車両を配備する必要がある前記プロセスプラントの前記概観内の前記選択された機器を指示するコマンドを前記搭載コンピューティングデバイスに伝送させる、コンピュータ実行可能命令のセットを記憶するメモリと
を備える、ユーザ・インターフェース・デバイス。 1. A user interface device configured to communicate with an unmanned robotic vehicle equipped with one or more cameras, comprising:
A display and
one or more processors;
one or more memories that, when executed by the one or more processors, cause the user interface device to:
receiving, from an on-board computing device of the unmanned robotic vehicle, data captured by the one or more cameras of the unmanned robotic vehicle;
displaying, alongside the data captured by the one or more cameras of the unmanned robotic vehicle, an overview of the process plant showing a representation of the physical locations of various equipment within the process plant;
receiving a user selection of equipment within the overview of the process plant where the unmanned robotic vehicle should be deployed;
and a memory storing a set of computer-executable instructions that cause the on-board computing device to transmit a command indicating the selected equipment within the overview of the process plant where the unmanned robotic vehicle should be deployed.
前記無人ロボット車両によって作動される必要がある前記プロセスプラント内のスイッチのユーザ選択の指示を受信させ、
前記無人ロボット車両によって作動される必要がある前記スイッチの選択を指示するコマンドを前記無人ロボット車両の前記搭載コンピューティングデバイスに伝送させる、請求項13から請求項17のいずれかに記載のユーザ・インターフェース・デバイス。 The computer executable instructions further include causing the user interface device to:
receiving an indication of a user selection of a switch within the process plant that is to be actuated by the unmanned robotic vehicle;
18. The user interface device of claim 13, configured to transmit a command to the on-board computing device of the unmanned robotic vehicle indicating a selection of the switch that needs to be actuated by the unmanned robotic vehicle.
前記無人ロボット車両がプロセスプラント内を移動するときに画像を取り込むように構成された1つまたは複数のカメラと、
1つまたは複数のプロセッサと、
1つまたは複数のメモリであって、前記1つまたは複数のプロセッサによって実行されたときに、前記無人ロボット車両に、
ユーザ・インターフェース・デバイスからのコマンドを受信させることであって、前記ユーザ・インターフェース・デバイスからのコマンドには、前記ユーザ・インターフェース・デバイスによって表示される前記プロセスプラントの概観内で前記無人ロボット車両を配備する必要がある機器のオペレータ選択が含まれ、前記プロセスプラントの前記概観は、前記プロセスプラント内の様々な機器の物理的位置の表現を示し、
前記ユーザ・インターフェース・デバイスからのコマンドに基づいて、前記プロセスプラント内の目的地を決定させ、
前記プロセスプラント内の現在位置から前記プロセスプラント内の前記目的地まで移動させ、
前記1つまたは複数のカメラによって取り込まれた画像を前記ユーザ・インターフェース・デバイスへ伝送させる、コンピュータ実行可能命令のセットを記憶するメモリと
を備える、無人ロボット車両。 An unmanned robotic vehicle,
one or more cameras configured to capture images as the unmanned robotic vehicle moves through a process plant;
one or more processors;
One or more memories that, when executed by the one or more processors, cause the unmanned robotic vehicle to:
receiving commands from a user interface device , the commands from the user interface device including an operator selection of equipment upon which the unmanned robotic vehicle should be deployed within an overview of the process plant displayed by the user interface device, the overview of the process plant showing a representation of a physical location of various equipment within the process plant;
determining a destination within the process plant based on commands from the user interface device ;
moving from a current location within the process plant to the destination within the process plant;
and a memory storing a set of computer-executable instructions that cause images captured by the one or more cameras to be transmitted to the user interface device.
前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地までの安全なルートを識別させ、
前記安全なルートを通って前記プロセスプラント内の前記現在位置から前記プロセスプラント内の前記目的地まで移動させる命令を含む、請求項19または請求項20に記載の無人ロボット車両。 The computer-executable instructions for causing the unmanned robotic vehicle to move from the current location to the destination include causing the unmanned robotic vehicle to:
identifying a safe route from the current location within the process plant to the destination within the process plant;
21. The unmanned robotic vehicle of claim 19 or claim 20, comprising instructions to move from the current location within the process plant to the destination within the process plant along the safe route.
前記コンピュータ実行可能命令はさらに、前記無人ロボット車両に、前記1つまたは複数のセンサによって取り込まれたセンサデータを前記ユーザ・インターフェース・デバイスに伝送させる、請求項19から請求項23のいずれかに記載の無人ロボット車両。 and one or more sensors configured to capture sensor data as the unmanned robotic vehicle moves through the process plant.
The unmanned robotic vehicle of claim 19 , wherein the computer-executable instructions further cause the unmanned robotic vehicle to transmit sensor data captured by the one or more sensors to the user interface device.
前記プロセスプラント内の状態の指示を識別するために、1つまたは複数の前記カメラデータおよび前記センサデータを分析させる、請求項24または請求項25に記載の無人ロボット車両。 The computer executable instructions further include:
26. The unmanned robotic vehicle of claim 24 or claim 25, further comprising one or more of the camera data and the sensor data analyzed to identify indications of conditions within the process plant.
前記無人ロボット車両によって作動される必要がある前記プロセスプラント内のスイッチのユーザ選択の指示を受信させ、
前記プロセスプラント内の前記スイッチを作動させるように前記無人ロボット車両の前記ロボットアームを制御させる、請求項28に記載の無人ロボット車両。 The computer executable instructions further include:
receiving an indication of a user selection of a switch within the process plant that is to be actuated by the unmanned robotic vehicle;
30. The unmanned robotic vehicle of claim 28, further comprising: controlling the robotic arm of the unmanned robotic vehicle to actuate the switch in the process plant.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862739829P | 2018-10-01 | 2018-10-01 | |
US62/739,829 | 2018-10-01 | ||
US16/580,793 | 2019-09-24 | ||
US16/580,793 US11281200B2 (en) | 2018-10-01 | 2019-09-24 | Drone-enabled operator rounds |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020064623A JP2020064623A (en) | 2020-04-23 |
JP2020064623A5 JP2020064623A5 (en) | 2022-09-09 |
JP7530166B2 true JP7530166B2 (en) | 2024-08-07 |
Family
ID=69945748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019177739A Active JP7530166B2 (en) | 2018-10-01 | 2019-09-27 | Drone-enabled operator patrols |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7530166B2 (en) |
CN (1) | CN110968054B (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022012110A (en) * | 2020-07-01 | 2022-01-17 | 三菱電機株式会社 | Plant monitoring control system |
CN114482885B (en) * | 2022-01-25 | 2024-03-29 | 西南石油大学 | Intelligent control system for pressure-controlled drilling |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002167737A (en) | 2000-09-22 | 2002-06-11 | Mitsubishi Heavy Ind Ltd | Remote monitor control responding type drainage system and drainage pump station remote monitor device |
JP2004171127A (en) | 2002-11-18 | 2004-06-17 | Hitachi Ltd | Field work support method, system therefor and recording medium |
JP2004348242A (en) | 2003-05-20 | 2004-12-09 | Hitachi Ltd | Monitoring system and monitoring terminal |
JP2005081447A (en) | 2003-09-04 | 2005-03-31 | Tech Res & Dev Inst Of Japan Def Agency | Traveling robot |
JP2016053819A (en) | 2014-09-03 | 2016-04-14 | 村田機械株式会社 | Carrying vehicle system and method of monitoring surroundings of route |
US20160253908A1 (en) | 2015-01-22 | 2016-09-01 | Zipline International Inc. | Unmanned aerial vehicle management system |
JP2016197404A (en) | 2015-03-25 | 2016-11-24 | 横河電機株式会社 | System and method for monitoring industrial plant |
JP6527299B1 (en) | 2018-12-07 | 2019-06-05 | 楽天株式会社 | Method of determining an article delivery location, method of determining a landing location, an article delivery system, and an information processing apparatus |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8682502B2 (en) * | 2007-03-28 | 2014-03-25 | Irobot Corporation | Remote vehicle control system and method |
US10310617B2 (en) * | 2015-06-11 | 2019-06-04 | Intel Corporation | Drone controlling device and method |
CN106339079A (en) * | 2016-08-08 | 2017-01-18 | 清华大学深圳研究生院 | Method and device for realizing virtual reality by using unmanned aerial vehicle based on computer vision |
CN106325290A (en) * | 2016-09-30 | 2017-01-11 | 北京奇虎科技有限公司 | Monitoring system and device based on unmanned aerial vehicle |
CN108268121A (en) * | 2016-12-30 | 2018-07-10 | 昊翔电能运动科技(昆山)有限公司 | Control method, control device and the control system of unmanned vehicle |
KR101866239B1 (en) * | 2017-05-30 | 2018-06-12 | (주)이피에스이앤이 | Method for Monitoring Water Quality Environment Using Drone |
CN108132675B (en) * | 2017-11-23 | 2020-02-21 | 东南大学 | Autonomous path cruising and intelligent obstacle avoidance method for factory inspection unmanned aerial vehicle |
-
2019
- 2019-09-27 JP JP2019177739A patent/JP7530166B2/en active Active
- 2019-09-30 CN CN201910940142.9A patent/CN110968054B/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002167737A (en) | 2000-09-22 | 2002-06-11 | Mitsubishi Heavy Ind Ltd | Remote monitor control responding type drainage system and drainage pump station remote monitor device |
JP2004171127A (en) | 2002-11-18 | 2004-06-17 | Hitachi Ltd | Field work support method, system therefor and recording medium |
JP2004348242A (en) | 2003-05-20 | 2004-12-09 | Hitachi Ltd | Monitoring system and monitoring terminal |
JP2005081447A (en) | 2003-09-04 | 2005-03-31 | Tech Res & Dev Inst Of Japan Def Agency | Traveling robot |
JP2016053819A (en) | 2014-09-03 | 2016-04-14 | 村田機械株式会社 | Carrying vehicle system and method of monitoring surroundings of route |
US20160253908A1 (en) | 2015-01-22 | 2016-09-01 | Zipline International Inc. | Unmanned aerial vehicle management system |
JP2016197404A (en) | 2015-03-25 | 2016-11-24 | 横河電機株式会社 | System and method for monitoring industrial plant |
JP6527299B1 (en) | 2018-12-07 | 2019-06-05 | 楽天株式会社 | Method of determining an article delivery location, method of determining a landing location, an article delivery system, and an information processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
CN110968054B (en) | 2024-08-20 |
CN110968054A (en) | 2020-04-07 |
JP2020064623A (en) | 2020-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11281200B2 (en) | Drone-enabled operator rounds | |
US10445944B2 (en) | Augmented reality safety automation zone system and method | |
JP6457182B2 (en) | Method for starting or resuming a mobile control session in a process plant | |
EP3076253B1 (en) | Systems and methods for presenting an augmented reality | |
EP3582054A1 (en) | Virtual reality and augmented reality for industrial automation | |
EP3318944A2 (en) | Virtual reality and augmented reality for industrial automation | |
CN107643735A (en) | Process control communication framework | |
JP7530166B2 (en) | Drone-enabled operator patrols | |
CN104049597A (en) | Method and apparatus for managing a work flow in a process plant | |
CN104049585A (en) | Context sensitive mobile control in process plant | |
CN104049586A (en) | Mobile control room with function of real-time environment awareness | |
CN104049582A (en) | Generating checklists in a process control environment | |
CN104049594A (en) | Method and apparatus for seamless state transfer between user interface devices in a mobile control room | |
CN104049588A (en) | Method and apparatus for seamless state transfer between user interface devices in a mobile control room | |
CN104049589A (en) | Method and apparatus for seamless state transfer between user interface devices in a mobile control room | |
CN104049592A (en) | Method and apparatus for seamless state transfer between user interface devices in a mobile control room | |
CN104049587A (en) | Method and device for controlling process plant by utilizing location-aware mobile control equipment | |
CN104049593A (en) | Mobile analysis of physical phenomena in a process plant | |
CN104049268A (en) | Method and apparatus for determining the position of a mobile control device in a process plant | |
US20210191368A1 (en) | Virtual job control | |
CN104049583A (en) | Method for initiating or resuming a mobile control session in a process plant | |
CN104049591A (en) | Method for initiating or resuming a mobile control session in a process plant | |
CN111844018A (en) | Fire-fighting site detection robot management method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220901 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220901 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7530166 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |