JP5959278B2 - Supervisory control system - Google Patents

Supervisory control system Download PDF

Info

Publication number
JP5959278B2
JP5959278B2 JP2012084754A JP2012084754A JP5959278B2 JP 5959278 B2 JP5959278 B2 JP 5959278B2 JP 2012084754 A JP2012084754 A JP 2012084754A JP 2012084754 A JP2012084754 A JP 2012084754A JP 5959278 B2 JP5959278 B2 JP 5959278B2
Authority
JP
Japan
Prior art keywords
screen
operator
unit
pointing
proximity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012084754A
Other languages
Japanese (ja)
Other versions
JP2013214238A (en
Inventor
佐々木 雄一
雄一 佐々木
景泰 宮原
景泰 宮原
川又 武典
武典 川又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012084754A priority Critical patent/JP5959278B2/en
Publication of JP2013214238A publication Critical patent/JP2013214238A/en
Application granted granted Critical
Publication of JP5959278B2 publication Critical patent/JP5959278B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、タッチパネル等の表示入力一体型装置を用い、オペレータの操作画面を監督者が確認できる監視制御システムに関し、特に、指差し操作を行うためのユーザ・インタフェースに関する。   The present invention relates to a monitoring control system that allows a supervisor to check an operation screen of an operator using a display input integrated device such as a touch panel, and more particularly to a user interface for performing a pointing operation.

タッチ操作対応のOSやディスプレイの販売・発展に伴い、近年の監視制御システムにおいては、タッチによる簡単な操作でプラント運転が可能となっている。一方、この簡単な操作は、オペレータの思い違いや誤認識によって誤操作を招きやすいという課題がある。   With the sales and development of OSs and displays that support touch operations, in recent monitoring and control systems, plant operation is possible with simple operations by touch. On the other hand, this simple operation has a problem that an erroneous operation is easily caused by an operator's misunderstanding or misrecognition.

また、監督者は複数個あるオペレータの画面のうちいずれかを選択して、オペレータと同じ画面を監督画面に表示させて操作の監督を行う。しかし、タッチによる操作では、オペレータがスクリーンをタッチしないと操作位置が特定できず、監督者はオペレータの操作しようとしている箇所を監視画面で把握できないという課題がある。   In addition, the supervisor selects one of a plurality of operator screens, and displays the same screen as the operator on the supervisor screen to supervise the operation. However, in the operation by touch, there is a problem that the operation position cannot be specified unless the operator touches the screen, and the supervisor cannot grasp the part that the operator is trying to operate on the monitoring screen.

一方、監視制御システムにおけるタッチ操作を安全に行うための技術として、例えば特許文献1や特許文献2に示されたものがあった。特許文献1に示された装置では、オペレータの近接状態を検出して接触点を予測し、その近辺の画面を拡大または、表示色を変更して表示することで、操作性を向上させ、容易にかつ安全に監視制御を行えるようにしたものである。また、特許文献2に示された装置では、音声入力装置とタッチパネルにより、オペレータが操作対象を選択し発声した時に、指を接触させた操作対象と対応する音声であるか自動的に判断し適応・不適応を応答することにより、操作の信頼性の向上した監視制御を行えるようにしたものである。   On the other hand, as a technique for safely performing a touch operation in the supervisory control system, for example, there are those disclosed in Patent Document 1 and Patent Document 2. In the device disclosed in Patent Document 1, the proximity state of an operator is detected to predict a contact point, and the operability is improved and easily displayed by enlarging or displaying the screen in the vicinity of the screen. In addition, the monitoring and control can be performed safely. Further, in the apparatus disclosed in Patent Document 2, when an operator selects an operation target and utters using a voice input device and a touch panel, it is automatically determined whether or not the voice corresponds to the operation target touched by a finger. -By responding to non-adaptation, supervisory control with improved operational reliability can be performed.

特開2001−14024号公報Japanese Patent Laid-Open No. 2001-14024 特開平9−114579号公報JP-A-9-114579

上記の特許文献1に示された装置では、オペレータがタッチする前に近接している指の位置がわかるため、誤操作を防止することができる。しかしながら、このような構成を監視者がオペレータの操作を監視する監視制御システムに適用した場合、指の位置を認識することはできるが、これが指差し確認のための近接なのか、押すボタンを探している近接なのか、あるいは操作しようとしたわけでなく単に指を間違って近づけたのか等、監督者はオペレータの操作意図が分からず、監督作業の負荷がかえって増えてしまうという課題があった。   In the apparatus disclosed in Patent Document 1 described above, since the position of a finger that is in proximity before the operator touches is known, erroneous operation can be prevented. However, when such a configuration is applied to a supervisory control system in which the supervisor monitors the operation of the operator, the position of the finger can be recognized. However, if this is a proximity for pointing confirmation, a button to be pressed is searched. There is a problem that the supervisor does not know the operator's intention to operate, such as whether it is close to the user or whether the finger is moved incorrectly instead of trying to operate, and the burden of supervision work increases.

また、特許文献2に記載された装置では、タッチ操作により指差し呼称の自動化を実現し、監督の負担を軽減しているが、この装置では、画面にタッチしない指差し操作は考慮されておらず、従って、監督者がオペレータの指差し操作を認識することができないという課題があった。   Further, in the device described in Patent Document 2, automation of pointing and calling is realized by a touch operation to reduce the burden of supervision. However, in this device, a pointing operation that does not touch the screen is not considered. Therefore, there is a problem that the supervisor cannot recognize the pointing operation of the operator.

本発明は、上記のような課題を解決するためになされたもので、監督者の監督負荷を軽減し、システムとしての安全性を高めることのできる監視制御システムを得ることを目的とする。   The present invention has been made in order to solve the above-described problems, and an object of the present invention is to obtain a monitoring control system that can reduce the supervisory burden on the supervisor and increase the safety of the system.

この発明に係る監視制御システムは、オペレータ画面を表示する表示入力一体型装置を用い、当該オペレータ画面への入力操作を、オペレータ画面とは異なる監督画面で確認可能な監視制御システムであって、入力操作を行うための操作体のオペレータ画面への近接状態を検知する近接・タッチ情報入力部と、近接・タッチ情報入力部が検知した操作体のオペレータ画面との距離および座標に関する情報から、指差し操作、近接操作、タッチ操作のそれぞれを判定する指差し操作判定部と、指差し操作判定部の判定結果に基づいて、操作体の操作に対応したオペレータ画面を生成するオペレータ画面生成部と、オペレータ画面生成部が生成したオペレータ画面に基づいて、指差し操作判定部における判定結果の情報を付与した監督画面を生成する監督画面生成部とを備えたものである。 The supervisory control system according to the present invention is a supervisory control system that uses a display input integrated device that displays an operator screen and can confirm an input operation to the operator screen on a supervisory screen different from the operator screen. From the information on the distance and coordinates between the proximity / touch information input unit that detects the proximity of the operating tool to the operator screen for operation and the operator screen of the operating tool detected by the proximity / touch information input unit A pointing operation determination unit that determines each of an operation, a proximity operation, and a touch operation; an operator screen generation unit that generates an operator screen corresponding to the operation of the operating body based on a determination result of the pointing operation determination unit; Based on the operator screen generated by the screen generation unit, a director screen with information on the determination result in the pointing operation determination unit is generated Is that a that supervision screen generation unit.

この発明の監視制御システムは、近接・タッチ情報入力部が検知した操作体のオペレータ画面との距離および座標に関する情報から、指差し操作、近接操作、タッチ操作のいずれかを判定する指差し操作判定部を設け、オペレータ画面に基づいて、指差し操作判定部における判定結果の情報を付与した監督画面を生成するようにしたので、監督者の監督負荷を軽減し、システムとしての安全性を高めることができる。 According to the monitoring control system of the present invention, a pointing operation determination for determining any one of a pointing operation , a proximity operation , and a touch operation from information on the distance and coordinates of the operating body detected by the proximity / touch information input unit with respect to the operator screen. A supervisor screen with information on the result of determination in the pointing operation determination unit is generated based on the operator screen, thus reducing the supervisory burden on the supervisor and increasing the safety of the system Can do.

この発明の実施の形態1による監視制御システムを示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the monitoring control system by Embodiment 1 of this invention. この発明の実施の形態1による監視制御システムのオペレータの近接動作を示す説明図である。It is explanatory drawing which shows the proximity | contact operation | movement of the operator of the monitoring control system by Embodiment 1 of this invention. この発明の実施の形態1による監視制御システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the monitoring control system by Embodiment 1 of this invention. この発明の実施の形態1による監視制御システムの近接時・指差し時のオペレータ画面生成部による生成画面例を示す説明図である。It is explanatory drawing which shows the example of a production | generation screen by the operator screen production | generation part at the time of proximity | contact and the pointing of the monitoring control system by Embodiment 1 of this invention. この発明の実施の形態1による監視制御システムの近接時・指差し時の監督画面生成部による生成画面例を示す説明図である。It is explanatory drawing which shows the example of a production | generation screen by the supervision screen production | generation part at the time of proximity | contact and the pointing of the monitoring control system by Embodiment 1 of this invention. この発明の実施の形態1による監視制御システムのオペレータ画面と監督画面の別の表示例(画面表示例1)を示す説明図である。It is explanatory drawing which shows another display example (screen display example 1) of the operator screen of the monitoring control system by Embodiment 1 of this invention, and a supervisor screen. この発明の実施の形態1による監視制御システムのオペレータ画面と監督画面の別の表示例(画面表示例2)を示す説明図である。It is explanatory drawing which shows another display example (screen display example 2) of the operator screen and supervisor screen of the monitoring control system by Embodiment 1 of this invention. この発明の実施の形態1による監視制御システムのオペレータ画面と監督画面の別の表示例(画面表示例3)を示す説明図である。It is explanatory drawing which shows another display example (screen display example 3) of the operator screen of the monitoring control system by Embodiment 1 of this invention, and a supervisor screen. この発明の実施の形態2による監視制御システムを示す構成図である。It is a block diagram which shows the monitoring control system by Embodiment 2 of this invention. この発明の実施の形態2による監視制御システムの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the monitoring control system by Embodiment 2 of this invention. この発明の実施の形態2による監視制御システムのオペレータAが指差し操作したときに選択される画面の例を示す説明図である。It is explanatory drawing which shows the example of the screen selected when the operator A of the monitoring control system by Embodiment 2 of this invention performs pointing operation. この発明の実施の形態2による監視制御システムのオペレータAとオペレータBが同時に指差し操作したときに選択される画面の例を示す説明図である。It is explanatory drawing which shows the example of the screen selected when the operator A and the operator B of the monitoring control system by Embodiment 2 of this invention perform pointing operation simultaneously. この発明の実施の形態3による監視制御システムを示す構成図である。It is a block diagram which shows the monitoring control system by Embodiment 3 of this invention. この発明の実施の形態3による監視制御システムのオペレータが指差し操作を行って音声入力を行う前の画面例を示す説明図である。It is explanatory drawing which shows the example of a screen before the operator of the monitoring control system by Embodiment 3 of this invention performs a pointing operation and performs voice input. この発明の実施の形態3による監視制御システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the monitoring control system by Embodiment 3 of this invention. この発明の実施の形態3による監視制御システムの音声認識対象データ保持部が保持するデータのデータ構造の例を示す説明図である。It is explanatory drawing which shows the example of the data structure of the data which the voice recognition object data holding part of the monitoring control system by Embodiment 3 of this invention hold | maintains. この発明の実施の形態3による監視制御システムの指差し呼称操作後のオペレータ画面の例を示す説明図である。It is explanatory drawing which shows the example of the operator screen after the pointing and calling operation of the monitoring control system by Embodiment 3 of this invention. この発明の実施の形態3による監視制御システムの指差し呼称操作後の監督画面の例を示す説明図である。It is explanatory drawing which shows the example of the supervision screen after the pointing and calling operation of the monitoring control system by Embodiment 3 of this invention.

実施の形態1.
図1は、この発明の実施の形態1による監視制御システムを示す構成図である。
図1に示す監視制御システムは、制御装置100、オペレータ画面201、近接・タッチ情報入力部202、監督画面301、監督情報入力部302を備えている。制御装置100は、監視制御システムにおける監視制御処理を行う装置であり、指差し操作判定部101、オペレータ画面生成部102、監督画面生成部103を備えている。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a monitoring control system according to Embodiment 1 of the present invention.
The monitoring control system shown in FIG. 1 includes a control device 100, an operator screen 201, a proximity / touch information input unit 202, a supervisor screen 301, and a supervisor information input unit 302. The control device 100 is a device that performs monitoring control processing in the monitoring control system, and includes a pointing operation determination unit 101, an operator screen generation unit 102, and a supervisor screen generation unit 103.

制御装置100における指差し操作判定部101は、近接・タッチ情報入力部202からの入力データに基づいて、操作体のオペレータ画面との距離および座標に関する情報から指差し操作を認識し、タッチ・近接・指差しなどの操作状態や操作位置などの操作情報を出力する処理部である。オペレータ画面生成部102は、指差し操作判定部101の判定結果に基づいて、オペレータ1が操作入力を行うための操作画面を生成する処理部である。監督画面生成部103は、オペレータ画面生成部102が生成した各オペレータ画面の中から監督情報入力部302の選択情報に対応した画面を選択し、さらに、指差し操作判定部101からタッチ・近接・指差しなどの操作情報を付与した監督画面301を生成する処理部である。 The pointing operation determination unit 101 in the control device 100 recognizes the pointing operation from information on the distance and coordinates of the operating body with respect to the operator screen based on the input data from the proximity / touch information input unit 202, and touch / proximity A processing unit that outputs operation information such as an operation state such as pointing and an operation position. The operator screen generation unit 102 is a processing unit that generates an operation screen for the operator 1 to perform an operation input based on the determination result of the pointing operation determination unit 101. The supervision screen generation unit 103 selects a screen corresponding to the selection information of the supervision information input unit 302 from among the operator screens generated by the operator screen generation unit 102, and further, touch / proximity / It is a processing unit that generates a director screen 301 with operation information such as pointing.

オペレータ画面201は、オペレータ画面生成部102が生成した、オペレータ1が入力操作を行うための操作画面を表示する、いわゆるタッチパネルと呼ばれる表示入力一体型装置の表示画面である。近接・タッチ情報入力部202は、オペレータ1の指やペンといった操作体の近接状態を所定のセンサで検知し、その検知情報を指差し操作判定部101に送出するための情報入力部である。なお、表示入力一体型装置は複数のオペレータ1に対応して複数設けられている。 The operator screen 201 is a display screen of an integrated display input device called a touch panel that displays an operation screen generated by the operator screen generation unit 102 for the operator 1 to perform an input operation. Proximity touch information input unit 202, a proximity state of the operation tool such as a finger or a pen operator 1 and test knowledge at a given sensor is the information input unit for sending the detected information to the pointing operation determination unit 101 . Note that a plurality of display input integrated devices are provided corresponding to a plurality of operators 1.

監督画面301は、監督画面生成部103が生成した画面を表示するための表示画面であり、各オペレータ1用の端末とは異なる監督者用の端末で表示される画面である。また、監督情報入力部302は、監督者2が、複数のオペレータ画面201のうち監督画面301に表示させるオペレータ画面201を選択する、といった監督者情報を入力するための入力部である。   The director screen 301 is a display screen for displaying a screen generated by the director screen generation unit 103, and is a screen displayed on a terminal for a supervisor different from the terminal for each operator 1. The supervisor information input unit 302 is an input unit for inputting supervisor information such as the supervisor 2 selecting an operator screen 201 to be displayed on the supervisor screen 301 among the plurality of operator screens 201.

図2は、オペレータ画面201に操作体を近接させた例である。操作対象21,22は、オペレータ画面201上で選択操作を行うためのボタンであり、操作体としてオペレータ1の指23を示している。このとき、近接・タッチ情報入力部202は、オペレータの指23の近接を検知する。 FIG. 2 is an example in which an operating tool is brought close to the operator screen 201. The operation objects 21 and 22 are buttons for performing a selection operation on the operator screen 201 and indicate the finger 23 of the operator 1 as an operation body. At this time, the proximity-touch information input unit 202, you search known proximity of the operator's finger 23.

図3は、指差し操作判定部101が指差し操作を判定する処理を示すフローチャートである。
指差し操作判定部101は、先ず、近接・タッチ情報入力部202で検出した指23のセンサ出力値が第1の所定値よりも大きいかを判定する(ステップST101)。センサ出力値が第1の所定値よりも小さい場合は、指23のセンサ出力値を記憶する(ステップST102)。指差し操作判定部101は、ステップST101で、指23のセンサ出力値が第1の所定値よりも大きくなるまで、ステップST101とステップST102とを繰り返す。すなわち、指23とオペレータ画面201との距離が所定の値に近づくまでステップST101〜ステップST102を行う。ステップST101において、センサ出力値が第1の所定値よりも大きくなった場合はステップST103での判定処理に移行する。なお、センサ出力値としては、操作体と画面との距離に応じた値を示すものであればどのようなものであってもよく、例えば、指の画像データを分析した結果や、実際の物理的な距離を計測した値であってもよい。
FIG. 3 is a flowchart illustrating a process in which the pointing operation determination unit 101 determines a pointing operation.
The pointing operation determination unit 101 first determines whether the sensor output value of the finger 23 detected by the proximity / touch information input unit 202 is larger than a first predetermined value (step ST101). If the sensor output value is smaller than the first predetermined value, the sensor output value of the finger 23 is stored (step ST102). The pointing operation determination unit 101 repeats step ST101 and step ST102 until the sensor output value of the finger 23 becomes larger than the first predetermined value in step ST101. That is, steps ST101 to ST102 are performed until the distance between the finger 23 and the operator screen 201 approaches a predetermined value. If the sensor output value is larger than the first predetermined value in step ST101, the process proceeds to the determination process in step ST103. The sensor output value may be any value as long as it indicates a value corresponding to the distance between the operating tool and the screen. For example, the result of analyzing finger image data or actual physical data It may be a value obtained by measuring a typical distance.

ステップST103では、指23のセンサ出力値が第2の所定値よりも小さいかを判定する。なお、ここで、第2の所定値>第1の所定値である。センサ出力値が第2の所定値よりも大きい場合、すなわち、指23とオペレータ画面201との距離がかなり接近している場合、指差し操作判定部101は、指23がオペレータ画面201への接触状態であると判断し、ステップST104で指23のセンサ出力値の記憶をクリアし、ステップST105で指23の接触座標を求め、接触有りの判定結果と指23の接触座標を返す。一方、ステップST103において、センサ出力値が第2の所定値よりも小さい場合、記憶した指23のセンサ出力値から指23の近づく速度を求め(ステップST106)、指23の近接座標を求める(ステップST107)。   In step ST103, it is determined whether the sensor output value of the finger 23 is smaller than a second predetermined value. Here, the second predetermined value> the first predetermined value. When the sensor output value is larger than the second predetermined value, that is, when the distance between the finger 23 and the operator screen 201 is quite close, the pointing operation determination unit 101 causes the finger 23 to contact the operator screen 201. In step ST104, the storage of the sensor output value of the finger 23 is cleared. In step ST105, the contact coordinates of the finger 23 are obtained, and the determination result of contact and the contact coordinates of the finger 23 are returned. On the other hand, if the sensor output value is smaller than the second predetermined value in step ST103, the approaching speed of the finger 23 is obtained from the stored sensor output value of the finger 23 (step ST106), and the proximity coordinates of the finger 23 are obtained (step ST106). ST107).

次に、指差し操作判定部101は、指23の近づく速度が一定以上であるかを判断する(ステップST108)。指23の近づく速度が一定未満である場合、指23のセンサ出力値の記憶をクリアして近接有りの判定結果と指の近接座標を返す(ステップST109)。一方、ステップST108において、指23の近づく速度が一定以上である場合、ステップST110の判定処理に移行する。   Next, the pointing operation determination unit 101 determines whether the approaching speed of the finger 23 is equal to or higher than a certain level (step ST108). When the approaching speed of the finger 23 is less than a certain value, the memory of the sensor output value of the finger 23 is cleared, and the determination result of proximity and the proximity coordinates of the finger are returned (step ST109). On the other hand, when the speed at which the finger 23 approaches is greater than or equal to a certain value in step ST108, the process proceeds to the determination process in step ST110.

ステップST110では、指差し操作判定部101は、指23の近接座標が一定以上動いていないかを判定する。ステップST110において、指23の近接座標が一定以上動いている場合は、ステップST109に移行して、指23のセンサ出力値の記憶をクリアして近接有りの判定結果と指の近接座標を返す。指23の近接座標が一定以上動いていない場合、ステップST111の判定処理を行う。   In step ST110, the pointing operation determination unit 101 determines whether the proximity coordinates of the finger 23 have moved beyond a certain level. In step ST110, if the proximity coordinates of the finger 23 are moving beyond a certain level, the process proceeds to step ST109, the memory of the sensor output value of the finger 23 is cleared, and the determination result of proximity and the proximity coordinates of the finger are returned. If the proximity coordinates of the finger 23 have not moved beyond a certain level, the determination process of step ST111 is performed.

ステップST111において、指差し操作判定部101は、指23の近接座標が動いていない状態が一定時間以上続いたかを判定する。一定時間以上続いていない場合、指差し操作判定部101は、近接有りの判定結果と指の近接座標を返す。一方、指23の近接座標が動いていない状態が一定時間以上続いた場合は、指差しの判定結果と近接座標を返す。   In step ST111, the pointing operation determination unit 101 determines whether or not the proximity coordinate of the finger 23 has not moved for a certain period of time. When it does not continue for a certain period of time, the pointing operation determination unit 101 returns the determination result of proximity and the proximity coordinates of the finger. On the other hand, when the proximity coordinate of the finger 23 has not moved for a certain period of time, the finger pointing determination result and the proximity coordinate are returned.

上記のステップST106における指の近づく速度Vzは、例えば記憶したセンサ出力値を半分に分けて、前半の出力の平均値Zb、後半の出力の平均値Zaを求め、Vz=(Zb−Za)/記憶サンプル数のような計算式で求めても良い。   For the finger approach speed Vz in step ST106, for example, the stored sensor output value is divided in half, and the average value Zb of the first half output and the average value Za of the second half output are obtained, and Vz = (Zb−Za) / You may obtain | require with calculation formulas, such as the number of memory | storage samples.

ステップST110における指23の座標が一定以上動いていないかの判定は、近接の座標を使う方法ではなく、前回のセンサ出力値との類似性が一定以上であるかで判定しても良い。   The determination as to whether or not the coordinates of the finger 23 have moved beyond a certain level in step ST110 may be based on whether the similarity with the previous sensor output value is equal to or greater than a method that uses close coordinates.

図4は、指差し操作判定部101が近接・指差し・接触を判定した後、オペレータ画面生成部102が生成する画面の例である。円40は近接位置を中心に所定の色で半透明に表示された領域であり、指42は近接操作と判定されたオペレータの指を示している。また、矩形41は、近接位置に最も近い操作対象上に所定の色で半透明に塗られた領域であり、指43は、指差し操作と判定されたオペレータの指を示している。   FIG. 4 is an example of a screen generated by the operator screen generation unit 102 after the pointing operation determination unit 101 determines proximity / pointing / contact. A circle 40 is an area that is displayed semi-transparently with a predetermined color around the proximity position, and a finger 42 indicates an operator's finger that is determined to be a proximity operation. A rectangle 41 is a region that is semitransparently painted in a predetermined color on the operation target closest to the proximity position, and a finger 43 indicates an operator's finger determined to be a pointing operation.

オペレータ画面生成部102は、指の近接時には所定の色で半透明な円を表示し、指差し時にはこれとは異なる色で半透明な円を表示するような形態でも良い。   The operator screen generation unit 102 may be configured to display a semi-transparent circle with a predetermined color when the finger is in proximity, and to display a semi-transparent circle with a different color when pointing with the finger.

図5は、図4のオペレータ画面に対応した監督画面を示している。すなわち、監督情報入力部302で監督者が図2のオペレータ画面を選び、指差し操作判定部101が近接・指差し・接触を判定した際に、監督画面生成部103が生成する画面の例である。近接時における円50は近接位置を中心に所定の色で半透明に表示された領域であり、指差し時における矩形51は、近接位置に最も近い操作対象上に所定の色で半透明に塗られた領域である。   FIG. 5 shows a director screen corresponding to the operator screen of FIG. That is, an example of a screen generated by the supervisor screen generation unit 103 when the supervisor selects the operator screen of FIG. 2 in the supervisor information input unit 302 and the pointing operation determination unit 101 determines proximity / pointing / contact. is there. The circle 50 at the time of proximity is an area that is displayed semi-transparently with a predetermined color around the proximity position, and the rectangle 51 at the time of pointing is semi-transparent with a predetermined color on the operation target closest to the proximity position. This is the area that was created.

図6は、オペレータ画面生成部102と監督画面生成部103が生成する画面の別の表示例(画面表示例1)であり、左側がオペレータ画面、右側が監督画面を示している。この例では、指のセンサ出力値の大きさなどからタッチパネルと指の距離を判断し、指の距離に応じて図4における円40や図5における円50の指差し位置の円の範囲や色を変動させる。円61はタッチパネルと指が一定以上の遠い距離である場合のオペレータ画面に表示される円である。円62はタッチパネルと指が一定以下の近い距離である場合のオペレータ画面に表示される円である。円63はタッチパネルと指が一定以上の遠い距離である場合の監督画面に表示される円である。円64はタッチパネルと指が一定以下の近い距離である場合の監督画面に表示される円である。   FIG. 6 is another display example (screen display example 1) of the screens generated by the operator screen generation unit 102 and the director screen generation unit 103, with the operator screen on the left side and the director screen on the right side. In this example, the distance between the touch panel and the finger is determined based on the magnitude of the sensor output value of the finger, and the range and color of the circle at the pointing position of the circle 40 in FIG. 4 or the circle 50 in FIG. 5 according to the finger distance. Fluctuate. A circle 61 is a circle displayed on the operator screen when the touch panel and the finger are at a distance greater than a certain distance. A circle 62 is a circle displayed on the operator screen when the touch panel and the finger are close to each other at a certain distance. A circle 63 is a circle displayed on the director screen when the touch panel and the finger are at a distance greater than a certain distance. A circle 64 is a circle displayed on the director screen when the touch panel and the finger are close to each other at a certain distance.

図7は、オペレータ画面生成部102、監督画面生成部103が生成する画面の別の表示例(画面表示例2)であり、この例においても、左側がオペレータ画面、右側が監督画面を示している。この例では、指のセンサ出力値の大きさなどからタッチパネルと指の距離を判断し、指の距離に応じて図4における円40や図5における円50の指差し位置の円の範囲を変動させ、円の中心部分と円周部分の透明度や色を変化させる。円71,72は、それぞれタッチパネルと指が一定以上の遠い距離である場合のオペレータ画面、監督画面に表示される円である。   FIG. 7 is another display example (screen display example 2) of the screens generated by the operator screen generation unit 102 and the director screen generation unit 103. In this example, the left side shows the operator screen and the right side shows the director screen. Yes. In this example, the distance between the touch panel and the finger is determined based on the magnitude of the sensor output value of the finger, and the circle range of the pointing position of the circle 40 in FIG. 4 or the circle 50 in FIG. 5 varies according to the finger distance. And change the transparency and color of the center and circumference of the circle. The circles 71 and 72 are circles displayed on the operator screen and the director screen when the touch panel and the finger are at a certain distance or more away, respectively.

図8は、オペレータ画面生成部102、監督画面生成部103が生成する画面の別の表示例(画面表示例3)である。この例では、指のセンサ出力値の大きさなどからタッチパネルと指の距離を判断し、前記指の距離に応じて色を変える選択対象の範囲を変動させる。指の近接位置に近い操作対象ほど強調表示される。操作対象81は、オペレータ画面における指の近接位置に最も近い操作対象であり、操作対象82はオペレータ画面における指の近接位置に2番目に近い操作対象である。また、操作対象83は、監督画面における指の近接位置に最も近い操作対象であり、操作対象84は監督画面における指の近接位置に2番目に近い操作対象である。   FIG. 8 is another display example (screen display example 3) of the screens generated by the operator screen generation unit 102 and the director screen generation unit 103. In this example, the distance between the touch panel and the finger is determined based on the magnitude of the sensor output value of the finger, and the selection target range whose color is changed according to the finger distance is changed. An operation target closer to the proximity position of the finger is highlighted. The operation target 81 is the operation target closest to the finger proximity position on the operator screen, and the operation target 82 is the operation target second closest to the finger proximity position on the operator screen. The operation target 83 is the operation target closest to the finger proximity position on the director screen, and the operation target 84 is the second operation target closest to the finger proximity position on the director screen.

このように、実施の形態1では、図4における円40や矩形41のように、指の近接時や指差し時に応じて、別々の表示を行うことでオペレータは各自の操作状態、操作位置を容易に認識することができる。
また、図5における円50や矩形51のように、監督画面にも指の近接時や指差し時に応じて別々の表示を行うことで、監督者はオペレータの操作状態、操作位置を知ることができ、操作ミスを容易に見つけることができる。
As described above, in the first embodiment, as shown by the circle 40 and the rectangle 41 in FIG. 4, the operator can change the operation state and the operation position by performing different displays according to the proximity of the finger or the pointing of the finger. It can be easily recognized.
In addition, as shown by a circle 50 or a rectangle 51 in FIG. 5, the supervisor can know the operation state and the operation position of the operator by performing separate display on the director screen according to the proximity of the finger or the pointing of the finger. It is possible to easily find operation mistakes.

さらに、図6〜図8に示すように、指とタッチパネルとの距離に応じて、円の表示範囲や強調表示する操作対象の範囲を変えることで、タッチパネルと指が離れることにより、オペレータの指差し操作対象と近接・タッチ情報入力部202の検知座標とがずれ、監督者が確認ミスを起こすといった事象を未然に防ぐことができる。   Further, as shown in FIGS. 6 to 8, by changing the display range of the circle and the operation target range to be highlighted according to the distance between the finger and the touch panel, the operator's finger It is possible to prevent an event in which the insertion operation target and the detection coordinates of the proximity / touch information input unit 202 are shifted and the supervisor makes a confirmation error.

以上説明したように、実施の形態1の監視制御システムによれば、オペレータ画面を表示する表示入力一体型装置を用い、オペレータ画面への入力操作を、オペレータ画面とは異なる監督画面で確認可能な監視制御システムであって、入力操作を行うための操作体オペレータ画面への近接状態を検知する近接・タッチ情報入力部と、近接・タッチ情報入力部が検知した操作体のオペレータ画面との距離および座標に関する情報から、指差し操作、近接操作、タッチ操作のいずれかを判定する指差し操作判定部と、指差し操作判定部の判定結果に基づいて、操作体の操作に対応したオペレータ画面を生成するオペレータ画面生成部と、オペレータ画面生成部が生成したオペレータ画面に基づいて、指差し操作判定部における判定結果の情報を付与した監督画面を生成する監督画面生成部とを備えたので、監督者の監督負荷を軽減し、システムとしての安全性を高めることができる。 As described above, according to the monitoring control system of the first embodiment, the input operation to the operator screen can be confirmed on the supervisor screen different from the operator screen by using the display input integrated device that displays the operator screen. a monitoring control system, a proximity touch information input unit for detecting the proximity state to the operator screen of the operation member for performing an input operation, the proximity-touch information input unit with the operator screen of the operating body detected An operator screen corresponding to the operation of the operation object based on the determination result of the pointing operation determination unit and the pointing operation determination unit that determines any of the pointing operation , the proximity operation , and the touch operation from the information regarding the distance and the coordinates The operator screen generation unit that generates the information and the information on the determination result in the pointing operation determination unit based on the operator screen generated by the operator screen generation unit Since a supervisory screen generation unit for generating a given the supervision screen, reduce supervise loading supervisor, can improve the safety of the system.

また、実施の形態1の監視制御システムによれば、指差し操作判定部は、操作体とオペレータ画面との近接距離を算出し、オペレータ画面生成部は、指差し操作判定部が算出した近接距離に応じてオペレータ画面における入力操作を示す表示を変化させ、監督画面生成部は、オペレータ画面生成部における表示の変化に対応させて監督画面の表示を変化させるようにしたので、監督者によるオペレータ画面の確認をより確実に行うことができ、監督者による確認ミスを未然に防ぐことができる。   Further, according to the monitoring control system of the first embodiment, the pointing operation determination unit calculates the proximity distance between the operating body and the operator screen, and the operator screen generation unit calculates the proximity distance calculated by the pointing operation determination unit. In response to the change of the display indicating the input operation on the operator screen, the supervisor screen generator changes the display of the supervisor screen in response to the change of the display on the operator screen generator. Confirmation can be performed more reliably, and confirmation errors by the supervisor can be prevented in advance.

実施の形態2.
実施の形態2の監視制御システムは、オペレータの指差し呼称や操作対象の重要度に基づいて監督画面を生成するためのオペレータ画面を選択するようにしたものであり、その構成を図9に示す。
図9において、制御装置100aは、指差し操作判定部101、オペレータ画面生成部102、監督画面生成部103a、監督者表示画面選択部104を備えている。また、オペレータ1側の構成として、オペレータ画面201と近接・タッチ情報入力部202に加えて、音声情報入力部203が設けられている。さらに、監督者2側の構成としては監督画面301と監督情報入力部302とが設けられている。
Embodiment 2. FIG.
The monitoring control system according to the second embodiment is configured to select an operator screen for generating a supervisor screen based on the operator's pointing designation and the importance of the operation target, and the configuration is shown in FIG. .
9, the control device 100a includes a pointing operation determination unit 101, an operator screen generation unit 102, a supervisor screen generation unit 103a, and a supervisor display screen selection unit 104. Further, as a configuration on the operator 1 side, in addition to the operator screen 201 and the proximity / touch information input unit 202, a voice information input unit 203 is provided. Furthermore, as a configuration on the supervisor 2 side, a supervisor screen 301 and a supervisor information input unit 302 are provided.

音声情報入力部203は、オペレータ1の音声入力を検出し、音声入力の有無も含めて監督者表示画面選択部104に出力する。監督者表示画面選択部104は、音声情報入力部203からの音声入力の有無や内容と、指差し操作判定部101からのタッチ状態などの操作情報とに基づいて、オペレータ画面生成部102が生成した各オペレータ1へのオペレータ画面201のうち、どのオペレータ画面を監督画面生成部103aで用いるかを選択するものである。監督画面生成部103aは、監督情報入力部302によっていずれかのオペレータ画面201の選択操作があった場合はそのオペレータ画面に基づいて監督画面301を生成し、選択操作がない場合は監督者表示画面選択部104によって選択されたオペレータ画面201に基づいて監督画面301を生成するよう構成されている。その他の構成は実施の形態1と同様であるため、対応する部分に同一符号を付してその説明を省略する。   The voice information input unit 203 detects the voice input of the operator 1 and outputs it to the supervisor display screen selection unit 104 including the presence or absence of voice input. The supervisor display screen selection unit 104 is generated by the operator screen generation unit 102 based on the presence / absence and contents of voice input from the voice information input unit 203 and operation information such as a touch state from the pointing operation determination unit 101. Of the operator screens 201 for the respective operators 1, which operator screen is to be used by the supervisor screen generation unit 103a is selected. The supervisor screen generation unit 103a generates a supervisor screen 301 based on the operator screen 201 when the operator information input unit 302 selects one of the operator screens 201, and the supervisor display screen when there is no selection operation. The director screen 301 is generated based on the operator screen 201 selected by the selection unit 104. Since other configurations are the same as those of the first embodiment, the corresponding parts are denoted by the same reference numerals and description thereof is omitted.

図10は複数のオペレータが同時に操作することができる監視制御システムにおいて、監督者表示画面選択部104が監督者に表示する画面を選択する処理を示すフローチャートである。   FIG. 10 is a flowchart showing a process in which the supervisor display screen selection unit 104 selects a screen to be displayed to the supervisor in a monitoring control system that can be operated simultaneously by a plurality of operators.

監督者表示画面選択部104は、まず、指差し操作判定部101の判定結果に基づき、複数のオペレータが同時に指差し操作しているかを判定する(ステップST201)。同時に指差し操作を行っていない場合、監督者表示画面選択部104は指差ししているオペレータの画面を選択する。同時に指差ししている場合、ステップST202の判定処理を行う。   The supervisor display screen selection unit 104 first determines whether a plurality of operators are pointing at the same time based on the determination result of the pointing operation determination unit 101 (step ST201). When the pointing operation is not performed at the same time, the supervisor display screen selection unit 104 selects the screen of the pointing operator. When pointing at the same time, the determination process of step ST202 is performed.

ステップST202では、各オペレータに対して音声情報入力部203から指差し呼称等の音声入力が行われていないかを判定する。いずれかのオペレータから音声入力があった場合、監督者表示画面選択部104は最も早いタイミングで音声入力があったオペレータの画面を選択する。オペレータからの音声入力がない場合、監督者表示画面選択部104は、ステップST203で、各オペレータの指差し操作している操作対象の重要度を抽出する。   In step ST202, it is determined whether or not voice input such as pointing and calling is performed from the voice information input unit 203 to each operator. When there is a voice input from any of the operators, the supervisor display screen selection unit 104 selects the screen of the operator who has input the voice at the earliest timing. When there is no voice input from the operator, the supervisor display screen selection unit 104 extracts the importance of the operation target being pointed at by each operator in step ST203.

ステップST203で操作対象の重要度を抽出すると、監督者表示画面選択部104は指差し操作対象の重要度が同じであるかを判定する(ステップST204)。指差し対象の重要度が同じでない場合、監督者表示画面選択部104は、重要度の一番高いオペレータの画面を選択する。指差し対象の重要度が同じである場合、監督者表示画面選択部104は先に指差し操作をしたオペレータの画面を選択する。   When the importance of the operation target is extracted in step ST203, the supervisor display screen selection unit 104 determines whether the importance of the pointing operation target is the same (step ST204). When the importance of the pointing target is not the same, the supervisor display screen selection unit 104 selects the operator screen having the highest importance. When the importance of the pointing target is the same, the supervisor display screen selection unit 104 selects the screen of the operator who performed the pointing operation first.

図11は、オペレータAが指差し操作を行い、同時にオペレータBが近接操作を行ったとき、監督者表示画面選択部104によって選択されるオペレータ操作画面の例である。
オペレータA画面における111はオペレータAの指差し操作を示し、オペレータB画面における112はオペレータBの近接操作である。また、監督者画面における113はオペレータAの指差し操作位置に最も近い位置の操作対象である。オペレータAは指差し操作をしているため、ステップST201の判定により、監督者表示画面選択部104はオペレータAの画面を選択する。監督画面生成部103aは指差し操作判定部101のタッチ状態や位置座標情報を用いて、最も近い操作対象113を強調表示する。この強調表示はオペレータAに割り当てられた色である青色表示となる。
FIG. 11 is an example of an operator operation screen selected by the supervisor display screen selection unit 104 when the operator A performs a pointing operation and at the same time the operator B performs a proximity operation.
111 on the operator A screen indicates the pointing operation of the operator A, and 112 on the operator B screen is the proximity operation of the operator B. Further, reference numeral 113 on the supervisor screen is an operation target at a position closest to the pointing operation position of the operator A. Since the operator A performs a pointing operation, the supervisor display screen selection unit 104 selects the screen of the operator A by the determination in step ST201. The supervisor screen generation unit 103a highlights the closest operation target 113 using the touch state and position coordinate information of the pointing operation determination unit 101. The highlighted display is a blue display that is a color assigned to the operator A.

図12は、オペレータAとオペレータBが音声入力せずに同時に指差し操作を行ったとき、監督者表示画面選択部104によって選択されるオペレータ操作画面の例である。121はオペレータAの指差し操作を示し、124はオペレータAの指差し操作対象を示している。また、122はオペレータBの指差し操作であり、125はオペレータBの指差し操作対象である。さらに、123はオペレータBの指差し操作位置に最も近い位置の操作対象である。オペレータAとオペレータBは音声入力せずに同時に指差し操作をしているため、ステップST203において、監督者表示画面選択部104は操作対象124と125に予め割り当てられている重要度を抽出する。124に割り当てられている重要度が3で125に割り当てられている重要度は5だとした場合、ステップST204の判定の結果、監督者表示画面選択部104は重要度の高い操作対象を指差し操作しているオペレータBの画面を選択する。監督画面生成部103aは指差し操作判定部101で判定したタッチ状態や位置座標情報を用いて、最も近い操作対象123を強調表示する。この強調表示はオペレータBに割り当てられた色である赤色表示となる。   FIG. 12 is an example of an operator operation screen selected by the supervisor display screen selection unit 104 when the operator A and the operator B perform a pointing operation simultaneously without performing voice input. Reference numeral 121 denotes an operator A pointing operation, and reference numeral 124 denotes an operator A pointing operation target. Reference numeral 122 denotes an operator B pointing operation, and reference numeral 125 denotes an operator B pointing operation target. Further, reference numeral 123 denotes an operation target at a position closest to the operator B's pointing operation position. Since operator A and operator B are pointing at the same time without inputting voice, in step ST203, the supervisor display screen selection unit 104 extracts the importance assigned to the operation objects 124 and 125 in advance. If the importance assigned to 124 is 3 and the importance assigned to 125 is 5, as a result of the determination in step ST204, the supervisor display screen selection unit 104 points to an operation object having a high importance. Select the screen of operator B who is operating. The director screen generation unit 103a highlights the closest operation target 123 using the touch state and position coordinate information determined by the pointing operation determination unit 101. This highlighted display is a red display which is a color assigned to the operator B.

以上説明したように、実施の形態2の監視制御システムによれば、それぞれがオペレータ画面を表示する複数の表示入力一体型装置を用い、それぞれのオペレータ画面への入力操作を、これらオペレータ画面とは異なる監督画面で確認可能な監視制御システムであって、入力操作を行うための操作体オペレータ画面への近接状態を検知する近接・タッチ情報入力部と、複数のオペレータ画面に対してそれぞれ入力操作を行うオペレータの音声を入力する音声情報入力部と、近接・タッチ情報入力部が検知した操作体のオペレータ画面との距離および座標に関する情報から、指差し操作、近接操作、タッチ操作のいずれかを判定する指差し操作判定部と、指差し操作判定部の判定結果に基づいて、操作体の操作に対応したそれぞれのオペレータ画面を生成するオペレータ画面生成部と、オペレータ画面生成部が生成した複数のオペレータ画面に基づいて、指差し操作判定部における判定結果の情報を付与した監督画面を生成する監督画面生成部と、音声情報入力部から入力された音声情報に基づいて、オペレータの指差し呼称を認識し、指差し呼称と指差し操作における複数のオペレータ画面への操作順と指差し操作の操作対象の重要度のうち少なくともいずれかに基づいて監督画面生成部が用いるオペレータ画面を選択する監督者表示画面選択部とを備えたので、監督者は明示的にいずれかのオペレータ画面を選択しなくても、各オペレータの操作を自動的に監視することができる。その結果、監督者の負担を軽減することができ、指差し操作が必要な操作対象の確認をより確実に行うことができる。 As described above, according to the monitoring control system of the second embodiment, a plurality of display input integrated devices each displaying an operator screen are used, and an input operation to each operator screen is defined as an operator screen. a possible monitoring and control systems found in different supervision screen, a proximity touch information input unit for detecting the proximity state to the operator screen of the operation member for performing an input operation, respectively input to a plurality of operators screens From the information on the distance and coordinates between the voice information input unit that inputs the voice of the operator performing the operation and the operator screen of the operating body detected by the proximity / touch information input unit, any of the pointing operation , the proximity operation , and the touch operation And each operation corresponding to the operation of the operating body based on the determination result of the pointing operation determination unit. An operator screen generation unit that generates a screen, a director screen generation unit that generates a director screen to which information on the determination result in the pointing operation determination unit is added based on a plurality of operator screens generated by the operator screen generation unit, and voice Based on the voice information input from the information input unit, the operator's pointing designation is recognized, the order of operation to the plurality of operator screens in the pointing designation and pointing operation, and the importance of the operation target of the pointing operation A supervisor display screen selection unit that selects an operator screen to be used by the supervisor screen generation unit based on at least one of them, so that the supervisor does not explicitly select one of the operator screens. Operation can be monitored automatically. As a result, the burden on the supervisor can be reduced, and the operation target requiring the pointing operation can be confirmed more reliably.

実施の形態3.
実施の形態3の監視制御システムは、指差し操作と指差し呼称とが一致するか否かを含めて表示するようにしたものであり、その構成を図13に示す。
図13において、制御装置100bは、指差し操作判定部101、オペレータ画面生成部102a、監督画面生成部103b、音声認識対象データ抽出部105、音声認識部106、音声認識対象データ保持部107を備えている。また、オペレータ1側の構成と監督者2側の構成は実施の形態2と同様である。但し、音声情報入力部203で入力された音声情報は制御装置100bの音声認識部106に入力するよう構成されている。また、監督情報入力部302は、音声認識部106における指差し呼称の操作情報などを選択したり、監督画面301に表示された結果に対する確認完了の入力を行うといった情報入力も含めて行えるよう構成されている。
Embodiment 3 FIG.
The monitoring control system according to the third embodiment is configured to display whether or not the pointing operation matches the pointing designation, and the configuration is shown in FIG.
13, the control device 100b includes a pointing operation determination unit 101, an operator screen generation unit 102a, a supervisor screen generation unit 103b, a voice recognition target data extraction unit 105, a voice recognition unit 106, and a voice recognition target data holding unit 107. ing. The configuration on the operator 1 side and the configuration on the supervisor 2 side are the same as those in the second embodiment. However, the speech information input by the speech information input unit 203 is configured to be input to the speech recognition unit 106 of the control device 100b. Further, the director information input unit 302 is configured to be able to include information input such as selecting operation information for pointing and calling in the voice recognition unit 106 or inputting confirmation completion for the result displayed on the director screen 301. Has been.

音声認識対象データ抽出部105は、指差し操作判定部101が判定した指差し操作情報を受け取り、音声認識対象データ保持部107に保持されている操作対象の位置情報に基づいて、指差し位置から一定以内の距離にある音声認識対象を選択し、音声認識結果照合用のデータを抽出する処理部である。音声認識部106は、音声情報入力部203からのオペレータの音声入力情報と、音声認識対象データ抽出部105が抽出した音声認識照合用のデータを受け取り、音声入力情報の音声認識結果が音声認識照合用のデータと対応しているか判定する処理部である。音声認識対象データ保持部107は、オペレータが操作する対象の音声入力情報や画面における位置情報を有している。オペレータ画面生成部102aは、指差し操作判定部101からタッチ・近接・指差しなどの操作情報と、音声認識部106から音声認識判定結果を受け取り、各オペレータの操作に対応したオペレータ画面を生成するよう構成されている。また、監督画面生成部103bは、オペレータ画面生成部102aが生成したオペレータ画面に基づいて、指差し操作判定部101における判定結果の情報と音声認識部106における指差し呼称の操作に関する操作情報とを付与した監督画面を生成するよう構成されている。その他の構成は実施の形態1と同様である。   The voice recognition target data extraction unit 105 receives the pointing operation information determined by the pointing operation determination unit 101, and starts from the pointing position based on the position information of the operation target held in the voice recognition target data holding unit 107. It is a processing unit that selects a speech recognition target within a certain distance and extracts data for collating speech recognition results. The voice recognition unit 106 receives the operator's voice input information from the voice information input unit 203 and the voice recognition collation data extracted by the voice recognition target data extraction unit 105, and the voice recognition result of the voice input information is the voice recognition collation. It is a processing part which determines whether it corresponds with the data for use. The voice recognition target data holding unit 107 has voice input information to be operated by the operator and position information on the screen. The operator screen generation unit 102a receives operation information such as touch / proximity / pointing from the pointing operation determination unit 101 and a voice recognition determination result from the voice recognition unit 106, and generates an operator screen corresponding to the operation of each operator. It is configured as follows. Further, the director screen generation unit 103b generates information on the determination result in the pointing operation determination unit 101 and operation information on the operation of pointing and calling in the voice recognition unit 106 based on the operator screen generated by the operator screen generation unit 102a. It is configured to generate the assigned director screen. Other configurations are the same as those of the first embodiment.

図14は、オペレータが指差し操作を行って音声入力をする前の画面例である。140はオペレータの指差し操作を示しており、141はオペレータの指差し操作対象である。142は、操作対象141に対応する音声呼称の入力メッセージである。操作対象141に対して指差し操作を行い、メッセージ142の「水圧パラメータ変更」と呼称することで、指差し呼称操作を行うことができる。指差し呼称に成功すると指差し呼称成功となり、操作対象141を選択することができる。指差し呼称に失敗すると指差し呼称失敗となり、操作対象141を選択することができない。   FIG. 14 shows an example of a screen before the operator performs a pointing operation and performs voice input. Reference numeral 140 denotes an operator's pointing operation, and reference numeral 141 denotes an operator's pointing operation target. Reference numeral 142 denotes a voice name input message corresponding to the operation object 141. The pointing operation can be performed by performing a pointing operation on the operation target 141 and calling the message 142 “change hydraulic pressure parameter”. If the pointing and calling is successful, the pointing and calling is successful, and the operation object 141 can be selected. If pointing and calling fails, pointing and calling fails, and the operation target 141 cannot be selected.

図15は、指差し呼称操作を示すフローチャートである。ステップST301で、指差し操作判定部101は、図3に示したフローの処理で指差し操作を判定する。次に、音声認識対象データ抽出部105は、指差し操作状態か判断する(ステップST302)。指差し操作状態でない場合、音声認識対象データ抽出部105は、ステップST301、ステップST302を繰り返す。ステップST302において、指差し操作状態である場合、ステップST303の判定処理を行う。   FIG. 15 is a flowchart showing the pointing and calling operation. In step ST301, the pointing operation determination unit 101 determines the pointing operation by the processing of the flow illustrated in FIG. Next, the speech recognition target data extraction unit 105 determines whether the pointing operation state is set (step ST302). If not in the pointing operation state, the speech recognition target data extraction unit 105 repeats step ST301 and step ST302. In step ST302, when it is a pointing operation state, the determination process of step ST303 is performed.

ステップST303で、音声認識対象データ抽出部105は、音声認識対象データ保持部107から、指差し位置を中心として一定範囲内に指差し呼称の操作対象を検索する。検索の結果、操作対象がない場合、音声認識対象データ抽出部105は、ステップST301の指差し操作を判定する処理に戻る。ステップST303において、操作対象がある場合、オペレータ画面生成部102aは、オペレータ画面に指差し呼称の操作対象と呼称する入力メッセージを表示する(ステップST304)。また、監督画面生成部103bは、監督画面に指差し呼称の操作対象を表示する(ステップST305)。   In step ST303, the speech recognition target data extraction unit 105 searches the speech recognition target data holding unit 107 for an operation target for pointing and calling within a certain range centered on the pointing position. If there is no operation target as a result of the search, the speech recognition target data extraction unit 105 returns to the process of determining the pointing operation in step ST301. In step ST303, when there is an operation target, the operator screen generation unit 102a displays an input message called an operation target for pointing and calling on the operator screen (step ST304). In addition, the director screen generation unit 103b displays an operation target of pointing and calling on the director screen (step ST305).

また、ステップST303で、音声認識対象データ抽出部105は一定範囲内に指差し呼称の操作対象を検索するが、この検索範囲は指とタッチパネル間の距離に応じて変更しても良い。例えば、指がタッチパネルから所定の距離以上離れている場合は、検索範囲を広げて音声認識の対象を増やすことができる。   Further, in step ST303, the speech recognition target data extraction unit 105 searches for an operation target of pointing and calling within a certain range, but this search range may be changed according to the distance between the finger and the touch panel. For example, when the finger is away from the touch panel by a predetermined distance or more, the search range can be expanded to increase the number of voice recognition targets.

次に、音声認識部106は、音声情報入力部203から音声入力情報があるかを判定する(ステップST306)。音声入力情報がない場合、音声認識対象データ抽出部105はステップST302の指差し操作状態かを判定する処理に戻る。ステップST306において、音声入力情報がある場合、音声認識部106は、音声認識対象データ保持部107の単語データと音声入力データを用いて音声認識を行う(ステップST307)。   Next, voice recognition section 106 determines whether there is voice input information from voice information input section 203 (step ST306). When there is no voice input information, the voice recognition target data extraction unit 105 returns to the process of determining whether or not the pointing operation state is in step ST302. If there is voice input information in step ST306, the voice recognition unit 106 performs voice recognition using the word data and voice input data of the voice recognition target data holding unit 107 (step ST307).

次に、音声認識部106は、指差し位置に対応する音声認識対象データ保持部107のデータと音声認識の結果が一致するかを判定する(ステップST308)。指差し呼称に失敗した場合、音声認識部106は指差し呼称のあった操作対象について、再度指差し呼称に成功するまで操作を禁止する。指差し呼称に成功した場合、音声認識部106は指差し呼称のあった操作対象の操作を許可する。   Next, the voice recognition unit 106 determines whether the data of the voice recognition target data holding unit 107 corresponding to the pointing position matches the voice recognition result (step ST308). When the pointing and calling fails, the voice recognition unit 106 prohibits the operation on the operation target having been pointed and called until the pointing and calling succeeds again. When the pointing and calling is successful, the voice recognition unit 106 permits the operation of the operation target having the pointing and calling.

図16は、音声認識対象データ保持部107に保持されるデータのデータ構造の一例を示している。画面ID160は、オペレータに表示される各画面(オペレータ画面)に割り振られるIDである。中心座標161は、画面上の操作領域の中心座標である。操作領域162は、画面上の操作領域の情報である。入力メッセージ163は、オペレータが操作しようとした時に、オペレータ画面に表示するためのメッセージである。読みメッセージ164は、音声認識部106が音声認識する際に参照される単語データである。また、入力メッセージ163と読みメッセージ164は音声認識結果の照合にも使われる。このようなデータ形式により、図15のフローにおいて、ステップST303の指差し呼称の操作対象の検索や、ステップST304の入力メッセージの表示、ステップST307の音声認識対象データ保持部107の単語データを用いた音声認識を行うことができる。   FIG. 16 shows an example of the data structure of data held in the speech recognition target data holding unit 107. The screen ID 160 is an ID assigned to each screen (operator screen) displayed to the operator. The center coordinate 161 is the center coordinate of the operation area on the screen. The operation area 162 is information on the operation area on the screen. The input message 163 is a message to be displayed on the operator screen when the operator tries to operate. The reading message 164 is word data referred to when the voice recognition unit 106 recognizes the voice. Further, the input message 163 and the reading message 164 are also used for collating the speech recognition result. In such a data format, in the flow of FIG. 15, the search for the operation target of pointing and calling in step ST303, the display of the input message in step ST304, and the word data in the speech recognition target data holding unit 107 in step ST307 are used. Voice recognition can be performed.

図17は指差し呼称操作後のオペレータの操作画面例である。170,171はオペレータの指差し操作であり、172,174はオペレータの指差し操作対象である。また、173はオペレータが指差し呼称操作に成功した時に表示されるメッセージである。一方、175はオペレータが指差し呼称操作を失敗した時に操作対象174上に表示されるアイコンであり、このアイコン175は指差し操作がされなくなった場合に消える。さらに、176はオペレータが指差し呼称操作を失敗した時に表示されるメッセージである。   FIG. 17 shows an example of the operator's operation screen after the pointing and calling operation. Reference numerals 170 and 171 are operator pointing operations, and reference numerals 172 and 174 are operator pointing operation targets. Reference numeral 173 denotes a message displayed when the operator succeeds in pointing and calling operation. On the other hand, 175 is an icon displayed on the operation target 174 when the operator fails to point and call, and this icon 175 disappears when the pointing operation is no longer performed. Furthermore, reference numeral 176 denotes a message displayed when the operator fails the pointing and calling operation.

図18は指差し呼称操作後の監督画面の例である。180,181はオペレータの指差し操作対象である。182はオペレータが指差し呼称操作に成功した時に、監督画面に表示されるメッセージである。183はオペレータが指差し呼称操作に失敗した時に、監督画面に表示されるメッセージである。184はオペレータが指差し呼称操作に失敗した時に、操作対象181上に表示されるアイコンである。   FIG. 18 shows an example of the director screen after the pointing and calling operation. Reference numerals 180 and 181 are the pointing operation targets of the operator. A message 182 is displayed on the director screen when the operator succeeds in pointing and calling operation. A message 183 is displayed on the director screen when the operator fails to point and call. An icon 184 is displayed on the operation target 181 when the operator fails to point and call.

図18において、例えば、監督者から監督情報入力部302に確認完了の入力があった場合、音声認識部106は、メッセージ182,183やアイコン181を消すよう構成してもよい。   In FIG. 18, for example, when confirmation is input from the supervisor to the supervisor information input unit 302, the voice recognition unit 106 may be configured to delete the messages 182 and 183 and the icon 181.

このように、実施の形態3では、指差し呼称操作に成功した時と失敗した時の表示を図17のようにオペレータ側に分かりやすく表示することで、オペレータ1は監督者2の確認を通すことなく操作間違いを認識できる。また、指差し呼称操作に成功した時と失敗した時の表示を図18のように監督画面301に分かりやすく表示することで、操作に問題ないか等を再度確認するだけでよく、負担を軽減することができる。さらに、オペレータの指差し呼称が必要な操作を自動チェックするため、操作ミスや監督ミスなどの人為的な誤操作を減らすことができる。   As described above, in the third embodiment, the operator 1 passes the confirmation of the supervisor 2 by displaying the display when the pointing and calling operation is successful and when the operation is unsuccessful on the operator side as shown in FIG. It is possible to recognize operation mistakes without any problems. Also, by displaying the successful and unsuccessful pointing and calling operations on the director screen 301 as shown in FIG. 18, it is only necessary to reconfirm that there are no problems with the operations, thereby reducing the burden. can do. Furthermore, since an operation that requires an operator's pointing and calling is automatically checked, it is possible to reduce human error such as an operation error or a supervisor error.

以上説明したように、実施の形態3の監視制御システムによれば、オペレータ画面を表示する表示入力一体型装置を用い、オペレータ画面への入力操作を、オペレータ画面とは異なる監督画面で確認可能な監視制御システムであって、入力操作を行うための操作体オペレータ画面への近接状態を検知する近接・タッチ情報入力部と、オペレータ画面に対して入力操作を行うオペレータの音声を入力する音声情報入力部と、近接・タッチ情報入力部が検知した操作体のオペレータ画面との距離および座標に関する情報から、指差し操作、近接操作、タッチ操作のいずれかを判定する指差し操作判定部と、オペレータ画面における入力操作を行う対象である操作対象に対応した音声情報と、操作対象のオペレータ画面における位置情報とを保持する音声認識対象データ保持部と、指差し操作判定部が判定した指差し操作情報に基づいて、指差し操作位置に対応した操作対象の音声情報を、音声認識対象データ保持部から抽出する音声認識対象データ抽出部と、音声情報入力部から入力された音声情報と、音声認識対象データ抽出部で抽出した音声情報とを照合し、これらが一致するか否かを判定する音声認識部と、指差し操作判定部の判定結果に基づいて、操作体の操作に対応したオペレータ画面を生成すると共に、操作が指差しであった場合は、音声認識部の判定結果を付加した画面を生成するオペレータ画面生成部と、オペレータ画面生成部が生成したオペレータ画面に基づいて、指差し操作判定部における判定結果の情報と音声認識部の判定結果とを付与した監督画面を生成する監督画面生成部とを備えたので、オペレータの操作ミスや監督者の監督ミスなどの人為的な誤操作を減らすことができる。 As described above, according to the monitoring control system of the third embodiment, the input operation to the operator screen can be confirmed on the supervisor screen different from the operator screen using the display input integrated device that displays the operator screen. a monitoring control system, a proximity touch information input unit for detecting the proximity state to the operator screen of the operation member for performing an input operation, voice inputting voice of the operator to perform input operation to the operator screen A pointing operation determination unit that determines one of a pointing operation , a proximity operation , and a touch operation from information on the distance and coordinates between the information input unit and the operator screen of the operating body detected by the proximity / touch information input unit; Holds audio information corresponding to the operation target that is the input operation on the operator screen and position information on the operator screen of the operation target Voice recognition target data holding unit and voice recognition for extracting operation target voice information corresponding to the pointing operation position from the voice recognition target data holding unit based on the pointing operation information determined by the pointing operation determination unit A target data extraction unit, a voice recognition unit that compares the voice information input from the voice information input unit with the voice information extracted by the voice recognition target data extraction unit, and determines whether or not they match; An operator screen that generates an operator screen corresponding to the operation of the operating tool based on the determination result of the insertion operation determination unit and generates a screen to which the determination result of the voice recognition unit is added when the operation is a pointing Based on the generation unit and the operator screen generated by the operator screen generation unit, a director screen is generated with information on the determination result in the pointing operation determination unit and the determination result in the voice recognition unit. Since a supervisory screen generation unit, it is possible to reduce the artificial erroneous operation such as an operation mistake or supervisor supervision operator error.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 オペレータ、2 監督者、100,100a,100b 制御装置、101 指差し操作判定部、102,102a オペレータ画面生成部、103,103a,103b 監督画面生成部、104 監督者表示画面選択部、105 音声認識対象データ抽出部、106 音声認識部、107 音声認識対象データ保持部、201 オペレータ画面、202 近接・タッチ情報入力部、203 音声情報入力部、301 監督画面、302 監督情報入力部。   DESCRIPTION OF SYMBOLS 1 Operator, 2 Supervisor, 100, 100a, 100b Control apparatus, 101 Pointing operation determination part, 102, 102a Operator screen generation part, 103, 103a, 103b Supervisor screen generation part, 104 Supervisor display screen selection part, 105 Voice Recognition target data extraction unit, 106 voice recognition unit, 107 voice recognition target data holding unit, 201 operator screen, 202 proximity / touch information input unit, 203 voice information input unit, 301 director screen, 302 director information input unit.

Claims (4)

オペレータ画面を表示する表示入力一体型装置を用い、当該オペレータ画面への入力操作を、前記オペレータ画面とは異なる監督画面で確認可能な監視制御システムであって、
前記入力操作を行うための操作体の前記オペレータ画面への近接状態を検知する近接・タッチ情報入力部と、
前記近接・タッチ情報入力部が検知した前記操作体の前記オペレータ画面との距離および座標に関する情報から、指差し操作、近接操作、タッチ操作のそれぞれを判定する指差し操作判定部と、
前記指差し操作判定部の判定結果に基づいて、前記操作体の操作に対応した前記オペレータ画面を生成するオペレータ画面生成部と、
前記オペレータ画面生成部が生成した前記オペレータ画面に基づいて、前記指差し操作判定部における判定結果の情報を付与した前記監督画面を生成する監督画面生成部とを備えた監視制御システム。
Using a display input integrated device that displays an operator screen, a monitoring control system capable of confirming an input operation to the operator screen on a supervisor screen different from the operator screen,
Proximity / touch information input unit for detecting the proximity state of the operating body for performing the input operation to the operator screen;
A pointing operation determination unit that determines each of a pointing operation, a proximity operation, and a touch operation from information on a distance and coordinates of the operation body detected by the proximity / touch information input unit;
Based on the determination result of the pointing operation determination unit, an operator screen generation unit that generates the operator screen corresponding to the operation of the operation body;
A supervisory control system comprising: a supervisory screen generation unit that generates the supervisory screen to which information on a determination result in the pointing operation determination unit is added based on the operator screen generated by the operator screen generation unit.
前記指差し操作判定部は、前記操作体とオペレータ画面との近接距離を算出し、
前記オペレータ画面生成部は、前記指差し操作判定部が算出した近接距離に応じてオペレータ画面における入力操作を示す表示を変化させ、
前記監督画面生成部は、前記オペレータ画面生成部における表示の変化に対応させて前記監督画面の表示を変化させることを特徴とする請求項1記載の監視制御システム。
The pointing operation determination unit calculates a proximity distance between the operation body and an operator screen,
The operator screen generation unit changes a display indicating an input operation on the operator screen according to the proximity distance calculated by the pointing operation determination unit,
The monitoring control system according to claim 1, wherein the supervision screen generation unit changes the display of the supervision screen in response to a change in display in the operator screen generation unit.
それぞれがオペレータ画面を表示する複数の表示入力一体型装置を用い、それぞれのオペレータ画面への入力操作を、これらオペレータ画面とは異なる監督画面で確認可能な監視制御システムであって、
前記入力操作を行うための操作体の前記オペレータ画面への近接状態を検知する近接・タッチ情報入力部と、
前記複数のオペレータ画面に対してそれぞれ入力操作を行うオペレータの音声を入力する音声情報入力部と、
前記近接・タッチ情報入力部が検知した前記操作体の前記オペレータ画面との距離および座標に関する情報から、指差し操作、近接操作、タッチ操作のそれぞれを判定する指差し操作判定部と、
前記指差し操作判定部の判定結果に基づいて、前記操作体の操作に対応した前記それぞれのオペレータ画面を生成するオペレータ画面生成部と、
前記オペレータ画面生成部が生成した前記複数のオペレータ画面に基づいて、前記指差し操作判定部における判定結果の情報を付与した前記監督画面を生成する監督画面生成部と、
前記音声情報入力部から入力された音声情報に基づいて、オペレータの指差し呼称を認識し、当該指差し呼称と前記指差し操作における前記複数のオペレータ画面への操作順と当該指差し操作の操作対象の重要度のうち少なくともいずれかに基づいて前記監督画面生成部が用いるオペレータ画面を選択する監督者表示画面選択部とを備えた監視制御システム。
A monitoring control system that uses a plurality of display input integrated devices each displaying an operator screen, and allows the input operation to each operator screen to be confirmed on a supervisor screen different from these operator screens,
Proximity / touch information input unit for detecting the proximity state of the operating body for performing the input operation to the operator screen;
A voice information input unit for inputting a voice of an operator who performs an input operation on each of the plurality of operator screens;
A pointing operation determination unit that determines each of a pointing operation, a proximity operation, and a touch operation from information on a distance and coordinates of the operation body detected by the proximity / touch information input unit;
Based on the determination result of the pointing operation determination unit, an operator screen generation unit that generates the respective operator screens corresponding to the operation of the operation body;
Based on the plurality of operator screens generated by the operator screen generation unit, a director screen generation unit that generates the director screen to which information on a determination result in the pointing operation determination unit is provided;
Based on the voice information input from the voice information input unit, the operator's pointing designation is recognized, the order of operation on the plurality of operator screens in the pointing designation, the pointing operation, and the operation of the pointing operation. A supervisory control system comprising: a supervisor display screen selection unit that selects an operator screen used by the supervisor screen generation unit based on at least one of the importance levels of the object.
オペレータ画面を表示する表示入力一体型装置を用い、当該オペレータ画面への入力操作を、前記オペレータ画面とは異なる監督画面で確認可能な監視制御システムであって、
前記入力操作を行うための操作体の前記オペレータ画面への近接状態を検知する近接・タッチ情報入力部と、
前記オペレータ画面に対して入力操作を行うオペレータの音声を入力する音声情報入力部と、
前記近接・タッチ情報入力部が検知した前記操作体の前記オペレータ画面との距離および座標に関する情報から、指差し操作、近接操作、タッチ操作のそれぞれを判定する指差し操作判定部と、
前記オペレータ画面における入力操作を行う対象である操作対象に対応した音声情報と、当該操作対象のオペレータ画面における位置情報とを保持する音声認識対象データ保持部と、
前記指差し操作判定部が判定した指差し操作情報に基づいて、当該指差し操作位置に対応した操作対象の音声情報を、前記音声認識対象データ保持部から抽出する音声認識対象データ抽出部と、
前記音声情報入力部から入力された音声情報と、前記音声認識対象データ抽出部で抽出した音声情報とを照合し、これらが一致するか否かを判定する音声認識部と、
前記指差し操作判定部の判定結果に基づいて、前記操作体の操作に対応した前記オペレータ画面を生成すると共に、当該操作が指差しであった場合は、前記音声認識部の判定結果を付加した画面を生成するオペレータ画面生成部と、
前記オペレータ画面生成部が生成したオペレータ画面に基づいて、前記指差し操作判定部における判定結果の情報と前記音声認識部の判定結果とを付与した前記監督画面を生成する監督画面生成部とを備えた監視制御システム。
Using a display input integrated device that displays an operator screen, a monitoring control system capable of confirming an input operation to the operator screen on a supervisor screen different from the operator screen,
Proximity / touch information input unit for detecting the proximity state of the operating body for performing the input operation to the operator screen;
A voice information input unit for inputting a voice of an operator who performs an input operation on the operator screen;
A pointing operation determination unit that determines each of a pointing operation, a proximity operation, and a touch operation from information on a distance and coordinates of the operation body detected by the proximity / touch information input unit;
A voice recognition target data holding unit that holds voice information corresponding to an operation target that is an input operation on the operator screen, and position information on the operator screen of the operation target;
Based on the pointing operation information determined by the pointing operation determination unit, a voice recognition target data extraction unit that extracts voice information of an operation target corresponding to the pointing operation position from the voice recognition target data holding unit;
A speech recognition unit that collates speech information input from the speech information input unit with speech information extracted by the speech recognition target data extraction unit and determines whether or not they match;
Based on the determination result of the pointing operation determination unit, the operator screen corresponding to the operation of the operating body is generated, and when the operation is a pointing, the determination result of the voice recognition unit is added. An operator screen generator for generating a screen;
Based on the operator screen generated by the operator screen generation unit, a director screen generation unit that generates the director screen to which the information on the determination result in the pointing operation determination unit and the determination result of the voice recognition unit are added. Monitoring control system.
JP2012084754A 2012-04-03 2012-04-03 Supervisory control system Expired - Fee Related JP5959278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012084754A JP5959278B2 (en) 2012-04-03 2012-04-03 Supervisory control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012084754A JP5959278B2 (en) 2012-04-03 2012-04-03 Supervisory control system

Publications (2)

Publication Number Publication Date
JP2013214238A JP2013214238A (en) 2013-10-17
JP5959278B2 true JP5959278B2 (en) 2016-08-02

Family

ID=49587512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012084754A Expired - Fee Related JP5959278B2 (en) 2012-04-03 2012-04-03 Supervisory control system

Country Status (1)

Country Link
JP (1) JP5959278B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200121304A (en) 2018-02-20 2020-10-23 소니 주식회사 Information processing device, information processing method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0578118U (en) * 1992-03-26 1993-10-22 三菱電機株式会社 Plant monitoring controller
JPH06289847A (en) * 1993-04-06 1994-10-18 Hitachi Ltd Display device
JPH09114579A (en) * 1995-10-23 1997-05-02 Hitachi Ltd Pointing calling confirmation system
JPH10326111A (en) * 1997-05-26 1998-12-08 Toshiba Corp Plant monitoring device and monitoring system
JP2001014024A (en) * 1999-06-30 2001-01-19 Toshiba Corp Monitor controller for plant
US8963832B2 (en) * 2010-03-05 2015-02-24 Lenovo Innovations Limited (Hong Kong) Mobile terminal
JP5631098B2 (en) * 2010-08-02 2014-11-26 三菱重工業株式会社 Nuclear power plant operation monitoring device

Also Published As

Publication number Publication date
JP2013214238A (en) 2013-10-17

Similar Documents

Publication Publication Date Title
US9058105B2 (en) Automated adjustment of input configuration
US8581869B2 (en) Information processing apparatus, information processing method, and computer program
JP6746085B2 (en) Abnormality detection device, abnormality detection method, and abnormality detection program
JPWO2016063484A1 (en) Image processing apparatus, display control apparatus, image processing method, and program
KR20140100761A (en) Gesture-based user input method and system with touch devices
US20060077182A1 (en) Methods and systems for providing user selectable touch screen functionality
CN104598786A (en) Password inputting method and device
JP5959278B2 (en) Supervisory control system
CN108717508B (en) Information processing method and electronic equipment
TWI662452B (en) Portable electronic device and unlocking method
KR101796009B1 (en) Program automatic analysis system and automatic analysis method using the same
CN108369413B (en) Industrial robot and method for controlling a robot to automatically select program code to be executed next
WO2014014078A1 (en) Input assistance program and input assistance device
KR20080084471A (en) Method and apparatus for offering help information for error of button operation by user
JP5542624B2 (en) Plant monitoring device
EP2902868A1 (en) Operational methods and systems for motion-centric user interfaces
KR101307062B1 (en) Method and Apparatus for controlling a input information of Touch Pad
JP2018018411A (en) Information processing device, information processing method, and program
KR101096572B1 (en) Method and device for inputting on touch screen, and portable device comprising the same
JP6042753B2 (en) Terminal device and operation lock releasing method
JPH0566885A (en) Touch-input device and operation of plant using it
US11822762B2 (en) Input display system, auxiliary information display method and program
US11789581B2 (en) Input display system, auxiliary information display method and program
CN107122652B (en) Control method and device for unlocking object
KR101094129B1 (en) Method of executing instruction and apparatus performing the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160621

R150 Certificate of patent or registration of utility model

Ref document number: 5959278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees