WO2016185586A1 - 情報処理装置及びインタロック制御方法 - Google Patents

情報処理装置及びインタロック制御方法 Download PDF

Info

Publication number
WO2016185586A1
WO2016185586A1 PCT/JP2015/064493 JP2015064493W WO2016185586A1 WO 2016185586 A1 WO2016185586 A1 WO 2016185586A1 JP 2015064493 W JP2015064493 W JP 2015064493W WO 2016185586 A1 WO2016185586 A1 WO 2016185586A1
Authority
WO
WIPO (PCT)
Prior art keywords
operator
information processing
unit
interlock
motion
Prior art date
Application number
PCT/JP2015/064493
Other languages
English (en)
French (fr)
Inventor
淳 嶋田
博彦 樋口
佐藤 聡
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2017518688A priority Critical patent/JP6293372B2/ja
Priority to PCT/JP2015/064493 priority patent/WO2016185586A1/ja
Priority to CN201580079203.7A priority patent/CN107533359B/zh
Publication of WO2016185586A1 publication Critical patent/WO2016185586A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Definitions

  • the present invention relates to an interlock technology that restricts a specific operation on an information processing apparatus.
  • Interlock refers to a safety mechanism that prevents unintended operation by the device designer or the person in charge of operation, and its mechanism.
  • a specific operation on the device for example, pressing of the operation start button of the device
  • the user can cancel the state in which the specific operation input is invalidated (hereinafter referred to as “interlock state”) by operating the apparatus according to a predetermined procedure.
  • Examples of releasing the interlock state include a mechanism for releasing the interlock state when two operation buttons on the operation panel are pressed almost simultaneously, and a plurality of operation buttons in order according to a predetermined procedure. And a mechanism for releasing the interlock state when the button is pressed.
  • Patent Document 1 Japanese Patent Laid-Open No. 2006-40271
  • Patent Document 2 Japanese Patent Publication No. 2007-538318
  • Patent Document 3 Japanese Patent Laid-Open No. 2001-216069
  • Patent Document 4 Japanese Unexamined Patent Application Publication No. 2011-248606
  • Japanese Unexamined Patent Application Publication No. 2008-52590 Japanese Unexamined Patent Application Publication No. 2011-81469.
  • JP 2006-40271 A Special table 2007-538318 Japanese Patent Laid-Open No. 2001-216069 JP 2011-248606 A JP 2008-52590 A JP 2011-81469 A
  • interlock technology As for interlock technology, the more complicated the operation procedure for releasing the interlock state of the device is, the more effective it is to prevent unintended operations by the device designer or the person in charge of operation. Is too complicated, there is a problem that work efficiency decreases due to an increase in the operation burden on the user.
  • an object of the present invention is to provide an information processing device and an interlock control method that can easily perform an operation of releasing an interlock state, have high reliability, and can suppress a user's operation violation. The point is to provide.
  • An information processing apparatus is an information processing apparatus connected to a sensor device that spatially detects an operator's body, an operation input unit, and a display device, and the operation state of the information processing apparatus is An interlock control unit for setting an interlock state to invalidate an operation input to the operation input unit, and an operation for the operator by displaying a guide image indicating a specific motion pattern of a human body on the display device An operation recognizing unit for recognizing a specific part of the body of the operator based on a detection output of the sensor device, and an operation recognizing unit for recognizing the operation of the recognized specific part The interlock control unit releases the interlock state when the motion recognized by the motion recognition unit matches the specific motion pattern. To.
  • An interlock control method is an interlock control method performed in an information processing apparatus connected to a sensor device that spatially detects an operator's body, an operation input unit, and a display device, A step of setting an operation state of the information processing apparatus to an interlock state in which a specific operation input to the operation input unit is disabled, and a guide image indicating a specific operation pattern of the human body is displayed on the display device Instructing the operator to perform an operation, recognizing a specific part of the operator's body based on the detection output of the sensor device, and recognizing the action of the recognized specific part And releasing the interlock state when the recognized action matches the specific action pattern.
  • the operator can release the interlock state by moving his body part according to the operation pattern displayed on the display device. Therefore, the interlock state can be easily released, and the interlock state can be prevented from being released due to an erroneous operation. Moreover, since the operation
  • FIG. 6 is a diagram showing an example of a display screen according to Embodiment 1.
  • FIG. It is a figure which shows an example of the guide image after the state shown in FIG. It is a figure which shows the other example of a guide image. It is a figure which shows a display screen when an interlock state is cancelled
  • FIG. 6 is a flowchart schematically showing an example of a procedure of interlock control according to the second embodiment.
  • FIG. 6 is a diagram schematically showing an example of a guide image according to Embodiment 2.
  • FIG. It is a figure which shows a display screen when an interlock state is cancelled
  • FIG. 1 is a functional block diagram showing a schematic configuration of a device control system 1 according to the first embodiment of the present invention.
  • the device control system 1 is connected to controlled devices 41 1 ,..., 41 N such as measuring devices, monitoring devices, or manufacturing apparatuses via a communication line 40 including a control network such as a LAN (Local Area Network) or a wide area network.
  • a control network such as a LAN (Local Area Network) or a wide area network.
  • This device control system 1 is configured to be able to individually monitor and control the operations of the controlled devices 41 1 ,..., 41 N , and can be used as an instrumentation control system and an FA (Factory Automation) control system. is there.
  • FA Vectory Automation
  • the device control system 1 includes an information processing apparatus 10A, an operation input unit 11, a display device 12 with a touch panel 12T, and a sensor device 13.
  • the information processing apparatus 10A includes a motion determination unit 20A, a pattern storage unit 25, an input / output interface unit (input / output I / F unit) 30, a system control unit 31, and a communication control unit 32.
  • the information processing apparatus 10A may be configured by a computer such as a PC (Personal Computer) or a workstation.
  • the functions of the motion determination unit 20A and the system control unit 31 can be realized using a computer program.
  • the functions of the motion determination unit 20A and the system control unit 31 can be realized by a computer including a readable recording medium.
  • the pattern storage unit 25 may be configured by a non-volatile memory or HDD (Hard Disk Drive).
  • the operation input unit 11, the display device 12, the touch panel 12T, and the sensor device 13 are connected to the system control unit 31 and the motion determination unit 20A via the input / output interface unit 30.
  • the operation input unit 11 of this embodiment includes a pointing device such as a mouse and a key input device.
  • the operator OP can operate the operation input unit 11 to input information to the system control unit 31 and the motion determination unit 20A.
  • the touch panel 12T is incorporated in the display device 12, the operator OP touches the screen of the display device 12 with a part of his / her body such as a finger or an auxiliary tool, for example. Information can also be input to the motion determination unit 20A.
  • the operation input unit of the present invention can be realized by the operation input unit 11 and the touch panel 12T.
  • the display device 12 may be a video display device such as a liquid crystal display or an organic EL display.
  • the system control unit 31 and the motion determination unit 20A can supply a video signal to the display device 12 via the input / output interface unit 30 to display an image.
  • An operation image for remotely operating the can be displayed on the display device 12.
  • the operator OP can visually check the display contents of the display device 12 and operate the operation input unit 11 or the touch panel 12T to input information to the system control unit 31.
  • the sensor device 13 spatially detects each part of the body of the operator OP within the detection range and can supply the detection result to the motion determination unit 20A via the input / output interface unit 30. It is a recognition device.
  • the sensor device 13 irradiates the operator OP as a detection wave with an imaging unit 13A that images the body of the operator OP within the detection range and outputs imaging data, and electromagnetic waves (for example, infrared rays) having a spatial pattern.
  • a detection wave irradiation unit 13B, a reflected wave reception unit 13C that receives a reflected wave with respect to the detection wave, and a calculation unit 13P are provided.
  • the calculation unit 13P has a function of detecting distance information (depth information) with respect to the operator OP in real time by a known pattern irradiation method (also called “Light Coding method”) based on the reflected wave from the operator OP.
  • the distance information is information indicating the distance (depth) from the sensor device 13 to each part of the body surface of the operator OP.
  • the calculation unit 13P generates a distance image having distance information in units of pixels based on the distance information and the imaging data obtained by the imaging unit 13A.
  • the calculation unit 13P can identify each part of the body of the operator OP (for example, the left hand, the head, or the right hand) based on the distance image.
  • the identification result and the distance image are supplied as a detection output of the sensor device 13 to the motion determination unit 20A via the input / output interface unit 30.
  • it may replace with the above-mentioned pattern irradiation system and may detect distance information by the well-known TOF (Time Of Flight) system.
  • TOF Time Of Flight
  • the movement determination unit 20A includes an operator recognition unit 21, a movement recognition unit 22, a movement instruction unit 23A, and an interlock control unit 24, as shown in FIG.
  • the operator recognition unit 21 can recognize the specific part of the body of the operator OP and the shape of the specific part in real time. Since the library information regarding various shapes and skin colors of a specific part of the body such as a hand is stored in advance in the pattern storage unit 25, the operator recognition unit 21 is based on the detection output of the sensor device 13. With reference to the library information, the specific part of the body of the operator OP and the shape of the specific part can be recognized.
  • the calculation unit 13P of the sensor device 13 detects each part of the body of the operator OP in real time.
  • 20 A of motion determination parts may have the same function as the calculating part 13P, and may detect each part of the body of operator OP in real time based on the detection output of the sensor device 13.
  • the motion recognition unit 22 has a function of recognizing the motion of a specific part recognized by the operator recognition unit 21. Specifically, since an operation pattern indicating a gesture of a body part such as a hand is stored in advance in the pattern storage unit 25, for example, the action recognition unit 22 performs an operation of the recognized specific part as a pattern. The operation pattern stored in the storage unit 25 is compared. The motion recognition unit 22 supplies the interlock control unit 24 with information indicating whether the motion of the specific part matches the motion pattern stored in the pattern storage unit 25.
  • the operation instruction unit 23A has a function of causing the display device 12 to display a moving image (hereinafter referred to as “guide image”) indicating the operation pattern stored in the pattern storage unit 25.
  • the interlock control unit 24 has a function of setting the operation state of the information processing apparatus 10 ⁇ / b> A to an interlock state that invalidates a specific operation input to the operation input unit 11.
  • the interlock control unit 24 controls the input / output interface unit 30 so that a specific operation input to the operation input unit 11 or the touch panel 12T is not accepted by the input / output interface unit 30.
  • the operation input can be disabled.
  • FIG. 2 is a flowchart schematically showing an example of the processing procedure of the interlock control according to the first embodiment.
  • Interlock control is executed when the operation state of the information processing apparatus 10A is set to the interlock state.
  • the operator recognition unit 21 starts an operator recognition process (step ST11). That is, the operator recognition unit 21 monitors the detection output of the sensor device 13 in real time, and recognizes the specific part of the body of the operator OP and the shape of the specific part based on this detection output as described above. Try.
  • the operator recognition unit 21 does not recognize a specific part of the body (for example, the left hand or the right hand) (NO in step ST12), the process does not proceed to the next step.
  • FIG. 3 is a diagram showing an example of the display screen 12S of the display device 12 in the interlock state.
  • group A operation buttons A1 and A2, group B operation buttons B1 and B2, group C operation buttons C1 and C2, and a mouse cursor Cr are displayed.
  • the operator OP can move the mouse cursor Cr by operating the pointing device 11M using the right hand OPR.
  • the operation of clicking and selecting the operation buttons A1, A2, B1, B2, C1, and C2 is invalidated by the interlock control unit 24.
  • the sensor device 13 emits a detection wave DW.
  • the operator recognition unit 21 recognizes the specific part and its shape.
  • step ST12 When the operator recognizing unit 21 recognizes a specific part of the body of the operator OP (YES in step ST12), the operation instruction unit 23A starts displaying a guide image indicating the operation pattern stored in the pattern storage unit 25. (Step ST13). Subsequently, the motion recognition unit 22 starts a motion pattern recognition process for recognizing the motion of the specific part recognized by the operator recognition unit 21 (step ST14). Note that steps ST13 and ST14 are not necessarily executed in this order, and may be executed in the reverse order or simultaneously.
  • FIG. 4 is a diagram schematically showing an example of the guide image after the state shown in FIG.
  • the operator recognition unit 21 recognizes the left hand OPL (YES in step ST12).
  • the shape of the left hand OPL is also recognized.
  • the operation instruction unit 23A displays the guide image G1 of FIG. 4 on the display screen 12S (step ST13).
  • this guide image G1 a hand image Ha to which the character “A” is attached, a hand image Hb to which the character “B” is attached, and a hand image Hd indicating the recognition result by the operator recognition unit 21 are displayed. ing.
  • the hand shape indicated by the hand image Ha is associated with the operation buttons A1 and A2 of the A group
  • the hand shape indicated by the hand image Hb is associated with the operation buttons B1 and B2 of the B group.
  • the recognized shape of the left hand OPL is recognized as matching the shape pattern of the hand image Hb.
  • the guide image G1 also includes an arcuate guide line Ta and a light spot Pg that prompts the user to move the left hand clockwise along the guide line Ta.
  • the operator OP can move his / her left hand OPL in synchronization with the movement of the light spot Pg according to the guide image G1.
  • the guide image is not limited to the guide image G1 in FIG.
  • a guide image G2 that prompts the user to move the left hand OPL along the rectangular guide line Tb is also conceivable.
  • the interlock control unit 24 matches the shape of the specific part recognized by the operator OP with the shape pattern of the specific part displayed on the guide image (hereinafter also referred to as “display shape pattern”). Further, it is determined whether or not the operation of the specific part of the operator OP matches the operation pattern (hereinafter also referred to as “display operation pattern”) displayed on the guide image (step ST15). When it is determined that the recognized shape of the specific part matches the display shape pattern and the operation of the specific part matches the display operation pattern (YES in step ST15), the interlock control unit 24 determines that the determination result is In response, the timer starts counting (step ST16).
  • step ST19 the interlock control unit 24 stands by until the set time T1 elapses when the recognition shape of the specific part matches the display shape pattern and the operation of the specific part matches the display operation pattern ( NO of step ST19).
  • the interlock control unit 24 Then, the count value of the timer is reset (step ST18), and the determination process of step ST17 is continued (step ST18).
  • step ST17 when the set time T1 elapses when the recognized shape of the specific part of the operator OP matches the display shape pattern and the action of the specific part of the operator OP matches the display operation pattern (YES in step ST17, and The interlock control unit 24 releases the interlock state (step ST20). Thereafter, the interlock state is released while the recognized shape of the specific part of the operator OP matches the display shape pattern and the action of the specific part of the operator OP matches the display operation pattern (in step ST21). YES), continue.
  • step ST21 When either one of the state where the recognized shape of the specific part of the operator OP does not match the display shape pattern or the state where the operation of the specific part of the operator OP does not match the display operation pattern occurs (NO in step ST21).
  • the interlock control unit 24 sets the interlock state again (step ST22).
  • the motion recognition unit 22 ends the motion pattern recognition process (step ST23).
  • FIG. 6 is a diagram showing a display screen of the display device 12 when the interlock state is released after the state shown in FIG.
  • a message Msg1 “A group B button is valid” is displayed on the display screen 12S, and an operation for selecting the group B operation buttons B1 and B2 is enabled.
  • the operator OP operates the pointing device 11M with the right hand OPR while the combination of the shape of the left hand OPL, the locus of the left hand OPL, and the movement cycle thereof matches the shape pattern and the display operation pattern of the hand image Hb. It can be selected by clicking the buttons B1 and B2.
  • the operator OP matches the shape of the left hand OPL with the shape pattern of the hand image Ha in FIG. 4 and matches the locus of the left hand OPL and the movement cycle thereof with the display operation pattern, whereby the operation buttons of the group A are operated.
  • the operation of selecting A1 and A2 is effective.
  • the operation pattern is displayed using the recognition of the body part of the operator OP (YES in step ST12 in FIG. 2) as a trigger (step ST13).
  • the operator OP can release the interlock state by moving his body part according to the display operation pattern (step ST20). Therefore, the operator OP can easily perform the unlocking operation of the interlocked state and consciously performs the releasing operation according to the display operation pattern, so that it is effective that the interlocked state is canceled by an erroneous operation. Can be prevented.
  • movement which uses the operator's OP's body part is conspicuous, operation violation can also be suppressed.
  • the interlock control unit 24 displays the state in which the recognized shape of the body part of the operator OP does not match the display shape pattern even after the interlock state is released, or the action of the body part of the operator OP is the display operation pattern. If any one of the states that do not match (NO in step ST21) occurs, the interlock state is set again (step ST22). For this reason, the operator OP needs to keep moving his / her body part according to the display operation pattern in order to perform the operation validated by releasing the interlock state. Therefore, it is difficult for the operator OP to secretly violate the operation. For example, in the past, operation was performed with an object placed on the operation button for releasing the interlock state, or with the elbow and palm simultaneously pressing two operation buttons to release the interlock state. I was able to make a violation. On the other hand, in the information processing apparatus 10A of the present embodiment, the operator OP cannot suppress the operation violation without moving his / her body part, and thus can suppress the operation violation.
  • the operator recognition unit 21 can identify the shape of a specific part of the body of the operator OP.
  • the motion recognition unit 22 recognizes a motion pattern of a specific part having the shape. Therefore, a number of interlock release patterns can be created by combining the shape of the body part and the motion pattern.
  • control content may be changed so that the process returns to step ST12 when a state where the operation of the specific part does not match the display operation pattern continues for a certain period of time. Further, the control content may be changed so that the process returns to step ST12 even when the number of times of resetting the count value (step ST18) exceeds a predetermined number. Furthermore, when the process returns to step ST12, the information on the specific part recognized by the operator recognition unit 21 may be deleted.
  • FIG. 7 is a functional block diagram illustrating a schematic configuration of the device control system 2 according to the second embodiment.
  • components given the same reference numerals have the same configuration and the same function.
  • the device control system 2 is connected to the controlled devices 41 1 ,..., 41 N via the communication line 40 in the same manner as the device control system 1 described above.
  • This device control system 2 is configured to individually monitor and control the operations of the controlled devices 41 1 ,..., 41 N , and can be used as an instrumentation control system and an FA control system.
  • the device control system 2 includes an information processing apparatus 10B, an operation input unit 11, a display device 12 with a touch panel 12T, and a sensor device 13.
  • the information processing apparatus 10B has the same configuration as the information processing apparatus 10A of Embodiment 1 except for the motion determination unit 20B.
  • the motion determination unit 20B includes an operation detection unit 26, an operator recognition unit 21, an operation recognition unit 22, an operation instruction unit 23B, and an interlock control unit 24, as shown in FIG.
  • the configuration of the motion determination unit 20B is the same as the configuration of the motion determination unit 20A of the first embodiment except for the operation detection unit 26 and the operation instruction unit 23B.
  • the operation detection unit 26 detects an operation performed on the operation input unit 11 or the touch panel 12T to start the interlock control. In response to the detection of this operation, the operation instruction unit 23B causes the display device 12 to display a guide image indicating the operation pattern stored in the pattern storage unit 25.
  • FIG. 8 is a flowchart schematically showing an example of the processing procedure of the interlock control according to the second embodiment.
  • the operation detection unit 26 stands by until a specific operation is performed on the operation input unit 11 or the touch panel 12T (NO in step ST9).
  • the operation instruction unit 23B starts displaying a guide image indicating the operation pattern stored in the pattern storage unit 25 (step ST10).
  • the operator recognition unit 21 starts an operator recognition process (step ST11). That is, the operator recognition unit 21 monitors the detection output of the sensor device 13 in real time, and attempts to recognize the specific part of the body of the operator OP and the shape of the specific part based on the detection output. When the operator recognition unit 21 does not recognize a specific part of the body (NO in step ST12), the process does not proceed to the next step.
  • the operation recognizing unit 22 is an operation for recognizing the operation of the specific part recognized by the operator recognizing unit 21.
  • Pattern recognition processing is started (step ST14). Since steps ST14 to ST23 are the same as steps ST14 to ST23 shown in FIG. 2, their detailed description is omitted.
  • FIG. 9 is a diagram schematically illustrating an example of the guide image G3 displayed on the display screen 12S according to a specific operation.
  • the controlled device 41 1, ..., a power button Bn for inputting one of the power of 41 N is displayed.
  • the operation of selecting the power button Bn is invalidated by the interlock control unit 24.
  • the operation instruction unit 23B Displays the guide image G3 of FIG. 9 on the display screen 12S (step ST10).
  • an arc-shaped guide line Tc and a light spot Pg that prompts the user to move the left hand clockwise along the guide line Tc are also displayed.
  • the operator OP can move his / her left hand OPL in synchronization with the movement of the light spot Pg according to the guide image G3.
  • FIG. 10 is a diagram showing a display screen of the display device 12 when the interlock state is released after the state shown in FIG.
  • the operator OP operates the pointing device 11M to operate the mouse cursor Cr while the combination of the shape of the left hand OPL, the locus of the left hand OPL, and the movement cycle thereof matches the display operation pattern.
  • the message Msg2 “Power turned on” is displayed on the display screen 12S.
  • the operator OP can easily start the interlock control process by operating the operation input unit 11 or the touch panel 12T. Therefore, it is possible to provide the information processing apparatus 10 ⁇ / b> B that places less burden on the user.
  • FIG. 11 is a functional block diagram schematically showing the configuration of the information processing apparatuses 10A and 10B when implemented by a software program.
  • the information processing apparatus 50 of FIG. 11 includes a processor 51 including a CPU, a RAM (random access memory) 52, a nonvolatile memory 53, a recording medium 54, and an input / output interface 55. These components are connected to each other via a bus 56.
  • the input / output interface 55 corresponds to the input / output interface unit 30 shown in FIGS. 1 and 7, and the recording medium 54 corresponds to the pattern storage unit 25 shown in FIGS. 1 and 7.
  • Examples of the recording medium 54 include a hard disk (magnetic disk), an optical disk, and a flash memory.
  • the processor 61 loads the software program from the nonvolatile memory 53 or the recording medium 54 and operates according to the software program, thereby realizing the functions of the system control unit 31 and the motion determination units 20A and 20B. it can.
  • the information processing apparatus and the interlock control method according to the present invention are suitable for use in an instrument control system such as an instrumentation control system and an FA control system as described above.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Programmable Controllers (AREA)
  • Collating Specific Patterns (AREA)

Abstract

情報処理装置(10A)は、当該情報処理装置(10A)の動作状態をインタロック状態に設定するインタロック制御部(24)と、人体の特定の動作パターンを示すガイド画像を表示装置(12)に表示させる動作指示部(23A)と、センサデバイス(13)の検出出力に基づいて操作者(OP)の身体の特定部位を認識する操作者認識部(21)と、当該認識された特定部位の動作を認識する動作認識部(22)とを備える。インタロック制御部(24)は、動作認識部(22)により認識された動作が前記特定の動作パターンと合致するときにインタロック状態を解除する。

Description

情報処理装置及びインタロック制御方法
 本発明は、情報処理装置に対する特定の操作を制限するインタロック技術に関する。
 インタロックは、装置の設計者や運用責任者が意図していない動作が生じることを防止する安全機構やその仕組みをいう。インタロックの作動中は、装置に対する特定の操作(たとえば、機器の動作開始ボタンの押下)が無効化される。ユーザは、その特定の操作入力を無効にする状態(以下「インタロック状態」という。)を、予め決められた一定の手順に従って装置を操作することにより解除することができる。インタロック状態の解除の例としては、操作盤上の2個の操作ボタンが略同時に押下された場合にインタロック状態を解除する機構、及び、複数個の操作ボタンが予め決められた手順に従って順番に押下された場合にインタロック状態を解除する機構が挙げられる。
 一方、人の身振りや手振りといったジェスチャを自動認識するためのモーション・キャプチャ技術が知られている。この種のモーション・キャプチャ技術を利用すれば、操作盤などの入力装置に依存しない非接触での情報入力が可能である。モーション・キャプチャ技術は、たとえば、特許文献1(特開2006-40271号公報)、特許文献2(特表2007-538318号公報)、特許文献3(特開2001-216069号公報)、特許文献4(特開2011-248606号公報)、特許文献5(特開2008-52590号公報)及び特許文献6(特開2011-81469号公報)に開示されている。
特開2006-40271号公報 特表2007-538318号公報 特開2001-216069号公報 特開2011-248606号公報 特開2008-52590号公報 特開2011-81469号公報
 インタロック技術については、装置のインタロック状態を解除する操作手順が複雑であればあるほど、装置の設計者や運用責任者が意図しない動作を防止する点でより有効であるが、当該操作手順が複雑過ぎると、ユーザの操作負担の増大により作業効率が低下するという課題がある。
 また、従来のインタロック技術では、ユーザが不正にインタロック状態を解除する操作違反を防止することが難しいという課題がある。特に、近年のディジタル化された計装制御システム及びFA(ファクトリ・オートメーション:Factory Automation)制御システムにおいては、ユーザの操作違反の防止が難しい。たとえば、マウスなどのポインティング・デバイスを有する操作盤やタッチパネル型ディスプレイを備えた制御システムの場合、ユーザは、ポインティング・デバイスを操作してディスプレイ画面に現れる操作ボタンを選択したり、タッチパネルに指を触れたりすることで簡便に操作を行うことができる。しかしながら、インタロック状態の解除操作をも簡便に行うことができるので、ユーザの意図的な操作違反を防止することが難しい。また、操作が簡便になる反面、誤操作によりインタロック状態が解除されるおそれもある。
 なお、上記モーション・キャプチャ技術のインタロック技術への適用が考えられる。しかしながら、単純にモーション・キャプチャ技術をインタロック技術に適用しただけでは、人が意識的に行うジェスチャのみならず、人が無意識に行うジェスチャをも自動認識し、その認識結果に応じて誤ってインタロック状態を解除するという信頼性の低いシステムが作り出されるおそれがある。
 上記に鑑みて本発明の目的は、インタロック状態の解除操作を簡便に行うことができ、信頼性が高く、且つユーザの操作違反をも抑制することができる情報処理装置及びインタロック制御方法を提供する点にある。
 本発明の一態様による情報処理装置は、操作者の身体を空間的に検出するセンサデバイス、操作入力部及び表示装置と接続される情報処理装置であって、当該情報処理装置の動作状態を、前記操作入力部への操作入力を無効にするインタロック状態に設定するインタロック制御部と、人体の特定の動作パターンを示すガイド画像を前記表示装置に表示させることにより前記操作者に対して動作を指示する動作指示部と、前記センサデバイスの検出出力に基づいて、前記操作者の身体の特定部位を認識する操作者認識部と、当該認識された特定部位の動作を認識する動作認識部とを備え、前記インタロック制御部は、前記動作認識部により認識された動作が前記特定の動作パターンと合致するときに前記インタロック状態を解除することを特徴とする。
 本発明の他の態様によるインタロック制御方法は、操作者の身体を空間的に検出するセンサデバイス、操作入力部及び表示装置と接続される情報処理装置において行われるインタロック制御方法であって、前記情報処理装置の動作状態を、前記操作入力部への特定の操作入力を無効にするインタロック状態に設定するステップと、人体の特定の動作パターンを示すガイド画像を前記表示装置に表示させることにより前記操作者に対して動作を指示するステップと、前記センサデバイスの検出出力に基づいて、前記操作者の身体の特定部位を認識するステップと、当該認識された特定部位の動作を認識するステップと、当該認識された動作が前記特定の動作パターンと合致するときに、前記インタロック状態を解除するステップとを備えることを特徴とする。
 本発明によれば、操作者は、表示装置に表示された動作パターンに従って自己の身体部位を動かすことでインタロック状態を解除させることができる。したがって、インタロック状態の解除操作を簡便に行うことができ、誤操作によりインタロック状態が解除されることを防止することができる。また、操作者の身体部位を使う動作は目立つことから、操作違反をも抑制することができる。
本発明に係る実施の形態1の機器制御システムの概略構成を示す機能ブロック図である。 実施の形態1に係るインターロック制御の処理手順の一例を概略的に示すフローチャートである。 実施の形態1に係る表示画面の一例を示す図である。 図3に示した状態の後のガイド画像の一例を示す図である。 ガイド画像の他の例を示す図である。 インタロック状態が解除された時の表示画面を示す図である。 本発明に係る実施の形態2の機器制御システムの概略構成を示す機能ブロック図である。 実施の形態2に係るインターロック制御の処理手順の一例を概略的に示すフローチャートである。 実施の形態2に係るガイド画像の一例を概略的に示す図である。 インタロック状態が解除された時の表示画面を示す図である。 本発明に係る実施の形態1,2の変形例に係る情報処理装置の概略構成を示す機能ブロック図である。
 以下、図面を参照しつつ、本発明に係る種々の実施の形態について詳細に説明する。なお、図面において同一符号を付された構成要素は、同一構成を有するものとする。
実施の形態1.
 図1は、本発明に係る実施の形態1の機器制御システム1の概略構成を示す機能ブロック図である。機器制御システム1は、LAN(Local Area Network)などの制御ネットワークまたは広域ネットワークからなる通信ライン40を介して、計測機器、監視機器または製造装置などの被制御機器41,…,41と接続されている。この機器制御システム1は、被制御機器41,…,41の動作を個別に監視し且つ制御できるように構成され、計装制御システム及びFA(Factory Automation)制御システムとして利用可能なものである。
 図1に示されるように、機器制御システム1は、情報処理装置10A、操作入力部11、タッチパネル12T付きの表示装置12及びセンサデバイス13を備えている。情報処理装置10Aは、動き判定部20A、パターン記憶部25、入出力インタフェース部(入出力I/F部)30、システム制御部31及び通信制御部32を有する。
 情報処理装置10Aは、たとえば、PC(Personal Computer)やワークステーションなどのコンピュータで構成されればよい。動き判定部20A及びシステム制御部31の機能は、コンピュータ・プログラムを用いて実現することができる。具体的には、CPU(Central Processing Unit)を含むプロセッサと、このプロセッサに動き判定部20A及びシステム制御部31の機能を実行させる一群のコンピュータ・プログラムと、この一群のコンピュータ・プログラムを格納するコンピュータ読み取り可能な記録媒体とを備えたコンピュータによって動き判定部20A及びシステム制御部31の機能を実現することができる。パターン記憶部25は、不揮発性メモリやHDD(Hard Disk Drive)により構成されればよい。
 操作入力部11、表示装置12、タッチパネル12T及びセンサデバイス13は、入出力インタフェース部30を介してシステム制御部31及び動き判定部20Aと接続されている。本実施の形態の操作入力部11は、マウスなどのポインティング・デバイス及びキー入力デバイスを含んで構成される。操作者OPは、操作入力部11を操作してシステム制御部31及び動き判定部20Aに情報を入力することができる。また、表示装置12にはタッチパネル12Tが組み込まれているので、操作者OPは、たとえば指などの自己の身体の一部位または補助具を表示装置12の画面に触れさせることでシステム制御部31及び動き判定部20Aに情報を入力することもできる。本発明の操作入力部は、これら操作入力部11及びタッチパネル12Tにより実現可能である。
 表示装置12は、液晶ディスプレイや有機ELディスプレイなどの映像表示装置で構成されればよい。システム制御部31及び動き判定部20Aは、入出力インタフェース部30を介して表示装置12に映像信号を供給して画像を表示させることができる。
 システム制御部31は、通信制御部32を介して被制御機器41,…,41との間でデータの送受信を行うことにより被制御機器41,…,41の動作を制御することができる。また、システム制御部31は、たとえば、機器制御システム1の動作状況を示す画像、被制御機器41,…,41の稼働状態を示す画像、並びに、被制御機器41,…,41を遠隔操作するための操作画像を表示装置12に表示させることができる。操作者OPは、表示装置12の表示内容を視認し、操作入力部11またはタッチパネル12Tを操作してシステム制御部31に情報を入力することが可能である。
 一方、センサデバイス13は、検出範囲内にある操作者OPの身体の各部位を空間的に検出し、その検出結果を入出力インタフェース部30を介して動き判定部20Aに供給することができる空間認識デバイスである。センサデバイス13は、検出範囲内の操作者OPの身体を撮像して撮像データを出力する撮像部13Aと、空間的なパターンを有する電磁波(たとえば赤外線)を検出波として当該操作者OPに照射する検出波照射部13Bと、当該検出波に対する反射波を受信する反射波受信部13Cと、演算部13Pとを備えている。
 演算部13Pは、操作者OPからの反射波に基づき、公知のパターン照射方式(「Light Coding方式」とも呼ばれている。)により操作者OPに対する距離情報(depth information)をリアルタイムに検出する機能を有する。ここで、距離情報は、センサデバイス13から操作者OPの身体表面の各部までの距離(depth)を示す情報である。また、演算部13Pは、当該距離情報と撮像部13Aで得られた撮像データとに基づいて、画素単位の距離情報を有する距離画像を生成する。更に、演算部13Pは、距離画像に基づいて操作者OPの身体の各部位(たとえば、左手、頭部または右手)を識別することもできる。その識別結果及び距離画像は、センサデバイス13の検出出力として、入出力インタフェース部30を介して動き判定部20Aに供給される。なお、前述のパターン照射方式に代えて、公知のTOF(Time Of Flight)方式により距離情報を検出してもよい。
 動き判定部20Aは、図1に示されるように、操作者認識部21、動作認識部22、動作指示部23A及びインタロック制御部24を有する。操作者認識部21は、センサデバイス13の検出出力に基づいて、操作者OPの身体の特定部位及びこの特定部位の形状をリアルタイムに認識することができる。パターン記憶部25には、たとえば手などの身体の特定部位の種々の形状及び肌色などに関するライブラリ情報が予め記憶されているので、操作者認識部21は、センサデバイス13の検出出力に基づき、そのライブラリ情報を参照して操作者OPの身体の特定部位及びこの特定部位の形状を認識することができる。
 なお、本実施の形態では、センサデバイス13の演算部13Pが操作者OPの身体の各部位をリアルタイムに検出しているが、これに限定されるものではない。動き判定部20Aが演算部13Pと同じ機能を有することで、センサデバイス13の検出出力を基に操作者OPの身体の各部位をリアルタイムに検出してもよい。
 動作認識部22は、操作者認識部21で認識された特定部位の動作を認識する機能を有する。具体的には、パターン記憶部25には、たとえば手などの身体の部位のジェスチャを示す動作パターンが予め記憶されているので、動作認識部22は、当該認識された特定部位の動作を、パターン記憶部25に記憶されている動作パターンと比較する。動作認識部22は、その特定部位の動作が、パターン記憶部25に記憶されている動作パターンと合致するか否かを示す情報をインタロック制御部24に供給する。
 動作指示部23Aは、パターン記憶部25に記憶されている動作パターンを示す動画像(以下「ガイド画像」という。)を表示装置12に表示させる機能を有する。
 インタロック制御部24は、情報処理装置10Aの動作状態を、操作入力部11に対する特定の操作入力を無効にするインタロック状態に設定する機能を有する。インタロック制御部24は、たとえば、入出力インタフェース部30を制御して、操作入力部11またはタッチパネル12Tへの特定の操作入力が入出力インタフェース部30で受け付けられないようにすることで、当該特定の操作入力を無効にすることができる。
 次に、図2を参照しつつ、上記動き判定部20Aにより実行されるインターロック制御を以下に説明する。図2は、実施の形態1に係るインタロック制御の処理手順の一例を概略的に示すフローチャートである。
 情報処理装置10Aの動作状態がインタロック状態に設定されている場合にインタロック制御が実行される。まず、操作者認識部21は、操作者認識処理を開始する(ステップST11)。すなわち、操作者認識部21は、センサデバイス13の検出出力をリアルタイムに監視し、上述したように、この検出出力に基づいて操作者OPの身体の特定部位及びこの特定部位の形状を認識することを試みる。操作者認識部21が身体の特定部位(たとえば、左手または右手)を認識しないとき(ステップST12のNO)、次のステップには進行しない。
 図3は、インタロック状態時における表示装置12の表示画面12Sの一例を示す図である。表示画面12Sには、A群の操作ボタンA1,A2と、B群の操作ボタンB1,B2と、C群の操作ボタンC1,C2と、マウスカーソルCrとが表示されている。操作者OPは、右手OPRを使ってポインティング・デバイス11Mを操作することによりマウスカーソルCrを移動させることができる。ただし、操作ボタンA1,A2,B1,B2,C1,C2をクリックして選択する操作は、インタロック制御部24によって無効化されている。また、センサデバイス13が検出波DWを放射している。操作者OPが自己の身体の特定部位をセンサデバイス13の検出範囲内に置くと、操作者認識部21は、当該特定部位及びその形状を認識する。
 操作者認識部21が操作者OPの身体の特定部位を認識したとき(ステップST12のYES)、動作指示部23Aは、パターン記憶部25に記憶されている動作パターンを示すガイド画像の表示を開始する(ステップST13)。続いて、動作認識部22は、操作者認識部21で認識された特定部位の動作を認識するための動作パターン認識処理を開始する(ステップST14)。なお、ステップST13,ST14は、必ずしもこの順番で実行される必要はなく、逆の順番でまたは同時に実行されてもよい。
 図4は、図3に示した状態の後のガイド画像の一例を概略的に示す図である。図4に示されるように、操作者OPがセンサデバイス13の検出範囲内に左手OPLを置くと、操作者認識部21は、その左手OPLを認識する(ステップST12のYES)。同時に、その左手OPLの形状も認識される。続いて、動作指示部23Aは、図4のガイド画像G1を表示画面12Sに表示させる(ステップST13)。このガイド画像G1には、文字「A」が付された手画像Haと、文字「B」が付された手画像Hbと、操作者認識部21による認識結果を示す手画像Hdとが表示されている。手画像Haで示される手形状は、A群の操作ボタンA1,A2と対応付けられており、手画像Hbで示される手形状は、B群の操作ボタンB1,B2と対応付けられている。図4の例では、左手OPLの認識形状は、手画像Hbの形状パターンに合致すると認識されている。また、ガイド画像G1には、円弧状の案内線Taと、この案内線Taに沿って時計回りで左手を動かすことを促す光点Pgも表示されている。操作者OPは、このガイド画像G1に従って、光点Pgの動きと同期するように自己の左手OPLを動かすことができる。
 なお、ガイド画像は、図4のガイド画像G1に限定されるものではない。たとえば、図5に示されるように、矩形状の案内線Tbに沿って左手OPLを動かすことを促すガイド画像G2も考えられる。
 上記ステップST14の後、インタロック制御部24は、操作者OPの特定部位の認識形状が、ガイド画像に表示された特定部位の形状パターン(以下「表示形状パターン」とも呼ぶ。)と合致し、且つ、操作者OPの特定部位の動作が、ガイド画像に表示された動作パターン(以下「表示動作パターン」とも呼ぶ。)と合致しているか否かを判定する(ステップST15)。その特定部位の認識形状が表示形状パターンと合致し、且つ、その特定部位の動作が表示動作パターンと合致すると判定されたとき(ステップST15のYES)、インタロック制御部24は、その判定結果に応じてタイマのカウントを開始させる(ステップST16)。
 その後、インタロック制御部24は、その特定部位の認識形状が表示形状パターンと合致し、且つ、その特定部位の動作が表示動作パターンと合致する状態が設定時間T1経過するまで待機している(ステップST19のNO)。その特定部位の認識形状が表示形状パターンと合致しない状態、または、その特定部位の動作が表示動作パターンと合致しない状態のいずれか一方が生ずると(ステップST17のNO)、インタロック制御部24は、タイマのカウント値をリセットして(ステップST18)、ステップST17の判定処理を続行させる(ステップST18)。
 一方、操作者OPの特定部位の認識形状が表示形状パターンと合致し、且つ、操作者OPの特定部位の動作が表示動作パターンと合致する状態が設定時間T1経過すると(ステップST17のYES、及びステップST19のYES)、インタロック制御部24は、インタロック状態を解除する(ステップST20)。その後、インタロック状態の解除は、操作者OPの特定部位の認識形状が表示形状パターンと合致し、且つ、操作者OPの特定部位の動作が表示動作パターンと合致している間(ステップST21のYES)、継続する。
 操作者OPの特定部位の認識形状が表示形状パターンと合致しない状態、または、操作者OPの特定部位の動作が表示動作パターンと合致しない状態のいずれか一方が生ずると(ステップST21のNO)、インタロック制御部24は、インタロック状態を再度設定する(ステップST22)。動作認識部22は、そのインタロック状態の再設定を検知すると、動作パターン認識処理を終了する(ステップST23)。
 図6は、図4に示した状態の後にインタロック状態が解除された時の表示装置12の表示画面を示す図である。図6に示されるように、表示画面12Sには、「B群のボタンが有効です」とのメッセージMsg1が表示され、B群の操作ボタンB1,B2を選択する操作が有効となっている。操作者OPは、左手OPLの形状、左手OPLの軌跡及びその移動周期の組み合わせが手画像Hbの形状パターン及び表示動作パターンと合致している間、右手OPRでポインティング・デバイス11Mを操作して操作ボタンB1,B2をクリックして選択することができる。なお、操作者OPは、左手OPLの形状を図4の手画像Haの形状パターンと合致させ、且つ、左手OPLの軌跡及びその移動周期を表示動作パターンと合致させることで、A群の操作ボタンA1,A2を選択する操作が有効となる。
 次に、上記した実施の形態1の情報処理装置10Aの効果について説明する。上記したように実施の形態1の情報処理装置10Aでは、操作者OPの身体部位の認識(図2のステップST12のYES)をトリガとして動作パターンが表示される(ステップST13)。操作者OPは、この表示動作パターンに従って自己の身体部位を動かすことでインタロック状態を解除させることができる(ステップST20)。したがって、操作者OPはインタロック状態の解除操作を簡便に行うことができ、且つ、その解除操作を表示動作パターンに従って意識的に行うことから、誤操作によりインタロック状態が解除されることを効果的に防止することができる。また、操作者OPの身体部位を使う動作は目立つことから、操作違反を抑制することもできる。
 また、インタロック制御部24は、インタロック状態を解除した後でも、操作者OPの身体部位の認識形状が表示形状パターンと合致しない状態、または、操作者OPの身体部位の動作が表示動作パターンと合致しない状態のいずれか一方が生じたときは(ステップST21のNO)、インタロック状態を再度設定する(ステップST22)。このため、操作者OPは、インタロック状態の解除により有効化された操作を行うためには、表示動作パターンに従って自己の身体部位を常に動かし続ける必要がある。したがって、操作者OPは、秘密裏に操作違反を起こすことが難しい。たとえば、従来は、インタロック状態の解除のための操作ボタンに物を置いた状態で、あるいは、インタロック状態の解除のために肘と掌とで2個の操作ボタンを同時に押した状態で操作違反を行うことができた。これに対し、本実施の形態の情報処理装置10Aでは、操作者OPは、自己の身体部位を動かさずに操作違反を行うことができないので、操作違反を抑制することができる。
 また、図4に例示したように、操作者認識部21は、操作者OPの身体の特定部位の形状を識別することができる。動作認識部22は、当該形状を有する特定部位の動作パターンを認識している。このため、身体部位の形状と動作パターンとの組み合わせにより、インタロック状態の解除パターンを多数作り出すことができる。
 なお、図2のステップST15でNOの場合、処理は進行しないが、これに限定されるものではない。たとえば、その特定部位の動作が表示動作パターンと合致しない状態が一定時間継続した場合にはステップST12に処理が戻るように制御内容を変更してもよい。また、カウント値のリセット(ステップST18)の繰り返し回数が所定回数を超えた場合にもステップST12に処理が戻るように制御内容を変更してもよい。更に、ステップST12に処理が戻る場合には、操作者認識部21が認識した特定部位に関する情報が消去されてもよい。
実施の形態2.
 次に、本発明の実施の形態2について説明する。図7は、実施の形態2の機器制御システム2の概略構成を示す機能ブロック図である。図1及び図7に示した構成要素のうち、同一符号を付された構成要素は、同一構成及び同一機能を有するものとする。
 図7に示されるように、機器制御システム2は、上記機器制御システム1と同様に、通信ライン40を介して被制御機器41,…,41と接続されている。この機器制御システム2は、被制御機器41,…,41の動作を個別に監視し且つ制御できるように構成され、計装制御システム及びFA制御システムとして利用可能なものである。
 また、機器制御システム2は、情報処理装置10B、操作入力部11、タッチパネル12T付きの表示装置12及びセンサデバイス13を備えている。情報処理装置10Bは、動き判定部20Bを除いて、実施の形態1の情報処理装置10Aと同じ構成を有する。
 動き判定部20Bは、図7に示されるように、操作検知部26、操作者認識部21、動作認識部22、動作指示部23B及びインタロック制御部24を有している。動き判定部20Bの構成は、操作検知部26及び動作指示部23Bを除いて、実施の形態1の動き判定部20Aの構成と同じである。
 操作検知部26は、操作入力部11またはタッチパネル12Tで行われた、インタロック制御を開始させる操作を検知する。この操作の検知に応じて、動作指示部23Bは、パターン記憶部25に記憶されている動作パターンを示すガイド画像を表示装置12に表示させる。
 図8は、実施の形態2に係るインターロック制御の処理手順の一例を概略的に示すフローチャートである。図8を参照すると、操作検知部26は、操作入力部11またはタッチパネル12Tで特定の操作が行われるまで待機している(ステップST9のNO)。操作検知部26が特定の操作を検知すると(ステップST9のYES)、動作指示部23Bは、パターン記憶部25に記憶されている動作パターンを示すガイド画像の表示を開始する(ステップST10)。
 続いて、操作者認識部21は、操作者認識処理を開始する(ステップST11)。すなわち、操作者認識部21は、センサデバイス13の検出出力をリアルタイムに監視し、この検出出力に基づいて操作者OPの身体の特定部位及びこの特定部位の形状を認識することを試みる。操作者認識部21が身体の特定部位を認識しないとき(ステップST12のNO)、次のステップには進行しない。操作者認識部21が操作者OPの身体の特定部位を認識したとき(ステップST12のYES)、動作認識部22は、操作者認識部21で認識された特定部位の動作を認識するための動作パターン認識処理を開始する(ステップST14)。ステップST14~ST23は、図2に示したステップST14~ST23と同じであるので、それらの詳細な説明を省略する。
 図9は、特定の操作に応じて表示画面12Sに表示されたガイド画像G3の一例を概略的に示す図である。図9に示されるように、表示画面12Sには、被制御機器41,…,41のいずれかの電源を投入するための電源ボタンBnが表示されている。この電源ボタンBnを選択する操作は、インタロック制御部24によって無効化されている。操作者OPがポインティング・デバイス11Mを操作してマウスカーソルCrを電源ボタンBnの上に置いた状態でポインティング・デバイス11Mのボタンを押下する操作を行うと、この操作に応じて、動作指示部23Bは、図9のガイド画像G3を表示画面12Sに表示させる(ステップST10)。このガイド画像G3には、円弧状の案内線Tcと、この案内線Tcに沿って時計回りで左手を動かすことを促す光点Pgも表示されている。操作者OPは、このガイド画像G3に従って、光点Pgの動きと同期するように自己の左手OPLを動かすことができる。
 図10は、図9に示した状態の後にインタロック状態が解除された時の表示装置12の表示画面を示す図である。図10に示されるように、操作者OPは、左手OPLの形状、左手OPLの軌跡及びその移動周期の組み合わせが表示動作パターンと合致している間、ポインティング・デバイス11Mを操作してマウスカーソルCrを電源ボタンBn上に移動させ、電源ボタンBnをクリックすることができる。この結果、表示画面12Sには、「電源をONにしました。」とのメッセージMsg2が表示される。
 以上に説明したように実施の形態2の情報処理装置10Bでは、操作者OPは、操作入力部11またはタッチパネル12Tを操作してインタロック制御処理を簡単に開始させることができる。したがって、ユーザの操作負担が少ない情報処理装置10Bを提供することができる。
 また、上記実施の形態1,2の情報処理装置10A,10Bの主な機能は、ハードウェア構成に限らず、コンピュータ読み取り可能なソフトウェア・プログラムで実現することもできる。図11は、ソフトウェア・プログラムで実現される場合の情報処理装置10A,10Bの構成を概略的に示す機能ブロック図である。図11の情報処理装置50は、CPUを含むプロセッサ51、RAM(random  access  memory)52、不揮発性メモリ53、記録媒体54及び入出力インタフェース55を備えている。これら構成要素は、バス56を介して相互に接続される。入出力インタフェース55は、図1及び図7に示した入出力インタフェース部30に相当し、記録媒体54は、図1及び図7に示したパターン記憶部25に相当する。記録媒体54としては、たとえば、ハードディスク(磁気ディスク)、光ディスクまたはフラッシュメモリが挙げられる。プロセッサ61は、不揮発性メモリ53または記録媒体54からソフトウェア・プログラムをロードし、このソフトウェア・プログラムに従って動作することにより、上記したシステム制御部31及び動き判定部20A,20Bの機能を実現することができる。
 以上、図面を参照して本発明に係る種々の実施の形態について述べたが、これら実施の形態は本発明の例示であり、これら実施の形態以外の様々な形態を採用することができる。
 なお、本発明の範囲内において、上記実施の形態1,2の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
 本発明に係る情報処理装置及びインタロック制御方法は、上述したように計装制御システム及びFA制御システムなどの機器制御システムに用いるのに好適である。
 1,2 機器制御システム、 10A,10B 情報処理装置、 11 操作入力部、 11M ポインティング・デバイス、 12 表示装置、 12T タッチパネル、 12S 表示画面、 13 センサデバイス、 13A 撮像部、 13B 検出波照射部、 13C 反射波受信部、 13P 演算部、 20A,20B 動き判定部、 21 操作者認識部、 22 動作認識部、 23A,23B 動作指示部、 24 インタロック制御部、 25 パターン記憶部、 26 操作検知部、 30 入出力インタフェース部、 31 システム制御部、 32 通信制御部、 40 通信ライン、 41,…,41 被制御機器。

Claims (9)

  1.  操作者の身体を空間的に検出するセンサデバイス、操作入力部及び表示装置と接続される情報処理装置であって、
     当該情報処理装置の動作状態を、前記操作入力部への操作入力を無効にするインタロック状態に設定するインタロック制御部と、
     人体の特定の動作パターンを示すガイド画像を前記表示装置に表示させることにより前記操作者に対して動作を指示する動作指示部と、
     前記センサデバイスの検出出力に基づいて、前記操作者の身体の特定部位を認識する操作者認識部と、
     当該認識された特定部位の動作を認識する動作認識部と
    を備え、
     前記インタロック制御部は、前記動作認識部により認識された動作が前記特定の動作パターンと合致するときに前記インタロック状態を解除する、
    ことを特徴とする情報処理装置。
  2.  請求項1記載の情報処理装置であって、前記動作指示部は、前記操作者認識部により当該特定部位が認識された後に前記ガイド画像を前記表示装置に表示させることを特徴とする情報処理装置。
  3.  請求項1記載の情報処理装置であって、前記動作指示部は、前記操作入力部への操作入力に応じて前記ガイド画像を前記表示装置に表示させることを特徴とする情報処理装置。
  4.  請求項1記載の情報処理装置であって、
     前記操作者認識部は、前記センサデバイスの検出出力に基づいて前記特定部位の形状を認識し、
     前記動作認識部は、当該認識された形状を有する特定部位の動作を認識し、
     前記インタロック制御部は、前記操作者認識部により認識された形状が特定の形状パターンと合致し、且つ、前記動作認識部により認識された動作が前記特定の動作パターンと合致するときに前記インタロック状態を解除する、
    ことを特徴とする情報処理装置。
  5.  請求項1記載の情報処理装置であって、前記インタロック制御部は、前記インタロック状態を解除した後に、当該認識された動作が前記特定の動作パターンと合致しない状態が生じたときは、前記インタロック状態を再度設定することを特徴とする情報処理装置。
  6.  請求項1記載の情報処理装置であって、前記インタロック制御部は、前記動作認識部により認識された動作が前記特定の動作パターンと合致する状態が一定時間継続したときに前記インタロック状態を解除することを特徴とする情報処理装置。
  7.  請求項1記載の情報処理装置であって、前記操作入力部への操作入力に基づいて、外部の被制御機器の動作を制御するシステム制御部を更に備えることを特徴とする情報処理装置。
  8.  操作者の身体を空間的に検出するセンサデバイス、操作入力部及び表示装置と接続される情報処理装置であって、
     インタロック制御プログラムが格納されているメモリと、
     前記メモリから読み出されたインタロック制御プログラムに従って動作するプロセッサと
    を備え、
     前記インタロック制御プログラムは、
     前記情報処理装置の動作状態を、前記操作入力部への特定の操作入力を無効にするインタロック状態に設定するステップと、
     人体の特定の動作パターンを示すガイド画像を前記表示装置に表示させることにより前記操作者に対して動作を指示するステップと、
     前記センサデバイスの検出出力に基づいて、前記操作者の身体の特定部位を認識するステップと、
     当該認識された特定部位の動作を認識するステップと、
     当該認識された動作が前記特定の動作パターンと合致するときに、前記インタロック状態を解除するステップと
    を前記プロセッサに実行させることを特徴とする情報処理装置。
  9.  操作者の身体を空間的に検出するセンサデバイス、操作入力部及び表示装置と接続される情報処理装置において行われるインタロック制御方法であって、
     前記情報処理装置の動作状態を、前記操作入力部への特定の操作入力を無効にするインタロック状態に設定するステップと、
     人体の特定の動作パターンを示すガイド画像を前記表示装置に表示させることにより前記操作者に対して動作を指示するステップと、
     前記センサデバイスの検出出力に基づいて、前記操作者の身体の特定部位を認識するステップと、
     当該認識された特定部位の動作を認識するステップと、
     当該認識された動作が前記特定の動作パターンと合致するときに、前記インタロック状態を解除するステップと
    を備えることを特徴とするインタロック制御方法。
PCT/JP2015/064493 2015-05-20 2015-05-20 情報処理装置及びインタロック制御方法 WO2016185586A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017518688A JP6293372B2 (ja) 2015-05-20 2015-05-20 情報処理装置及びインタロック制御方法
PCT/JP2015/064493 WO2016185586A1 (ja) 2015-05-20 2015-05-20 情報処理装置及びインタロック制御方法
CN201580079203.7A CN107533359B (zh) 2015-05-20 2015-05-20 信息处理装置和联锁控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/064493 WO2016185586A1 (ja) 2015-05-20 2015-05-20 情報処理装置及びインタロック制御方法

Publications (1)

Publication Number Publication Date
WO2016185586A1 true WO2016185586A1 (ja) 2016-11-24

Family

ID=57319551

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/064493 WO2016185586A1 (ja) 2015-05-20 2015-05-20 情報処理装置及びインタロック制御方法

Country Status (3)

Country Link
JP (1) JP6293372B2 (ja)
CN (1) CN107533359B (ja)
WO (1) WO2016185586A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008801A (ja) * 2017-06-28 2019-01-17 フィッシャー−ローズマウント システムズ,インコーポレイテッド インターロックチェーン可視化
JP2022519149A (ja) * 2019-12-31 2022-03-22 北京市商▲湯▼科技▲開▼▲發▼有限公司 展示エリア状態認識方法、装置、電子デバイス、及び記録媒体
WO2024013821A1 (ja) * 2022-07-11 2024-01-18 ファナック株式会社 入力制御装置及び記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257093A (ja) * 2009-04-23 2010-11-11 Hitachi Ltd 入力装置
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
JP2014174776A (ja) * 2013-03-11 2014-09-22 Lenovo Singapore Pte Ltd 移動物体の動作を認識する方法および携帯式コンピュータ

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT10676U1 (de) * 2008-07-21 2009-08-15 Keba Ag Verfahren zum betreiben eines mobilen handbediengerätes für die abgabe oder freischaltung von potentiell gefahrbringenden steuerkommandos sowie entsprechendes handbediengerät
KR20100048090A (ko) * 2008-10-30 2010-05-11 삼성전자주식회사 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법
TW201040680A (en) * 2008-12-15 2010-11-16 Tokyo Electron Ltd System for processing of substrate, method of processing of substrate, and storage medium that stores program
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
JP5013548B2 (ja) * 2009-07-16 2012-08-29 ソニーモバイルコミュニケーションズ, エービー 情報端末、情報端末の情報提示方法及び情報提示プログラム
EP2474950B1 (en) * 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
CN102830891A (zh) * 2011-06-15 2012-12-19 康佳集团股份有限公司 一种非接触式手势控制设备及其锁定和解锁方法
US9733789B2 (en) * 2011-08-04 2017-08-15 Eyesight Mobile Technologies Ltd. Interfacing with a device via virtual 3D objects
KR101262700B1 (ko) * 2011-08-05 2013-05-08 삼성전자주식회사 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치
KR101242390B1 (ko) * 2011-12-29 2013-03-12 인텔 코오퍼레이션 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
US9141197B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Interacting with a device using gestures
CN102722239A (zh) * 2012-05-17 2012-10-10 上海冠勇信息科技有限公司 移动设备的非接触式控制方法
CN103425419B (zh) * 2012-05-23 2018-01-16 联想(北京)有限公司 操作控制方法及电子设备
US9032510B2 (en) * 2012-09-11 2015-05-12 Sony Corporation Gesture- and expression-based authentication

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257093A (ja) * 2009-04-23 2010-11-11 Hitachi Ltd 入力装置
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
JP2014174776A (ja) * 2013-03-11 2014-09-22 Lenovo Singapore Pte Ltd 移動物体の動作を認識する方法および携帯式コンピュータ

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008801A (ja) * 2017-06-28 2019-01-17 フィッシャー−ローズマウント システムズ,インコーポレイテッド インターロックチェーン可視化
JP7309328B2 (ja) 2017-06-28 2023-07-18 フィッシャー-ローズマウント システムズ,インコーポレイテッド インターロックチェーン可視化
JP2022519149A (ja) * 2019-12-31 2022-03-22 北京市商▲湯▼科技▲開▼▲發▼有限公司 展示エリア状態認識方法、装置、電子デバイス、及び記録媒体
WO2024013821A1 (ja) * 2022-07-11 2024-01-18 ファナック株式会社 入力制御装置及び記憶媒体

Also Published As

Publication number Publication date
JPWO2016185586A1 (ja) 2017-08-10
JP6293372B2 (ja) 2018-03-14
CN107533359B (zh) 2019-04-23
CN107533359A (zh) 2018-01-02

Similar Documents

Publication Publication Date Title
US8754745B2 (en) Method and electronic apparatus for creating biological feature data
US9626815B2 (en) Method for unlocking electronic device, and apparatus therefor
AU2013200054B2 (en) Touch free operation of devices by use of depth sensors
EP4264460A1 (en) Implementation of biometric authentication
US20120038674A1 (en) Multi-Touch User Input Based on Multiple Quick-Point Controllers
Bi et al. Predicting finger-touch accuracy based on the dual Gaussian distribution model
JP6293372B2 (ja) 情報処理装置及びインタロック制御方法
KR20150032019A (ko) 시선 추적 기반의 사용자 인터페이스 방법 및 그 장치
US20150058796A1 (en) Navigation control for a tabletop computer system
US20150033328A1 (en) Information terminal and execution control method
CN105138931A (zh) 一种界面中敏感数据的显示方法及装置
US8543942B1 (en) Method and system for touch-friendly user interfaces
KR20160001633A (ko) 적어도 하나의 장비를 제어하는 방법 및 장치
JP2015018413A (ja) 携帯端末、画像表示方法、及びプログラム
Cronin et al. Investigating clutching interactions for touchless medical imaging systems
US20180059806A1 (en) Information processing device, input control method for controlling input to information processing device, and computer-readable storage medium storing program for causing information processing device to perform input control method
JP5718402B2 (ja) 入力装置
JP2014085782A (ja) 制御システムおよび制御方法
Ikematsu et al. PredicTaps: latency reduction technique for single-taps based on recognition for single-tap or double-tap
US20150062038A1 (en) Electronic device, control method, and computer program product
WO2012126193A1 (zh) 一种影像键盘的生成方法和装置
JP2016115310A (ja) 電子機器
TWI479363B (zh) 具有指向功能的可攜式電腦及指向系統
Rajanna et al. Can Gaze Beat Touch? A Fitts' Law Evaluation of Gaze, Touch, and Mouse Inputs
CN107305429A (zh) 一种多个屏幕间显示内容切换方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15892585

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017518688

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15892585

Country of ref document: EP

Kind code of ref document: A1