JP2015153073A - プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム - Google Patents

プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム Download PDF

Info

Publication number
JP2015153073A
JP2015153073A JP2014025458A JP2014025458A JP2015153073A JP 2015153073 A JP2015153073 A JP 2015153073A JP 2014025458 A JP2014025458 A JP 2014025458A JP 2014025458 A JP2014025458 A JP 2014025458A JP 2015153073 A JP2015153073 A JP 2015153073A
Authority
JP
Japan
Prior art keywords
display
sight
line
time
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014025458A
Other languages
English (en)
Other versions
JP2015153073A5 (ja
JP6343953B2 (ja
Inventor
靖卓 藤原
Yasutaka Fujiwara
靖卓 藤原
隆義 山下
Takayoshi Yamashita
隆義 山下
川上 文雄
Fumio Kawakami
文雄 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2014025458A priority Critical patent/JP6343953B2/ja
Priority to US15/113,880 priority patent/US9946342B2/en
Priority to PCT/JP2015/052647 priority patent/WO2015122294A1/ja
Priority to EP15749310.7A priority patent/EP3106965B1/en
Priority to CN201580005329.XA priority patent/CN106415413B/zh
Publication of JP2015153073A publication Critical patent/JP2015153073A/ja
Publication of JP2015153073A5 publication Critical patent/JP2015153073A5/ja
Application granted granted Critical
Publication of JP6343953B2 publication Critical patent/JP6343953B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/05Programmable logic controllers, e.g. simulating logic interconnections of signals according to ladder diagrams or function charts
    • G05B19/054Input/output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/10Plc systems
    • G05B2219/11Plc I-O input output
    • G05B2219/1105I-O
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/10Plc systems
    • G05B2219/14Plc safety
    • G05B2219/14097Display of error messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Programmable Controllers (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザがオブジェクトをどの程度の時間にわたり連続して注視していたのかを他人が確認可能なプログラマブル表示器を提供する。【解決手段】PLC100に通信可能に接続されるプログラマブル表示器300は、人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう視線推定部356と、オブジェクトを含む画面をディスプレイに表示させる表示制御部355と、推定によって視線がオブジェクトに向いていると判断された場合、視線がオブジェクトに向いている時間を計測する計測部358と、オブジェクトを識別する画像識別情報と計測された時間を表す時間情報とを関連付けて記憶する記憶部350とを備える。【選択図】図6

Description

本発明は、プログラマブル表示器、携帯端末装置、プログラマブル表示器におけるデータ処理方法、およびプログラマブル表示器を制御するためのプログラムに関する。
従来、情報の表示およびユーザによる入力を受け付ける表示装置が知られている。
特許文献1には、上記表示装置として、サーバと通信可能に接続された情報処理装置が開示されている。当該情報処理装置は、画面に表示された画像におけるユーザの視線の位置を示す座標情報と、画像におけるオブジェクトが含まれる画像領域を示す領域情報を含むオブジェクト情報とに基づいて、ユーザの視線が向けられているオブジェクトを判別する。当該情報処理装置は、ユーザの視線が向けられているオブジェクトを判別した場合に、当該判別されたオブジェクトに対応した処理を選択的に行なう。また、当該情報処理装置は、上記判別されたオブジェクトを示す注目オブジェクト情報を生成するとともに、当該生成された注目オブジェクト情報をサーバに送信する。
特許文献2には、上記表示装置として、カメラを備えた車両用操作入力装置が開示されている。当該車両用操作入力装置に含まれている制御回路は、操作パネルを操作する操作者の視線をカメラの撮影画像から検出し、検出された視線が予め定められた操作入力解除視線状態であった場合には、操作パネルを操作入力禁止モードから操作入力許可モードに変更する。
また、従来、上記表示装置として、プログラマブル・ロジック・コントローラ(以下、「PLC」とも称する)に通信可能に接続されるプログラマブル表示器が知られている。特許文献3には、上記プログラマブル表示器として、操作者の顔画像を操作者による操作の履歴とともに保存することを目的とした操作表示装置が開示されている。
特開2012−123513号公報 特開2009−227246号公報 特開2008−112222号公報 特開2011−59194号公報 特開2008−165353号公報
しかしながら、特許文献1の技術では、表示装置のユーザがオブジェクトをどの程度の時間にわたり連続して注視していたのかを後から判断できない。この点に関しては、他の特許文献2〜5でも同様である。
本願発明は、上記の問題点に鑑みなされたものであって、その目的は、ユーザがオブジェクトをどの程度の時間にわたり連続して注視していたのかを他人が確認可能なプログラマブル表示器、携帯端末装置、プログラマブル表示器におけるデータ処理方法、およびプログラマブル表示器を制御するプログラムを提供することにある。
本発明のある局面に従うと、プログラマブル表示器は、人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう推定手段と、第1のオブジェクトを含む第1の画面をディスプレイに表示させる表示制御手段と、推定によって視線が第1のオブジェクトに向いていると判断された場合、視線が第1のオブジェクトに向いている時間を計測する計測手段と、第1のオブジェクトを識別する第1の画像識別情報と計測された時間を表す第1の時間情報とを関連付けて記憶する記憶手段とを備える。
好ましくは、プログラマブル表示器は、関連付けて記憶された第1の画像識別情報と第1の時間時間とを、サーバ装置に送信する送信手段をさらに備える。
好ましくは、表示制御手段は、視線が第1のオブジェクトに向いている時間が第1の基準時間以上であった場合、第1のオブジェクトに予め対応付けられている画像をディスプレイに表示させる。
好ましくは、予め対応付けられている画像は、ユーザ操作を支援するための画像である。
好ましくは、表示制御手段は、ユーザ操作を支援するための画像をディスプレイに表示させる場合、ユーザ操作を支援するための画像の表示を消去するためのソフトウェアボタンをディスプレイにさらに表示させる。プログラマブル表示器は、視線がユーザ操作を支援するための画像に向いている時間が第2の基準時間以上であったことを条件に、ソフトウェアボタンによる入力操作を受け付ける。
好ましくは、第1の画面は、第2のオブジェクトをさらに含む。計測手段は、推定によって視線が第2のオブジェクトに向いていると判断された場合、視線が第2のオブジェクトに向いている時間を計測する。記憶手段は、第2のオブジェクトを識別する第2の画像識別情報と計測された時間を表す第2の時間情報とを関連付けて記憶する。
好ましくは、表示制御手段は、第1の画面から第2の画面への遷移を指示する入力を受け付けた場合、第2の画面をディスプレイに表示させることが可能である。記憶手段は、第1の画面が表示されている場合、視線が第1のオブジェクトに向いていると推定されると、第1の画面を識別する第1の画面識別情報と第1の画像識別情報と第1の時間情報とを関連付けて記憶する。
好ましくは、第1のオブジェクトはソフトウェアボタンである。
本発明の他の局面に従うと、プログラマブル表示器は、人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう推定手段と、複数の予め定められた画面のうち、指定された画面をディスプレイに表示させる表示制御手段と、推定によって視線が指定されたた画面に向いていると判断された場合、視線が指定された画面に向いている時間を計測する計測手段と、指定された画面を識別する画面識別情報と計測された時間を表す時間情報とを関連付けて記憶する記憶手段とを備える。
本発明のさらに他の局面に従うと、携帯端末装置は、プログラマブル・ロジック・コントローラが制御対象機器から取得したデータを、中継機器を介してプログラマブル・ロジック・コントローラから取得する。携帯端末装置は、人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう推定手段と、オブジェクトを含む画面をディスプレイに表示させる表示制御手段と、推定によって視線がオブジェクトに向いていると判断された場合、視線がオブジェクトに向いている時間を計測する計測手段と、オブジェクトを識別する識別情報と計測された時間を表す時間情報とを関連付けて記憶する記憶手段とを備える。
好ましくは、中継器は、プログラマブル表示器である。
本発明のさらに他の局面に従うと、携帯端末装置は、プログラマブル・ロジック・コントローラと無線によって通信可能に接続されるとともに、プログラマブル・ロジック・コントローラから取得したデータを表示可能である。携帯端末装置は、人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう推定手段と、オブジェクトを含む画面をディスプレイに表示させる表示制御手段と、推定によって視線がオブジェクトに向いていると判断された場合、視線がオブジェクトに向いている時間を計測する計測手段と、オブジェクトを識別する識別情報と計測された時間を表す時間情報とを関連付けて記憶する記憶手段とを備える。
本発明のさらに他の局面に従うと、データ処理方法は、プログラマブル表示器において実行される。データ処理方法は、プログラマブル表示器のプロセッサが、人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なうステップと、プロセッサが、オブジェクトを含む画面をディスプレイに表示させるステップと、プロセッサが、推定によって視線がオブジェクトに向いていると判断された場合、視線がオブジェクトに向いている時間を計測するステップと、プロセッサが、オブジェクトを識別する識別情報と計測された時間を表す時間情報とを関連付けてメモリに記憶させるステップとを備える。
本発明のさらに他の局面に従うと、プログラムは、プログラマブル表示器を制御する。プログラムは、人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なうステップと、オブジェクトを含む画面をディスプレイに表示させるステップと、推定によって視線がオブジェクトに向いていると判断された場合、視線がオブジェクトに向いている時間を計測するステップと、オブジェクトを識別する識別情報と計測された時間を表す時間情報とを関連付けてメモリに記憶させるステップとを、プログラマブル表示器のプロセッサに実行させる。
本発明によれば、ユーザがオブジェクトをどの程度の時間にわたり連続して注視していたのかを他人が確認可能となる。
本実施の形態に係る制御システムのシステム構成を示す模式図である。 操作権限を有する者がログインした後における、プログラマブル表示器の画面を表した図である。 図2の状態(すなわち、ページ画面532が表示されている状態)において、制御システム1においてエラーが発生したときの処理を説明するための図である。 プログラマブル表示器のハードウェア構成の一例を説明するための図である。 プログラマブル表示器からサーバ装置に送信されるログデータを説明するための図である。 プログラマブル表示器の機能的構成を説明するための図である。 プログラマブル表示器において実行される処理の一部を表したフローチャートである。 基準時間T1以上にわたり、ユーザの視線がオブジェクトを向いていない場合の処理例を説明するための図である。 ページ画面単位でユーザが画面を視認していた時間を記録する構成を説明するための図である。 ユーザαよりも操作権限のレベルが低いユーザβがプログラマブル表示器300を操作しているときの状態を表した図である。 制御システムの第1の変形例を説明するための図である。 制御システムの第2の変形例を説明するための図である。 図2(B)の状態から遷移した後の状態を表した図である。
本発明の実施の形態にかかるプログラマブル表示器について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
<A.システム構成>
図1は、本実施の形態に係る制御システム1のシステム構成を示す模式図である。図1を参照して、制御システム1は、PLC100と、PLC100と通信可能に接続されたプログラマブル表示器(HMI:Human Machine Interface)300と、PLC100と通信可能に接続されたサーバ装置400とを含む。サーバ装置400は、たとえば、イントラネットを構成する機器である。
PLC100は、後述するようなユーザプログラムを周期的またはイベント的に実行する。ユーザプログラムは、PLC100の利用者によって作成される。ユーザは、例えばサポート装置(図示せず)を操作することにより、アクセス命令を含むプログラム(ソースプログラム)を作成することができる。なお、サポート装置は、ソースプログラムを、PLC100において実行可能な形式に変換し、変換されたユーザプログラムをPLC100へ送信する。サポート装置は、PLC100との間で各種パラメータの設定、プログラミング、モニタ、デバッグなどの機能を提供する。PLC100とサポート装置との間は、典型的には、USB(Universal Serial Bus)規格に従って通信可能に構成される。
PLC100は、ユーザプログラムを実行し、ユーザプログラムに含まれる命令に従って、サーバ装置400と通信する。すなわち、PLC100およびサーバ装置400は、イーサネット(登録商標)などのネットワーク112を介して、データを互いに遣り取りできるように構成される。
PLC100は、制御演算を実行するCPUユニット104と、1つ以上のIO(Input/Output)ユニット106とを含む。これらのユニットは、PLCシステムバス108を介して、データを互いに遣り取りできるように構成される。また、これらのユニットには、電源ユニット102によって適切な電圧の電源が供給される。
制御システム1において、PLC100は、(PLCシステムバス108を介して接続される)IOユニット106を介して、および/または、フィールドバス110を介して、各種のフィールド機器との間でデータを遣り取りする。これらのフィールド機器は、制御対象に対して何らかの処理を行うためのアクチュエータや、制御対象から各種情報を取得するためのセンサなどを含む。図1には、このようなフィールド機器の一例として、検出スイッチ10、リレー20およびモータ32を駆動するサーボモータドライバ30を含む。また、PLC100は、フィールドバス110を介してリモートIOターミナル200も接続されている。リモートIOターミナル200は、基本的には、IOユニット106と同様に、一般的な入出力処理に関する処理を行う。より具体的には、リモートIOターミナル200は、フィールドバス110でのデータ伝送に係る処理を行うための通信カプラ202と、1つ以上のIOユニット204とを含む。これらのユニットは、リモートIOターミナルバス208を介して、データを互いに遣り取りできるように構成される。
プログラマブル表示器300は、接続ケーブル114によってPLC100と通信可能に接続されている。プログラマブル表示器300は、PLC100から取得した各種の情報を画面に表示する。
また、プログラマブル表示器300は、顔認証機能を有する。つまり、ユーザは、プログラマブル表示器300による顔認証に成功しない限り、プログラマブル表示器300を利用することはできない。詳しく説明すれば、以下のとおりである。
プログラマブル表示器300は、アプリケーションへのアクセスを制御する。プログラマブル表示器300は、ユーザの顔の特徴データを記憶している。プログラマブル表示器300は、撮像により得られたユーザの画像データと、上記特徴データとに基づき、ユーザの顔認証を行なう。プログラマブル表示器300は、ユーザが認証された場合、ユーザにアプリケーションへのアクセスを許可する。上記特徴データは、サーバ装置400に予め格納されており、プログラマブル表示器300がサーバ装置400から適宜取得する構成であることが好ましい。あるいは、制御システム1においては、プログラマブル表示器300が、上記撮像により得られた画像データをサーバ装置400に送信し、サーバ装置400が顔認証を行ってもよい。
また、プログラマブル表示器300は、ヘルプ機能を有する。ヘルプ機能の詳細については後述する。なお、以下において、「ログイン状態」とは、アプリケーションへのアクセスが許可された状態であり、「ログアウト状態」とは、アプリケーションへのアクセスが許可されていない状態である。また、プログラマブル表示器300では、アプリケーションへのアクセスが許可されると、アプリケーションへのアクセス権が発行され、アプリケーションへのアクセスが許可されなくなると、アプリケーションへのアクセス権が取り消される。
<B.処理の概要>
(b1.第1の処理例)
図2は、プログラマブル表示器300における第1の処理例を説明するための図である。具体的には、図2は、操作権限を有する者(以下、「ユーザ」とも称する)がログインした後(つまり、ログイン状態)における、プログラマブル表示器300の画面を表した図である。
図2(A)を参照して、プログラマブル表示器300は、ページ画面532を表示する。プログラマブル表示器300は、複数のページ画面を予め記憶しており、ユーザの指示等に基づきタッチスクリーン318(正確には、タッチスクリーンを構成するディスプレイ)に表示するページ画面を切換える。より詳しくは、プログラマブル表示器300は、PLC100から取得したデータを含めた状態で、ページ画面を表示する。より具体的に説明すれば、以下のとおりである。
プログラマブル表示器300は、複数のオブジェクト831,832,834を含んだページ画面532をタッチスクリーン318に表示する。オブジェクト831は、PLC100からリアルタイムに取得したデータを含む。具体的には、オブジェクト831内のグラフは、ページ画面532の表示中において適宜更新される。
オブジェクト832は、メンテナンスメニューを表している。オブジェクト832は、複数のオブジェクト8321,8322,…で構成される。オブジェクト8321は、ベルトコンベアの速度を調整する際に利用される。オブジェクト8322は、温度を調整するために利用される。オブジェクト834は、ログアウト状態に遷移するためのソフトウェアボタンである。
図2(B)に示すとおり、ユーザが、予め定められた時間T1(以下、「基準時間T1」とも称する)にわたり、オブジェクト8321を注視したとする(目900で見続けたとする)。換言すれば、ユーザの視線901が、基準時間T1、オブジェクト8321に向いていたとする。この場合、図2(C)に示すように、プログラマブル表示器300は、ヘルプ機能を実行することにより、オブジェクト8321に予め対応付けられている支援用画像881を、ページ画面532に重畳した態様で表示する。なお、「支援用画像」とは、プログラマブル表示器300のユーザの操作を支援するためのコメントを含む画像(ヘルプ表示)である。
より詳しくは、プログラマブル表示器300は、支援用画像881がオブジェクト8321に関するものであることがユーザに認識させるべく、オブジェクト8321から吹き出した態様の支援用画像881をタッチスクリーン318に表示する。
オブジェクト836は、支援用画像881の表示を消去する(非表示とする)ためのソフトウェアボタンである。ユーザが当該オブジェクト836をタッチ操作等で選択することにより、支援用画像881は非表示となる。
なお、上記では、オブジェクト8321を基準時間T1にわたり注視した場合を例に挙げて説明したが、これに限定されるものではない。プログラマブル表示器300は、オブジェクト8321以外のオブジェクト(たとえば、オブジェクト8322)を基準時間T1にわたり注視した場合にも、当該オブジェクトに対応した支援用画像をページ画面532に重畳された状態で表示する。
ユーザが、ページ画面に含まれるオブジェクトを基準時間T1以上注視している場合には、ユーザが、当該オブジェクトが何のための操作に用いられるものであるかを判断しかねている場合が多い。そこで、プログラマブル表示器300がオブジェクトに予め対応付けられている支援用画像をタッチスクリーン318に表示することにより、ユーザは、オブジェクトが何のための操作に用いられるものかを容易に判断できる。換言すれば、プログラマブル表示器300は、ユーザの指による直接的な入力操作を待つことなく、ユーザに対して操作の支援を提供することができる。
(b2.第2の処理例)
図3は、プログラマブル表示器300における第2の処理例を説明するための図である。具体的には、図3は、図2の状態(すなわち、ページ画面532が表示されている状態)において、制御システム1においてエラーが発生したときの処理を説明するための図である。
図3(A)を参照して、プログラマブル表示器300は、オブジェクト851をページ画面532に重畳した状態で表示する。オブジェクト851は、警告の一種としてのエラーを表している。
図3(B)に示すとおり、ユーザが、基準時間T1にわたり、オブジェクト851を注視したとする。換言すれば、ユーザの視線901が、基準時間T1、オブジェクト851に向いていたとする。この場合、図3(C)に示すように、プログラマブル表示器300は、ヘルプ機能を実行することにより、オブジェクト851に予め対応付けられている支援用画像882を、ページ画面532に重畳した態様で表示する。
上記の場合においても、プログラマブル表示器300は、ユーザの指による直接的な入力操作を待つことなく、ユーザに対して操作の支援を提供することができる。
(b3.ビッグデータ)
第1の処理例および第2の処理例では、プログラマブル表示器300は、オブジェクト8321を基準時間T1注視しているか否かを判断するために、視線901が連続して1つのオブジェクト(たとえば、オブジェクト8321,851)に向かっている間の時間を計測する必要がある。当該計測された時間の情報は、注視されていたオブジェクトの識別情報と関連付けることにより、制御システム1の管理者にとって、有用な情報として活用できる。
そこで、プログラマブル表示器300は、オブジェクトを識別する画像識別情報と計測された時間を表す時間情報とを関連付けて一時的に記憶し、当該連付けて記憶された画像識別情報と時間時間とを、サーバ装置400に送信する。具体的には、プログラマブル表示器300は、当該連付けて記憶された識別情報と時間時間とをログデータ(図5参照)として、PLC100を介してサーバ装置400に送信する。サーバ装置400は、プログラマブル表示器300から送信されてきた当該情報を受信する。
さらに詳しくは、オブジェクトを識別する画像識別情報(以下、「オブジェクトID」とも称する)と、計測された時間を表す時間情報と、ページ画面を識別する画面識別情報(以下、「ページID」とも称する)とを関連付けて一時的に記憶し、当該連付けて記憶された画像識別情報と時間時間と画面識別情報とを、サーバ装置400に送信する。
以上により、プログラマブル表示器300のユーザがオブジェクトをどの程度の時間にわたり連続して注視していたのかを、制御システム1の管理者(たとえば、サーバ装置400のユーザ)がサーバ装置400において確認可能となる。また、プログラマブル表示器300においても、プログラマブル表示器300のユーザがオブジェクトをどの程度の時間にわたり連続して注視していたのかを、制御システム1の管理者は確認可能となる。
<C.ハードウェア構成>
図4は、プログラマブル表示器300のハードウェア構成の一例を説明するための図である。図4を参照して、プログラマブル表示器300は、各種の演算を行なうCPU(Central Processing Unit)311と、ROM(Read Only Memory)312と、RAM(Random Access Memory)313と、各種のプログラムを不揮発的に格納するフラッシュROM314と、時計315と、操作キー316と、カメラ317と、タッチスクリーン318と、通信インターフェイス319とを備える。なお、これらの部位は、内部バスを介して互いに接続される。
タッチスクリーン318は、ディスプレイ381と、ディスプレイ381を覆うように設置されたタッチパネル382とを有する。通信インターフェイス319は、Ethernet(登録商標)用IF(InterFace)391と、シリアル用IF392と、USB(Universal Serial Bus)用IF393とを有する。
CPU311は、フラッシュROM314に格納されているプログラムをRAM313などに展開して実行する。ROM312は、一般的に、オペレーティングシステム(OS:Operating System)等のプログラムを格納している。RAM313は、揮発性メモリであり、ワークメモリとして使用される。
Ethernet用IF391は、Ethernetの通信プロトコルをサポートし、PLC100との間でデータ通信する。シリアル用IF392は、シリアル通信のプロトコルをサポートし、たとえばPC(Personal Computer)との間でデータ通信する。USB用IF393は、USBの通信プロトコルをサポートし、たとえばUSBメモリとの間でデータ通信する。
なお、図4に示されるプログラマブル表示器300を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、フラッシュROM314等のメモリに格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、プログラマブル表示器300の各ハードウェアの動作は周知であるために、詳細な説明は繰り返さない。
<D.データ>
図5は、プログラマブル表示器300からサーバ装置400に送信されるログデータD5を説明するための図である。図5を参照して、ログデータD5は、ユーザを識別するためのユーザIDと、日時情報と、操作内容を表した情報と、ページ画面を識別するためのページIDと、オブジェクトを識別するためのオブジェクトIDと、注視時間を表す情報と、立ち止り時間を表す情報とを互いに対応付けて記憶している。なお、ログデータD5は、たとえば、予め定められた時刻にサーバ装置400に送信される。
ログデータD5を、図2および図3と対応づけて説明すると以下のとおりである。一例として、ページ画面532(図2参照)のページIDを“P011”とする。また、オブジェクト8321(図2参照)のオブジェクトIDを“G02”とする。さらに、オブジェクト851(図3参照)のオブジェクトIDを“G03”とする。また、基準時間T1を“10秒”とする。
この場合、ログデータD5は、ユーザIDが“A001”の者が、“P011”により特定されるページ画面532に含まれる、“G02”により特定されるオブジェクト8321を、30秒間にわたり注視していたことを表す情報を含んでいる。また、ログデータD5は、ユーザIDが“A001”の者が、“P011”により特定されるページ画面532に含まれる、“G03”により特定されるオブジェクト851を、20秒間にわたり注視していたことを表す情報を含んでいる。
このように、ログデータD5には、少なくとも、ページ画面を識別するページIDとオブジェクトを識別するためのオブジェクトIDと時間情報とが関連付けて記憶されている。プログラマブル表示器300は、ログデータD5をサーバ装置400に送信することにより、サーバ装置400は、ページIDとオブジェクトIDと時間情報とが対応付けられた情報を得ることができる。
<E.機能的構成>
図6は、プログラマブル表示器300の機能的構成を説明するための図である。図6を参照して、プログラマブル表示器300は、記憶部350と、撮像部351と、表示部352と、操作受付部353と、通信処理部354と、表示制御部355と、顔認証部356と、管理部357と、計測部358とを備える。
通信処理部354は、受信部3541と、送信部3542とを含む。顔認証部356は、視線推定部3561を含む。なお、撮像部351は、カメラ317(図4)に対応する。表示部352は、ディスプレイ381に対応する。操作受付部353は、タッチパネル382に対応する。計測部358は、時計315に対応する。
記憶部350は、複数のページ画面を表示するためのデータと、支援用画像を表示するためのデータとが予め記憶されている。また、記憶部350には、ログデータD5が記憶される。
以下では、説明の便宜上、プログラマブル表示器300が、ページ画面A(たとえば、図2等のページ画面532)、ページ画面B、ページ画面C、…を表示可能であるとする。また、ページ画面Aは、オブジェクトA1、オブジェクトA2、およびオブジェクトA3を含むものとする。
表示制御部355は、表示部352に、複数のページ画面A,B,C,…のうち指定されたページ画面(たとえば、ページ画面A)を表示させる。表示制御部355は、ページ画面の種別によっては、PLC100から取得したフィールドデータがページ画面に含まれるように表示用の画像データを生成する。なお、フィールドデータは、受信部3541によって受信され、表示制御部355に送られる。また、操作受付部353がページ画面の切換え指示を受け付けた場合、表示制御部355は、当該指示に基づいたページ画面(たとえば、ページ画面B)を表示する。
撮像部351は、人物等の被写体を撮像する。撮像部351は、撮像により得られた画像データを顔認証部356に送る。
顔認証部356は、顔認証を行なう。また、顔認証部356に含まれる視線推定部3561は、撮像部351から送られてきた画像データに基づき、視線の向きを推定する。
管理部357は、視線推定部3561から推定結果を受け取る。また、管理部357は、表示制御部355から、現在表示されているページ画面を特定するための情報(ページID)と、複数のオブジェクトが配置されている位置を表した位置情報(詳しくは、座標情報)とを受け取る。管理部357は、上記推定結果と、上記ページIDと、上記位置情報とに基づき、視線がオブジェクトに向いているか否かを判断する。また、管理部357は、視線がオブジェクトに向いている場合には、複数のオブジェクトのうちの、何れのオブジェクトに向いているかを判断する。たとえば、表示制御部355がページ画面Aを表示部352に表示している場合には、管理部357は、複数のオブジェクトA1,A2,A3のうちの、何れのオブジェクトに視線が向いているかを判断する。
管理部357は、視線推定によって視線がオブジェクトに向いていると判断された場合、視線が当該オブジェクトに向いている時間を計測部358に計測させる。また、管理部357は、上記判断結果に基づいて、オブジェクトを識別するオブジェクトIDと、計測された時間を表す時間情報と、ページ画面を識別するページIDとを関連付けて、記憶部350のログデータD5を更新する。プログラマブル表示器300は、このような処理を行うことにより、図5に示したログデータD5を得る。
通信処理部354の送信部3542は、ログデータD5を、PLC100を介してサーバ装置400に送信する。
(e.支援用画像の表示および消去)
表示制御部355は、視線がオブジェクトに向いている時間が基準時間T1以上であった場合、当該オブジェクトに予め対応付けられている支援用画像を表示部352に表示させる。たとえば、ページ画面Aが表示部352に表示されている場合であって、管理部357がオブジェクトA1に視線が向いているかを判断したときには、表示制御部355は、オブジェクトA1に予め対応付けられた支援用画像を、ページ画面Aに重畳させる態様で表示部352に表示させる。
また、表示制御部355は、支援用画像を表示部352に表示させる場合には、当該支援用画像の表示を消去するための確認ボタンを、表示部352にさらに表示させる(図2(C),図3(C)参照)。プログラマブル表示器300は、視線が支援用画像に向いている時間が予め定められた時間T2(以下、「基準時間T2」とも称する)以上であったことを条件に、オブジェクト836による入力操作を受け付ける。なお、基準時間T2は、基準時間T1と同じ長さであってもよい。
このように、プログラマブル表示器300は、基準時間T2以上の注視を条件に支援用画像を消去する構成とすることにより、当該条件を必要とせずに支援用画像を消去する構成に比べて、ユーザに対して、支援用画像をより確実に確認させることが可能となる。
なお、基準時間T2を考慮することなく、支援用画像が表示されたことをトリガにして、オブジェクト836の入力を受け付けるようにプログラマブル表示器300を構成してもよい。
<F.制御構造>
図7は、プログラマブル表示器300において実行される処理の一部を表したフローチャートである。図7を参照して、ステップS2において、プログラマブル表示器300のCPU311は、表示されているページ画面に含まれるオブジェクトに視線が向いているか否かを判断する。
CPU311は、視線がオブジェクトに向いていると判断された場合(ステップS2においてYES)、ステップS4において、当該オブジェクトを連続して視認している時間を時計315を用いて計測する。CPU311は、視線がオブジェクトに向いていないと判断した場合(ステップS2においてNO)、処理をステップS12に進める。
ステップS6において、CPU311は、連続して視認されたオブジェクトを識別するオブジェクトIDと、計測された時間を表した時間情報と、表示されているページ画面を識別するためのページIDとを関連付けて記憶する。より詳しくは、CPU311は、上記オブジェクトIDと上記時間情報と上記ページIDとを用いて、ログデータD5を更新する。
ステップS8において、CPU311は、オブジェクトを視認している時間が基準時間T1以上であるか否かを判断する。CPU311は、基準時間T1以上であると判断した場合(ステップS8においてYES)、ステップS10において、オブジェクトに対応付けられている支援用画像をページ画面に重畳した態様でディスプレイ381に表示させる。CPU311は、基準時間T1未満であると判断した場合(ステップS8においてNO)、処理をステップS12に進める。
ステップS12において、CPU311は、現在の時刻が予め定められた時刻となったか否かを判断する。予め定められた時刻の一例としては、ユーザの作業の終了時刻(終業時刻)が挙げられる。
CPU311は、予め定められた時刻になっていないと判断した場合(ステップS12においてNO)、処理をステップS2に進める。CPU311は、予め定められた時刻になったと判断した場合(ステップS12においてYES)、ステップS14において、関連ふけて記憶されたオブジェクトIDと時間情報とページIDとを含むログデータD5を、PLC100を介してサーバ装置400に送信する。
<G.変形例>
<g1:第1の変形例>
上記においては、プログラマブル表示器300は、たとえば図3に示したように、ユーザの視線901が予め定められて時間T1以上、オブジェクト851を向いている場合には、支援用画像882を表示する。以下では、基準時間T1以上にわたり、ユーザの視線がオブジェクトを向いていない場合の処理例について説明する。
図8は、基準時間T1以上にわたり、ユーザの視線がオブジェクトを向いていない場合の処理例を説明するための図である。図8(A)を参照して、プログラマブル表示器300は、オブジェクト851をページ画面532に重畳した状態で表示する。ユーザが、基準時間T1にわたり、オブジェクト851を注視していないとする。換言すれば、ユーザの視線901が、基準時間T1以上、オブジェクト851に向いていないとする。
この場合、図8(B)に示すように、プログラマブル表示器300は、オブジェクト851を目視することを促す支援用画像883を、ページ画面532に重畳した態様で表示する。プログラマブル表示器300は、図8(B)の状態で、ユーザがオブジェクト851を基準時間T1以上注視することにより、図3(C)に示した状態に画面を遷移させる。
このような構成により、プログラマブル表示器300は、支援用画像(たとえば、図3(C)に示した支援用画像882)が速やかに表示されるように、ユーザを誘導できる。また、プログラマブル表示器300は、ユーザに対して、ディスプレイ381に視線を向けるように促すことができる。
<g2.第2の変形例>
(1)画面全体への適用
上記においては、どのオブジェクトをどの程度の時間にわたり注視していたかをプログラマブル表示器300が記録する構成について説明した。しかしながら、これに限定されるものではなく、どのページ画面をどの程度の時間にわたり注視していたかを記録するように、プログラマブル表示器300を構成してもよい。すなわち、プログラマブル表示器300は、オブジェクト単位ではなく、ページ画面単位で、ユーザが画面を視認していた時間を記録してもよい。
図9は、ページ画面単位でユーザが画面を視認していた時間を記録する構成を説明するための図である。図9(A)を参照して、プログラマブル表示器300は、オブジェクト801,802,803,804を含むページ画面を、タッチスクリーン318に表示する。
この状態において、ユーザαが、当該ページ画面を注視したとする。プログラマブル表示器300は、視線推定の結果、視線が当該ページ画面に向いていると判断した場合、視線が当該ページ画面に向いている時間を計測する。プログラマブル表示器300は、当該ページ画面を識別するためのページIDと、計測された時間を表す時間情報とを関連付けて記憶する。
さらに、図9(A)の状態において、ユーザαが、当該ページ画面を基準時間T1以上注視したとする。この場合、図9(B)を参照して、プログラマブル表示器300は、表示されているページ画面に関する支援用画像884を、当該ページ画面に重畳した態様でタッチスクリーン318に表示させる。
上記の構成により、ユーザは、表示されているページ画面が何のための操作に用いられるものかを容易に判断できる。換言すれば、プログラマブル表示器300は、ユーザの指による直接的な入力操作を待つことなく、ユーザに対して操作の支援を提供することができる。
また、予め定められた第1のページ画面を表示する場合には、オブジェクト単位で視認時間を記録し、予め定められた第2のページ画面を表示する場合には、ページ画面単位で視認時間を記録するように、プログラマブル表示器300を構成としてもよい。
(2)ユーザの区分によって異なる表示をする構成への適用
プログラマブル表示器300の操作権限には、レベルがある。プログラマブル表示器300においては、たとえば、権限の高い順に、アドミニストレータ、メンテナンス者、およびオペレータが設定できる。
図10は、ユーザαよりも操作権限のレベルが低いユーザβがプログラマブル表示器300を操作しているときの状態を表した図である。図10(A)を参照して、プログラマブル表示器300は、オブジェクト802,804を含むページ画面を、タッチスクリーン318に表示する。つまり、プログラマブル表示器300は、ユーザβに設定されている操作権限に基づき、ユーザαが使用していたときには表示したオブジェクト801,803を非表示とする。
図10(A)の状態において、ユーザβが、当該ページ画面を基準時間T1以上注視したとする。この場合、図10(B)を参照して、プログラマブル表示器300は、表示されているページ画面に関する支援用画像885を、当該ページ画面に重畳した態様でタッチスクリーン318に表示させる。つまり、プログラマブル表示器300は、ユーザの操作権限に基づき、ユーザαが使用している場合に表示される支援用画像884とは異なる支援用画像885を表示する。なお、支援用画像885は、一例として、操作権限がないために操作できない処理の内容を表している。
このような構成により、プログラマブル表示器300は、ユーザの操作権限に応じた情報であって、プログラマブル表示器300を現に操作しているユーザを支援するための情報を表示できる。それゆえ、プログラマブル表示器300によれば、ユーザの利便性を向上させることができる。
<g3.第3の変形例>
図11は、制御システム1の第1の変形例を説明するための図である。図11を参照して、制御システム1Aは、PLC100と、プログラマブル表示器300と、サーバ装置400とに加えて、タブレット端末600を備える。制御システム1Aは、タブレット端末600を備える点において、制御システム1とは異なる。
タブレット端末600は、プログラマブル表示器300と通信する。制御システム1Aにおいては、プログラマブル表示器300の代わりに、あるいはプログラマブル表示器300とともに、上述した各種の処理(顔認証、視線推定、ログデータD5の更新、支援用画像の表示)をタブレット端末600が実行する。このような構成であっても、制御システム1と同様な効果を得ることができる。
なお、タブレット端末600が、プログラマブル表示器300を介することなく、直接、PLC100と通信するように、制御システム1Aを構築してもよい。
図12は、制御システム1の第2の変形例を説明するための図である。図12を参照して、制御システム1Bは、PLC100と、サーバ装置400と、タブレット端末600と、中継器700とを備える。制御システム1Bは、プログラマブル表示器300の代わりに中継器700を備える点、およびタブレット端末600を備える点において、制御システム1とは異なる。
中継器700は、PLC100とタブレット端末600との間の通信を中継する。
タブレット端末600は、制御システム1Aの場合と同様に、上述した各種の処理(顔認証、視線推定、ログデータD5の更新、支援用画像の表示)を実行する。このような構成であっても、制御システム1と同様な効果を得ることができる。
<g4.第4の変形例>
図13は、支援用画像の表示の仕方の変形例を説明するための図である。具体的には、図13は、図2(C)に対応する図である。すなわち、図13は、図2(B)の状態から遷移した後の状態を表した図である。
図13を参照して、プログラマブル表示器300は、ページ画面が表示されていた領域の一部を、支援用画像886を表示するための領域899として設定する。プログラマブル表示器300は、一例として、画面の端部から支援用画像886を表示するための領域を徐々に拡大し、拡大後の領域(図13の領域899)に支援用画像886を表示する。
このような表示態様であっても、ユーザは、オブジェクトが何のための操作に用いられるものかを容易に判断できる。換言すれば、プログラマブル表示器300は、ユーザの指による直接的な入力操作を待つことなく、ユーザに対して操作の支援を提供することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,1A,1B 制御システム、100 PLC、102 電源ユニット、104 CPUユニット、106,204 IOユニット、108 PLCシステムバス、200 ターミナル、202 通信カプラ、208 ターミナルバス、300 プログラマブル表示器、311 CPU、315 時計、317 カメラ、318 タッチスクリーン、319 通信インターフェイス、350 記憶部、351 撮像部、352 表示部、353 操作受付部、354 通信処理部、355 表示制御部、356 顔認証部、357 管理部、358 計測部、381 ディスプレイ、382 タッチパネル、400 サーバ装置、532 ページ画面、600 タブレット端末、700 中継器、801,802,803,804,831,832,834,836,851,8321,8322 オブジェクト、881,882,883,884,885,886 支援用画像、899 領域、900 目、901 視線、3541 受信部、3542 送信部、3561 視線推定部、D5 ログデータ。

Claims (14)

  1. 人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう推定手段と、
    第1のオブジェクトを含む第1の画面をディスプレイに表示させる表示制御手段と、
    前記推定によって前記視線が前記第1のオブジェクトに向いていると判断された場合、前記視線が前記第1のオブジェクトに向いている時間を計測する計測手段と、
    前記第1のオブジェクトを識別する第1の画像識別情報と前記計測された時間を表す第1の時間情報とを関連付けて記憶する記憶手段とを備える、プログラマブル表示器。
  2. 前記関連付けて記憶された前記第1の画像識別情報と前記第1の時間時間とを、サーバ装置に送信する送信手段をさらに備える、請求項1に記載のプログラマブル表示器。
  3. 前記表示制御手段は、前記視線が前記第1のオブジェクトに向いている時間が第1の基準時間以上であった場合、前記第1のオブジェクトに予め対応付けられている画像を前記ディスプレイに表示させる、請求項1または2に記載のプログラマブル表示器。
  4. 前記予め対応付けられている画像は、ユーザ操作を支援するための画像である、請求項3に記載のプログラマブル表示器。
  5. 前記表示制御手段は、前記ユーザ操作を支援するための画像を前記ディスプレイに表示させる場合、前記ユーザ操作を支援するための画像の表示を消去するためのソフトウェアボタンを前記ディスプレイにさらに表示させ、
    前記プログラマブル表示器は、前記視線が前記ユーザ操作を支援するための画像に向いている時間が第2の基準時間以上であったことを条件に、前記ソフトウェアボタンによる入力操作を受け付ける、請求項4に記載のプログラマブル表示器。
  6. 前記第1の画面は、第2のオブジェクトをさらに含み、
    前記計測手段は、前記推定によって前記視線が前記第2のオブジェクトに向いていると判断された場合、前記視線が前記第2のオブジェクトに向いている時間を計測し、
    前記記憶手段は、前記第2のオブジェクトを識別する第2の画像識別情報と前記計測された時間を表す第2の時間情報とを関連付けて記憶する、請求項1〜5のいずれか1項に記載のプログラマブル表示器。
  7. 前記表示制御手段は、前記第1の画面から第2の画面への遷移を指示する入力を受け付けた場合、前記第2の画面を前記ディスプレイに表示させることが可能であって、
    前記記憶手段は、前記第1の画面が表示されている場合、前記視線が前記第1のオブジェクトに向いていると推定されると、前記第1の画面を識別する第1の画面識別情報と前記第1の画像識別情報と前記第1の時間情報とを関連付けて記憶する、請求項1〜6のいずれか1項に記載のプログラマブル表示器。
  8. 前記第1のオブジェクトはソフトウェアボタンである、請求項1〜7のいずれか1項に記載のプログラマブル表示器。
  9. 人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう推定手段と、
    複数の予め定められた画面のうち、指定された画面をディスプレイに表示させる表示制御手段と、
    前記推定によって前記視線が前記指定されたた画面に向いていると判断された場合、前記視線が前記指定された画面に向いている時間を計測する計測手段と、
    前記指定された画面を識別する画面識別情報と前記計測された時間を表す時間情報とを関連付けて記憶する記憶手段とを備える、プログラマブル表示器。
  10. プログラマブル・ロジック・コントローラが制御対象機器から取得したデータを、中継機器を介して前記プログラマブル・ロジック・コントローラから取得する携帯端末装置であって、
    人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう推定手段と、
    オブジェクトを含む画面をディスプレイに表示させる表示制御手段と、
    前記推定によって前記視線が前記オブジェクトに向いていると判断された場合、前記視線が前記オブジェクトに向いている時間を計測する計測手段と、
    前記オブジェクトを識別する識別情報と前記計測された時間を表す時間情報とを関連付けて記憶する記憶手段とを備える、携帯端末装置。
  11. 前記中継器は、プログラマブル表示器である、請求項10に記載の携帯端末装置。
  12. プログラマブル・ロジック・コントローラと無線によって通信可能に接続されるとともに、前記プログラマブル・ロジック・コントローラから取得したデータを表示可能な携帯端末装置であって、
    人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なう推定手段と、
    オブジェクトを含む画面をディスプレイに表示させる表示制御手段と、
    前記推定によって前記視線が前記オブジェクトに向いていると判断された場合、前記視線が前記オブジェクトに向いている時間を計測する計測手段と、
    前記オブジェクトを識別する識別情報と前記計測された時間を表す時間情報とを関連付けて記憶する記憶手段とを備える、携帯端末装置。
  13. プログラマブル表示器におけるデータ処理方法であって、
    前記プログラマブル表示器のプロセッサが、人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なうステップと、
    前記プロセッサが、オブジェクトを含む画面をディスプレイに表示させるステップと、
    前記プロセッサが、前記推定によって前記視線が前記オブジェクトに向いていると判断された場合、前記視線が前記オブジェクトに向いている時間を計測するステップと、
    前記プロセッサが、前記オブジェクトを識別する識別情報と前記計測された時間を表す時間情報とを関連付けてメモリに記憶させるステップとを備える、データ処理方法。
  14. プログラマブル表示器を制御するためのプログラムであって、
    人物を撮像することにより得られた画像データを用いて、視線の向きの推定を行なうステップと、
    オブジェクトを含む画面をディスプレイに表示させるステップと、
    前記推定によって前記視線が前記オブジェクトに向いていると判断された場合、前記視線が前記オブジェクトに向いている時間を計測するステップと、
    前記オブジェクトを識別する識別情報と前記計測された時間を表す時間情報とを関連付けてメモリに記憶させるステップとを、前記プログラマブル表示器のプロセッサに実行させる、プログラム。
JP2014025458A 2014-02-13 2014-02-13 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム Active JP6343953B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014025458A JP6343953B2 (ja) 2014-02-13 2014-02-13 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム
US15/113,880 US9946342B2 (en) 2014-02-13 2015-01-30 Programmable display device, portable terminal device, data processing method, and program
PCT/JP2015/052647 WO2015122294A1 (ja) 2014-02-13 2015-01-30 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム
EP15749310.7A EP3106965B1 (en) 2014-02-13 2015-01-30 Programmable display, mobile terminal device, data processing method, and program
CN201580005329.XA CN106415413B (zh) 2014-02-13 2015-01-30 可编程显示器、便携终端装置、数据处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014025458A JP6343953B2 (ja) 2014-02-13 2014-02-13 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2015153073A true JP2015153073A (ja) 2015-08-24
JP2015153073A5 JP2015153073A5 (ja) 2017-02-09
JP6343953B2 JP6343953B2 (ja) 2018-06-20

Family

ID=53800042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014025458A Active JP6343953B2 (ja) 2014-02-13 2014-02-13 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US9946342B2 (ja)
EP (1) EP3106965B1 (ja)
JP (1) JP6343953B2 (ja)
CN (1) CN106415413B (ja)
WO (1) WO2015122294A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150294156A1 (en) * 2014-04-14 2015-10-15 Osterhout Group, Inc. Sight information collection in head worn computing
JP2015184698A (ja) * 2014-03-20 2015-10-22 京セラドキュメントソリューションズ株式会社 電子機器及び操作支援プログラム
JP2016134137A (ja) * 2015-01-22 2016-07-25 オムロン株式会社 プログラマブル表示器
WO2017072928A1 (ja) * 2015-10-29 2017-05-04 三菱電機株式会社 プログラマブル表示器、情報処理装置、画面データ作成支援プログラム、及び画面表示システム
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
WO2019039197A1 (ja) 2017-08-25 2019-02-28 オムロン株式会社 ユーザインタフェース開発支援装置、ユーザインタフェース開発支援方法、および、ユーザインタフェース開発支援プログラム
JP2019046299A (ja) * 2017-09-05 2019-03-22 富士ゼロックス株式会社 ソフトウエア管理装置、ソフトウエア管理システム及びプログラム
US10321821B2 (en) 2014-01-21 2019-06-18 Mentor Acquisition One, Llc Eye imaging in head worn computing
CN110244924A (zh) * 2018-03-08 2019-09-17 欧姆龙株式会社 图像传感器、系统、其数据生成方法及记录介质
US10579140B2 (en) 2014-01-21 2020-03-03 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11099380B2 (en) 2014-01-21 2021-08-24 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160306421A1 (en) * 2015-04-16 2016-10-20 International Business Machines Corporation Finger-line based remote control
JP2017199154A (ja) * 2016-04-26 2017-11-02 株式会社ジェイテクト 設備システム
US10812769B2 (en) * 2017-08-21 2020-10-20 International Business Machines Corporation Visualizing focus objects from video data on electronic maps
WO2019224866A1 (ja) * 2018-05-21 2019-11-28 楽天株式会社 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP7275940B2 (ja) * 2019-07-08 2023-05-18 オムロン株式会社 制御プログラムおよび方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
JP2002149332A (ja) * 2000-11-10 2002-05-24 Fuji Xerox Co Ltd 情報処理システム、情報処理方法及びコンピュータ読み取り可能な記録媒体
US6755527B1 (en) * 2001-12-14 2004-06-29 Oracle International Corporation Techniques for analyzing eye movements
JP2004326468A (ja) * 2003-04-25 2004-11-18 Kubota Corp 環境プラント設備の運転保守支援システム
JP2005031876A (ja) * 2003-07-10 2005-02-03 Digital Electronics Corp 制御用表示装置
JP2013025656A (ja) * 2011-07-25 2013-02-04 Kyocera Corp 電子機器、電子文書制御プログラムおよび電子文書制御方法
JP2013080365A (ja) * 2011-10-04 2013-05-02 Nippon Telegr & Teleph Corp <Ntt> 注視領域データ生成装置およびその動作方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE256305T1 (de) * 1999-09-30 2003-12-15 Matsushita Electric Works Ltd Vorrichtung zum entwurf visueller informationen, welche auf einer monitoreinheit wiedergegeben werden, die mit einer programmierbaren steuerung in verbindung steht
CN1307495C (zh) * 2000-03-17 2007-03-28 迪吉多电子股份有限公司 控制用服务器装置、控制用终端装置、控制系统
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
CN1285994C (zh) * 2004-06-11 2006-11-22 上海大学 人机交互方法及装置
JP4778394B2 (ja) 2006-10-27 2011-09-21 株式会社デジタル 操作表示装置、操作表示プログラムおよびそれを記録した記録媒体
JP2008165353A (ja) 2006-12-27 2008-07-17 Mitsubishi Electric Corp 監視システム
US20090178126A1 (en) * 2008-01-03 2009-07-09 Sterling Du Systems and methods for providing user-friendly computer services
JP4577387B2 (ja) 2008-03-25 2010-11-10 株式会社デンソー 車両用操作入力装置
JP2011059194A (ja) 2009-09-07 2011-03-24 Sharp Corp 制御装置、画像形成装置、画像形成装置の制御方法、プログラムおよび記録媒体
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
US20110298689A1 (en) * 2010-06-03 2011-12-08 Microsoft Corporation Device for Sharing Photographs in Social Settings
JP2012123513A (ja) 2010-12-07 2012-06-28 Sony Corp 情報処理装置、および情報処理システム
US8510166B2 (en) * 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
KR101891786B1 (ko) * 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
US9253410B2 (en) * 2013-04-25 2016-02-02 Canon Kabushiki Kaisha Object detection apparatus, control method therefor, image capturing apparatus, and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
JP2002149332A (ja) * 2000-11-10 2002-05-24 Fuji Xerox Co Ltd 情報処理システム、情報処理方法及びコンピュータ読み取り可能な記録媒体
US6755527B1 (en) * 2001-12-14 2004-06-29 Oracle International Corporation Techniques for analyzing eye movements
JP2004326468A (ja) * 2003-04-25 2004-11-18 Kubota Corp 環境プラント設備の運転保守支援システム
JP2005031876A (ja) * 2003-07-10 2005-02-03 Digital Electronics Corp 制御用表示装置
JP2013025656A (ja) * 2011-07-25 2013-02-04 Kyocera Corp 電子機器、電子文書制御プログラムおよび電子文書制御方法
JP2013080365A (ja) * 2011-10-04 2013-05-02 Nippon Telegr & Teleph Corp <Ntt> 注視領域データ生成装置およびその動作方法

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US10579140B2 (en) 2014-01-21 2020-03-03 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11796805B2 (en) 2014-01-21 2023-10-24 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US11353957B2 (en) 2014-01-21 2022-06-07 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11103132B2 (en) 2014-01-21 2021-08-31 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11099380B2 (en) 2014-01-21 2021-08-24 Mentor Acquisition One, Llc Eye imaging in head worn computing
US10321821B2 (en) 2014-01-21 2019-06-18 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11054902B2 (en) 2014-01-21 2021-07-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
JP2015184698A (ja) * 2014-03-20 2015-10-22 京セラドキュメントソリューションズ株式会社 電子機器及び操作支援プログラム
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US20150294156A1 (en) * 2014-04-14 2015-10-15 Osterhout Group, Inc. Sight information collection in head worn computing
JP2016134137A (ja) * 2015-01-22 2016-07-25 オムロン株式会社 プログラマブル表示器
WO2017072928A1 (ja) * 2015-10-29 2017-05-04 三菱電機株式会社 プログラマブル表示器、情報処理装置、画面データ作成支援プログラム、及び画面表示システム
JPWO2017072928A1 (ja) * 2015-10-29 2017-10-26 三菱電機株式会社 プログラマブル表示器、情報処理装置、画面データ作成支援プログラム、及び画面表示システム
US11709584B2 (en) 2017-08-25 2023-07-25 Omron Corporation User interface development assistance device, user interface development assistance method, and non-transitory computer-readable recording medium
WO2019039197A1 (ja) 2017-08-25 2019-02-28 オムロン株式会社 ユーザインタフェース開発支援装置、ユーザインタフェース開発支援方法、および、ユーザインタフェース開発支援プログラム
US11295267B2 (en) 2017-09-05 2022-04-05 Fujifilm Business Innovation Corp. Software management device, software management system, and non-transitory computer readable medium storing program
JP7039891B2 (ja) 2017-09-05 2022-03-23 富士フイルムビジネスイノベーション株式会社 ソフトウエア管理装置、ソフトウエア管理システム及びプログラム
JP2019046299A (ja) * 2017-09-05 2019-03-22 富士ゼロックス株式会社 ソフトウエア管理装置、ソフトウエア管理システム及びプログラム
JP2019158400A (ja) * 2018-03-08 2019-09-19 オムロン株式会社 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム
CN110244924B (zh) * 2018-03-08 2022-06-10 欧姆龙株式会社 图像传感器、系统、其数据生成方法及记录介质
JP7188518B2 (ja) 2018-03-08 2022-12-13 オムロン株式会社 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム
JP2021192048A (ja) * 2018-03-08 2021-12-16 オムロン株式会社 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム
US11070716B2 (en) 2018-03-08 2021-07-20 Omron Corporation Image sensor system, image sensor, data generation method of image sensor in image sensor system, and non-transitory computer-readable recording medium
CN110244924A (zh) * 2018-03-08 2019-09-17 欧姆龙株式会社 图像传感器、系统、其数据生成方法及记录介质

Also Published As

Publication number Publication date
WO2015122294A1 (ja) 2015-08-20
EP3106965A9 (en) 2017-03-29
EP3106965A1 (en) 2016-12-21
CN106415413A (zh) 2017-02-15
US20160349840A1 (en) 2016-12-01
EP3106965B1 (en) 2018-12-12
US9946342B2 (en) 2018-04-17
EP3106965A4 (en) 2017-03-29
CN106415413B (zh) 2020-01-31
JP6343953B2 (ja) 2018-06-20

Similar Documents

Publication Publication Date Title
JP6343953B2 (ja) プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム
US20160035246A1 (en) Facility operations management using augmented reality
JP6852729B2 (ja) プラント管理システム、プラント管理方法、プラント管理装置、および、プラント管理プログラム
CN105683849B (zh) 用于借助移动通信设备远程控制工具机的方法和系统
US10022050B2 (en) Terminal device, non-transitory storage medium having stored thereon terminal control program, and optometry system
US9754094B2 (en) Programmable display apparatus, control method, and program
JP2015176370A (ja) 制御システム、方法、プログラムおよび情報処理装置
EP3220620A1 (en) Automatic secure printing for authenticated users
EP2833289A1 (en) Programmable display apparatus, control method, and program
CN108459564B (zh) 控制系统
JP2015153073A5 (ja)
JP6409667B2 (ja) 遠隔操作システム
JP6270488B2 (ja) オペレータ監視制御装置およびオペレータ監視制御方法
JP7028002B2 (ja) 産業機械起動制御システム、起動制御方法、及びプログラム
JP6295995B2 (ja) 情報処理装置、画像処理装置へのジョブ指示方法
JP6893526B2 (ja) ロボット制御装置、ロボット制御方法及びロボット
CN103955271A (zh) 一种通过操作系统实现用户姿态检测的移动终端和方法
JP6000804B2 (ja) 作業手順管理システム、作業手順管理方法及び作業手順管理プログラム
JP2021058982A (ja) ロボット、ロボット制御装置及びロボット制御方法
CN112703516A (zh) 预约装置、预约方法以及预约系统
JP6996379B2 (ja) 学習システム、及び、学習システム用プログラム
JP2020166676A5 (ja) 情報処理システム、情報処理装置、情報処理システムの制御方法、情報処理装置の制御方法、及びプログラム
JP2021157284A (ja) 情報処理装置、情報処理システム、及びプログラム
US11507689B2 (en) Medical data communication apparatus, server, medical data communication method and medical data communication program
JP7158909B2 (ja) 表示システム、ウェアラブル装置及び監視制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6343953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250