JP2008112222A - Operation display device, operation display program, and recording medium with the same recorded - Google Patents

Operation display device, operation display program, and recording medium with the same recorded Download PDF

Info

Publication number
JP2008112222A
JP2008112222A JP2006293345A JP2006293345A JP2008112222A JP 2008112222 A JP2008112222 A JP 2008112222A JP 2006293345 A JP2006293345 A JP 2006293345A JP 2006293345 A JP2006293345 A JP 2006293345A JP 2008112222 A JP2008112222 A JP 2008112222A
Authority
JP
Japan
Prior art keywords
face
image
operator
operation display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006293345A
Other languages
Japanese (ja)
Other versions
JP4778394B2 (en
JP2008112222A5 (en
Inventor
Yoshio Okada
義生 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Schneider Electric Japan Holdings Ltd
Original Assignee
Digital Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Electronics Corp filed Critical Digital Electronics Corp
Priority to JP2006293345A priority Critical patent/JP4778394B2/en
Publication of JP2008112222A publication Critical patent/JP2008112222A/en
Publication of JP2008112222A5 publication Critical patent/JP2008112222A5/ja
Application granted granted Critical
Publication of JP4778394B2 publication Critical patent/JP4778394B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation display device that easily saves operators' face images as well as the operators' operation history. <P>SOLUTION: When an operator makes a predetermined switch operation on a screen displayed on a programmable display 1, an HMI (Human Machine Interface) processing part 8 instructs a face log processing part 9 to log the operator's face image. In the instructed face log processing part 9, a face detection part 92b detects a full face image from the operator's image captured by a camera 15 and stores it in a file in a predetermined face image database 98. The face detection part 92 further writes to a shared memory 94 the pathname of the file in the face image database 98 as well as information on an operation history such as the switch operation, the face detection date/time and the screen number of the switch operation screen. A face logging part 92c saves the data written to the shared memory 94 in a face log file 95 when instructed by a face log control part 92a. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、プログラマブル表示器のような入力操作の受け入れおよび画面表示を行う操作表示装置に係り、詳しくは、操作者の履歴を保存することができる操作表示装置に関するものである。   The present invention relates to an operation display device that accepts input operations and displays a screen, such as a programmable display, and more particularly to an operation display device that can store an operator's history.

プログラマブル表示器のようなHMI(Human Machine Interface)機器は、操作対象機器(PLC、インバータ、温調計等)とのインタフェースを備えており、操作対象機器の動作状況を表示したり、操作対象機器への制御指示を与えるための操作入力を画面から受け付けたりする機能を備えた操作表示装置である。一般に、このような操作表示装置は、グラフィック表示機能を有するので、操作盤、スイッチ、表示灯などを表示することができ、制御システムにおける操作端末としての役割を果たす。   An HMI (Human Machine Interface) device such as a programmable display has an interface with an operation target device (PLC, inverter, temperature controller, etc.), displays the operation status of the operation target device, or operates the operation target device. This is an operation display device having a function of accepting an operation input for giving a control instruction to the screen from the screen. In general, since such an operation display device has a graphic display function, it can display an operation panel, a switch, an indicator lamp, and the like, and serves as an operation terminal in the control system.

操作者の操作表示装置の操作によって問題が生じることがあるが、その問題を後に解析するためには、原因となった操作から結果に至る過程を記録に残しておく必要がある。例えば、特許文献1には、操作者によってキーが操作されたことを検出すると、そのキーのキーコードのデータと、キー操作の発生した時刻のタイムスタンプデータとを併せて履歴メモリに書き込むとともに、ビデオカメラで撮影した操作者の画像を画像メモリに書き込んでおき、当該画像が記憶されている画像メモリにおけるアドレスを履歴メモリに書き込んで上記の両データと関連付けておくことが記載されている。   Problems may occur depending on the operation of the operation display device by the operator, but in order to analyze the problem later, it is necessary to record the process from the operation that caused it to the result. For example, in Patent Document 1, when it is detected that the key is operated by the operator, the key code data of the key and the time stamp data of the time when the key operation occurs are written together in the history memory, It describes that an operator's image taken with a video camera is written in an image memory, and an address in the image memory in which the image is stored is written in a history memory and associated with both of the above data.

このように操作者の画像を残す履歴記録方法としては、他に、例えば特許文献2に記載されているように個人認証技術を用いた方法がある。特許文献2には、予め認証の対象となる人物固有の顔の特徴を辞書情報として記憶しておき、当該事象情報と装置を利用した人物の入力顔画像から得られる顔の特徴情報とを照合して、両情報の類似度によって入力顔画像の人物が本人であるか否かを認識するという人物認証装置が記載されている。この人物認証装置は、当該装置を利用した人物の顔画像を履歴画像として保存する。
特開平2000−171515号公報(2002年6月14日公開) 特開平2005−84985号公報(2005年3月31日公開)
As another history recording method for leaving the operator's image in this way, there is a method using a personal authentication technique as described in Patent Document 2, for example. In Patent Document 2, facial features unique to a person to be authenticated are stored in advance as dictionary information, and the event information is collated with facial feature information obtained from a person's input facial image using the apparatus. Thus, there is described a person authentication device that recognizes whether or not the person of the input face image is the person himself / herself based on the similarity between the two information. This person authentication device stores a face image of a person using the device as a history image.
Japanese Unexamined Patent Publication No. 2000-171515 (released on June 14, 2002) JP-A-2005-84985 (published on March 31, 2005)

しかしながら、特許文献1に開示された履歴記録方法では、操作者がカメラに対して正面を向いていない場合でも操作者の画像が記録される可能性がある。このため、操作者が正面を向いていない画像を含んで記録された画像から問題の原因となる操作を行った人物を特定できないという不都合がある。また、このような人物特定の不能な利用できない画像や、人物特定ができても顔以外の部分を含む画像を保存するので、画像を保存するためのメモリの容量が著しく大きくなるという不都合もある。   However, in the history recording method disclosed in Patent Document 1, there is a possibility that an image of the operator is recorded even when the operator is not facing the front with respect to the camera. For this reason, there is an inconvenience that a person who has performed an operation causing a problem cannot be identified from an image recorded including an image in which the operator is not facing the front. In addition, since an image that cannot be used to specify a person and cannot be used or an image including a portion other than a face is stored even if the person can be specified, the memory capacity for storing the image is significantly increased. .

特許文献2に開示された履歴記録方法では、照合開始後1フレーム目の顔画像を履歴画像として保存すると、顔が正面を向いていない不都合を解消するために、最高値の類似度が得られた入力顔画像を履歴画像として保存するようにしている。これにより、履歴画像が画像中央部に配置され、かつ、顔画像が正面を向いている確率が高くなる。   In the history recording method disclosed in Patent Document 2, when the face image of the first frame after the start of collation is saved as a history image, the highest similarity is obtained in order to eliminate the inconvenience that the face is not facing the front. The input face image is saved as a history image. Thereby, the probability that the history image is arranged in the center of the image and the face image faces the front increases.

しかしながら、特許文献2に記載された履歴画像の保存では、個人認証技術を用いるため、予め認証の対象となる人物の顔画像から当該人物の顔の特徴情報を登録しておく必要がある。このための処理に手間がかかる上、登録される人物が更新される度に、特徴情報を登録するデータベースを更新するというメンテナンス作業が必要であるので、コストがかかる。したがって、このような履歴記録方法で人物の顔画像を保存することを操作表示装置に適用するのは、あまり頻繁に生じない問題の解析のために手間やコストをかけることとなり、操作表示装置のコスト低減を図る観点から好ましくない。   However, since the history image saving described in Patent Document 2 uses personal authentication technology, it is necessary to previously register the facial feature information of the person from the face image of the person to be authenticated. In addition to the time and effort required for this process, a maintenance operation is required to update the database for registering the feature information every time a registered person is updated, which is costly. Therefore, applying such a history recording method to the operation display device to save a person's face image is time-consuming and costly for analyzing problems that do not occur frequently. This is not preferable from the viewpoint of cost reduction.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、容易かつ手間をかけずに、操作者の顔画像を操作者による操作の履歴とともに保存する操作表示装置を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an operation display device that saves an operator's face image together with a history of operations performed by the operator without being troublesome. There is.

本発明に係る操作表示装置は、操作内容を示す画面上での操作者による操作を受け入れるとともに、撮影された操作者の画像を当該操作者による所定操作の履歴情報と対応付けて保存する操作表示装置において、上記の課題を解決するために、操作者による所定操作を契機に、撮影された操作者の画像が操作表示装置の操作面に対して正面を向いた正面顔画像を含むか否かを判定する正面画像判定手段と、前記画像が前記正面顔画像を含むと判定されると、前記画像から前記正面顔画像の部分を切り出して第1の保存領域に保存する顔画像保存手段と、前記履歴情報を基に前記正面顔画像を読み出し可能となるように、前記正面顔画像と関連付けた状態で前記履歴情報を第2の保存領域に保存する履歴情報保存手段とを備えていることを特徴としている。   An operation display device according to the present invention accepts an operation by an operator on a screen showing operation contents, and stores an image of the photographed operator in association with history information of a predetermined operation by the operator In the device, in order to solve the above problem, whether or not the photographed image of the operator includes a front face image facing the front with respect to the operation surface of the operation display device in response to a predetermined operation by the operator A front image determination unit that determines whether the image includes the front face image, and a face image storage unit that cuts out a part of the front face image from the image and stores it in a first storage area; History information storage means for storing the history information in a second storage area in a state associated with the front face image so that the front face image can be read based on the history information. Characteristic It is.

上記の構成では、予めカメラなどによって撮影された操作者の画像が操作表示装置に入力される。また、操作者が画面上で所定の操作(例えばログイン画面におけるログインスイッチの操作)を行うと、操作者が操作表示装置の操作面に対して正面を向いていれば、その操作を契機に、正面画像判定手段によって、撮影された操作者の画像が正面顔画像を含むと判定される。すると、顔画像保存手段によって、当該正面顔画像が画像から切り出されて第1の保存領域に保存されるとともに、履歴情報保存手段によって、履歴情報が顔画像と関連付けた状態で第2の保存領域に保存される。   In the above configuration, an operator's image previously captured by a camera or the like is input to the operation display device. In addition, when the operator performs a predetermined operation on the screen (for example, operation of a login switch on the login screen), if the operator is facing the front with respect to the operation surface of the operation display device, The front image determination unit determines that the photographed operator image includes a front face image. Then, the face image storage means cuts out the front face image from the image and stores it in the first storage area, and the history information storage means stores the history information in association with the face image in the second storage area. Saved in.

段三者に認知された者が操作表示装置を操作することを前提とすれば、このように、操作表示装置に対して特定の操作を行った操作者の正面顔画像を保存することにより、当該操作者を知る者によって、誰が操作表示装置を操作したかを特定することができる。そこで、保存された正面顔画像から第三者が人物を特定しやすいように、正面画像判定手段が、操作者の画像が正面顔画像を含むことを判定している。また、部外者が操作表示装置を操作した場合は、そのことが保存された正面顔画像から特定できる。これにより、部外者が操作表示装置を操作できないような対策をとることができる。   Assuming that the person recognized by the three parties operates the operation display device, in this way, by storing the front face image of the operator who performed a specific operation on the operation display device, A person who knows the operator can specify who operated the operation display device. Therefore, the front image determination means determines that the operator's image includes a front face image so that a third person can easily identify a person from the stored front face image. Further, when an outsider operates the operation display device, this can be specified from the stored front face image. Thereby, it is possible to take measures to prevent outsiders from operating the operation display device.

このように、操作表示装置は、特許文献2に記載されているような個人認証を必要としないので、予め操作表示装置を操作する担当者の正面顔画像の特徴を登録する必要もない。したがって、容易かつ手間をかけずに、操作者の正面顔画像を操作者による操作の履歴とともに保存することができる。また、顔以外の部分を含む画像から正面顔画像を切り出して第1の保存領域に保存するので、第1の保存領域を構成する記憶媒体(例えばメモリ)の容量を縮小することができる。   Thus, since the operation display device does not require personal authentication as described in Patent Document 2, it is not necessary to register the characteristics of the front face image of the person in charge who operates the operation display device in advance. Therefore, the front face image of the operator can be saved together with the history of operations by the operator, easily and without taking time and effort. Further, since the front face image is cut out from the image including the part other than the face and stored in the first storage area, the capacity of the storage medium (for example, memory) constituting the first storage area can be reduced.

前記操作表示装置は、前記第1の保存領域に保存された前記正面顔画像を、前記第2の保存領域から読み出した前記履歴情報を基に読み出して、当該履歴情報と併せて表示する履歴情報表示手段を備えていることが好ましい。これにより、正面顔画像と履歴情報とを併せて確認することができる。   The operation display device reads the front face image stored in the first storage area based on the history information read from the second storage area, and displays the history information together with the history information. It is preferable to provide display means. Thereby, the front face image and the history information can be confirmed together.

また、前記操作表示装置において、前記正面画像判定手段は、予め設定された期間に連続して撮影された操作者の画像のうち、前記所定操作の前後における所定期間に撮影された操作者の画像について、前記正面顔画像を含むか否かを判定することにより、適正な正面顔画像をより多く取得することができ、正面顔画像の記録漏れの可能性を低下させることができる。   Further, in the operation display device, the front image determination unit includes an operator image captured during a predetermined period before and after the predetermined operation among images of an operator captured continuously during a preset period. By determining whether the front face image is included or not, more appropriate front face images can be acquired, and the possibility of omission of recording of the front face image can be reduced.

前記のいずれかの操作表示装置において、前記正面画像判定手段は、前記画像から、目、鼻、口、眉および耳のうち、所定の顔部品が検出される場合に、前記画像が前記正面顔画像を含むと判定することが好ましい。これにより、カメラの映像に顔の全部が映っていない場合であっても、正面画像判定手段は、画像が正面顔画像を含むか否かの判定を客観的にすることが可能となる。   In any one of the operation display devices described above, the front image determination unit determines that the image is the front face when a predetermined facial part is detected from the image among eyes, nose, mouth, eyebrows, and ears. It is preferable to determine that an image is included. Thereby, even when the entire face is not shown in the video of the camera, the front image determination unit can objectively determine whether or not the image includes a front face image.

前記のいずれかの操作表示装置において、あるいは、前記正面画像判定手段は、前記画像から、目、鼻、口、眉および輪郭のうち2つ以上の顔部品を検出する顔部品検出手段と、検出された顔部品のうち、2つの顔部品の組み合わせにおいて、各組み合わせの顔部品同士の相対位置の、真正面顔における当該顔部品同士の相対位置からのずれを示す傾斜度を算出する傾斜度算出手段と、選択された当該組み合わせのうち少なくとも1つの組み合わせの前記傾斜度が所定の範囲内にあり、当該組み合わせに対してあらかじめ設定されている正面指数が基準値以上であるときに、前記画像が前記正面顔画像を含むと判定する正面顔判定手段とを有することが好ましい。この構成では、正面画像判定手段は、正面顔判定手段の判定によって真正面からの顔の傾き度合いを検出でき、画像が正面顔画像を含むか否かの判定をより精確にすることが可能となる。   In any one of the operation display devices described above, or the front image determination unit, a facial component detection unit that detects two or more facial components among eyes, nose, mouth, eyebrows, and contour from the image; In the combination of two face parts, the inclination degree calculating means for calculating the inclination degree indicating the deviation of the relative position of the face parts of each combination from the relative position of the face parts in the front face in the combination of the two face parts And when the inclination of at least one of the selected combinations is within a predetermined range, and the front index preset for the combination is equal to or greater than a reference value, the image is It is preferable to have a front face determination unit that determines that a front face image is included. In this configuration, the front image determination unit can detect the degree of inclination of the face from the front by the determination of the front face determination unit, and can more accurately determine whether the image includes a front face image. .

この操作表示装置において、前記正面顔判定手段は、選択された前記組み合わせのうちいずれの組み合わせの正面指数も前記基準値未満であるとき、選択された各組み合わせの正面指数を合計し、当該合計値が前記基準値以上であれば、前記画像が正面顔画像を含むと判定することが好ましい。これにより、各組み合わせに対する正面指数が基準値未満であっても、それの合計が条件を満たせば、画像が正面顔画像を含むと判定することができる。   In this operation display device, the front face determination means sums the front indices of each selected combination when the front index of any combination of the selected combinations is less than the reference value, and the total value If is more than the reference value, it is preferable to determine that the image includes a front face image. Thereby, even if the front index for each combination is less than the reference value, it can be determined that the image includes a front face image if the sum of the front indexes satisfies the condition.

本発明の操作表示プログラムは、前述のいずれかの操作表示装置を動作させるための操作表示プログラムであって、コンピュータを前記各手段として機能させるプログラムである。また、この操作表示プログラムは、コンピュータ読み取り可能な記録媒体に記録される。これにより、プログラムをコンピュータに読み取らせて実行させることで、前記操作表示装置を実現することができる。   The operation display program of the present invention is an operation display program for operating any one of the operation display devices described above, and is a program that causes a computer to function as each of the means. The operation display program is recorded on a computer-readable recording medium. Thereby, the said operation display apparatus is realizable by making a computer read and run a program.

本発明に係る操作表示装置は、以上のように、操作者による所定操作を契機に、撮影された操作者の画像が操作表示装置の操作面に対して正面を向いた顔画像を含むか否かを判定する正面画像判定手段と、前記画像が前記顔画像を含むと判定されると、当該顔画像を第1の保存領域に保存する顔画像保存手段と、前記履歴情報を基に前記顔画像を読み出し可能となるように、前記顔画像と関連付けた状態で前記履歴情報を第2の保存領域に保存する履歴情報保存手段とを備えている。これにより、容易かつ手間をかけずに、操作者の顔画像を操作者による操作の履歴とともに保存することができる。したがって、信頼性の高いエラー解析を行うことができるという効果を奏する。   In the operation display device according to the present invention, as described above, whether or not the photographed image of the operator includes a face image facing the front with respect to the operation surface of the operation display device is triggered by a predetermined operation by the operator. A front image determination unit that determines whether the image includes the face image, a face image storage unit that stores the face image in a first storage area, and the face based on the history information. History information storage means for storing the history information in a second storage area in a state associated with the face image so that an image can be read out. Thus, the operator's face image can be saved together with the history of operations performed by the operator, easily and without any effort. Therefore, there is an effect that error analysis with high reliability can be performed.

本発明の実施形態を図1ないし図11に基づいて説明すると、以下の通りである。   An embodiment of the present invention will be described with reference to FIGS. 1 to 11 as follows.

図1に示すように、操作表示装置としてのプログラマブル表示器1は、CPUなどの演算処理装置を備えており、ユーザが作成した入力操作および表示用の画面データを表示することによりプログラマブル表示器特有の操作機能および表示機能を実現する専用コンピュータである。   As shown in FIG. 1, a programmable display 1 as an operation display device includes an arithmetic processing unit such as a CPU, and displays an input operation created by a user and screen data for display. It is a dedicated computer that realizes the operation function and display function.

このプログラマブル表示器1は、シリアルケーブル12を介したPLC13との通信により、PLC13を介して表示画面に表示される各デバイス11の状態を取得して、例えば、後述のディスプレイ2に各デバイス11の状態を表示する機能を有している。また、プログラマブル表示器1は、後述のタッチパネル3への操作に応じて、デバイス11の状態制御をPLC13に指示する機能を有している。また、プログラマブル表示器1は、操作者の正面顔画像を操作情報とともに記録して保存し、かつ表示する機能も有している。   The programmable display 1 acquires the state of each device 11 displayed on the display screen via the PLC 13 through communication with the PLC 13 via the serial cable 12. It has a function to display the status. The programmable display 1 has a function of instructing the PLC 13 to control the state of the device 11 in accordance with an operation on the touch panel 3 described later. The programmable display 1 also has a function of recording, storing, and displaying an operator's front face image together with operation information.

プログラマブル表示器1は、上記の機能を実現するために、ディスプレイ2と、タッチパネル3と、インターフェース部(図中、I/F)4,5と、データメモリ6と、作業メモリ7と、HMI処理部8と、顔検出処理部9とを備えている。以下、プログラマブル表示器1の主要各部について詳細に説明する。   In order to realize the above functions, the programmable display 1 includes a display 2, a touch panel 3, interface units (I / F in the figure) 4, 5, a data memory 6, a work memory 7, and an HMI process. Unit 8 and a face detection processing unit 9. Hereinafter, each main part of the programmable display device 1 will be described in detail.

ディスプレイ2は、プログラマブル表示器1を薄型に構成するために、液晶ディスプレイや、ELディスプレイや、プラズマディスプレイのような平板型ディスプレイが好適に用いられる。タッチパネル3は、ディスプレイ2の表示画上でタッチ入力を行うために設けられている入力装置である。   As the display 2, a flat panel display such as a liquid crystal display, an EL display, or a plasma display is preferably used in order to configure the programmable display 1 to be thin. The touch panel 3 is an input device provided for performing touch input on the display image of the display 2.

インターフェース部4は、プログラマブル表示器1がPLC13との間のシリアル通信を行うための通信制御部であり、シリアルケーブル12で各々が接続されている。インターフェース部4は、その接続機器データに基づいて、PLC13のメーカや機種に応じた通信プロトコルを用いて通信を行う。上記の接続機器データや通信プロトコルは、例えば、後述するデータメモリ6に格納される。   The interface unit 4 is a communication control unit for the programmable display 1 to perform serial communication with the PLC 13, and each is connected by a serial cable 12. The interface unit 4 performs communication using a communication protocol according to the manufacturer and model of the PLC 13 based on the connected device data. The connected device data and the communication protocol are stored in, for example, a data memory 6 described later.

なお、プログラマブル表示器1とPLC13との接続は、シリアルケーブル12に限らず、イーサネット(登録商標)等のネットワークやその他の通信手段によってなされてもよい。   Note that the connection between the programmable display 1 and the PLC 13 is not limited to the serial cable 12, and may be made by a network such as Ethernet (registered trademark) or other communication means.

ここで、PLC13について説明する。   Here, the PLC 13 will be described.

PLC13は、ユーザが作成したシーケンスプログラム(ラダープログラムなど)にしたがって、例えば、数十msなどの予め定められたスキャンタイム毎に、入力ユニットを介して入力用のデバイス11の状態を取り込むとともに、出力用のデバイス11に状態を変更するように制御指示を与える。   The PLC 13 captures the state of the input device 11 via the input unit and outputs it at every predetermined scan time such as several tens of ms, for example, according to a sequence program (ladder program or the like) created by the user. A control instruction is given to the device 11 for changing the state.

入力用のデバイス11としては、センサ(温度センサ、光センサなど)、スイッチ(押ボタンスイッチ、リミットスイッチ、圧力スイッチなど)のような機器が用いられる。出力用のデバイス11としては、アクチュエータ、リレー、電磁弁、表示器などが用いられる。これらのデバイス11は、製造ラインなどの所要各部に配置される。   As the input device 11, devices such as sensors (temperature sensors, optical sensors, etc.) and switches (push button switches, limit switches, pressure switches, etc.) are used. As the output device 11, an actuator, a relay, a solenoid valve, a display, or the like is used. These devices 11 are arranged in required parts such as a production line.

なお、デバイス11は、プログラマブル表示器1における特定のメモリ領域(例えば後述のシステムエリアにおけるユーザエリア)であってもよいし、PLC13内のメモリにおける特定のメモリ領域であってもよい。これらのメモリ領域は内部デバイスとして設定される。   The device 11 may be a specific memory area in the programmable display device 1 (for example, a user area in a system area described later), or may be a specific memory area in a memory in the PLC 13. These memory areas are set as internal devices.

PLC13内のメモリ(デバイスメモリ)は、デバイス11の状態(デバイス11からの出力値やデバイス11への設定値)を示すデータ(ワードデータやビットデータ)を、デバイスアドレスで特定される領域に格納している。上記メモリにおいて、ワードデバイスとビットデバイスとが設定される。ワードデバイスは、入出力されるデータが数値のようなワードデータを格納する領域として設定され、ワードアドレス(デバイスアドレス)で指定される。また、ビットデバイスは、オン・オフ状態のようなビットデータを格納する領域として設定され、ビットアドレス(デバイスアドレス)で設定される。このような設定により、メモリ内の任意のワードデバイスまたはビットデバイスをデバイスアドレスとして指定してアクセスするだけでデバイス11を制御し、またはその状態に関する情報を個別に取り出すことができる。   The memory (device memory) in the PLC 13 stores data (word data or bit data) indicating the state of the device 11 (output value from the device 11 or set value to the device 11) in an area specified by the device address. is doing. In the memory, a word device and a bit device are set. The word device is set as an area for storing word data such as numeric values as input / output data, and is designated by a word address (device address). The bit device is set as an area for storing bit data such as an on / off state, and is set by a bit address (device address). With such a setting, the device 11 can be controlled by simply designating and accessing an arbitrary word device or bit device in the memory as a device address, or information regarding its state can be individually retrieved.

PLC13のメーカ毎に固有の名称で呼ばれるデバイスアドレスには、変数が対応付けられている。変数は、ユーザによって任意に設定可能な名称であり、後述するコメントを変数として扱うことができる。   A variable is associated with a device address called by a unique name for each manufacturer of the PLC 13. The variable is a name that can be arbitrarily set by the user, and a comment described later can be handled as a variable.

以降の説明では、デバイスアドレスを適宜、アドレスと称する。   In the following description, the device address is appropriately referred to as an address.

インターフェース部5は、プログラマブル表示器1がエディタコンピュータ21との間の通信を行うための通信制御部である。このインターフェース部5は、画面データ等をエディタコンピュータ21からプログラマブル表示器1へ転送するための転送ケーブル14に接続されている。転送ケーブル14としては、例えばUSBケーブルが用いられる。   The interface unit 5 is a communication control unit for the programmable display device 1 to communicate with the editor computer 21. The interface unit 5 is connected to a transfer cable 14 for transferring screen data and the like from the editor computer 21 to the programmable display 1. For example, a USB cable is used as the transfer cable 14.

データメモリ6は、画面データ、前述の通信プロトコルなどを格納するためのメモリであり、FEPROM(Flash Erasable and Programmable ROM)が用いられる。FEPROMは、書き替え可能な読み出し専用のフラッシュメモリであるので、一般のパーソナルコンピュータにおけるハードディスクドライブの役割を果たす。フラッシュメモリは、可動部を持たず、かつ衝撃に強いので、劣悪な周囲環境でも安定して動作する。   The data memory 6 is a memory for storing screen data, the above-described communication protocol, etc., and FEPROM (Flash Erasable and Programmable ROM) is used. Since FEPROM is a rewritable read-only flash memory, it plays the role of a hard disk drive in a general personal computer. A flash memory does not have a movable part and is resistant to impacts, and thus operates stably even in a poor ambient environment.

画面データは、プログラマブル表示器1に表示されるユーザ画面(1フレーム分の画面データによって構成される単位画面)のデータのファイルである。画面データは、ディスプレイ2に表示すべきベース画面や部品等のオブジェクトのデータおよび各オブジェクトに付与された処理規定情報などを含んでいる。処理規定情報は、ユーザ画面に関連して行われる各種の処理を規定しており、ベース画面上で実行されるべき事象毎に作成される。この処理規定情報は、基本的には、表示処理を実行すべきベース画面のファイル番号(画面番号)と、このベース画面上で実行すべき動作内容を特定する事象名と、各実行事象毎に参照される1または複数のデータからなる参照情報とを一組として備えている。   The screen data is a data file of a user screen (unit screen configured by screen data for one frame) displayed on the programmable display 1. The screen data includes data of objects such as a base screen and parts to be displayed on the display 2, processing definition information assigned to each object, and the like. The process definition information defines various processes performed in relation to the user screen, and is created for each event to be executed on the base screen. This processing specification information basically includes the file number (screen number) of the base screen on which the display process is to be executed, the event name that specifies the operation content to be executed on this base screen, and each execution event. A set of reference information including one or more data to be referred to is provided.

作業メモリ7は、例えば、DRAMによって構成されており、表示制御などの演算処理時の作業用に用いられる。また、作業メモリ7は、取得したデバイス11のデータの一時的な記憶に用いられる。また、作業メモリ7は、PLC13のデバイスメモリに格納されるデバイス11の状態(デバイスアドレスの内容)をデバイスメモリとの間で受け渡しするための状態メモリ領域を有している。   The work memory 7 is composed of, for example, a DRAM, and is used for work during arithmetic processing such as display control. The work memory 7 is used for temporary storage of the acquired data of the device 11. The working memory 7 has a state memory area for transferring the state of the device 11 (the contents of the device address) stored in the device memory of the PLC 13 to and from the device memory.

プログラマブル表示器1のメモリには、システムエリアが設けられている。システムエリアは、プログラマブル表示器1の稼働に必要なデータを格納するシステムデータエリアや、ユーザが内部デバイスとして利用できるユーザエリアや、特殊リレーとして利用される特殊リレーエリアなどを含んでいる。このシステムエリアは、例えば、作業メモリ7に設けられている。   The memory of the programmable display 1 is provided with a system area. The system area includes a system data area that stores data necessary for the operation of the programmable display 1, a user area that can be used as an internal device by a user, a special relay area that is used as a special relay, and the like. This system area is provided in the work memory 7, for example.

HMI処理部8は、HMI機能を実現するために、制御の中心として設けられている。このHMI処理部8は、プログラムを実行することによって実現される機能ブロックである。   The HMI processing unit 8 is provided as the center of control in order to realize the HMI function. The HMI processing unit 8 is a functional block realized by executing a program.

HMI処理部8は、所定の時間間隔毎や所定のイベント毎にPLC13と通信することによって、PLC13のメモリから、デバイス11の状態を状態データとして取得して、プログラマブル表示器1内に用にされた一時的なメモリ空間、例えば作業メモリ7の特定の領域(状態メモリ領域)に書き込む。また、HMI処理部8は、PLC3の内部メモリにおける状態データを更新するように、状態メモリ領域におけるデバイス11の状態データを書き替えて、PLC13に送信する。HMI処理部8は、前述のオブジェクトを組み合わせて作成された画面データに基づいて、デバイス11の状態データをPLC13から取得してプログラマブル表示器1に描画表示するときの動作や、画面への操作に応じてデバイス11の状態の変更を指示するときの動作を処理規定情報によって特定する。   The HMI processing unit 8 acquires the state of the device 11 as state data from the memory of the PLC 13 by communicating with the PLC 13 at predetermined time intervals or at predetermined events, and is used in the programmable display 1. The data is written in a temporary memory space, for example, a specific area (state memory area) of the working memory 7. Further, the HMI processing unit 8 rewrites the state data of the device 11 in the state memory area so as to update the state data in the internal memory of the PLC 3 and transmits it to the PLC 13. Based on the screen data created by combining the above-mentioned objects, the HMI processing unit 8 acquires the state data of the device 11 from the PLC 13 and draws and displays it on the programmable display 1 and performs operations on the screen. Accordingly, the operation when the change of the state of the device 11 is instructed is specified by the process definition information.

また、HMI処理部8は、後述する顔ログ処理部9を動作させるイベントが発生すると、顔ログ処理部9による顔ログ処理の実行を開始させるためのコマンドにパラメータを付加して顔ログ処理部9に送出する。パラメータとしては、例えば、イベントID、画面番号および状態が用意されている。HMI処理部8は、これらのパラメータを用いる場合、パラメータ付きのコマンドを$ SendEvent.exe〈イベントID〉〈画面番号〉〈状態〉の書式で生成して送出する。   In addition, when an event for operating the face log processing unit 9 to be described later occurs, the HMI processing unit 8 adds a parameter to a command for starting execution of the face log processing by the face log processing unit 9 and adds a parameter to the face log processing unit 9 to send. As parameters, for example, an event ID, a screen number, and a state are prepared. When using these parameters, the HMI processing unit 8 generates and sends a command with parameters in the format of $ SendEvent.exe <event ID> <screen number> <state>.

パラメータにおけるイベントIDおよび画面番号は、操作者による操作履歴情報となる。   The event ID and the screen number in the parameter become operation history information by the operator.

イベントIDは、イベントを特定するID番号である。画面番号は、イベントが発生した画面の画面番号である。イベントは画面における操作者の操作であり、その代表的な操作としてはスイッチの操作が挙げられる。そのようなスイッチ操作には、プログラマブル表示器1へのログインやログアウト、画面切替、設定値入力、ON/OFF操作などがある。ログイン、ログアウト、画面切替、設定値入力、ON/OFF切替の各イベントには、例えばそれぞれ、“1”、“2”、“3”、“10”、“11”のイベントIDが定義付けられている。   The event ID is an ID number that identifies the event. The screen number is the screen number of the screen where the event has occurred. An event is an operation of an operator on the screen, and a typical operation is a switch operation. Such switch operations include login and logout to the programmable display 1, screen switching, setting value input, ON / OFF operation, and the like. For each event of login, logout, screen switching, setting value input, and ON / OFF switching, for example, event IDs “1”, “2”, “3”, “10”, “11” are defined, respectively. ing.

状態は、ユーザがパラメータとしてとして付加させたい、前述のシステムエリアのユーザエリアに格納されている状態データである。ユーザは、この状態を任意に設定することができる。   The state is state data stored in the user area of the above-described system area that the user wants to add as a parameter. The user can arbitrarily set this state.

また、HMI処理部8は、イベントを発生させるために操作されるスイッチに規定された処理規定情報に基づいて、後述するパラメータ送出部91および顔ログ実行部92を動作させる。具体的には、当該スイッチは、プログラマブル表示器1の前述のユーザエリアの指定されたアドレス(ワードアドレス)におけるデータを書き替えるためのワードスイッチ、およびユーザエリアの指定されたアドレス(ビットアドレス)におけるビットを切り替えるためのビットスイッチとしての機能が複合して設定されている。   Further, the HMI processing unit 8 operates a parameter sending unit 91 and a face log execution unit 92, which will be described later, based on processing definition information defined for a switch operated to generate an event. Specifically, the switch includes a word switch for rewriting data at a specified address (word address) in the user area of the programmable display 1 and a specified address (bit address) in the user area. The function as a bit switch for switching bits is set in combination.

上記のビットアドレスには、ONすると、パラメータ送出部91を実現するプログラムを起動するビットが設定されている。スイッチには、ビットスイッチの機能として、タッチ操作されると上記のビットをONに切り替えることが予め設定されている。また、スイッチには、ワードスイッチの機能として、タッチ操作されると指定されたワードアドレスに上記の各パラメータの値を書き込むことが予め設定されている。これらの設定は、後述する画面エディタ部24のスイッチ属性設定部24aで行われる。   In the above bit address, a bit for starting a program for realizing the parameter sending unit 91 is set when turned ON. As a function of the bit switch, the switch is set in advance to switch the bit to ON when a touch operation is performed. In addition, as a function of the word switch, the switch is preset to write the value of each parameter to a designated word address when a touch operation is performed. These settings are performed by a switch attribute setting unit 24a of the screen editor unit 24 described later.

これにより、HMI処理部8は、上記のスイッチがタッチ操作されることにより、ワードアドレスで指定されたビットをONに切り替えて上記のコマンドを発生するとともに、上記のワードアドレスにパラメータを書き込んで、パラメータ付きのコマンドを発生する。   Thereby, the HMI processing unit 8 switches the bit specified by the word address to ON by touching the switch, generates the command, and writes the parameter to the word address. Generate a command with parameters.

また、HMI処理部8は、保存された操作者の正面顔画像の表示を指示するために操作されるスイッチに規定された処理規定情報に基づいて、後述するログ表示実行部96を動作させる。具体的には、当該スイッチは、プログラマブル表示器1の前述のユーザエリアの指定されたアドレス(ビットアドレス)におけるビットを切り替えるためのビットスイッチとしての機能が設定されている。   Further, the HMI processing unit 8 operates a log display execution unit 96 to be described later based on the processing definition information specified for the switch operated to instruct the display of the stored front face image of the operator. Specifically, the switch has a function as a bit switch for switching a bit at a specified address (bit address) of the user area of the programmable display 1.

上記のビットアドレスには、ONすると、ログ表示実行部96を実現するプログラムを起動するビットが設定されている。スイッチには、ビットスイッチの機能として、タッチ操作されると上記のビットをONに切り替えることが予め設定されている。これらの設定も、後述する画面エディタ部24のスイッチ属性設定部24aで行われる。   In the above bit address, a bit for starting a program for realizing the log display execution unit 96 is set when turned ON. As a function of the bit switch, the switch is set in advance to switch the bit to ON when a touch operation is performed. These settings are also made by a switch attribute setting unit 24a of the screen editor unit 24 described later.

これにより、HMI処理部8は、上記のスイッチがタッチ操作されることにより、ワードアドレスで指定されたビットをONに切り替えて、ログ表示実行部96を起動させるためのコマンドを発生する。   As a result, the HMI processing unit 8 generates a command for activating the log display execution unit 96 by switching the bit specified by the word address to ON by touching the switch.

上記のHMI処理部8を実現するためのプログラムは、プログラマブル表示器1と分離可能に構成される記録媒体にも記録可能であり、その記録媒体からプログラマブル表示器1にインストールされてもよい。   The program for realizing the HMI processing unit 8 can be recorded on a recording medium configured to be separable from the programmable display device 1 and may be installed in the programmable display device 1 from the recording medium.

上記の記録媒体は、磁気テープやカセットテープなどのテープ系、フレキシブルディスクやハードディスクなどの磁気ディスク系、CD−ROM、MO、MD、DVDなどの光ディスク系、ICカード(メモリカードを含む)、光カードなどのカード系が好適である。その他、上記のプログラムメディアは、マスクROM、EPROM、EEPROM、フラッシュROMなどによる半導体メモリを含めた固定的にプログラムを担持する媒体であってもよい。   The above recording media include tape systems such as magnetic tapes and cassette tapes, magnetic disk systems such as flexible disks and hard disks, optical disk systems such as CD-ROM, MO, MD, and DVD, IC cards (including memory cards), optical A card system such as a card is preferred. In addition, the program medium may be a medium that carries a fixed program including a semiconductor memory such as a mask ROM, EPROM, EEPROM, flash ROM, or the like.

また、プログラマブル表示器1が、インターネットを含む通信ネットワークと接続可能に構成されていれば、上記の記録媒体は、当該通信ネットワークからプログラムをダウンロードするように流動的にプログラムを担持する媒体であってもよい。ただし、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用プログラムは予めプログラマブル表示器1に格納されるか、あるいは別な記録媒体からインストールされるものであってもよい。   Further, if the programmable display 1 is configured to be connectable to a communication network including the Internet, the recording medium is a medium that carries the program in a fluid manner so as to download the program from the communication network. Also good. However, when the program is downloaded from the communication network in this way, the download program may be stored in advance in the programmable display 1 or may be installed from another recording medium.

顔ログ処理部9は、HMI処理部8の指示に応じて、操作者の正面顔画像を操作情報(顔画像の検出日時、操作された画面番号等)と併せて記録し、かつ表示する処理を行う。   The face log processing unit 9 records and displays the front face image of the operator together with operation information (face image detection date and time, operated screen number, etc.) in accordance with an instruction from the HMI processing unit 8. I do.

顔検ログ処理部9は、この機能を実現するために、パラメータ送出部91、顔ログ実行部92、共有メモリ93、顔ログ初期設定ファイル94、顔ログファイル95、ログ表示実行部96、ログ表示初期設定ファイル97および顔画像データベース(図中、顔画像DB)98を有している。   In order to realize this function, the face detection log processing unit 9 includes a parameter transmission unit 91, a face log execution unit 92, a shared memory 93, a face log initial setting file 94, a face log file 95, a log display execution unit 96, a log A display initial setting file 97 and a face image database (face image DB in the figure) 98 are provided.

パラメータ送出部91は、HMI処理部8から送出されたパラメータ付きコマンドで起動し、当該コマンドに付加されたパラメータをソケット通信にて顔ログ実行部92に送出する。   The parameter sending unit 91 is activated by the command with parameters sent from the HMI processing unit 8 and sends the parameter added to the command to the face log execution unit 92 by socket communication.

顔ログ実行部92は、カメラ15によって撮影された操作者の画像から人の顔を検出して記録する顔ログ処理を実行する部分であり、顔ログ制御部92a、顔検出部92bおよび顔ロギング部92cを含んでいる。上記のカメラ15は、例えばUSBカメラなどの小型のカメラであり、操作者がプログラマブル表示器1の操作時にディスプレイ2に対して正面を向いた状態の正面画像を撮影できるように、プログラマブル表示器1の筐体に装着されている。カメラ15の装着位置としては、例えば、筐体の上端面における中央部分が好適である。   The face log execution unit 92 is a part that executes face log processing for detecting and recording a human face from the operator's image taken by the camera 15, and includes a face log control unit 92a, a face detection unit 92b, and a face logging. A portion 92c is included. The camera 15 is a small camera such as a USB camera, for example, and the programmable display 1 so that the operator can take a front image of the display 2 facing the front when the programmable display 1 is operated. It is attached to the case. As the mounting position of the camera 15, for example, the central portion on the upper end surface of the housing is suitable.

顔ログ制御部92aは、顔検出部92bおよび顔ロギング部92cの動作を制御する。この顔ログ制御部92aは、パラメータ送出部91から送出されたパラメータを受けて起動し、当該パラメータを共有メモリ93に書き込むとともに、顔ログ初期設定ファイル94から共有メモリ93に顔ログ設定データを読み込む。顔ログ制御部92aは、ログ保存要求をHMI処理部8からパラメータ送出部91を介して受けると、顔ロギング部92cに保存処理を実行させる。上記のログ保存要求を与えるイベントとしては、プログラマブル表示器1に表示される画面上でのユーザによるスイッチ操作、PLC12のメモリにおける特定のビットのONまたはOFF、プログラマブル表示器1における前述のユーザエリアにて検出できる特定ビットのONまたはOFFなどが挙げられる。   The face log control unit 92a controls operations of the face detection unit 92b and the face logging unit 92c. The face log control unit 92a is activated upon receiving the parameter sent from the parameter sending unit 91, writes the parameter to the shared memory 93, and reads the face log setting data from the face log initial setting file 94 to the shared memory 93. . When the face log control unit 92a receives a log storage request from the HMI processing unit 8 via the parameter transmission unit 91, the face log control unit 92a causes the face logging unit 92c to execute a storage process. As an event for giving the above-mentioned log storage request, a switch operation by the user on the screen displayed on the programmable display 1, ON or OFF of a specific bit in the memory of the PLC 12, the above-mentioned user area in the programmable display 1 For example, ON or OFF of a specific bit that can be detected.

顔ログ設定データは、顔検出確度(%)、顔検出時差(秒)、検出画像数、撮影期間(秒)、顔検出間隔(秒)、検出最大時間(秒)、格納ディレクトリ名などを含んでいる。検出確度は、顔検出部92bが入力画像データに人の顔が含まれると判定する確からしさの度合いである。顔検出時差は、顔検出部92bがイベント発生時に対する顔検出時の時間差であり、±の符号付きで表される。検出画像数は、カメラ15から順次入力されてくる入力画像から顔検出を行う画像の数である。顔検出間隔は、顔検出部92bが顔検出処理を行う時間間隔である。検出最大時間は、顔検出部92bが入力画像データから顔を検出する最大の時間である。格納ディレクトリ名は、後述する検出顔画像データをJPEGファイル(検出顔ファイル)として格納する顔画像データベース98が設けられるディレクトリの名称である。顔画像データベース98は、例えばデータメモリ6に設定される。   The face log setting data includes face detection accuracy (%), face detection time difference (seconds), number of detected images, shooting period (seconds), face detection interval (seconds), maximum detection time (seconds), storage directory name, etc. It is out. The detection accuracy is a degree of certainty that the face detection unit 92b determines that a human face is included in the input image data. The face detection time difference is a time difference when the face detection unit 92b detects a face with respect to an event occurrence, and is represented with a sign of ±. The number of detected images is the number of images for which face detection is performed from input images sequentially input from the camera 15. The face detection interval is a time interval at which the face detection unit 92b performs face detection processing. The maximum detection time is the maximum time for the face detection unit 92b to detect a face from input image data. The storage directory name is a name of a directory in which a face image database 98 for storing detected face image data (described later) as a JPEG file (detected face file) is provided. The face image database 98 is set in the data memory 6, for example.

また、顔ログ設定データは、ロギング条件も含んでいる。ロギング条件は、顔ロギング部92cが後述する顔検出状態データを保存するときの条件である。この条件としては、検出された正面顔画像とともに保存すべきデータを特定する情報などが含まれる。   The face log setting data also includes logging conditions. The logging condition is a condition when the face logging unit 92c stores face detection state data described later. This condition includes information for specifying data to be stored together with the detected front face image.

顔検出部92bは、カメラ15によって撮影された操作者の顔を含む姿の画像のデータ(入力画像データ)より、顔ログ設定データに基づいて、プログラマブル表示器1の操作面(ディスプレイ2の表示面)に対して正面向いた人の顔(正面顔画像)を検出する。顔検出部92bは、予め設定された検出確度(例えば80%)以上であるとき、入力画像データから顔を検出する。具体的には、顔検出部92bは、図2に示すように、イベント発生時の前後で入力された入力画像(図2ではイベント発生時から±秒間の5つの入力画像のみ示す)から顔を検出する場合、顔検出間隔が1秒と設定され、顔検出時差が−1秒と設定され、検出最大時間が3秒と設定されていれば、図2における左側より、2番目から4番目の入力画像に対して顔の検出を行う。図2において、白で示した入力画像が、確度80%以上の判定によって顔を検出された入力画像であり、グレーで示した入力画像が、確度80%未満で顔を検出されなかった入力画像である。この例では、2番目と3番目の入力画像に顔が検出されており、正面を向いた顔検出に成功したことを示している。   The face detection unit 92b uses the operation surface (display 2 on the display 2) of the programmable display 1 based on the face log setting data based on the image data (input image data) of the figure including the face of the operator photographed by the camera 15. The face (front face image) of the person facing the front with respect to the face) is detected. The face detection unit 92b detects a face from the input image data when the detection accuracy is equal to or higher than a preset detection accuracy (for example, 80%). Specifically, as shown in FIG. 2, the face detection unit 92b detects a face from input images input before and after the event occurrence (in FIG. 2, only five input images of ± seconds from the event occurrence are shown). When detecting, if the face detection interval is set to 1 second, the face detection time difference is set to -1 second, and the maximum detection time is set to 3 seconds, the second to fourth from the left in FIG. Face detection is performed on the input image. In FIG. 2, the input image shown in white is an input image in which a face is detected by determination with an accuracy of 80% or more, and the input image shown in gray is an input image in which the face is not detected with an accuracy of less than 80%. It is. In this example, faces are detected in the second and third input images, indicating that the face detection facing the front is successful.

このように、所定期間で複数の入力画像について顔検出を行うことにより、1つの入力画像で顔検出を行う場合に比べて、顔検出の成功率を高めることができる。   Thus, by performing face detection for a plurality of input images in a predetermined period, the success rate of face detection can be increased as compared to the case where face detection is performed with one input image.

また、顔検出部92bは、顔を検出した入力画像データより顔の部分(検出顔画像データ)を切り出して、上記の顔画像データベース98に顔検出ファイルとして格納する。顔検出部92bは、これと同時に、顔検出ファイルの所在を表すパス名を、検出日時(分秒まで含んでもよい)や検出確度および共有メモリ93に格納されていたパラメータと併せて顔検出状態データとして共有メモリ93に書き込む。   In addition, the face detection unit 92b cuts out a face portion (detected face image data) from the input image data in which a face is detected, and stores it in the face image database 98 as a face detection file. At the same time, the face detection unit 92b includes the path name indicating the location of the face detection file together with the detection date and time (may include up to minutes and seconds), the detection accuracy, and the parameters stored in the shared memory 93. Write to the shared memory 93 as data.

顔検出部92bによる正面顔画像の検出については、後に詳しく説明する。   The detection of the front face image by the face detection unit 92b will be described in detail later.

顔ロギング部92cは、顔ログ制御部92aが指示するタイミングで共有メモリ93から顔検出状態データを読み出して、共有メモリ93における顔ログ設定データのロギング条件を参照し、顔検出状態データのうち必要なデータを顔ログファイル95に記録する。顔ロギング部92cは、記録時に、顔検出状態データを検出順にCSV(Comma Separated Values)形式で顔ログファイル95に書き込む。これにより、例えば、顔ログファイル95から顔検出状態データを表計算ソフトウエアなどによって表に展開することで、顔検出状態データの一覧を容易に確認することができる。   The face logging unit 92c reads the face detection state data from the shared memory 93 at a timing instructed by the face log control unit 92a, refers to the logging condition of the face log setting data in the shared memory 93, and is necessary among the face detection state data Various data is recorded in the face log file 95. The face logging unit 92c writes the face detection state data in the face log file 95 in the CSV (Comma Separated Values) format in the order of detection during recording. Thereby, for example, by developing the face detection state data from the face log file 95 into a table using spreadsheet software or the like, a list of face detection state data can be easily confirmed.

顔ログ初期設定ファイル94は、前述の顔ログ設定データを格納している。この顔ログ初期設定ファイル94は、例えば、データメモリ6に設定される。   The face log initial setting file 94 stores the aforementioned face log setting data. The face log initial setting file 94 is set in the data memory 6, for example.

顔ログファイル95は、例えば、プログラマブル表示器1に設けられたデータログ用メモリ(図示せず)に設定される。データログ用メモリは、SRAMによって構成されるが、それ以外にプログラマブル表示器1に着脱自在に接続されるメモリカードによって構成されていてもよい。メモリカードは、一般にSRAMに比べて記憶容量が大きいので、大量のデータをログする場合に有効である。   The face log file 95 is set in, for example, a data log memory (not shown) provided in the programmable display device 1. The data log memory is composed of SRAM, but may be composed of a memory card that is detachably connected to the programmable display 1. Since the memory card generally has a larger storage capacity than the SRAM, it is effective when logging a large amount of data.

ログ表示実行部96は、顔ログ制御部92からのログ要求にしたがって、顔ログファイルから顔検出状態データを読み出して、ディスプレイ2に表示された画面上に重ねて、例えば図3に示すような顔ログウインドウ201に表示する。このとき、ログ表示実行部96は、顔ログウインドウ201の表示データをHMI処理部8に渡して、HMI処理部8に顔ログウインドウ201を表示させる。ログ表示実行部96は、顔ログウインドウ201を表示するとき、ログ表示初期設定ファイル97に格納されている、イベントコード(前述の「イベントID」)とイベント名(文字列)との対応関係を参照して、顔検出状態データに含まれるイベントIDをイベント名に変換して表示する。また、ログ表示実行部96は、顔検出状態データに含まれるパス名に基づいて、前述の顔画像データベース98に格納された顔検出ファイルを開いて、顔ログファイル95における「顔画像」の領域に表示する。   The log display execution unit 96 reads the face detection state data from the face log file in accordance with the log request from the face log control unit 92 and superimposes it on the screen displayed on the display 2, for example as shown in FIG. It is displayed on the face log window 201. At this time, the log display execution unit 96 passes the display data of the face log window 201 to the HMI processing unit 8 and causes the HMI processing unit 8 to display the face log window 201. When displaying the face log window 201, the log display execution unit 96 displays the correspondence between the event code (“event ID” described above) and the event name (character string) stored in the log display initial setting file 97. The event ID included in the face detection state data is converted into an event name and displayed. Further, the log display execution unit 96 opens the face detection file stored in the face image database 98 based on the path name included in the face detection state data, and the “face image” area in the face log file 95 is displayed. To display.

図3に示す顔ログウインドウ201では、顔画像に続いて、イベント発生日時、イベントID、画面番号、状態、顔検出時差および検出確度が一列に並んで顔ログ情報として表示される。また、各顔ログ情報は、イベント発生順(顔検出順)に並んで表示される。顔ログファイル95においては、状態、顔検出時差および検出確度は、必要に応じて表示するようにしてもよい。また、カメラ15が複数台設置されている場合、各カメラ15に付与されたカメラ番号を、顔検出された入力画像を撮影したカメラ15を特定する情報として顔検出状態データとしてログしておき、顔ログウインドウ201に表示させるようにしてもよい。   In the face log window 201 shown in FIG. 3, the event occurrence date / time, event ID, screen number, state, face detection time difference, and detection accuracy are displayed as face log information in a line following the face image. Each face log information is displayed side by side in the order of event occurrence (face detection order). In the face log file 95, the state, face detection time difference, and detection accuracy may be displayed as necessary. In addition, when a plurality of cameras 15 are installed, the camera number assigned to each camera 15 is logged as face detection state data as information for identifying the camera 15 that captured the face-detected input image. You may make it display on the face log window 201. FIG.

上記の顔検出処理部9における、パラメータ送出部91、顔ログ実行部92およびログ表示実行部96は、プログラムを実行することによって実現される機能ブロックである。このプログラムも、前述のHMI処理部8と同様に、プログラマブル表示器1と分離可能に構成される前述の記録媒体にも記録可能であり、その記録媒体からプログラマブル表示器1にインストールされてもよい。   In the face detection processing unit 9, the parameter sending unit 91, the face log execution unit 92, and the log display execution unit 96 are functional blocks that are realized by executing a program. This program can also be recorded on the above-described recording medium configured to be separable from the programmable display 1 in the same manner as the above-described HMI processing unit 8, and may be installed in the programmable display 1 from the recording medium. .

続いて、エディタコンピュータ21について説明する。   Next, the editor computer 21 will be described.

図1に示すように、エディタコンピュータ21は、プログラマブル表示器1に表示される画面を作成するエディタ装置としての機能を有する。   As shown in FIG. 1, the editor computer 21 has a function as an editor device that creates a screen displayed on the programmable display 1.

エディタコンピュータ21は、CPU、メモリ(RAM、ROMなど)、外部記憶装置(ハードディスクドライブ、MOドライブなど)、表示装置および入力装置(キーボード、マウスなど)を有するパーソナルコンピュータによって構成されている。また、エディタコンピュータ21は、制御部23、インターフェース部(図中、I/F)24、画面エディタ部24およびデータ記憶部25を備えている。   The editor computer 21 is constituted by a personal computer having a CPU, a memory (RAM, ROM, etc.), an external storage device (hard disk drive, MO drive, etc.), a display device and an input device (keyboard, mouse, etc.). The editor computer 21 includes a control unit 23, an interface unit (I / F in the figure) 24, a screen editor unit 24, and a data storage unit 25.

インターフェース部23は、プログラマブル表示器1との間の通信を行うための通信制御部であり、転送ケーブル14に接続されている。   The interface unit 23 is a communication control unit for performing communication with the programmable display 1 and is connected to the transfer cable 14.

制御部22は、ハードウエア(CPUやメモリなど)およびソフトウエア(オペレーティングシステムなど)によって実現される機能ブロックであり、アプリケーションプログラムの実行や周辺機器の動作を制御する部分である。制御部11は、その機能を果たすために作業メモリ22aを有している。作業メモリ22aは、DRAMなどによって構成され、画面ファイルやラダーファイルを展開するためなどに用いられる。   The control unit 22 is a functional block realized by hardware (CPU, memory, etc.) and software (operating system, etc.), and controls the execution of application programs and the operation of peripheral devices. The control unit 11 has a work memory 22a to fulfill its function. The work memory 22a is constituted by a DRAM or the like, and is used for developing a screen file or a ladder file.

また、制御部22は、アプリケーションプログラムであるエディタソフトウエアを実行することにより、エディタ部24を実現する。エディタ部24は、エディタコンピュータ21と分離可能に構成される記録媒体に記録され、この記憶媒体からエディタコンピュータ21にインストールすることが可能である。   The control unit 22 implements the editor unit 24 by executing editor software that is an application program. The editor unit 24 is recorded on a recording medium configured to be separable from the editor computer 21 and can be installed in the editor computer 21 from this storage medium.

上記の記録媒体(プログラムメディア)は、コンピュータに読み取り可能な記録媒体であり、磁気テープやカセットテープなどのテープ系、フレキシブルディスクやハードディスクなどの磁気ディスク系、CD−ROM、MO、MD、DVDなどの光ディスク系、ICカード(メモリカードを含む)、光カードなどのカード系が好適である。その他、上記のプログラムメディアは、マスクROM、EPROM、EEPROM、フラッシュROMなどによる半導体メモリを含めた固定的にプログラムを担持する媒体であってもよい。   The above-mentioned recording medium (program medium) is a computer-readable recording medium, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk system such as a flexible disk or a hard disk, CD-ROM, MO, MD, DVD, etc. A card system such as an optical disk system, an IC card (including a memory card), or an optical card is suitable. In addition, the program medium may be a medium that carries a fixed program including a semiconductor memory such as a mask ROM, EPROM, EEPROM, flash ROM, or the like.

また、エディタコンピュータ21が、インターネットを含む通信ネットワークと接続可能な環境に置かれていれば、通信ネットワークからプログラムをダウンロードするように流動的にプログラムを担持する媒体であってもよい。ただし、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用プログラムは予めエディタコンピュータ21に格納されるか、あるいは別な記録媒体からインストールされるものであってもよい。   Further, if the editor computer 21 is placed in an environment that can be connected to a communication network including the Internet, the editor computer 21 may be a medium that fluidly carries the program so as to download the program from the communication network. However, when the program is downloaded from the communication network in this way, the download program may be stored in the editor computer 21 in advance, or may be installed from another recording medium.

エディタ部24は、ユーザ独自の画面であるユーザ画面の作成を支援するように、スイッチ、ランプ、テンキー、各種表示器(例えば、数値表示器、メータ表示器およびグラフ表示器)などの部品(オブジェクト)、描画機能、テキスト入力機能などを備えている。オブジェクトは、ユーザが容易に選択できるようにライブラリ形式で登録されている。   The editor unit 24 supports components (objects) such as switches, lamps, numeric keys, and various displays (for example, a numerical display, a meter display, and a graph display) so as to support the creation of a user screen that is a user-specific screen. ), Drawing function, text input function, etc. Objects are registered in a library format so that the user can easily select them.

エディタコンピュータ21で作成された画面データは、上記の外部記憶装置によって構成されるデータ記憶部25に保存される。また、この画面データは、データ記憶部25から読み出されて、転送ケーブル14を介してプログラマブル表示器1に転送される。   The screen data created by the editor computer 21 is stored in the data storage unit 25 configured by the above external storage device. The screen data is read from the data storage unit 25 and transferred to the programmable display device 1 via the transfer cable 14.

画面エディタ部24は、スイッチ属性設定部24aを有している。   The screen editor unit 24 has a switch attribute setting unit 24a.

このスイッチ属性設定部24aは、スイッチのオブジェクトに、各種の属性を処理規定情報として設定するために設けられている。スイッチ属性設定部24aは、属性を設定するためのダイアログボックスをユーザインターフェースとして表示して、ユーザに属性の設定をさせる。これにより、ユーザは、スイッチ属性設定部24aを用いて、前述のイベントを発生させるための属性をスイッチに設定することができる。   The switch attribute setting unit 24a is provided to set various attributes as processing definition information in the switch object. The switch attribute setting unit 24a displays a dialog box for setting attributes as a user interface and allows the user to set attributes. Thereby, the user can set the attribute for generating the above-mentioned event to a switch using switch attribute setting part 24a.

ここで、プログラマブル表示器1における顔ログおよびログ表示の処理について図5および図6のフローチャートを参照して説明する。   Here, face log and log display processing in the programmable display device 1 will be described with reference to the flowcharts of FIGS. 5 and 6.

顔ログの処理の場合、まず、図5に示すように、表示されている画面上で特定のスイッチが操作されるなどして、イベントが発生すると(ステップS1)、HMI処理部8は、そのイベントIDや上記画面の画面番号などのパラメータを付加したコマンドを送出する(ステップS2)。顔ログ処理部9のパラメータ送出部91は、このコマンドを受けて起動し、顔ログ制御部92aに上記のパラメータを送出する(ステップS3)。顔ログ制御部92aは、上記のパラメータを受けて起動し、当該パラメータを共有メモリ93に書き込むとともに、顔ログ初期設定ファイル94から顔ログ設定データを読み出して共有メモリ93にセットする(ステップS4)。   In the case of face log processing, first, as shown in FIG. 5, when an event occurs by operating a specific switch on the displayed screen (step S1), the HMI processing unit 8 A command to which parameters such as an event ID and a screen number of the screen are added is transmitted (step S2). The parameter sending unit 91 of the face log processing unit 9 is activated in response to this command and sends the above parameters to the face log control unit 92a (step S3). The face log control unit 92a is activated upon receiving the above parameters, writes the parameters to the shared memory 93, reads the face log setting data from the face log initial setting file 94, and sets it in the shared memory 93 (step S4). .

顔検出部92bは、ログ制御部92aの指示を受けると、人の顔を検出を開始する(ステップS5)。顔検出部92bは、カメラ15から入力される操作者の入力画像データより、顔ログ設定データに基づいて、顔の検出を行う。ここで、顔検出部92bは、顔の検出に成功したか否かを判定し(ステップS6)、成功した場合には、入力画像データより顔の部分を検出顔画像データとして切り出して顔画像データベース98に保存するとともに(ステップS7)、顔検出ファイルのパス名、検出日時、検出確度およびパラメータを含む顔検出状態データを共有メモリ93に書き込む(ステップS8)。   Upon receiving an instruction from the log control unit 92a, the face detection unit 92b starts detecting a human face (step S5). The face detection unit 92b detects the face based on the face log setting data from the input image data of the operator input from the camera 15. Here, the face detection unit 92b determines whether or not the face detection is successful (step S6). If the face detection unit 92b is successful, the face portion is cut out from the input image data as detected face image data, and the face image database. 98 (step S7), and the face detection state data including the path name, detection date and time, detection accuracy, and parameters of the face detection file is written to the shared memory 93 (step S8).

顔検出部92bは、ステップS5において、顔の検出に失敗した場合、入力画像データより顔の部分を顔画像データとして切り出して保存することはせずに(ステップS9)、顔検出ファイルのパス名を除いた顔検出状態データを共有メモリ93に書き込む(ステップS11)。   If the face detection unit 92b fails to detect the face in step S5, the face detection unit 92b does not cut out and store the face part as face image data from the input image data (step S9), and the path name of the face detection file. The face detection state data excluding is written in the shared memory 93 (step S11).

ステップS8に続き、顔ロギング部92cは、顔ログ制御部92aの指示を受けると、共有メモリ93から顔検出状態データを読み出して、顔ログファイル95に保存する(ステップS9)。ただし、ステップS10で、検出顔画像データが保存されなかった場合は、検出顔画像データがブランクの状態となって、顔検出状態データのみが顔ログファイル95に保存されることになる。   Subsequent to step S8, upon receiving an instruction from the face log control unit 92a, the face logging unit 92c reads the face detection state data from the shared memory 93 and stores it in the face log file 95 (step S9). However, if the detected face image data is not saved in step S10, the detected face image data is in a blank state, and only the face detection state data is saved in the face log file 95.

さらに、上記の一連の処理は、プログラマブル表示器1の動作が停止するまで継続して行われる(ステップS10)。   Further, the series of processes described above are continuously performed until the operation of the programmable display device 1 is stopped (step S10).

顔ログの処理の場合、まず、図5に示すように、表示されている画面上でログ表示を指示するスイッチが操作されることにより、ログ表示の指示が発生すると(ステップS11)、HMI処理部8は、その指示を受けてログ表示のコマンドを送出する(ステップS12)。     In the case of face log processing, first, as shown in FIG. 5, when a log display instruction is generated by operating a switch for instructing log display on the displayed screen (step S11), HMI processing is performed. The unit 8 receives the instruction and sends a log display command (step S12).

ログ表示実行部96は、このコマンドを受けて起動し、顔ログファイル95から顔検出状態データを読み出して、それに基づいて顔ログウインドウ201に顔ログを表示する(ステップS13)。そして、ユーザによって、顔ログウインドウ201を閉じる操作が行われると(ステップS14)、ログの表示処理を終える。   The log display execution unit 96 is activated in response to this command, reads the face detection state data from the face log file 95, and displays the face log in the face log window 201 based on the data (step S13). When the user performs an operation to close the face log window 201 (step S14), the log display process is finished.

ここで、顔検出部92bの正面顔画像の検出機能について詳しく説明する。顔検出部92bによって、入力画像に正面顔画像を含むか否かの判定は、顔の部品検出による判定と、検出した部品の位置関係による判定に分かれ、用途に応じて使い分ける。   Here, the front face image detection function of the face detection unit 92b will be described in detail. The determination of whether or not the input image includes a front face image by the face detection unit 92b is divided into determination based on face component detection and determination based on the positional relationship of the detected components, which are used depending on the application.

まず、顔の部品検出による判定について説明する。顔検出部92bの正面顔画像の検出機能は、具体的には図6に示す顔検出部100として構成される。この顔検出部100は、顔部品検出部101および正面判定部102を有している。   First, the determination based on face part detection will be described. The front face image detection function of the face detection unit 92b is specifically configured as the face detection unit 100 shown in FIG. The face detection unit 100 includes a face part detection unit 101 and a front determination unit 102.

顔部品検出部101は、公知の手法を用いて顔の各部品(目、鼻、口、眉、耳など)を検出する。   The face part detection unit 101 detects each part of the face (eyes, nose, mouth, eyebrows, ears, etc.) using a known method.

正面判定部102は、顔部品検出部101によって検出された顔部品について、正面指数テーブル103を参照し、顔の各部品ごとにあらかじめ設定されている正面指数のうち判定に使用する正面指数を合計し、合計値と正面顔判定基準値とを比較することにより、正面顔であるか否かを判定する。表1は、正面指数テーブル103の一例を示している。正面指数テーブル103は、顔部品と、検出基準と、正面指数と、使用/未使用とを対応付けて設定している。この正面指数テーブル103は、例えば、プログラマブル表示器1では、作業メモリ7に展開されている。   The front determination unit 102 refers to the front index table 103 for the facial parts detected by the facial part detection unit 101, and sums the front indices used for the determination among the front indices set in advance for each part of the face. Then, by comparing the total value with the front face determination reference value, it is determined whether or not it is a front face. Table 1 shows an example of the front index table 103. The front index table 103 sets face parts, detection criteria, front indices, and used / unused in association with each other. For example, in the programmable display 1, the front index table 103 is developed in the work memory 7.

Figure 2008112222
Figure 2008112222

検出基準は、顔の各部品を検出したか否かの判定基準であり、例えば、目の検出は、両眼を検出した場合のみ、目の検出が行われたと判定し、片眼のみ検出した場合は、目の検出が行われたとは判定しない。鼻の検出は、鼻の中央部を検出した場合のみ、鼻の検出が行われたと判定し、鼻の中央部以外の一部のみを検出した場合は、鼻の検出が行われたとは判定しない。   The detection criterion is a criterion for determining whether or not each part of the face has been detected. For example, in the case of detecting the eyes, it is determined that the eyes are detected only when both eyes are detected, and only one eye is detected. In this case, it is not determined that eye detection has been performed. The nose is detected only when the central part of the nose is detected. When only a part other than the central part of the nose is detected, it is not determined that the nose is detected. .

正面指数は、検出された顔部品の正面顔判定基準に対する重みを数値化したものである。   The front index is a numerical value of the weight of the detected face part with respect to the front face determination criterion.

使用/未使用は、検出された顔部品の正面指数を正面顔判定に使用するか否かを示している。   Use / unused indicates whether or not the front index of the detected face part is used for front face determination.

正面判定部102は、上記の検出基準にしたがって、顔の各部品が検出されたか否かを判定し、検出された各部品の正面指数を合計する。例えば、目と眉が検出された場合は、正面指数の合計値は90と算出される。その合計値を所定の判定基準値と比較し、当該判定基準値以上であれば、正面顔であると判定する。   The front determination unit 102 determines whether or not each part of the face is detected according to the above detection criterion, and sums up the front indices of the detected parts. For example, when eyes and eyebrows are detected, the total value of the front index is calculated as 90. The total value is compared with a predetermined determination reference value, and if it is equal to or greater than the determination reference value, it is determined that the face is a front face.

判定基準値は、例えば80と設定され、目と眉が検出された場合は、正面指数の合計値が判定基準値以上であるので、正面顔であると判定される。一方、鼻と口のみ検出された場合は、正面指数の合計値は40となり、判定基準値に満たないので、正面顔であるとは判定されない。   The determination reference value is set to 80, for example, and when eyes and eyebrows are detected, the total value of the front index is equal to or greater than the determination reference value, so that it is determined to be a front face. On the other hand, when only the nose and the mouth are detected, the total value of the front index is 40, which is less than the determination reference value, and thus is not determined to be a front face.

なお、判定基準値は使用される環境に合わせて様々に設定される。正面顔の判定が、ディスプレイ2を見ているか否かの判定に利用される場合は、判定基準値を高く設定する。   The determination reference value is variously set according to the environment in which it is used. When the front face determination is used to determine whether or not the display 2 is being viewed, the determination reference value is set high.

また、プログラマブル表示器1が用いられる工場などの環境では、マスクや帽子を着用するので、口、鼻、耳は隠されることが多い。したがって、口、鼻、耳が検出されたとしても、それらの顔部品の正面指数は使用しない設定とすることもできる。   Further, in an environment such as a factory where the programmable display 1 is used, since a mask and a hat are worn, the mouth, nose, and ears are often hidden. Therefore, even if the mouth, nose, and ear are detected, the front index of those facial parts can be set not to be used.

次に、検出部品の位置関係による判定について、図7ないし図11に基づいて説明する。当該判定は、前述の顔の部品検出による判定では判別できない、真正面からの左右への顔の傾き度合いを検出でき、より精確に正面顔であるか否かの判定が可能となる。   Next, the determination based on the positional relationship of the detection components will be described with reference to FIGS. This determination can detect the degree of inclination of the face from right to left, which cannot be determined by the above-described determination based on face component detection, and enables more accurate determination of whether or not the face is a front face.

顔検出部92bの正面顔画像の検出機能は、具体的には図7に示す顔検出部110として構成される。この顔検出部110は、顔部品検出部111、傾斜度算出部112および正面判定部113を有している。   The front face image detection function of the face detection unit 92b is specifically configured as the face detection unit 110 shown in FIG. The face detection unit 110 includes a face part detection unit 111, an inclination calculation unit 112, and a front determination unit 113.

顔部品検出部111は、前述のように公知の手法を用いて顔の各部品(目、鼻、口、眉、耳、輪郭など)を検出する。   The face part detection unit 111 detects each part of the face (eyes, nose, mouth, eyebrows, ears, contours, etc.) using a known method as described above.

傾斜度算出部112は、顔の各部品が検出されたか否かを判定し、検出された顔部品の組み合わせにおける相対位置から、後述する傾斜度を算出する。傾斜度算出部112による傾斜度の算出方法については、後に図9ないし図11を参照して詳しく説明する。   The inclination calculation unit 112 determines whether or not each part of the face has been detected, and calculates an inclination described later from the relative position in the detected combination of face parts. A method of calculating the inclination by the inclination calculation unit 112 will be described in detail later with reference to FIGS. 9 to 11.

正面判定部113は、正面指数テーブル114を参照し、傾斜度算出部112によって算出された傾斜度が検出基準範囲内にあるときの正面指数が正面顔判定基準(前述の判定確度)を満たしているか否かで顔が正面であるか否か判定する。正面判定部113による正面顔の判定については、後に図8示すフローチャートを参照して詳しく説明する。   The front determination unit 113 refers to the front index table 114, and the front index when the inclination calculated by the inclination calculation unit 112 is within the detection reference range satisfies the front face determination criterion (the aforementioned determination accuracy). Whether or not the face is the front is determined by whether or not it is present. The front face determination by the front determination unit 113 will be described in detail later with reference to the flowchart shown in FIG.

正面指数テーブル114は、表2に示すように、相対位置を算出する2種類の顔部品と、傾斜度と、検出基準と、正面指数と、使用/未使用とを対応付けて設定している。この正面指数テーブル114は、例えば、プログラマブル表示器1では、作業メモリ7に展開されている。   As shown in Table 2, the front index table 114 sets two types of face parts for calculating a relative position, an inclination, a detection reference, a front index, and used / unused in association with each other. . For example, in the programmable display 1, the front index table 114 is developed in the work memory 7.

Figure 2008112222
Figure 2008112222

傾斜度は、真正面からの左右への顔の傾き度合いを示す数値であり、具体的な算出方法は後述する。   The degree of inclination is a numerical value indicating the degree of inclination of the face from the front to the left and right, and a specific calculation method will be described later.

検出基準は、顔の各部品の組み合わせを検出したか否かの判定基準であり、例えば、眉と鼻の検出は、後述する計算式によって算出された傾斜度Sbnが±10%以内である場合は、眉と鼻の検出が行われたと判定し、傾斜度Sbnが−10%に満たないかプラス10%を超えている場合は、眉と鼻の検出が行われたとは判定しない。   The detection criterion is a criterion for determining whether or not a combination of each part of the face has been detected. For example, the detection of eyebrows and nose is performed when the slope Sbn calculated by the calculation formula described later is within ± 10%. Determines that eyebrows and nose have been detected, and does not determine that eyebrows and nose have been detected if the slope Sbn is less than −10% or exceeds 10%.

正面指数は、検出された顔部品の組み合わせの正面顔判定基準に対する重みを数値化したものである。   The front index is a numerical value of the weight of the detected combination of face parts for the front face determination criterion.

使用/未使用は、検出された顔部品の正面指数を正面顔判定に使用するか否かを示している。   Use / unused indicates whether or not the front index of the detected face part is used for front face determination.

ここで、検出部品の位置関係による判定の判定手順を図8に基づいて説明する。   Here, the determination procedure based on the positional relationship of the detection components will be described with reference to FIG.

図8は、検出部品の位置関係による判定のフローチャートである。まず、前述の顔の部品検出による判定における場合と同様に、顔部品検出部111は、顔の各部品(目、鼻、口、眉、耳、輪郭)を検出する(ステップS21)。続いて、傾斜度算出部112は、検出された部品の各組み合わせについて傾斜度を算出する(ステップS22)。続いて、正面顔判定部113は、正面指数テーブル114で使用と設定された顔部品の組み合わせについての傾斜度が検出基準を満たすか否かを判定する(ステップS23)。正面顔判定部113は、検出基準を満たす組み合わせがある場合は(ステップS23において「YES」)、さらに使用する正面指数があらかじめ設定された正面顔判定基準を満たしているか否かを判定する(ステップS24)。正面顔判定部113は、正面指数が正面顔判定基準を満たした場合は(ステップS24において「YES」)、正面顔であると判定し(ステップS25)、正面指数が正面顔判定基準を満たさない場合は(ステップS24において「NO」)、さらに、使用する正面指数の合計を算出する(ステップS26)。   FIG. 8 is a flowchart of determination based on the positional relationship of detection components. First, as in the case of the above-described determination by facial component detection, the facial component detection unit 111 detects facial components (eyes, nose, mouth, eyebrows, ears, contours) (step S21). Subsequently, the inclination calculating unit 112 calculates the inclination for each combination of detected components (step S22). Subsequently, the front face determination unit 113 determines whether or not the inclination of the combination of face parts set to be used in the front index table 114 satisfies the detection criterion (step S23). If there is a combination that satisfies the detection criterion (“YES” in step S23), the front face determination unit 113 further determines whether or not the front index to be used satisfies a preset front face determination criterion (step S23). S24). If the front index satisfies the front face determination criterion (“YES” in step S24), the front face determination unit 113 determines that it is a front face (step S25), and the front index does not satisfy the front face determination criterion. In the case (“NO” in step S24), the sum of the front index to be used is further calculated (step S26).

そして、正面顔判定部113は、正面指数の合計値が正面顔判定基準を満たしているか否かを判定し(ステップS27)、正面顔判定基準を満たした場合は(ステップS27において「YES」)、正面顔であると判定し(ステップS25)、正面指数の合計値が正面顔判定基準を満たさない場合は(ステップS27において「NO」)、正面顔でないと判定する(ステップS28)。また、正面顔判定部113は、ステップS27において、検出基準を満たす組み合わせがない場合も(「NO」)、正面顔でないと判定する(ステップS28)。   Then, the front face determination unit 113 determines whether or not the total value of the front index satisfies the front face determination criterion (step S27), and when the front face determination criterion is satisfied (“YES” in step S27). If the total value of the front index does not satisfy the front face determination criterion (“NO” in step S27), it is determined that the face is not a front face (step S28). Also, the front face determination unit 113 determines that the face is not a front face even if there is no combination that satisfies the detection criterion in Step S27 ("NO") (Step S28).

最後に、顔検出部110は、次の顔画像について正面顔の検出処理を行うか否かを判定し(ステップS29)、検出処理を行う場合は処理をステップS21に戻し、検出処理を行わない場合はそのまま処理を終える。   Finally, the face detection unit 110 determines whether or not to perform the front face detection process for the next face image (step S29). If the detection process is performed, the process returns to step S21, and the detection process is not performed. If this is the case, the process ends.

なお、判定基準値は任意に設定され、判定基準値が高いほど、顔がより真正面に近い方向に向いていないと正面顔であると判定されない。また、プログラマブル表示器2が用いられる工場などの環境では、マスクや帽子を着用することにより、口や鼻は隠されることが多い。この場合は、眉と鼻、眉と口、輪郭と鼻および輪郭と口の各組み合わせにおける正面率の算出は行わない設定とすることもできる。   Note that the determination reference value is arbitrarily set. As the determination reference value is higher, the face is not determined to be a front face unless the face is directed in a direction closer to the front. In an environment such as a factory where the programmable display 2 is used, the mouth and nose are often hidden by wearing a mask or a hat. In this case, it may be set so that the front ratio is not calculated for each combination of eyebrows and nose, eyebrows and mouth, contour and nose, and contour and mouth.

続いて、傾斜度算出部112が行う傾斜度の算出方法について、図9ないし図11に基づいて具体的に説明する。   Subsequently, a method of calculating the inclination performed by the inclination calculating unit 112 will be specifically described with reference to FIGS. 9 to 11.

図9は、真正面の顔を示しており、以下の説明では両眼の中心を結ぶ直線に沿った方向を水平方向、両眼の中心を結ぶ直線の垂線に沿った方向を垂直方向とする。ここで、目と鼻との組み合わせについて傾斜度Senを算出する。まず、右目の中心から垂直方向に伸びる直線をLe1、左目の中心から垂直方向に伸びる直線をLe2とする。同様に、鼻の中心から垂直方向に伸びる直線をLnとする。ここで、直線Le1と直線Lnとの距離をDen1、直線Le2と直線Lnとの距離をDen2とすると、傾斜度Senは、
Sen=((Den2−Den1)/(Den1+Den2))×100
と算出される。顔が真正面の場合Den1=Den2であるので、傾斜度Sen=0(%)となる。
FIG. 9 shows a face directly in front. In the following description, a direction along a straight line connecting the centers of both eyes is a horizontal direction, and a direction along a straight line connecting the centers of both eyes is a vertical direction. Here, the slope Sen is calculated for the combination of eyes and nose. First, let Le1 be a straight line extending in the vertical direction from the center of the right eye, and let Le2 be a straight line extending in the vertical direction from the center of the left eye. Similarly, let Ln be a straight line extending in the vertical direction from the center of the nose. Here, when the distance between the straight line Le1 and the straight line Ln is Den1, and the distance between the straight line Le2 and the straight line Ln is Den2, the slope Sen is
Sen = ((Den2-Den1) / (Den1 + Den2)) × 100
Is calculated. Since Den1 = Den2 when the face is in front, the slope Sen = 0 (%).

図10(a)は、若干右を向いた顔を示しており、図10(b)は、若干左を向いた顔を示している。なお、図10(a)および(b)ともに、目、鼻、眉などが検出できるので、前述の顔の部品検出による判定では、正面の顔と判定される。ここで、図9の真正面の顔の場合と同様に、直線Le1・Le2・Lnおよび距離Den1・Den2を設定する。顔が右向きの場合(図10(a))Den1<Den2となるので、傾斜度Sen>0(%)となり、顔が左向きの場合(図10(b))Den1>Den2となるので、傾斜度Sen<0(%)となる。なお、顔が右に向くほど傾斜度Senは100(%)に近づき、顔が左に向くほど傾斜度Senは−100(%)に近づく。すなわち、傾斜度Senは、目と鼻の相対位置の、真正面顔における目と鼻の相対位置からのずれを示している。   FIG. 10A shows a face slightly facing right, and FIG. 10B shows a face slightly facing left. In FIGS. 10A and 10B, eyes, nose, eyebrows, and the like can be detected. Therefore, in the determination based on the above-described face component detection, a front face is determined. Here, the straight lines Le1, Le2, and Ln and the distances Den1 and Den2 are set as in the case of the face in front of FIG. When the face is facing right (FIG. 10 (a)), Den1 <Den2, and therefore, the slope Sen> 0 (%), and when the face is facing left (FIG. 10 (b)), Den1> Den2, so the slope is Sen <0 (%). The inclination Sen approaches 100 (%) as the face turns to the right, and the inclination Sen approaches -100 (%) as the face turns to the left. That is, the slope Sen indicates the deviation of the relative position between the eyes and the nose from the relative position between the eyes and the nose in the true front face.

さらに、目と鼻以外に、眉と鼻、眉と口、目と口、鼻と輪郭、眉と輪郭、目と輪郭および口と輪郭の各組み合わせについても、傾斜度を算出する。   In addition to the eyes and nose, the inclination is also calculated for each combination of eyebrows and nose, eyebrows and mouth, eyes and mouth, nose and contour, eyebrows and contour, eyes and contour, and mouth and contour.

例えば、鼻と輪郭との組み合わせにおける傾斜度Snoは、図9において、鼻の中央部と顔の右側の輪郭との水平方向の距離をDno1、鼻の中央部と顔の左側の輪郭との水平方向の距離をDno2とすると、傾斜度Snoは、
Sno=((Dno1−Dno2)/(Dno1+Dno2))×100
と算出される。図9では、Dno1=Dno2であるので、Fno=0(%)となる。一方、顔が右向きの場合はDno1<Dno2となるので、Sno>0(%)となり、顔が左向きの場合はDno1>Dno2となるので、Sno<0(%)となる。なお、顔が右に向くほどSenは100(%)に近づき、顔が左に向くほどSenは−100(%)に近づく。
For example, in FIG. 9, the slope Sno in the combination of the nose and the contour is the horizontal distance between the center of the nose and the contour of the right side of the face in the horizontal direction Dno1, and the horizontal distance between the center of the nose and the contour of the left of the face If the distance in the direction is Dno2, the slope Sno is
Sno = ((Dno1-Dno2) / (Dno1 + Dno2)) × 100
Is calculated. In FIG. 9, since Dno1 = Dno2, Fno = 0 (%). On the other hand, when the face is facing right, Dno1 <Dno2 and Sno> 0 (%), and when the face is facing left, Dno1> Dno2 and Sno <0 (%). Note that Sen approaches 100 (%) as the face turns to the right, and Sen approaches -100 (%) as the face turns to the left.

同様に、目と輪郭との組み合わせにおける傾斜度Seoは、図9において、右目の中央と顔の右側の輪郭との水平方向の距離をDeo1、左目の中央と顔の左側の輪郭との水平方向の距離をDeo2とすると、傾斜度Seoは、
Seo=((Deo1−Deo2)/(Deo1+Deo2))×100
と算出される。
Similarly, in FIG. 9, the inclination Seo in the combination of the eyes and the contours is represented by the horizontal distance between the center of the right eye and the contour of the right side of the face as Deo1, and the horizontal direction between the center of the left eye and the contour of the left side of the face. If the distance is Deo2, the slope Seo is
Seo = ((Deo1-Deo2) / (Deo1 + Deo2)) × 100
Is calculated.

さらに、他の部品の組み合わせにおける傾斜度の算出方法を、図11に基づいて説明する。図11に示す顔と図9に示す顔は同一であり、図11において図9と同様に、直線Le1・Le2・Lnを設定する。さらに、右の眉の内側の端から垂直方向に伸びる直線をLb1、左の眉の内側の端から垂直方向に伸びる直線をLb2、口の中央部から垂直方向に伸びる直線をLmと設定する。なお、図11においては、直線Lnと直線Lmとは同一の直線である。   Further, a method for calculating the inclination in the combination of other components will be described with reference to FIG. The face shown in FIG. 11 and the face shown in FIG. 9 are the same. In FIG. 11, straight lines Le1, Le2, and Ln are set in the same manner as in FIG. Further, a straight line extending in the vertical direction from the inner end of the right eyebrow is set as Lb1, a straight line extending in the vertical direction from the inner end of the left eyebrow is set as Lb2, and a straight line extending in the vertical direction from the center of the mouth is set as Lm. In FIG. 11, the straight line Ln and the straight line Lm are the same straight line.

まず、眉と鼻との組み合わせにおける傾斜度Sbnは、直線Lb1と直線Lnとの水平方向の距離をDbn1、直線Lb2と直線Lnとの水平方向の距離をDbn2とすると、傾斜度Sbnは、
Sbn=((Dbn1−Dbn2)/(Dbn1+Dbn2))×100
と算出される。
First, the slope Sbn in the combination of the eyebrows and the nose is given by assuming that the horizontal distance between the straight line Lb1 and the straight line Ln is Dbn1, and the horizontal distance between the straight line Lb2 and the straight line Ln is Dbn2.
Sbn = ((Dbn1−Dbn2) / (Dbn1 + Dbn2)) × 100
Is calculated.

眉と口との組み合わせにおける傾斜度Sbmは、直線Lb1と直線Lmとの水平方向の距離をDbm1、直線Lb2と直線Lmとの水平方向の距離をDbm2とすると、傾斜度Sbmは、
Sbm=((Dbm1−Dbm2)/(Dbm1+Dbm2))×100
と算出される。なお、図11においては、Dbn1=Dbm1、Dbn2=Dbm2となっている。
The inclination Sbm in the combination of the eyebrows and the mouth is expressed as follows. When the horizontal distance between the straight line Lb1 and the straight line Lm is Dbm1, and the horizontal distance between the straight line Lb2 and the straight line Lm is Dbm2, the inclination Sbm is
Sbm = ((Dbm1−Dbm2) / (Dbm1 + Dbm2)) × 100
Is calculated. In FIG. 11, Dbn1 = Dbm1 and Dbn2 = Dbm2.

目と口との組み合わせにおける傾斜度Semは、直線Le1と直線Lmとの水平方向の距離をDem1、直線Le2と直線Lmとの水平方向の距離をDem2とすると、傾斜度Semは、
Sem=((Dem1−Dem2)/(Dem1+Dem2))×100
と算出される。
The slope Sem in the combination of the eyes and the mouth is expressed as follows. When the horizontal distance between the straight line Le1 and the straight line Lm is Dem1, and the horizontal distance between the straight line Le2 and the straight line Lm is Dem2, the slope Sem is
Sem = ((Dem1−Dem2) / (Dem1 + Dem2)) × 100
Is calculated.

眉と輪郭との組み合わせにおける傾斜度Sboは、右の眉の内側の端と右側の輪郭との水平方向の距離をDbo1、左の眉の内側の端と左側の輪郭との水平方向の距離をDbo2とすると、傾斜度Sboは、
Sbo=((Dbo1−Dbo2)/(Dbo1+Dbo2))×100
と算出される。
The inclination Sbo in the combination of the eyebrow and the contour is the horizontal distance between the inner edge of the right eyebrow and the right contour Dbo1, and the horizontal distance between the inner edge of the left eyebrow and the left contour. Assuming Dbo2, the slope Sbo is
Sbo = ((Dbo1-Dbo2) / (Dbo1 + Dbo2)) × 100
Is calculated.

口と輪郭との組み合わせにおける傾斜度Smoは、口の中央部と右側の輪郭との水平方向の距離をDmo1、口の中央部と左側の輪郭との水平方向の距離をDmo2とすると、傾斜度Smoは、
Smo=((Dmo1−Dmo2)/(Dmo1+Dmo2))×100
と算出される。
The slope Smo in the combination of the mouth and the contour is the slope when the horizontal distance between the mouth center and the right contour is Dmo1, and the horizontal distance between the mouth center and the left contour is Dmo2. Smo is
Smo = ((Dmo1-Dmo2) / (Dmo1 + Dmo2)) × 100
Is calculated.

以上のように、本実施の形態のプログラマブル表示器1は、所定のスイッチ操作などによって顔ログ処理の実行が指示されると、顔ログ処理部9の顔検出部92bが、操作者がプログラマブル表示器1の操作時にディスプレイ2に対して正面を向いた状態でカメラ15によって撮影された操作者の画像から、検出確度が所定値以上と判定した画像において顔を検出する。これにより、プログラマブル表示器1のディスプレイ2に対して正面を向いた操作者の顔が検出されて、顔ロギング部92cによって、操作関連情報と対応付けて顔ログファイル95に保存される。それゆえ、プログラマブル表示器1に対して特定の操作を行った操作者の正面顔画像を保存することができる。また、入力画像から正面顔画像を切り出して顔画像データベース98に保存するので、保存する画像サイズを小さくすることができる。この結果、メモリにおける顔画像データベース98による使用領域が縮小されるので、メモリを有効的に利用することができる。   As described above, when the execution of face log processing is instructed by a predetermined switch operation or the like, the programmable display device 1 of the present embodiment displays the face detection unit 92b of the face log processing unit 9 in a programmable display by the operator. A face is detected in an image of which the detection accuracy is determined to be a predetermined value or more from an image of an operator photographed by the camera 15 while facing the display 2 when the device 1 is operated. As a result, the face of the operator facing the front with respect to the display 2 of the programmable display 1 is detected and stored in the face log file 95 in association with the operation related information by the face logging unit 92c. Therefore, the front face image of the operator who performed a specific operation on the programmable display 1 can be stored. Further, since the front face image is cut out from the input image and saved in the face image database 98, the size of the saved image can be reduced. As a result, the area used by the face image database 98 in the memory is reduced, so that the memory can be used effectively.

第三者に認知された者がプログラマブル表示器1を操作することを前提とすれば、顔画像が保存されることにより、誰がプログラマブル表示器1を操作したかを特定することができる。例えば、図2に示すように、プログラマブル表示器1に対して、誰が、いつログインして、どのような操作を行い、いつログアウトしたかがわかり、その間に生じたエラーが、その操作者の操作によることがほぼ特定できる。   If it is assumed that a person recognized by a third party operates the programmable display 1, it is possible to specify who operated the programmable display 1 by storing the face image. For example, as shown in FIG. 2, it is possible to know who logged in, what operation was performed, and when the user logged out with respect to the programmable display 1, and an error that occurred during that time is an operation of the operator. Can be almost specified.

このために、保存された顔画像から第三者が人物を特定しやすいように、プログラマブル表示器1では、操作者がプログラマブル表示器1の操作時にディスプレイ2に対して正面を向いた状態でカメラ15によって撮影されるようにしている。また、部外者がプログラマブル表示器1を操作した場合は、そのことが保存された顔画像から特定できる。これにより、部外者がプログラマブル表示器1を操作できないような対策をとることができる。   For this reason, in the programmable display device 1, the camera is displayed with the operator facing the display 2 when operating the programmable display device 1 so that a third party can easily identify a person from the stored face image. 15 is taken. Moreover, when an outsider operates the programmable display 1, it can identify from the preserve | saved face image. Thereby, it is possible to take measures to prevent outsiders from operating the programmable display 1.

このように、プログラマブル表示器1は、特許文献2に記載されているような個人認証を必要としないので、予めプログラマブル表示器1を操作する担当者の顔画像の特徴を登録する必要もない。したがって、容易かつ手間をかけずに、操作者の顔画像を操作者による操作の履歴とともに保存することができる。しかも、操作者は、自身の顔画像が記録されるので、操作を慎重にしようと心掛けるようになり、その結果、誤操作の発生が抑制されるという効果も期待できる。   Thus, since the programmable display 1 does not require personal authentication as described in Patent Document 2, it is not necessary to register the feature of the face image of the person in charge who operates the programmable display 1 in advance. Therefore, the operator's face image can be saved together with the history of operations performed by the operator, easily and without any effort. In addition, since the operator's own face image is recorded, he / she tries to be careful with the operation, and as a result, the effect of suppressing the occurrence of an erroneous operation can be expected.

また、撮影されていることを知っている不審者が顔を撮影されないような不自然な姿勢でプログラマブル表示器1を操作しようとすると、顔検出部92bは当該不審者の撮影画像から正しく顔を検出することができずに、不審者の顔画像を保存できない。このような不審者対策については、顔検出部92bによって、所定の検出確度未満の入力画像からも保存する部分画像を切り出して顔画像データベース98に格納しておき、当該部分画像と検出された顔画像とを別にログするというロギング条件を設定しておく。これにより、顔が検出できなかった部分画像をまとめて表示することができ、不審者の存在を確認することが可能となる。   Further, when the suspicious person who knows that the photograph is taken tries to operate the programmable display device 1 in an unnatural posture so that the face is not photographed, the face detection unit 92b correctly displays the face from the photographed image of the suspicious person. The face image of the suspicious person cannot be saved without being detected. For such suspicious person countermeasures, the face detection unit 92b cuts out a partial image to be saved from an input image with a predetermined detection accuracy and stores it in the face image database 98, and detects the partial image and the detected face. Set logging conditions to log images separately. As a result, it is possible to collectively display the partial images for which the face could not be detected, and to confirm the presence of the suspicious person.

このような不審者対策は、高いセキュリティが要求される装置、例えばATM(Automated Teller Machine)に対して有効である。これにより、例えば、顔を隠して操作したり、顔を背けて操作したりする不審者の画像を保存することができる。   Such suspicious person countermeasures are effective for devices requiring high security, for example, ATM (Automated Teller Machine). Thereby, for example, it is possible to save an image of a suspicious person who operates while hiding his face or operating his face away.

また、本実施の形態では、顔検出部92bによって正しく顔が検出されなかった場合、スイッチ操作はそのまま有効になるが、スイッチ操作を無効にするようにしてもよい。これを実現するには、顔検出部92bが顔検出に失敗したことをHMI処理部8に通知し、HMI処理部8がその通知に対して、顔ログを実行させるイベントとなったスイッチ操作を無効とする。これにより、正しく顔画像が検出されないとスイッチ操作が無効となるので、重要な操作など、操作者を特定する必要がある場合に、HMI処理部8が例えばプログラマブル表示器1に正面を向けて操作するようなメッセージを表示することにより、操作者にスイッチ操作のやり直しを促すことができる。ただし、この場合、前述の顔検出間隔や検出最大時間が長く設定されると、操作者がスイッチ操作してからその操作が有効か無効かが判明するまでに時間がかかり、操作性の低下を招くことになるので、顔検出間隔や検出最大時間を長く設定できないような制限を設けてもよい。   In the present embodiment, when the face is not correctly detected by the face detection unit 92b, the switch operation is enabled as it is, but the switch operation may be disabled. In order to realize this, the face detection unit 92b notifies the HMI processing unit 8 that the face detection has failed, and the HMI processing unit 8 responds to the notification by performing a switch operation that is an event for executing the face log. Invalid. As a result, if the face image is not correctly detected, the switch operation is invalidated. Therefore, when it is necessary to specify the operator, such as an important operation, the HMI processing unit 8 is operated with the front facing the programmable display 1, for example. By displaying such a message, it is possible to prompt the operator to redo the switch operation. However, in this case, if the aforementioned face detection interval or maximum detection time is set long, it takes time until the operator determines whether the operation is valid or invalid after the switch operation, and the operability is reduced. Therefore, a restriction may be provided so that the face detection interval and the maximum detection time cannot be set long.

なお、本実施の形態では、操作表示装置としてプログラマブル表示器1について説明したが、本発明は表示された画面上で操作入力を受け入れることができる装置であれば、プログラマブル表示器1に限定されない。例えば、操作表示装置は、パネルコンピュータや操作パネルは勿論、上記のATMのような装置であってもよい。   In addition, in this Embodiment, although the programmable display 1 was demonstrated as an operation display apparatus, this invention is not limited to the programmable display 1 if it is an apparatus which can accept the operation input on the displayed screen. For example, the operation display device may be a device such as the above ATM as well as a panel computer or an operation panel.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims. That is, embodiments obtained by combining technical means appropriately changed within the scope of the claims are also included in the technical scope of the present invention.

本発明の操作表示装置は、撮影された操作者の画像から顔を検出して保存し、必要に応じて表示することにより、操作者を知る者であれば、操作者を特定することができことから、容易かつ手間をかけずに、操作者の顔画像を操作履歴情報とともに保存することができるので、操作表示装置のエラー対策などに好適に利用できる。   The operation display device of the present invention can identify an operator as long as he / she knows the operator by detecting and storing the face from the photographed operator's image and displaying it as necessary. Therefore, since the face image of the operator can be saved together with the operation history information easily and without taking time and effort, it can be suitably used for error countermeasures of the operation display device.

本発明の実施形態に係るプログラマブル表示器およびエディタコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of the programmable display and editor computer which concern on embodiment of this invention. 上記プログラマブル表示器における顔ログ処理部の顔検出部による操作者の顔を検出する動作を示す図である。It is a figure which shows the operation | movement which detects the operator's face by the face detection part of the face log process part in the said programmable display. 上記プログラマブル表示器における顔ログ処理部によってログされた操作者の顔を含む、ログ実行部によって表示される顔ログウインドウを示す図である。It is a figure which shows the face log window displayed by the log execution part containing the operator's face logged by the face log process part in the said programmable display. 上記プログラマブル表示器による操作者の顔画像のログ処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the log process of the operator's face image by the said programmable display. ログされた操作者の顔画像の上記プログラマブル表示器による表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the display process by the said programmable display of the logged operator's face image. 前記顔ログ実行部における顔検出部による正面顔画像を検出機能の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the front face image detection function by the face detection part in the said face log execution part. 前記顔ログ実行部における顔検出部による正面顔画像を検出機能の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the front face image detection function by the face detection part in the said face log execution part. 図7の構成の顔検出部による正面顔の判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the determination process of the front face by the face detection part of the structure of FIG. 図7の顔検出部により検出される真正面を向いた顔画像を示す図である。It is a figure which shows the face image which faced the front detected by the face detection part of FIG. (a)は図7の顔検出部により検出される若干右を向いた顔画像を示す図であり、(b)は図7の顔検出部により検出される若干左を向いた顔画像を示す図である。(A) is a diagram showing a face image slightly facing right detected by the face detection unit of FIG. 7, and (b) is a face image slightly facing left detected by the face detection unit of FIG. FIG. 図7の顔検出部により検出される真正面を向いた他の顔画像を示す図である。It is a figure which shows the other face image which faced the front detected by the face detection part of FIG.

符号の説明Explanation of symbols

1 プログラマブル表示器(操作表示装置)
2 ディスプレイ
3 タッチパネル
8 HMI処理部
92 顔ログ実行部
92b 顔検出部(正面画像判定手段,顔画像保存手段)
92c 顔ロギング部(履歴情報保存手段)
95 顔ログファイル(第2の保存領域)
96 ログ表示実行部(履歴情表示存手段)
98 顔画像データベース(第1の保存領域)
100 顔検出部(正面画像判定手段)
110 顔検出部(正面画像判定手段)
111 顔部品検出部(顔部品検出手段)
112 傾斜度算出部(傾斜度算出手段)
113 正面度判定部(正面判定手段)
201 顔ログ表示ウインドウ
1 Programmable display (operation display device)
2 Display 3 Touch Panel 8 HMI Processing Unit 92 Face Log Execution Unit 92b Face Detection Unit (Front Image Determination Unit, Face Image Storage Unit)
92c face logging unit (history information storage means)
95 Face log file (second storage area)
96 Log display execution part (history information display means)
98 face image database (first storage area)
100 face detection unit (front image determination means)
110 Face detection unit (front image determination means)
111 Facial component detection unit (facial component detection means)
112 Inclination degree calculation part (Inclination degree calculating means)
113 Front degree determination unit (front determination means)
201 Face log display window

Claims (8)

操作内容を示す画面上での操作者による操作を受け入れるとともに、撮影された操作者の画像を当該操作者による所定操作の履歴情報と対応付けて保存する操作表示装置において、
操作者による所定操作を契機に、撮影された操作者の画像が操作表示装置の操作面に対して正面を向いた正面顔画像を含むか否かを判定する正面画像判定手段と、
前記画像が前記正面顔画像を含むと判定されると、前記画像から前記正面顔画像の部分を切り出して第1の保存領域に保存する顔画像保存手段と、
前記履歴情報を基に前記正面顔画像を読み出し可能となるように、前記正面顔画像と関連付けた状態で前記履歴情報を第2の保存領域に保存する履歴情報保存手段とを備えていることを特徴とする操作表示装置。
In the operation display device that accepts an operation by the operator on the screen showing the operation content, and stores the captured image of the operator in association with the history information of the predetermined operation by the operator,
Front image determination means for determining whether or not a photographed image of the operator includes a front face image facing the front with respect to the operation surface of the operation display device in response to a predetermined operation by the operator;
When it is determined that the image includes the front face image, face image storage means for cutting out a portion of the front face image from the image and storing it in a first storage area;
History information storage means for storing the history information in a second storage area in a state associated with the front face image so that the front face image can be read based on the history information. A characteristic operation display device.
前記第1の保存領域に保存された前記正面顔画像を、前記第2の保存領域から読み出した前記履歴情報を基に読み出して、当該履歴情報と併せて表示する履歴情報表示手段を備えていることを特徴とする請求項1に記載の操作表示装置。   There is provided history information display means for reading the front face image stored in the first storage area based on the history information read from the second storage area and displaying it together with the history information. The operation display device according to claim 1. 前記正面画像判定手段は、予め設定された期間に連続して撮影された操作者の画像のうち、前記所定操作の前後における所定期間に撮影された操作者の画像について、前記正面顔画像を含むか否かを判定することを特徴とする請求項1または2に記載の操作表示装置。   The front image determination unit includes the front face image of an operator image captured during a predetermined period before and after the predetermined operation among operator images continuously captured during a preset period. The operation display device according to claim 1, wherein the operation display device determines whether or not. 前記正面画像判定手段は、前記画像から、目、鼻、口、眉および耳のうち、所定の顔部品が検出される場合に、前記画像が前記正面顔画像を含むと判定することを特徴とする請求項1ないし3のいずれか1項に記載の操作表示装置。   The front image determination unit determines that the image includes the front face image when a predetermined facial part is detected from the image among eyes, nose, mouth, eyebrows, and ears. The operation display device according to any one of claims 1 to 3. 前記正面画像判定手段は、前記画像から、目、鼻、口、眉および輪郭のうち2つ以上の顔部品を検出する顔部品検出手段と、
検出された顔部品のうち、2つの顔部品の組み合わせにおいて、各組み合わせの顔部品同士の相対位置の、真正面顔における当該顔部品同士の相対位置からのずれを示す傾斜度を算出する傾斜度算出手段と、
選択された当該組み合わせのうち少なくとも1つの組み合わせの前記傾斜度が所定の範囲内にあり、当該組み合わせに対してあらかじめ設定されている正面指数が基準値以上であるときに、前記画像が前記正面顔画像を含むと判定する正面顔判定手段とを有することを特徴とする請求項1ないし3のいずれか1項に記載の操作表示装置。
The front image determination means includes a face part detection means for detecting two or more face parts among eyes, nose, mouth, eyebrows and contours from the image;
Of the detected face parts, in the combination of two face parts, the slope calculation for calculating the slope indicating the deviation of the relative positions of the face parts of each combination from the relative positions of the face parts in the frontal face. Means,
When the slope of at least one of the selected combinations is within a predetermined range, and the front index set in advance for the combination is greater than or equal to a reference value, the image is the front face The operation display device according to any one of claims 1 to 3, further comprising a front face determination unit that determines that an image is included.
前記正面顔判定手段は、選択された前記組み合わせのうちいずれの組み合わせの正面指数も前記基準値未満であるとき、選択された各組み合わせの正面指数を合計し、当該合計値が前記基準値以上であれば、前記画像が正面顔画像を含むと判定することを特徴とする請求項5に記載の操作表示装置。   When the front index of any combination among the selected combinations is less than the reference value, the front face determination unit sums up the front indexes of each selected combination, and the total value is equal to or greater than the reference value. 6. The operation display device according to claim 5, wherein if there is, it is determined that the image includes a front face image. 請求項1ないし6のいずれか1項に記載の操作表示装置を動作させるための操作表示プログラムであって、コンピュータを前記各手段として機能させるための操作表示プログラム。   An operation display program for operating the operation display device according to any one of claims 1 to 6, wherein the operation display program causes a computer to function as each means. 請求項7に記載の操作表示プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the operation display program according to claim 7 is recorded.
JP2006293345A 2006-10-27 2006-10-27 Operation display device, operation display program, and recording medium recording the same Active JP4778394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006293345A JP4778394B2 (en) 2006-10-27 2006-10-27 Operation display device, operation display program, and recording medium recording the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006293345A JP4778394B2 (en) 2006-10-27 2006-10-27 Operation display device, operation display program, and recording medium recording the same

Publications (3)

Publication Number Publication Date
JP2008112222A true JP2008112222A (en) 2008-05-15
JP2008112222A5 JP2008112222A5 (en) 2008-12-25
JP4778394B2 JP4778394B2 (en) 2011-09-21

Family

ID=39444724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006293345A Active JP4778394B2 (en) 2006-10-27 2006-10-27 Operation display device, operation display program, and recording medium recording the same

Country Status (1)

Country Link
JP (1) JP4778394B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090446A (en) * 2009-10-21 2011-05-06 Yamato Scale Co Ltd Production line constitution device
EP2833292A1 (en) 2013-07-29 2015-02-04 Omron Corporation Programmable display apparatus, control method, and program
EP2833291A1 (en) 2013-07-29 2015-02-04 Omron Corporation Programmable display apparatus, control method, and program
EP2833289A1 (en) 2013-07-29 2015-02-04 Omron Corporation Programmable display apparatus, control method, and program
US9946342B2 (en) 2014-02-13 2018-04-17 Omron Corporation Programmable display device, portable terminal device, data processing method, and program
JP2019201253A (en) * 2018-05-14 2019-11-21 株式会社エル・シーアプライアンス Traceability support system using monitoring images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171515A (en) * 2000-11-30 2002-06-14 Digital Electronics Corp Operation history device
JP2003046911A (en) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd Monitoring recording system and method therefor
JP2006277192A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Image display system
JP2006277209A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Message transfer device
JP2006293979A (en) * 2005-03-18 2006-10-26 Advanced Telecommunication Research Institute International Content providing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171515A (en) * 2000-11-30 2002-06-14 Digital Electronics Corp Operation history device
JP2003046911A (en) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd Monitoring recording system and method therefor
JP2006293979A (en) * 2005-03-18 2006-10-26 Advanced Telecommunication Research Institute International Content providing system
JP2006277192A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Image display system
JP2006277209A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Message transfer device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090446A (en) * 2009-10-21 2011-05-06 Yamato Scale Co Ltd Production line constitution device
EP2833292A1 (en) 2013-07-29 2015-02-04 Omron Corporation Programmable display apparatus, control method, and program
EP2833291A1 (en) 2013-07-29 2015-02-04 Omron Corporation Programmable display apparatus, control method, and program
EP2833289A1 (en) 2013-07-29 2015-02-04 Omron Corporation Programmable display apparatus, control method, and program
JP2015026317A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, control method, and program
US9553874B2 (en) 2013-07-29 2017-01-24 Omron Corporation Programmable display apparatus, control method, and program with facial authentication
US9754094B2 (en) 2013-07-29 2017-09-05 Omron Corporation Programmable display apparatus, control method, and program
US9946342B2 (en) 2014-02-13 2018-04-17 Omron Corporation Programmable display device, portable terminal device, data processing method, and program
JP2019201253A (en) * 2018-05-14 2019-11-21 株式会社エル・シーアプライアンス Traceability support system using monitoring images

Also Published As

Publication number Publication date
JP4778394B2 (en) 2011-09-21

Similar Documents

Publication Publication Date Title
JP4778394B2 (en) Operation display device, operation display program, and recording medium recording the same
EP2919103B1 (en) Information processing device, information processing method and computer-readable recording medium
US20240161645A1 (en) Digital companion for perceptually enabled task guidance
JP5319260B2 (en) Work monitoring device
JP2009169768A (en) Information processor and program
TW201619915A (en) Mobile device, operating method, and non-transitory computer readable storage medium for storing operating method
JP7279646B2 (en) Information processing device, information processing method and program
JP2008152581A (en) Apparatus for creating interface of facial recognition system, user interface creating program, and recording medium with it recorded thereon
JP2008152581A5 (en)
JP2008287691A (en) Information processing device and program
KR20210110068A (en) Method for editing video based on gesture recognition and electronic device supporting the same
US20240127564A1 (en) Interaction method and apparatus of virtual space, device, and medium
JP6607243B2 (en) Information processing apparatus, information processing method, and program
US11650798B2 (en) Developing source code leveraging smart glasses
WO2021230181A1 (en) Information processing method, information processing device, program, and information processing system
WO2022212622A1 (en) Digital companion for perceptually enabled task guidance
JP6603767B2 (en) Employment management device, employment management system and program
JP6175927B2 (en) Image processing apparatus, image processing method, program, and image processing system
TWM596380U (en) Artificial intelligence and augmented reality system
JP2015109035A (en) Employment management apparatus and employment management system
KR102603303B1 (en) Device, method, and automated or automated program for providing extended reality content
WO2021131465A1 (en) Business management system, business management method, and business management program
US20230367536A1 (en) Portable terminal, head mounted display, and cooperative display system thereof
JP6392962B2 (en) Employment management device, employment management system and program
JP2010098421A (en) Display control device, display control method, program, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110701

R150 Certificate of patent or registration of utility model

Ref document number: 4778394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250