JP2018194998A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2018194998A
JP2018194998A JP2017097221A JP2017097221A JP2018194998A JP 2018194998 A JP2018194998 A JP 2018194998A JP 2017097221 A JP2017097221 A JP 2017097221A JP 2017097221 A JP2017097221 A JP 2017097221A JP 2018194998 A JP2018194998 A JP 2018194998A
Authority
JP
Japan
Prior art keywords
line
sight
display unit
user
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017097221A
Other languages
Japanese (ja)
Inventor
拓治 笹原
Takuji Sasahara
拓治 笹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Peripherals Ltd
Original Assignee
Fujitsu Peripherals Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Peripherals Ltd filed Critical Fujitsu Peripherals Ltd
Priority to JP2017097221A priority Critical patent/JP2018194998A/en
Publication of JP2018194998A publication Critical patent/JP2018194998A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing device capable of detecting that a display unit is being peeped.SOLUTION: An information processing device comprises: a display unit 13; a line-of-sight detection unit 15 which acquires line-of-sight information representing a line-of-sight direction of a user; and a processing unit 11 which finds the line-of-sight direction of the user on the basis of the line-of-sight information acquired by the light-of-sight detection unit 15, finds a watched position of the user on the basis of the line-of-sight direction, calculates the number of positions watched on a screen of the display unit 13 on the basis of the watched position, and determines whether two or more users are staring into the screen of the display unit 13 on the basis of the calculated number of watched positions.SELECTED DRAWING: Figure 1

Description

本発明は、表示部を備える情報処理装置及び情報処理方法に関する。   The present invention relates to an information processing apparatus and an information processing method including a display unit.

従来、自動取引装置(Automated Teller Machine:ATM)が、銀行等の金融機関又はコンビニエンスストア等に配置されて利用されている。   2. Description of the Related Art Conventionally, an automated transaction machine (ATM) has been used in a financial institution such as a bank or a convenience store.

自動取引装置の利用者は、現金の預け入れ、引き出し又は振込等の手続きを、自動取引装置を用いて行う。   A user of an automatic transaction apparatus performs procedures such as depositing, withdrawing or transferring money using the automatic transaction apparatus.

取引の処理中の自動取引装置の表示部には、利用者の氏名、口座番号又は残高等の個人情報が表示される。   Personal information such as the user's name, account number, or balance is displayed on the display unit of the automatic transaction apparatus during transaction processing.

そこで、取引中の表示部の画像が覗き見されないように、自動取引装置の左右につい立てを配置すること、又は、表示部の斜めからの覗き見を防止する遮光フィルタを表示部の画面上に装着することが行われている。   Therefore, to prevent the image of the display unit during the transaction from being peeped, arrange a vertical stand on the left and right of the automatic transaction apparatus, or a light-shielding filter that prevents the display unit from peeping obliquely on the screen of the display unit Wearing is done.

また、自動取引装置の利用者を撮影して、不審な利用者の画像を取得することが行われている(例えば、特許文献1等)。   In addition, taking a picture of a user of an automatic transaction apparatus and acquiring an image of a suspicious user is performed (for example, Patent Document 1).

特開2016−170496号公報Japanese Patent Laying-Open No. 2006-170496

しかし、自動取引装置の表示部の画面は、利用者に対して視認可能になされているので、この表示部の視野内に位置していれば、利用者以外の者が表示部の画面を覗き見することが可能である。   However, since the screen of the display unit of the automatic transaction apparatus is visible to the user, if it is located within the field of view of this display unit, a person other than the user looks into the screen of the display unit. It is possible to see.

そこで、本明細書では、表示部が覗き見されていることを検知できる情報処理装置及び情報処理方法を提供することを課題とする。   Therefore, an object of the present specification is to provide an information processing apparatus and an information processing method that can detect that the display unit is being looked into.

本明細書に開示する情報処理装置の一形態によれば、表示部と、ユーザの視線方向を表す視線情報を取得する視線検出部と、視線検出部が取得した視線情報に基づいて、ユーザの視線方向を求め、視線方向に基づいてユーザの注視位置を求め、注視位置に基づいて表示部13の画面に向けられている注視位置の数を求め、注視位置の数に基づいて、表示部の画面に2人以上のユーザの視線が向けられているか否かを判断する処理部と、を備える。   According to one form of the information processing device disclosed in the present specification, based on the display unit, the gaze detection unit that acquires gaze information representing the gaze direction of the user, and the gaze information acquired by the gaze detection unit, The gaze direction is obtained, the gaze position of the user is obtained based on the gaze direction, the number of gaze positions directed to the screen of the display unit 13 is obtained based on the gaze position, and the display unit is determined based on the number of gaze positions. And a processing unit that determines whether or not two or more users' eyes are directed on the screen.

また、本明細書に開示する情報処理方法の一形態によれば、視線検出部により取得されたユーザの視線方向を表す視線情報を用いてユーザの視線方向を求めことと、視線方向を用いてユーザの注視位置を求めことと、注視位置に基づいて、表示部に2人以上のユーザの視線が向けられているか否かを判断すること、をプロセッサが実行する。   Moreover, according to one form of the information processing method disclosed in the present specification, the user's line-of-sight information representing the user's line-of-sight obtained by the line-of-sight detection unit is used to determine the user's line-of-sight direction, and the line-of-sight direction is used. The processor executes obtaining a user's gaze position and determining whether or not two or more users' gazes are directed to the display unit based on the gaze position.

本明細書に開示する形態の一側面によれば、表示部が覗き見されていることを検知できる。   According to one aspect of the form disclosed in this specification, it can be detected that the display unit is being looked into.

本明細書に開示する自動取引装置の第1実施形態を示す図である。It is a figure showing a 1st embodiment of an automatic transaction device indicated in this specification. 利用者が操作している画面を除く覗き見者を示す図である。It is a figure which shows the peeper except the screen which the user is operating. 表示部の画面を示す図である。It is a figure which shows the screen of a display part. 第1実施形態の自動取引装置の動作を説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining operation | movement of the automatic transaction apparatus of 1st Embodiment. 視線検出部が取得した画像を示す図である。It is a figure which shows the image which the eyes | visual_axis detection part acquired. 本明細書に開示する情報処理装置としての自動取引装置の第2実施形態の表示部及び視線検出部を示す図である。It is a figure which shows the display part and line-of-sight detection part of 2nd Embodiment of the automatic transaction apparatus as information processing apparatus disclosed to this specification. 第2実施形態の自動取引装置の動作を説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining operation | movement of the automatic transaction apparatus of 2nd Embodiment.

以下、本明細書で開示する情報処理装置としての自動取引装置の好ましい第1実施形態を、図を参照して説明する。但し、本発明の技術範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。   Hereinafter, a preferred first embodiment of an automatic transaction apparatus as an information processing apparatus disclosed in the present specification will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the invention described in the claims and equivalents thereof.

図1は、本明細書に開示する情報処理装置としての自動取引装置の第1実施形態を示す図である。図2は、利用者が操作している画面を除く覗き見者を示す図である。図3は、表示部の画面を示す図である。   FIG. 1 is a diagram illustrating a first embodiment of an automatic transaction apparatus as an information processing apparatus disclosed in this specification. FIG. 2 is a diagram showing a peeper excluding the screen operated by the user. FIG. 3 is a diagram illustrating a screen of the display unit.

本実施形態の情報処理装置としての自動取引装置10(以下、単に装置10ともいう)は、銀行等の金融機関又はコンビニエンスストア等に配置されて、利用者により操作されて、現金の預け入れ、引き出し又は振込等の手続きを行う。   An automatic transaction apparatus 10 (hereinafter also simply referred to as apparatus 10) as an information processing apparatus according to the present embodiment is disposed in a financial institution such as a bank or a convenience store, and is operated by a user to deposit and withdraw cash. Or, perform the transfer and other procedures.

装置10は、ネットワークNを介して、金融機関のサーバ30と通信可能に接続される。装置10は、利用者に対して行った取引の情報を、処理毎又は所定の規則にしたがって、ネットワークNを介してサーバ30へ送信する。サーバ30は、装置10から受信した情報に基づいて、データベースに記憶されている利用者の取引情報を更新する。   The apparatus 10 is connected to the financial institution server 30 via the network N so as to be communicable. The apparatus 10 transmits information on transactions performed to the user to the server 30 via the network N for each process or according to a predetermined rule. Based on the information received from the device 10, the server 30 updates the user transaction information stored in the database.

図2に示すように、利用者Xが、装置10を操作している時には、表示部13の画面には、例えば、図3に示すように、利用者Xの氏名、口座番号又は残高等の個人情報が表示される。   As shown in FIG. 2, when the user X is operating the apparatus 10, the screen of the display unit 13 displays, for example, the name, account number, or balance of the user X as shown in FIG. Personal information is displayed.

装置10は、覗き見防止用のつい立てを備えていても、表示部13の画面は、表示部13の視野内にいる利用者Xに対して視認可能である。そのため、利用者Xの後ろにいる覗き見者Yは、表示部13の視野内に位置していれば、表示部13の画面を覗き見することが可能である。   Even if the device 10 includes a stand for preventing peeping, the screen of the display unit 13 is visible to the user X who is within the field of view of the display unit 13. Therefore, the peeper Y behind the user X can peep at the screen of the display unit 13 as long as it is located within the field of view of the display unit 13.

装置10は、装置10を操作している利用者Xに対して、表示部13の画面が除き見されていると判断した場合、表示部13を消灯して、画面を覗き見されることを防止する機能を備えている。   When the device 10 determines that the user X who is operating the device 10 is viewing the screen of the display unit 13 except for the screen, the device 10 turns off the display unit 13 and looks into the screen. It has a function to prevent.

以下、装置10について、更に説明する。   Hereinafter, the device 10 will be further described.

処理部11は、一つ又は複数のプロセッサと、周辺回路とを有する。処理部11は、記憶部12に予め記憶されている所定のプログラムに従い、装置10の各ハードウェア構成要素の制御及び各種処理を行い、処理中に生じるデータを一時的に保存するために記憶部12を利用する。   The processing unit 11 includes one or a plurality of processors and peripheral circuits. The processing unit 11 controls each hardware component of the apparatus 10 according to a predetermined program stored in advance in the storage unit 12 and performs various processes, and temporarily stores data generated during the processing. 12 is used.

記憶部12は、ランダムアクセスメモリ(RAM)若しくはリードオンリーメモリ(ROM)等の半導体メモリ、又は磁気ディスク若しくはフラッシュメモリ等の不揮発性メモリを有していてもよい。また、記憶部12は、非一時的な記憶媒体に記憶されたプログラムを、読み出し可能なドライブ(図示せず)を有していてもよい。   The storage unit 12 may include a semiconductor memory such as a random access memory (RAM) or a read only memory (ROM), or a nonvolatile memory such as a magnetic disk or a flash memory. The storage unit 12 may have a drive (not shown) that can read a program stored in a non-temporary storage medium.

また、記憶部12は、ユーザの注視位置を検出するために利用される各種のデータを記憶する。例えば、記憶部12は、プルキンエ像の重心に対する瞳孔重心の相対的な位置と利用者等の視線方向との関係を表す参照テーブル、視線方向と注視位置との関係を表す参照テーブルを記憶する。更に、記憶部12は、後述する視線検出部15から得られた利用者等の眼の画像、あるいは、その画像に基づいて検出されたキャリブレーション前の生の注視位置の測定点の座標及び取得順番などを記憶する。   In addition, the storage unit 12 stores various data used for detecting the user's gaze position. For example, the storage unit 12 stores a reference table that represents the relationship between the relative position of the pupil center of gravity to the center of gravity of the Purkinje image and the user's gaze direction, and a reference table that represents the relationship between the gaze direction and the gaze position. Further, the storage unit 12 obtains the coordinates of the measurement point of the eye gaze position before calibration detected based on the image of the eyes of the user or the like obtained from the line-of-sight detection unit 15 described later. Memorize the order.

表示部13は、処理部11に制御されて、装置10の動作に伴う各種の情報を画面上に表示可能である。表示部13として、例えば、液晶ディスプレイを用いることができる。   The display unit 13 is controlled by the processing unit 11 and can display various types of information associated with the operation of the apparatus 10 on the screen. For example, a liquid crystal display can be used as the display unit 13.

操作部14は、装置10の利用者等(ユーザ)により操作されて、操作を入力可能である。装置10は、操作部14として、例えばキーボード又はタッチパネルを用いることができる。   The operation unit 14 is operated by a user or the like (user) of the apparatus 10 and can input an operation. The device 10 can use, for example, a keyboard or a touch panel as the operation unit 14.

視線検出部15は、表示部13の周囲に配置され、利用者等の視線方向を表す測定データ(視線情報)としての画像を所定の周期(例えば、1ミリ秒〜33ミリ秒)ごとに取得する。そして視線検出部15は、取得した画像を処理部11へ出力する。   The line-of-sight detection unit 15 is arranged around the display unit 13 and acquires an image as measurement data (line-of-sight information) representing the direction of the line of sight of the user or the like every predetermined period (for example, 1 millisecond to 33 milliseconds). To do. Then, the line-of-sight detection unit 15 outputs the acquired image to the processing unit 11.

例えば、視線検出部15は、赤外発光ダイオードと、CCD又はC−MOSといった赤外線に感度を持つイメージセンサと撮像光学系を含むカメラとを有する。そして視線検出部15は、測定データとして、利用者等の眼の瞳孔と、赤外発光ダイオードから発した光が角膜で反射された角膜反射像(以下、プルキンエ像と呼ぶ)とが表された画像をカメラにより生成する。   For example, the line-of-sight detection unit 15 includes an infrared light emitting diode, an image sensor having sensitivity to infrared rays such as a CCD or a C-MOS, and a camera including an imaging optical system. Then, the line-of-sight detection unit 15 represents the pupil of the eyes of the user and the cornea reflection image (hereinafter referred to as the Purkinje image) in which the light emitted from the infrared light emitting diode is reflected by the cornea as the measurement data. An image is generated by a camera.

本実施形態では、視線検出部15は、表示部13の下方に、表示部13と対向する利用者等へ向けて配置される。視線検出部15が有する赤外発光ダイオードは、利用者等の眼を照明する。そして視線検出部15が有するカメラにより、表示部13を見る利用者等の少なくとも一方の眼を含む、利用者等の顔全体あるいは顔の一部が写った画像が生成される。   In the present embodiment, the line-of-sight detection unit 15 is disposed below the display unit 13 toward a user or the like facing the display unit 13. The infrared light emitting diode included in the line-of-sight detection unit 15 illuminates the eyes of a user or the like. The camera of the line-of-sight detection unit 15 generates an image including the entire face of the user or a part of the face including at least one eye of the user or the like who views the display unit 13.

撮影部16は、処理部11により制御されて、装置10を操作している利用者等の画像を撮影する。撮影された利用者等の画像は、記憶部12に記憶される。撮影部16は、例えば、CCD又はC−MOSを有するカメラを備える。   The imaging unit 16 is controlled by the processing unit 11 to capture an image of a user or the like who is operating the device 10. The captured image of the user or the like is stored in the storage unit 12. The imaging unit 16 includes, for example, a camera having a CCD or C-MOS.

カード処理部17は、カード挿入/排出口(図示せず)から利用者により挿入された金融カードに対して情報の読み出し等の処理を実行する。また、カード処理部17は、金融カードを搬送させてカード挿入/排出口から放出して顧客に返却する等の処理を行う。例えば、カード処理部17は、金融カードを搬送する搬送機構と、金融カードの磁気記録を読み出す磁気ヘッドと、磁気ヘッド及び搬送機構を制御する制御回路とを有する。   The card processing unit 17 executes processing such as reading of information on a financial card inserted by a user from a card insertion / discharge port (not shown). Further, the card processing unit 17 performs processing such as transporting the financial card, releasing it from the card insertion / discharge port, and returning it to the customer. For example, the card processing unit 17 includes a transport mechanism that transports a financial card, a magnetic head that reads the magnetic recording of the financial card, and a control circuit that controls the magnetic head and the transport mechanism.

硬貨処理部18及び紙幣処理部19は、装置10で実行した取引に応じて、当該取引の形式に基づく金額に対応する硬貨及び紙幣の入金又は出金を硬貨入出金口及び紙幣入出金口(図示せず)に対して実行する。例えば、硬貨処理部18は、硬貨を計数する硬貨計数機構と、硬貨計数機構を制御する制御回路を有する。紙幣処理部19は、紙幣を計数する紙幣計数機構と、紙幣計数機構を制御する制御回路を有する。   The coin processing unit 18 and the banknote processing unit 19, according to the transaction executed by the apparatus 10, deposit or withdraw coins and banknotes corresponding to the amount of money based on the format of the transaction and a banknote depositing / withdrawing port ( (Not shown). For example, the coin processing unit 18 includes a coin counting mechanism that counts coins and a control circuit that controls the coin counting mechanism. The banknote processing unit 19 includes a banknote counting mechanism that counts banknotes and a control circuit that controls the banknote counting mechanism.

印刷部20は、通帳挿入/排出口(図示せず)から利用者により挿入された通帳を所定位置まで搬送し、処理部11からの取引実行指示に応じて実行された取引の履歴等を通帳の頁に印字する。また、印刷部20は、取引履歴等の記録が完了した通帳を搬送して、通帳挿入/排出口から放出して、顧客に返却する。例えば、印刷部20は、通帳を搬送する搬送機構と、通帳に印字する印字機構と、搬送機構及び印字機構を制御する制御回路を有する。   The printing unit 20 conveys a passbook inserted by a user from a passbook insertion / discharge port (not shown) to a predetermined position, and passes a history of transactions executed in response to a transaction execution instruction from the processing unit 11. Is printed on the page. Further, the printing unit 20 conveys the passbook for which the transaction history and the like have been recorded, releases it from the passbook insertion / discharge port, and returns it to the customer. For example, the printing unit 20 includes a conveyance mechanism that conveys a bankbook, a printing mechanism that prints on the bankbook, and a control circuit that controls the conveyance mechanism and the printing mechanism.

通信部21は、ネットワークN介して、情報の送受信を行う。通信部21は、送受信を行う通信回路及び通信線を有し得る。装置10は、例えば、プログラム、取引履歴等の情報を、通信部21を用いて送受信する。   The communication unit 21 transmits and receives information via the network N. The communication unit 21 may include a communication circuit and a communication line that perform transmission and reception. The apparatus 10 transmits / receives information, such as a program and transaction history, using the communication part 21, for example.

音響出力部22は、処理部11に制御されて音響を出力する。例えば、音響出力部22は、装置10を操作する利用者に対して、音声による案内を出力する。例えば、音響出力部22は、スピーカを有する。   The sound output unit 22 is controlled by the processing unit 11 to output sound. For example, the sound output unit 22 outputs voice guidance to a user who operates the device 10. For example, the sound output unit 22 includes a speaker.

次に、上述した装置10の動作を、図4に示すフローチャートを参照しながら、以下に説明する。   Next, the operation of the apparatus 10 described above will be described below with reference to the flowchart shown in FIG.

まず、ステップS401において、処理部11は、視線検出部15が取得した画像から利用者等の両眼の内の何れか一方の眼の領域、例えば右の領域を抽出する。利用者等は、例えば、図2に示す利用者X及び覗き見者Yを意味する。   First, in step S <b> 401, the processing unit 11 extracts a region of one of the eyes of the user or the like, for example, the right region, from the image acquired by the line-of-sight detection unit 15. The users and the like mean, for example, the user X and the peeper Y shown in FIG.

視線検出部15の視野は、表示部13の視野角に含まれる領域の全体を含んでいる。したがって、表示部13の画像を視認可能な範囲内に位置して画面を注視している利用者等の眼は、視線検出部15の視野に含まれる。もし、視線検出部15が取得した画像から利用者等の右眼の領域が抽出されない場合には、表示部13の画面への注視位置の数をゼロとして、処理は、ステップS405へ進む。   The visual field of the line-of-sight detection unit 15 includes the entire region included in the viewing angle of the display unit 13. Therefore, the eyes of the user or the like who are gazing at the screen while being positioned within the range in which the image of the display unit 13 is visible are included in the visual field of the line-of-sight detection unit 15. If the right eye region of the user or the like is not extracted from the image acquired by the line-of-sight detection unit 15, the number of gaze positions on the screen of the display unit 13 is set to zero, and the process proceeds to step S405.

図5は、視線検出部が取得した画像を示す図である。   FIG. 5 is a diagram illustrating an image acquired by the line-of-sight detection unit.

図5に示す例では、視線検出部15が取得した画像40には、2人の利用者等の顔が示されている。処理部11は、眼の領域として、領域41a、41b、42a、42bを画像から抽出する。   In the example shown in FIG. 5, faces of two users or the like are shown in the image 40 acquired by the line-of-sight detection unit 15. The processing unit 11 extracts regions 41a, 41b, 42a, and 42b from the image as eye regions.

具体的には、処理部11は、まず、視線検出部15が取得した画像から眼が写っている領域を検出する。眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこで処理部11は、画像内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そして処理部11は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。あるいは、処理部11は、画像上の眼の像を表すテンプレートと、画像とのテンプレートマッチングにより、画像内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。   Specifically, the processing unit 11 first detects a region where an eye is seen from an image acquired by the line-of-sight detection unit 15. The luminance of the pixel corresponding to the eye is significantly different from the luminance of the pixel corresponding to the periphery of the eye. Therefore, the processing unit 11 performs, for example, a difference calculation between neighboring pixels in the vertical direction using each of the pixels in the image using a Sobel filter to detect an edge pixel whose luminance changes in the vertical direction. Then, the processing unit 11 sets, for example, a region surrounded by two edge lines in which edge pixels are connected in a substantially horizontal direction by a predetermined number or more corresponding to the size of the eye. Alternatively, the processing unit 11 may detect a region that most closely matches the template in the image by template matching between the template representing the image of the eye on the image and the image, and may use the detected region as the eye region.

そして、処理部11は、4つの眼の領域41a、41b、42a、42bが抽出された場合には、画像40における2つの領域間の画素数に基づいて、1人の利用者が有する右眼及び左眼に対応する一対の眼の領域41a及び41b、42a及び42bを識別する。これは、装置10の表示部13と、装置10を操作する利用者との位置関係に基づいて、画像40において、1人の両眼の領域は所定の範囲内に位置すると考えられるからである。   Then, when the four eye regions 41a, 41b, 42a, and 42b are extracted, the processing unit 11 determines the right eye of one user based on the number of pixels between the two regions in the image 40. And a pair of eye regions 41a and 41b, 42a and 42b corresponding to the left eye. This is because, based on the positional relationship between the display unit 13 of the device 10 and the user who operates the device 10, it is considered that the area of one eye in the image 40 is located within a predetermined range. .

また、処理部11は、2つの眼の領域間の垂直方向の位置の違いが所定の範囲内にある2つの領域を、1人の利用者が有する右眼及び左眼に対応する一対の眼の領域41a及び41b、42a及び42bとして識別してもよい。これは、1人の両眼は、画像40内において垂直方向にはほぼ同じ位置に配置されると考えられるからである。更に、処理部11は、虹彩の大きさに基づいて、1人の利用者が有する右眼及び左眼に対応する一対の眼の領域41a及び41b、42a及び42bを識別してもよい。これは、1人の眼の大きさは、画像40内において、ほぼ同じ大きさを有すると考えられるからである。虹彩の大きさは、例えば、テンプレートマッチングを用いて検出される。そして、処理部11は、識別された各一対の眼の領域41a及び41b、42a及び42bの内、画像40上で左側に位置する領域41a及び領域41bを、右眼に対応する領域として選択する。   The processing unit 11 also includes a pair of eyes corresponding to the right eye and the left eye of a single user having two areas in which a difference in vertical position between the two eye areas is within a predetermined range. The regions 41a and 41b, 42a and 42b may be identified. This is because one person's eyes are considered to be arranged at substantially the same position in the vertical direction in the image 40. Further, the processing unit 11 may identify a pair of eye regions 41a and 41b, 42a and 42b corresponding to the right eye and the left eye of one user based on the size of the iris. This is because the size of one person's eyes is considered to have almost the same size in the image 40. The size of the iris is detected using, for example, template matching. Then, the processing unit 11 selects the region 41a and the region 41b located on the left side on the image 40 as the region corresponding to the right eye among the pair of identified eye regions 41a and 41b and 42a and 42b. .

次に、ステップS403において、処理部11は、利用者等の右眼の視線方向を求め、求めた右眼の視線方向を用いて利用者等の注視位置を得る。そして、処理部11は、右眼の注視位置に基づいて、表示部13の画面に向けられている注視位置の数を求める。注視位置の数は、表示部13の画面に視線を向けている人の数を意味する。   Next, in step S403, the processing unit 11 obtains the gaze direction of the right eye of the user or the like, and obtains the gaze position of the user or the like using the obtained gaze direction of the right eye. Then, the processing unit 11 obtains the number of gaze positions directed to the screen of the display unit 13 based on the gaze position of the right eye. The number of gaze positions means the number of people who are looking at the screen of the display unit 13.

具体的には、処理部11は、右眼の領域内で瞳孔が写っている領域を検出する。本実施形態では、処理部11は、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして処理部11は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。   Specifically, the processing unit 11 detects an area where the pupil is reflected in the right eye area. In the present embodiment, the processing unit 11 performs template matching between the template corresponding to the pupil and the eye region, and detects a region having the highest degree of matching with the template in the eye region. When the highest coincidence value is higher than a predetermined coincidence threshold value, the processing unit 11 determines that the pupil is reflected in the detected area.

また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこで処理部11は、右眼の領域内で、同心円状に半径の異なる2本のリングを設定する。そして処理部11は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。処理部11は、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の座標として算出する。   The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Therefore, the processing unit 11 sets two rings having different radii concentrically within the region of the right eye. When the difference value obtained by subtracting the average luminance value of the inner pixels from the average luminance value of the pixels corresponding to the outer ring is greater than a predetermined threshold, the processing unit 11 is an area surrounded by the inner ring. May be the pupil region. The processing unit 11 calculates the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the pupil region as the coordinates of the center of gravity of the pupil region.

また処理部11は、右眼の領域内で視線検出部が有する赤外発光ダイオードのプルキンエ像を検出する。処理部11は、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値をプルキンエ像の重心の座標として算出する。   Further, the processing unit 11 detects the Purkinje image of the infrared light emitting diode included in the line-of-sight detection unit in the right eye region. The processing unit 11 calculates the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the Purkinje image as coordinates of the center of gravity of the Purkinje image.

瞳孔重心及びプルキンエ像の重心を検出すると、処理部11は、それらに基づいて利用者等の視線方向を検出する。   When the center of the pupil and the center of gravity of the Purkinje image are detected, the processing unit 11 detects the line-of-sight direction of the user or the like based on them.

角膜の表面は略球形であるため、視線方向によらず、視線検出部15が有する光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、利用者等の視線方向に応じて移動する。そのため、注視位置検出部11bは、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。   Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the light source of the line-of-sight detection unit 15 is substantially constant regardless of the line-of-sight direction. On the other hand, the center of gravity of the pupil moves according to the line-of-sight direction of the user or the like. Therefore, the gaze position detection unit 11b can detect the user's line-of-sight direction by obtaining the relative position of the pupil center of gravity with respect to the center of gravity of the Purkinje image.

本実施形態では、処理部11は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして処理部11は、瞳孔重心の相対的な位置と利用者等の視線方向との関係を表す参照テーブルを参照することにより、利用者等の視線方向を特定する。   In the present embodiment, the processing unit 11 determines the relative position of the pupil center of gravity with respect to the center of gravity of the Purkinje image, for example, the horizontal coordinate and vertical position of the center of gravity of the Purkinje image from the horizontal coordinate and vertical coordinate of the pupil center of gravity. It is obtained by subtracting the direction coordinates. And the process part 11 pinpoints a user's eyes | visual_axis direction by referring the reference table showing the relationship between the relative position of a pupil's gravity center and a user's eyes | visual_axis direction.

処理部11は、利用者等の視線方向を検出すると、利用者等の視線方向及び想定される利用者等の右眼と表示部13間の位置関係に基づいて、表示部13の画面上での利用者等の注視位置を検出する。   When the processing unit 11 detects the gaze direction of the user or the like, the processing unit 11 displays the gaze direction of the user or the like and the positional relationship between the right eye of the assumed user or the like and the display unit 13 on the screen of the display unit 13. The gaze position of the user or the like is detected.

本実施形態では、処理部11は、利用者等と表示部13の画面間の想定される位置関係における、利用者等の視線方向と注視位置との関係を表す参照テーブルを参照することにより、ユーザの注視位置の測定点を求める。そして、処理部11は、ユーザの注視位置の測定点が、表示部13の画面内に位置するかを判断する。処理部11は、ユーザの注視位置の測定点が、表示部13の画面内に位置すると判断した場合、利用者等の注視位置の測定点の表示部13の画面上での座標を、その取得順序とともに記憶部12に保存する。また、処理部11は、表示部13の画面内に位置する判断された利用者等の注視位置の測定点の数を、表示部13の画面上の注視位置の数とする。   In the present embodiment, the processing unit 11 refers to a reference table that represents the relationship between the gaze direction of the user and the gaze position in the assumed positional relationship between the user and the display unit 13 screen. A measurement point of the user's gaze position is obtained. Then, the processing unit 11 determines whether the measurement point of the user's gaze position is located within the screen of the display unit 13. When the processing unit 11 determines that the measurement point of the gaze position of the user is located within the screen of the display unit 13, the processing unit 11 acquires the coordinates on the screen of the display unit 13 of the measurement point of the gaze position of the user or the like. The data is stored in the storage unit 12 together with the order. Further, the processing unit 11 sets the number of gaze position measurement points of the determined user or the like located in the screen of the display unit 13 as the number of gaze positions on the screen of the display unit 13.

次に、ステップS405において、処理部11は、表示部13の画面上の注視位置の数がゼロであるか否かを判断する。   Next, in step S405, the processing unit 11 determines whether or not the number of gaze positions on the screen of the display unit 13 is zero.

表示部13の画面上の注視位置の数がゼロである場合(ステップS405−Yes)、処理部11は、表示部13を消灯して、電力の使用を低減する(ステップS407)。これにより、装置10を利用する利用者がいない場合には、装置10の消費電力を低減できる。なお、表示部13を消灯する代わりに、広告等を表示部13に表示して、待機中の装置10を広告の宣伝装置として利用してもよい。   When the number of gaze positions on the screen of the display unit 13 is zero (step S405—Yes), the processing unit 11 turns off the display unit 13 to reduce the use of power (step S407). Thereby, when there is no user who uses the apparatus 10, the power consumption of the apparatus 10 can be reduced. Instead of turning off the display unit 13, an advertisement or the like may be displayed on the display unit 13, and the standby device 10 may be used as an advertising device.

一方、表示部13の画面上の注視位置の数がゼロでない場合(ステップS405−No)、ステップS409において、処理部11は、画面上の注視位置の数が、1つか、又は、2つ以上かを判断する。処理部11は、表示部13の画面上の注視位置の数に基づいて、表示部13に2人以上のユーザの視線が向けられているか否かを判断する。   On the other hand, when the number of gaze positions on the screen of the display unit 13 is not zero (step S405-No), in step S409, the processing unit 11 has one or two or more gaze positions on the screen. Determine whether. Based on the number of gaze positions on the screen of the display unit 13, the processing unit 11 determines whether or not two or more users' lines of sight are directed to the display unit 13.

表示部13の画面上の注視位置の数が、1つの場合(ステップS409−1つ)、装置10の表示部13に視線を向けている利用者の数は1人であるので、覗き見者はいないと考えられる。処理部11は、表示部13が消灯している場合には、表示部13を点灯して(ステップS411)、処理は、ステップS401の前へ戻る。また、処理部11は、利用者により選択される操作項目を、表示部13に表示して、利用者との取引を開始する。   When the number of gaze positions on the screen of the display unit 13 is one (step S409-1), the number of users who are looking at the display unit 13 of the apparatus 10 is one, so I don't think yes. When the display unit 13 is turned off, the processing unit 11 turns on the display unit 13 (step S411), and the process returns to the step before step S401. Moreover, the process part 11 displays the operation item selected by a user on the display part 13, and starts the transaction with a user.

一方、表示部13の画面上の注視位置の数が、2つ以上の場合(ステップS409−2つ以上)、装置10の表示部13に視線を向けている利用者等の数は2人以上であると考えられる。したがって、利用者が操作している装置10の表示部13の画面を、他の者が覗き見している可能性がある。そこで、処理部11は、ステップS413において、表示部13を消灯して、表示部13に表示されている個人情報を含む情報の表示を停止する。その後、処理部11は、覗き見されている可能性のあることを表示部13に表示して、利用者に注意を喚起してもよい。更に、装置10は、音響出力部22を用いて、覗き見されている可能性のあること注意喚起する音響信号を出力してもよい。   On the other hand, when the number of gaze positions on the screen of the display unit 13 is two or more (step S409-2 or more), the number of users or the like who are looking at the display unit 13 of the apparatus 10 is two or more. It is thought that. Therefore, there is a possibility that another person is peeping at the screen of the display unit 13 of the device 10 operated by the user. Therefore, the processing unit 11 turns off the display unit 13 and stops displaying information including personal information displayed on the display unit 13 in step S413. Thereafter, the processing unit 11 may display on the display unit 13 that there is a possibility of being peeped, and call attention to the user. Furthermore, the apparatus 10 may output an acoustic signal that alerts the user that there is a possibility of being peeped using the acoustic output unit 22.

上述した本明細書の装置10によれば、表示部13が覗き見されていることを検知できる。そして、表示部13が覗き見されていると判断された場合には、表示部13を消灯して、表示部13の画面が見られないようにする。   According to the apparatus 10 of the present specification described above, it can be detected that the display unit 13 is being looked into. When it is determined that the display unit 13 is being looked into, the display unit 13 is turned off so that the screen of the display unit 13 cannot be seen.

次に、上述した自動取引装置の第2実施形態を、図6及び図7を参照しながら以下に説明する。他の実施形態について特に説明しない点については、上述の第1実施形態に関して詳述した説明が適宜適用される。また、同一の構成要素には同一の符号を付してある。   Next, 2nd Embodiment of the automatic transaction apparatus mentioned above is described below, referring FIG.6 and FIG.7. For points that are not particularly described in the other embodiments, the description in detail regarding the first embodiment is applied as appropriate. Moreover, the same code | symbol is attached | subjected to the same component.

図6は、本明細書に開示する情報処理装置としての自動取引装置の第2実施形態の表示部及び視線検出部を示す図である。   FIG. 6 is a diagram illustrating a display unit and a line-of-sight detection unit of the second embodiment of the automatic transaction apparatus as the information processing apparatus disclosed in this specification.

本実施形態の装置10は、第1視線検出部15a及び第2視線検出部15bを備える。第1視線検出部15a及び第2視線検出部15bは、表示部13の下方の両側に配置される。   The apparatus 10 of this embodiment includes a first line-of-sight detection unit 15a and a second line-of-sight detection unit 15b. The first line-of-sight detection unit 15 a and the second line-of-sight detection unit 15 b are arranged on both sides below the display unit 13.

装置10では、表示部13の視野(図6中の鎖線内の領域)の全ては、第1視線検出部15a及び第2視線検出部15bの内の一方ではカバーされない。   In the device 10, the entire visual field (the region within the chain line in FIG. 6) of the display unit 13 is not covered by one of the first visual line detection unit 15 a and the second visual line detection unit 15 b.

そこで、装置10では、2つの第1視線検出部15a及び第2視線検出部15bを用いて、第1視線検出部15aおよび第2視線検出部15bの視野を合わせた合成視野が、表示部13の視野角に含まれる全ての領域を含む。なお、装置10は、表示部13の視野角に含まれる全ての領域を含むように、3つ以上の視線検出部を有していてもよい。この場合、3つ以上の視線検出部の内の少なくとも2つの視線検出部の視野が重なる重畳視野を有することが好ましい。   Therefore, in the apparatus 10, the combined visual field obtained by combining the visual fields of the first visual line detection unit 15a and the second visual line detection unit 15b using the two first visual line detection units 15a and 15b is displayed on the display unit 13. All regions included in the viewing angle are included. Note that the apparatus 10 may include three or more line-of-sight detection units so as to include all the regions included in the viewing angle of the display unit 13. In this case, it is preferable to have a superimposed visual field in which the visual fields of at least two of the three or more visual line detection units overlap.

第1視線検出部15a及び第2視線検出部15bに対しては、上述した第1実施形態の第1視線検出部の説明が適宜適用される。   The description of the first visual line detection unit of the first embodiment described above is appropriately applied to the first visual line detection unit 15a and the second visual line detection unit 15b.

装置10は、第1視線検出部15a及び第2視線検出部15bの視野が重なる重畳視野としての視野F1を有する。第1視線検出部15a及び第2視線検出部15bそれぞれは、視野F1内に位置する利用者等の視線方向を表す視線情報を検出可能である。視野F1は、装置10を利用する利用者が装置10を操作可能な位置を含むように決定される。   The apparatus 10 has a visual field F1 as a superimposed visual field in which the visual fields of the first visual line detection unit 15a and the second visual line detection unit 15b overlap. Each of the first line-of-sight detection unit 15a and the second line-of-sight detection unit 15b can detect line-of-sight information indicating the line-of-sight direction of a user or the like located in the visual field F1. The visual field F <b> 1 is determined so as to include a position where a user who uses the device 10 can operate the device 10.

視野F2は、第1視線検出部15aの視野の内、視野F1を除いた領域である。第1視線検出部15aは、視野F2内に位置する利用者等の視線方向を表す視線情報を検出可能であるが、第2視線検出部15bは検出不可能である。処理部11は、第1視線検出部15aが取得した画像の内、視野F1に対応する領域を除いた部分の画像に基づいて、視野F2内に位置する利用者等の視線方向を表す視線情報を検出する。   The visual field F2 is a region excluding the visual field F1 from the visual field of the first visual line detection unit 15a. The first line-of-sight detection unit 15a can detect line-of-sight information representing the line-of-sight direction of a user or the like located in the visual field F2, but the second line-of-sight detection unit 15b cannot detect it. The processing unit 11 includes line-of-sight information representing the line-of-sight direction of a user or the like located in the field of view F2 based on an image of a part excluding the region corresponding to the field of view F1 in the image acquired by the first line-of-sight detection unit 15a. Is detected.

視野F3は、第2視線検出部15bの視野の内、視野F1を除いた領域である。第2視線検出部15bは、視野F3内に位置する利用者等の視線方向を表す視線情報を検出可能であるが、第1視線検出部15aは検出不可能である。処理部11は、第2視線検出部15bが取得した画像の内、視野F1に対応する領域を除いた部分の画像に基づいて、視野F3内に位置する利用者等の視線方向を表す視線情報を検出する。   The visual field F3 is a region excluding the visual field F1 from the visual field of the second visual line detection unit 15b. The second line-of-sight detection unit 15b can detect line-of-sight information representing the line-of-sight direction of the user or the like located in the visual field F3, but the first line-of-sight detection unit 15a cannot detect it. The processing unit 11 includes line-of-sight information representing the line-of-sight direction of a user or the like located in the field of view F3 based on the image of the portion excluding the region corresponding to the field of view F1 in the image acquired by the second line of sight detection unit 15b. Is detected.

視野F2及びF3は、視野F2及びF3内に位置する人が、装置10を操作することが不可能か又は困難な領域になるように決定され得る。   The fields of view F2 and F3 can be determined to be areas where it is impossible or difficult for a person located within the fields of view F2 and F3 to operate the device 10.

次に、上述した装置10の動作を、図7に示すフローチャートを参照しながら、以下に説明する。   Next, the operation of the above-described apparatus 10 will be described below with reference to the flowchart shown in FIG.

まず、ステップS701において、処理部11は、第1視線検出部15a及び第2視線検出部15bが取得した視野F1内の画像それぞれから利用者等の右眼の領域を抽出する。もし、視線検出部15が取得した画像から利用者等の右眼の領域が抽出されない場合には、表示部13の画面への注視位置の数はゼロとして、処理は、ステップS705へ進む。   First, in step S701, the processing unit 11 extracts a region of the right eye of a user or the like from each of the images in the visual field F1 acquired by the first visual line detection unit 15a and the second visual line detection unit 15b. If the right eye region of the user or the like is not extracted from the image acquired by the line-of-sight detection unit 15, the number of gaze positions on the screen of the display unit 13 is set to zero, and the process proceeds to step S705.

次に、ステップS702において、処理部11は、右眼の注視位置を検出して、表示部13の画面に向けられている注視位置の数を求める。   Next, in step S <b> 702, the processing unit 11 detects the gaze position of the right eye and obtains the number of gaze positions that are directed to the screen of the display unit 13.

次に、ステップS703において、処理部11は、処理部11は、第1視線検出部15aが取得した画像に基づいて求められた注視位置の数と、第2視線検出部15bが取得した画像に基づいて求められた注視位置の数が同じか否かを判断する。処理部11は、第1視線検出部15aが取得した画像に基づいて求められた注視位置の数と、第2視線検出部15bが取得した画像に基づいて求められた注視位置の数が異なる場合(ステップS703−No)、注視位置の数の多い方の数を選択する(S704)。第1視線検出部15aの視野の向きは、第2視線検出部15bとは異なるので、視野F1内にいる利用者等の眼の画像を同様に取得していない場合があるからである。そして、処理は、ステップS705へ進む。   Next, in step S703, the processing unit 11 uses the number of gaze positions obtained based on the image acquired by the first line-of-sight detection unit 15a and the image acquired by the second line-of-sight detection unit 15b. It is determined whether or not the number of gaze positions obtained based on the same is the same. When the number of gaze positions calculated based on the image acquired by the first gaze detection unit 15a is different from the number of gaze positions calculated based on the image acquired by the second gaze detection unit 15b, the processing unit 11 (Step S703-No), the larger number of gaze positions is selected (S704). This is because the direction of the visual field of the first line-of-sight detection unit 15a is different from that of the second line-of-sight detection unit 15b, and thus images of the eyes of the user or the like who are in the visual field F1 may not be acquired in the same way. Then, the process proceeds to step S705.

一方、第1視線検出部15aが取得した画像に基づいて求められた注視位置の数と、第2視線検出部15bが取得した画像に基づいて求められた注視位置の数が同じ場合(ステップS703−Yes)、処理は、ステップS705へ進む。   On the other hand, when the number of gaze positions calculated based on the image acquired by the first gaze detection unit 15a is the same as the number of gaze positions calculated based on the image acquired by the second gaze detection unit 15b (step S703). -Yes), the process proceeds to step S705.

次に、ステップS705において、処理部11は、表示部13の画面上の注視位置の数がゼロであるか否かを判断する。   Next, in step S705, the processing unit 11 determines whether or not the number of gaze positions on the screen of the display unit 13 is zero.

表示部13の画面上の注視位置の数がゼロである場合(ステップS705−Yes)、処理部11は、表示部13を消灯して、電力の使用を低減する(ステップS707)。仮に、視野F2又はF3に人が位置しており、表示部13の画面を注視していても、装置10との位置関係に基づいて、装置10の利用者ではないと判断される。これにより、装置10を利用する利用者以外の人が装置10の表示部13の画面を注視していても、表示部13を消灯して消費電力を抑制することが可能となる。   When the number of gaze positions on the screen of the display unit 13 is zero (step S705—Yes), the processing unit 11 turns off the display unit 13 and reduces the use of power (step S707). Even if a person is located in the field of view F2 or F3 and gazing at the screen of the display unit 13, it is determined that the user of the device 10 is not based on the positional relationship with the device 10. Thereby, even if a person other than the user who uses the device 10 is gazing at the screen of the display unit 13 of the device 10, the display unit 13 can be turned off to reduce power consumption.

一方、表示部13の画面上の注視位置の数がゼロでない場合(ステップS705−No)、ステップS709において、処理部11は、表示部13の画面上の注視位置の数が、1つか、又は、2つ以上かを判断する。このように、処理部11は、視野F1に位置する利用者等により表示部13に向けられている視線の数を、各視線検出部15a、15bが取得した画像に基づいて求め、表示部13に2人以上の視線が向けられているか否かを判断する。   On the other hand, when the number of gaze positions on the screen of the display unit 13 is not zero (step S705-No), in step S709, the processing unit 11 has one gaze position on the screen of the display unit 13 or Judge whether two or more. In this way, the processing unit 11 obtains the number of lines of sight directed to the display unit 13 by a user or the like located in the visual field F1, based on the images acquired by the respective line-of-sight detection units 15a and 15b, and displays the display unit 13 It is determined whether or not two or more eyes are directed on the screen.

表示部13の画面上の注視位置の数が、1つの場合(ステップS709−1つ)、装置10の表示部13に視線を向けている利用者の数は1人であるので、覗き見者はいないと考えられる。処理部11は、表示部13が消灯している場合には、表示部13を点灯して(ステップS711)、処理はステップS701の前へ戻る。また、処理部11は、利用者により選択される操作項目を、表示部13に表示して、利用者との取引を開始する。   When the number of gaze positions on the screen of the display unit 13 is one (step S709-1), the number of users who are looking at the display unit 13 of the apparatus 10 is one. I don't think yes. When the display unit 13 is turned off, the processing unit 11 turns on the display unit 13 (step S711), and the process returns to the step before step S701. Moreover, the process part 11 displays the operation item selected by a user on the display part 13, and starts the transaction with a user.

一方、表示部13の画面上の注視位置の数が、2つ以上の場合(ステップS709−2つ以上)、装置10の表示部13に視線を向けている利用者等の数は2人以上であると考えられる。したがって、利用者が操作している装置10の表示部13の画面を、他の者が覗き見している可能性がある。そこで、処理部11は、ステップS713において、表示部13を消灯して、表示部13に表示されている個人情報を含む情報の表示を停止する。その後、処理部11は、覗き見されている可能性のあることを表示部13に表示して、利用者に注意を喚起してもよい。更に、装置10は、音響出力部22を用いて、覗き見されている可能性のあること注意喚起する音響信号を出力してもよい。   On the other hand, when the number of gaze positions on the screen of the display unit 13 is two or more (step S709-2 or more), the number of users or the like who are looking at the display unit 13 of the apparatus 10 is two or more. It is thought that. Therefore, there is a possibility that another person is peeping at the screen of the display unit 13 of the device 10 operated by the user. Therefore, in step S713, the processing unit 11 turns off the display unit 13 and stops displaying information including personal information displayed on the display unit 13. Thereafter, the processing unit 11 may display on the display unit 13 that there is a possibility of being peeped, and call attention to the user. Furthermore, the apparatus 10 may output an acoustic signal that alerts the user that there is a possibility of being peeped using the acoustic output unit 22.

上述した本明細書の装置10によれば、上述した第1実施形態と同様の効果が奏される。   According to the device 10 of the present specification described above, the same effects as those of the first embodiment described above can be obtained.

本発明では、上述した実施形態の情報処理装置及び情報処理方法は、本発明の趣旨を逸脱しない限り適宜変更が可能である。また、一の実施形態が有する構成要件は、他の実施形態にも適宜適用することができる。   In the present invention, the information processing apparatus and the information processing method of the above-described embodiment can be appropriately changed without departing from the gist of the present invention. In addition, the configuration requirements of one embodiment can be applied to other embodiments as appropriate.

例えば、上述した各実施形態では、処理部11は、視線検出部15が取得した画像から利用者等の右眼の領域を抽出していたが、処理部11は、利用者等の左眼の領域を抽出して、表示部13の画面に向けられている注視位置の数を求めてもよい。   For example, in each of the above-described embodiments, the processing unit 11 extracts the right eye region of the user or the like from the image acquired by the line-of-sight detection unit 15, but the processing unit 11 is configured to extract the left eye of the user or the like. The number of gaze positions directed to the screen of the display unit 13 may be obtained by extracting a region.

また、視線検出部15が取得した画像から利用者等の両眼の領域を抽出して、表示部13の画面に視線を向けている利用者等の数を求めてもよい。   Alternatively, the binocular region of the user or the like may be extracted from the image acquired by the line-of-sight detection unit 15 to obtain the number of users or the like who are directing the line of sight to the screen of the display unit 13.

ここで述べられた全ての例及び条件付きの言葉は、読者が、発明者によって寄与された発明及び概念を技術を深めて理解することを助けるための教育的な目的を意図する。ここで述べられた全ての例及び条件付きの言葉は、そのような具体的に述べられた例及び条件に限定されることなく解釈されるべきである。また、明細書のそのような例示の機構は、本発明の優越性及び劣等性を示すこととは関係しない。本発明の実施形態は詳細に説明されているが、その様々な変更、置き換え又は修正が本発明の精神及び範囲を逸脱しない限り行われ得ることが理解されるべきである。   All examples and conditional words mentioned herein are intended for educational purposes to help the reader deepen and understand the inventions and concepts contributed by the inventor. All examples and conditional words mentioned herein are to be construed without limitation to such specifically stated examples and conditions. Also, such exemplary mechanisms in the specification are not related to showing the superiority and inferiority of the present invention. While embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions or modifications can be made without departing from the spirit and scope of the invention.

10 自動取引装置(情報処理装置)
11 処理部
12 記憶部
13 表示部
14 操作部
15 視線検出部
15a 第1視線検出部
15b 第2視線検出部
16 撮影部
17 カード処理部
18 硬貨処理部
19 紙幣処理部
20 印刷部
21 通信部
30 サーバ
40 画像
41 利用者の右眼
42 覗き見者の右眼
N ネットワーク
10 Automatic transaction equipment (information processing equipment)
DESCRIPTION OF SYMBOLS 11 Processing part 12 Memory | storage part 13 Display part 14 Operation part 15 Line of sight detection part 15a 1st line of sight detection part 15b 2nd line of sight detection part 16 Imaging | photography part 17 Card processing part 18 Coin processing part 19 Banknote processing part 20 Printing part 21 Communication part 30 Server 40 Image 41 User's right eye 42 Peeper's right eye N Network

Claims (8)

表示部と、
ユーザの視線方向を表す視線情報を取得する視線検出部と、
前記視線検出部が取得した前記視線情報に基づいて、ユーザの視線方向を求め、前記視線方向に基づいてユーザの注視位置を求め、前記注視位置に基づいて前記表示部の画面に向けられている注視位置の数を求め、前記注視位置の数に基づいて、前記表示部の画面に2人以上のユーザの視線が向けられているか否かを判断する処理部と、
を備える情報処理装置。
A display unit;
A line-of-sight detection unit that acquires line-of-sight information representing the user's line-of-sight direction;
Based on the line-of-sight information acquired by the line-of-sight detection unit, the user's line-of-sight direction is obtained, the user's gaze position is obtained based on the line-of-sight direction, and the screen is directed to the display unit based on the gaze position. A processing unit that determines the number of gaze positions, and determines whether or not two or more users' lines of sight are directed to the screen of the display unit based on the number of gaze positions;
An information processing apparatus comprising:
前記処理部は、前記視線検出部が取得した前記視線情報に基づいて、ユーザの右眼又は左眼の前記視線方向を求める請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the processing unit obtains the gaze direction of a user's right eye or left eye based on the gaze information acquired by the gaze detection unit. 前記処理部は、前記表示部に2人以上のユーザの視線が向けられていると判断した場合には、前記表示部を消灯する請求項1又は2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the processing unit turns off the display unit when determining that two or more users' eyes are directed to the display unit. 複数の前記視線検出部備え、
複数の前記視線検出部の視野を合わせた合成視野は、前記表示部の視野角に含まれる領域を含む請求項1〜3の何れか一項に記載の情報処理装置。
A plurality of the line-of-sight detection units;
The information processing apparatus according to claim 1, wherein a combined visual field obtained by combining the visual fields of the plurality of visual line detection units includes a region included in a viewing angle of the display unit.
複数の前記視線検出部の内の少なくとも2つの前記視線検出部の視野が重なる重畳視野を有し、
前記処理部は、前記重畳視野に位置するユーザにより前記表示部に向けられている視線の数を、各前記視線検出部が取得した前記視線情報に基づいて求め、前記表示部に2人以上の視線が向けられているか否かを判断する請求項4に記載の情報処理装置。
Having a superimposed visual field in which the visual fields of at least two of the visual line detection units of the multiple visual line detection units overlap,
The processing unit obtains the number of lines of sight directed to the display unit by a user located in the superimposed visual field based on the line-of-sight information acquired by each of the line-of-sight detection units, and two or more persons are displayed on the display unit. The information processing apparatus according to claim 4, wherein it is determined whether or not the line of sight is directed.
前記処理部は、各前記視線検出部が取得した前記視線情報に基づいて求められた、前記表示部に視線が向けられている人の数が異なる場合には、多い方の人の数を、前記表示部に視線が向けられている人の数とする請求項5に記載の情報処理装置。   When the number of persons whose line of sight is directed to the display unit, which is obtained based on the line-of-sight information acquired by each of the line-of-sight detection units, is different, The information processing apparatus according to claim 5, wherein the number of persons whose line of sight is directed to the display unit. 前記処理部は、前記重畳視野に位置するユーザにより前記表示部に向けられている視線がないと判断した場合には、前記表示部を消灯する請求項5又は6に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the processing unit turns off the display unit when it is determined that there is no line of sight directed to the display unit by a user located in the superimposed visual field. 視線検出部により取得されたユーザの視線方向を表す視線情報を用いてユーザの視線方向を求めことと、
前記視線方向を用いてユーザの注視位置を求めことと、
前記注視位置に基づいて、前記表示部の画面に2人以上のユーザの視線が向けられているか否かを判断すること、
をプロセッサが実行する情報処理方法。
Obtaining a user's gaze direction using gaze information representing the user's gaze direction acquired by the gaze detection unit;
Determining a user's gaze position using the line-of-sight direction;
Determining whether or not two or more users' line of sight is directed to the screen of the display unit based on the gaze position;
An information processing method in which a processor executes.
JP2017097221A 2017-05-16 2017-05-16 Information processing device and information processing method Pending JP2018194998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097221A JP2018194998A (en) 2017-05-16 2017-05-16 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097221A JP2018194998A (en) 2017-05-16 2017-05-16 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2018194998A true JP2018194998A (en) 2018-12-06

Family

ID=64570851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097221A Pending JP2018194998A (en) 2017-05-16 2017-05-16 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2018194998A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113745A1 (en) * 2020-11-30 2022-06-02 マクセル株式会社 Floating-in-space-image display device
JP7457774B1 (en) 2022-11-10 2024-03-28 株式会社日本総合研究所 Information processing device, image processing device, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6453288A (en) * 1987-08-24 1989-03-01 Mitsubishi Electric Corp Number of persons detection device
JP2008276274A (en) * 2005-07-04 2008-11-13 Nec Corp Information processor and information processing method
JP2010122754A (en) * 2008-11-17 2010-06-03 Chugoku Electric Power Co Inc:The Peep prevention device in information processor
JP2011243080A (en) * 2010-05-20 2011-12-01 Nec Engineering Ltd User authentication system
US20110316828A1 (en) * 2010-06-29 2011-12-29 Bank Of America Method and apparatus for reducing glare and/or increasing privacy of a self-service device
JP2012137970A (en) * 2010-12-27 2012-07-19 Casio Comput Co Ltd Information processing device and method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6453288A (en) * 1987-08-24 1989-03-01 Mitsubishi Electric Corp Number of persons detection device
JP2008276274A (en) * 2005-07-04 2008-11-13 Nec Corp Information processor and information processing method
JP2010122754A (en) * 2008-11-17 2010-06-03 Chugoku Electric Power Co Inc:The Peep prevention device in information processor
JP2011243080A (en) * 2010-05-20 2011-12-01 Nec Engineering Ltd User authentication system
US20110316828A1 (en) * 2010-06-29 2011-12-29 Bank Of America Method and apparatus for reducing glare and/or increasing privacy of a self-service device
JP2012137970A (en) * 2010-12-27 2012-07-19 Casio Comput Co Ltd Information processing device and method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113745A1 (en) * 2020-11-30 2022-06-02 マクセル株式会社 Floating-in-space-image display device
JP7457774B1 (en) 2022-11-10 2024-03-28 株式会社日本総合研究所 Information processing device, image processing device, and program

Similar Documents

Publication Publication Date Title
JP7420183B2 (en) Authentication system
EP3453316B1 (en) Eye tracking using eyeball center position
JP6957993B2 (en) Information processing programs, information processing devices, and information processing methods that estimate the level of confidence in the user&#39;s answer.
JP2007280317A (en) Suspicious object detection system
CN102982620B (en) Service provider system
US10642353B2 (en) Non-transitory computer-readable storage medium, information processing apparatus, and information processing method
JP2018194998A (en) Information processing device and information processing method
US11747837B2 (en) Preventing image or video capture of input data provided to a transaction device
JP2012027641A (en) Unit and program for controlling display image, and automated teller machine
JP2018097631A (en) Display device and display method for the same
JP5192324B2 (en) Monitoring system and automatic transaction apparatus
JP2014134906A (en) Vending machine
US20170269683A1 (en) Display control method and device
JP2019179401A (en) Transaction operating terminal, monitoring system and program
KR20060117865A (en) Image security apparatus in automatic tellex machine and method thereof
JP6652118B2 (en) Automatic teller machine, terminal device, and medium reading method
JP2010086386A (en) Automatic transaction device
JP2018055320A (en) Information processing apparatus and information processing method
KR102230210B1 (en) Automatic teller machine with lenticular lens
JP2009217618A (en) Automatic machine, operation guide device, operation guiding method and operation guide program
JP4349971B2 (en) Automatic cash transaction equipment
WO2023243172A1 (en) Monitoring apparatus and monitoring apparatus method
JP5317736B2 (en) Transaction monitoring device
CN216871326U (en) Automatic teller machine
JP6597429B2 (en) Information processing apparatus, information processing method, and information processing system

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181019

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210914