JP2020116778A - Image formation apparatus - Google Patents

Image formation apparatus Download PDF

Info

Publication number
JP2020116778A
JP2020116778A JP2019007929A JP2019007929A JP2020116778A JP 2020116778 A JP2020116778 A JP 2020116778A JP 2019007929 A JP2019007929 A JP 2019007929A JP 2019007929 A JP2019007929 A JP 2019007929A JP 2020116778 A JP2020116778 A JP 2020116778A
Authority
JP
Japan
Prior art keywords
line
sight
user
operator
image forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019007929A
Other languages
Japanese (ja)
Other versions
JP7277151B2 (en
JP2020116778A5 (en
Inventor
剛士 福田
Takeshi Fukuda
福田  剛士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019007929A priority Critical patent/JP7277151B2/en
Priority to US16/748,136 priority patent/US11196881B2/en
Publication of JP2020116778A publication Critical patent/JP2020116778A/en
Publication of JP2020116778A5 publication Critical patent/JP2020116778A5/ja
Application granted granted Critical
Publication of JP7277151B2 publication Critical patent/JP7277151B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image formation apparatus which adopts a sight line detection technique and improves the convenience of a user.SOLUTION: A control unit analyzes data of an operator captured by a camera to execute a setting mode of setting the sight line of the operator to be detectable. The control unit starts capturing of the operator by the camera (S1). The control unit starts irradiation of the near-infrared ray light (S7), and starts sight line detection (S8). The control unit, when completing the sight line detection (YES in S10), displays the status of the sight line detection completion on a display unit so as to notify the operator of the completion of the sight line detection (S11). In other words, the control unit notifies the operator that the sight line detection of the operator becomes possible following execution of the setting mode. Since the operator can smoothly perform the transition to the sight line detection for the sight line input from the sight line detection as the preparation by notifying the operator that the sight line detection of the operator becomes possible, the convenience of the user is improved.SELECTED DRAWING: Figure 6

Description

本発明は、視線検出技術を採用したプリンタ、複写機、ファクシミリあるいは複合機などの画像形成装置に関する。 The present invention relates to an image forming apparatus such as a printer, a copying machine, a facsimile, or a multi-function peripheral that employs the line-of-sight detection technology.

最近では操作者(ユーザ)の利便性を向上すべく、操作者の視線を検出する視線検出技術を採用した画像形成装置が提案されている(特許文献1)。従来の装置では、表示装置に向けられた操作者の視線を検出することに応じて、表示装置に表示された表示を変更する制御が行われている(所謂、視線入力)。 Recently, in order to improve the convenience of the operator (user), an image forming apparatus that employs a line-of-sight detection technique that detects the line of sight of the operator has been proposed (Patent Document 1). In the conventional device, control is performed to change the display displayed on the display device in response to detecting the line of sight of the operator directed to the display device (so-called line-of-sight input).

特開2018‐49528号公報JP-A-2018-49528

しかしながら、従来では視線検出技術を採用しているにも関わらず、画像形成装置としての使い勝手が良くなかった。即ち、上記したような視線入力を可能とするためには、操作者の視線を検出する必要がある。上記の特許文献1に記載の装置の場合、操作者の瞳孔や角膜反射点などの基準点を求めることで操作者の視線を検出している。それ故、操作者毎に基準点を計測し終わるまでは視線を検出することが難しいために、操作者は視線による入力操作を正しく行うことができない。しかしながら、従来では、基準点の計測が終わり視線入力可能であるか否かを操作者が知るべきすべがなかったために、操作者は視線入力を開始してよいかがわからずユーザの利便性が損なわれていた。そこで、画像形成装置において視線検出技術を採用した構成であって、操作者にとってより使い勝手のよい、つまりユーザの利便性のより高いものが望まれていたが、未だそのようなものは提案されていない。 However, although the line-of-sight detection technology has been conventionally used, it is not easy to use as an image forming apparatus. That is, in order to enable the line-of-sight input as described above, it is necessary to detect the line-of-sight of the operator. In the case of the device described in Patent Document 1, the operator's line of sight is detected by obtaining a reference point such as the operator's pupil or corneal reflection point. Therefore, since it is difficult to detect the line of sight until the measurement of the reference point is completed for each operator, the operator cannot correctly perform the input operation with the line of sight. However, in the past, since the operator had no way to know whether or not the reference point measurement was completed and the line-of-sight input was possible, the operator did not know whether to start the line-of-sight input and the convenience of the user was impaired. It was Therefore, it has been desired that the image forming apparatus adopts the line-of-sight detection technology and is more convenient for the operator, that is, more convenient for the user. However, such a thing is still proposed. Absent.

本発明は上記問題に鑑みてなされ、視線検出技術を採用した画像形成装置において、ユーザの利便性を向上させた画像形成装置の提供を目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image forming apparatus that employs a line-of-sight detection technique and that improves user convenience.

本発明に係る画像形成装置は、記録材に画像を形成可能な画像形成装置であって、ユーザの視線による入力操作が可能なユーザインターフェースを備える操作部と、ユーザの顔を撮像する撮像部と、前記撮像部により顔が撮像されたユーザの視線を検出可能な状態に設定する設定モードと、前記設定モードの設定に基づいて検出されるユーザの視線による前記ユーザインターフェースに対する視線入力操作に従って画像形成に関する入力を受け付ける入力モードとを実行可能な制御部と、を備え、前記制御部は、前記入力モードにおいて前記ユーザの視線による視線入力操作が可能となったことをユーザに報知する、ことを特徴とする。 An image forming apparatus according to the present invention is an image forming apparatus capable of forming an image on a recording material, and includes an operation unit including a user interface that allows an input operation by a user's line of sight, and an imaging unit that captures a face of the user. An image formation in accordance with a line-of-sight input operation on the user interface by the user's line-of-sight detected based on the setting of the setting mode in which the line-of-sight of the user whose face is imaged by the imaging unit is set to be detectable, And a control unit capable of executing an input mode for receiving an input regarding the input mode, wherein the control unit notifies the user that a line-of-sight input operation by the user's line of sight has become possible in the input mode. And

本発明に係る画像形成装置は、記録材に画像を形成可能な画像形成装置であって、ユーザの視線による入力が可能なユーザインターフェースを備える操作部と、ユーザの顔を撮像する撮像部と、前記撮像部により顔が撮像されたユーザの視線を検出可能な状態に設定する設定モードと、前記設定モードの設定に基づいて検出されるユーザの視線による前記ユーザインターフェースに対する視線入力操作に従って画像形成に関する入力を受け付ける入力モードとを実行可能な制御部と、を備え、前記制御部は、前記設定モードにおいてユーザの視線を検出可能な状態への設定が完了したことをユーザに報知する、ことを特徴とする。 An image forming apparatus according to the present invention is an image forming apparatus that can form an image on a recording material, and includes an operation unit that includes a user interface that allows input by a user's line of sight, an imaging unit that images a user's face, A setting mode in which the line of sight of the user whose face is captured by the image capturing unit is set in a detectable state, and image formation in accordance with a line of sight input operation on the user interface by the line of sight of the user detected based on the setting of the setting mode A control unit capable of executing an input mode for receiving an input, wherein the control unit notifies the user that the setting to a state in which the user's line of sight can be detected in the setting mode has been completed. And

本発明に係る画像形成装置は、記録材に画像を形成可能な画像形成装置であって、ユーザの視線による入力が可能なユーザインターフェースを備える操作部と、ユーザの顔を撮像する撮像部と、前記撮像部により顔が撮像されたユーザの視線を検出可能な状態に設定する設定モードと、前記設定モードの設定に基づいて検出されるユーザの視線による前記ユーザインターフェースに対する視線入力操作に従って画像形成に関する入力を受け付ける入力モードとを実行可能な制御部と、を備え、前記制御部は、前記設定モードから前記入力モードに移行したことをユーザに報知する、ことを特徴とする。 An image forming apparatus according to the present invention is an image forming apparatus that can form an image on a recording material, and includes an operation unit that includes a user interface that allows input by a user's line of sight, an imaging unit that images a user's face, A setting mode in which the line of sight of the user whose face is captured by the image capturing unit is set in a detectable state, and image formation in accordance with a line-of-sight input operation on the user interface by the line of sight of the user detected based on the setting of the setting mode And a control unit capable of executing an input mode for receiving an input, wherein the control unit notifies the user that the input mode has been changed from the setting mode.

本発明によれば、視線検出技術を採用した画像形成装置において、ユーザの利便性を向上させることができる。 According to the present invention, it is possible to improve user convenience in an image forming apparatus that employs the line-of-sight detection technology.

本実施形態の画像形成装置を示す概略図。FIG. 1 is a schematic diagram showing an image forming apparatus of this embodiment. 操作パネルを示す概略図。Schematic which shows an operation panel. カメラにより撮影された操作者の目の映像を示す模式図。The schematic diagram which shows the image|video of the operator's eyes imaged by the camera. 操作者の視線検出について説明するための、眼球を示す模式図。The schematic diagram which shows an eyeball for demonstrating a visual line detection of an operator. 制御部について説明するための制御ブロック図。The control block diagram for explaining a control part. 視線入力処理の前半処理を示すフローチャート。The flowchart which shows the first half process of a line-of-sight input process. 図6に示した前半処理に後続する後半処理を示すフローチャート。7 is a flowchart showing a second half process subsequent to the first half process shown in FIG. 6. 視線補正について説明する図。The figure explaining a line-of-sight correction. 視線入力操作について説明する図。The figure explaining a gaze input operation. 視線入力操作の一例を示す図。The figure which shows an example of a gaze input operation.

<画像形成装置>
まず、本実施形態の画像形成装置について、図1を用いて説明する。図1に示す画像形成装置50は、電子写真方式のタンデム型のフルカラープリンタである。画像形成装置50は、装置本体50aに接続された原稿読取装置601あるいは装置本体50aに接続されたコンピュータ等の外部端末(不図示)から送られる画像データに基づいて、トナー像を記録材P(用紙、OHPシートなどのシート材など)に形成する。
<Image forming device>
First, the image forming apparatus of this embodiment will be described with reference to FIG. The image forming apparatus 50 shown in FIG. 1 is a tandem type full color printer of an electrophotographic system. The image forming apparatus 50 prints a toner image on the recording material P ( It is formed on a sheet, a sheet material such as an OHP sheet).

原稿読取装置601は、原稿を載置可能な原稿台を有し、原稿台に載置された原稿を読み取り可能な読取装置610と、原稿を読取装置610へ搬送する原稿搬送装置611(Auto Document Feeder)とを有する。読取装置610には、主に不図示の第1読取部、原稿台ガラス、流し読みガラスとが設けられている。原稿搬送装置611は、読取装置610の原稿台ガラスに対して開閉可能になっている。原稿台ガラスに載置された原稿は、原稿台ガラスと対向して原稿搬送装置611に設けられる圧板部により押さえられ、原稿のコピーやスキャンの開始に応じて動作する第1読取部により画像が読み取られる。他方、原稿搬送装置611には、主に不図示の第2読取部や原稿搬送部とが設けられている。不図示のトレイ上に載置された原稿は、コピーやスキャンの開始に応じて動作する原稿搬送部によって読取装置610の流し読みガラス上へ送られて第1読取部により第1面の画像が読み取られ、第2読取部により第1面と反対の第2面の画像が読み取られる。そして、第1読取部や第2読取部により読み取られた画像は、画像データとして後述するレーザスキャナ6による感光ドラムa〜d上への静電潜像の形成に用いられる。 The document reading device 601 has a document table on which a document can be placed, and can read the document placed on the document table, and a document feeding device 611 (Auto Document) that conveys the document to the reading device 610. Feeder). The reading device 610 is mainly provided with a first reading unit (not shown), a platen glass, and a flow reading glass. The document feeding device 611 can be opened and closed with respect to the document table glass of the reading device 610. The original placed on the platen glass is pressed by a pressure plate portion provided on the original conveying device 611 so as to face the platen glass, and an image is formed by a first reading unit which operates in response to the start of copying or scanning of the original. Read. On the other hand, the document feeding device 611 is mainly provided with a second reading unit and a document feeding unit (not shown). A document placed on a tray (not shown) is sent onto the flow reading glass of the reading device 610 by a document feeding unit that operates in response to the start of copying or scanning, and an image on the first side is printed by the first reading unit. The second reading unit reads the image on the second surface opposite to the first surface. The images read by the first reading unit and the second reading unit are used as image data for forming electrostatic latent images on the photosensitive drums a to d by the laser scanner 6 described later.

画像形成装置50は、イエロー、マゼンタ、シアン、ブラックの画像を形成可能な画像形成部10を備えている。画像形成部10は、中間転写ベルト58の周方向に沿って配列された画像形成ユニット1a、1b、1c、1dを有している。画像形成ユニット1a〜1dはそれぞれ、回転可能な感光ドラムa〜dと、帯電器60と、現像器59とを有している。感光ドラムa〜dは対応する帯電器60で帯電された後に、レーザスキャナ6から発せられる画像データに対応したレーザ光により走査露光される。これにより、感光ドラムa〜dの表面に画像データに応じた静電潜像が形成される。そして、感光ドラムa〜dに形成された静電潜像は、現像器59により現像剤を用いてトナー像に現像される。感光ドラムa〜dに形成された各トナー像は、中間転写ベルト58の内周側にて各感光ドラムa〜dに対向して配置された一次転写ローラ2a〜2dに一次転写バイアスが印加されることにより、一次転写ニップ部N1で中間転写ベルト58に一次転写される。 The image forming apparatus 50 includes an image forming unit 10 capable of forming yellow, magenta, cyan, and black images. The image forming unit 10 includes image forming units 1a, 1b, 1c, 1d arranged along the circumferential direction of the intermediate transfer belt 58. The image forming units 1a to 1d respectively include rotatable photosensitive drums a to d, a charger 60, and a developing device 59. The photosensitive drums a to d are charged by the corresponding charger 60, and then scanned and exposed by the laser light corresponding to the image data emitted from the laser scanner 6. As a result, electrostatic latent images corresponding to the image data are formed on the surfaces of the photosensitive drums a to d. Then, the electrostatic latent images formed on the photosensitive drums a to d are developed into a toner image by the developing device 59 using a developer. A primary transfer bias is applied to the toner images formed on the photosensitive drums a to d on the primary transfer rollers 2a to 2d arranged on the inner peripheral side of the intermediate transfer belt 58 so as to face the photosensitive drums a to d. As a result, primary transfer is performed on the intermediate transfer belt 58 at the primary transfer nip portion N1.

無端ベルト状の中間転写ベルト58は、二次転写内ローラ51と張架ローラ52、53とによって張架されている。二次転写内ローラ51と中間転写ベルト58を挟んで対向する位置には二次転写外ローラ3aが配置され、中間転写ベルト58上のトナー像を記録材Pに二次転写するための二次転写ニップ部N2を形成している。 The endless belt-shaped intermediate transfer belt 58 is stretched by a secondary transfer inner roller 51 and stretching rollers 52 and 53. A secondary transfer outer roller 3a is arranged at a position opposed to the inner secondary transfer roller 51 with the intermediate transfer belt 58 interposed therebetween, and a secondary transfer is performed to secondarily transfer the toner image on the intermediate transfer belt 58 onto the recording material P. A transfer nip portion N2 is formed.

画像形成装置50の下部には、記録材Pが載置された給紙カセット4が配置されている。記録材Pは、給送ローラ8により給紙カセット4から1枚ずつ搬送路45に供給される。給紙カセット4から供給された記録材Pは、搬送路45を通って一対のレジストローラ9に送られる。レジストローラ9は、記録材Pを一旦受け止めて記録材Pの斜行を補正したうえで、各画像形成ユニット1a〜1dにおける中間転写ベルト58へのトナー像の形成タイミングにあわせて、記録材Pを二次転写ニップ部N2に搬送する。そして、二次転写外ローラ3aに二次転写バイアスが印加されることにより、中間転写ベルト58上のトナー像が二次転写ニップ部N2で記録材Pに二次転写される。その後、記録材Pは定着前搬送路30を介して定着装置40に向けて搬送される。定着装置40では、記録材Pが定着ニップ部を形成するローラ対により挟持搬送されることに伴い、トナー像が加熱、加圧されて記録材Pに定着される。 Below the image forming apparatus 50, the paper feed cassette 4 on which the recording material P is placed is arranged. The recording material P is supplied from the paper feed cassette 4 to the transport path 45 one by one by the feeding roller 8. The recording material P supplied from the paper feed cassette 4 is sent to the pair of registration rollers 9 through the transport path 45. The registration roller 9 temporarily receives the recording material P and corrects the skew of the recording material P, and then at the timing of forming the toner image on the intermediate transfer belt 58 in each of the image forming units 1a to 1d, the recording material P is formed. Is conveyed to the secondary transfer nip portion N2. Then, by applying a secondary transfer bias to the secondary transfer outer roller 3a, the toner image on the intermediate transfer belt 58 is secondarily transferred to the recording material P at the secondary transfer nip portion N2. After that, the recording material P is conveyed toward the fixing device 40 via the pre-fixing conveyance path 30. In the fixing device 40, as the recording material P is nipped and conveyed by the roller pair forming the fixing nip portion, the toner image is heated and pressed to be fixed on the recording material P.

記録材Pの片面だけにトナー像を形成する場合、定着装置40を通過した記録材Pは、正回転する排紙ローラ対11により排紙トレイ12上に排出される。他方、記録材Pの両面にトナー像を形成する場合、定着装置40を通過した記録材Pは正回転する排紙ローラ対11により搬送されるが、その搬送方向後端が反転ポイント42に達すると、両面搬送路47に向けスイッチバック搬送される。即ち、記録材Pの搬送方向後端が反転ポイント42に達すると、切り換えフラッパ46が切り換えられると共に、排紙ローラ対11の回転が正回転から逆回転に変わり、記録材Pは排紙トレイ12上に排出されることなく、両面搬送路47に送られる。両面搬送路47に送られた記録材Pは、搬送ローラ対13により搬送路45に戻され、片面へのトナー像形成時と同様の過程を経て、他方の面にもトナー像が形成される。そして、両面にトナー像が定着された記録材Pは、正回転する排紙ローラ対11により排紙トレイ12上に排出される。 When a toner image is formed on only one side of the recording material P, the recording material P that has passed through the fixing device 40 is discharged onto the paper discharge tray 12 by the pair of normal rotation paper discharge rollers 11. On the other hand, when the toner images are formed on both sides of the recording material P, the recording material P that has passed through the fixing device 40 is conveyed by the pair of normally rotating paper discharge rollers 11, but the rear end in the conveying direction reaches the reversal point 42. Then, switchback conveyance is performed toward the double-sided conveyance path 47. That is, when the trailing end of the recording material P in the conveying direction reaches the reversal point 42, the switching flapper 46 is switched and the rotation of the paper discharge roller pair 11 is changed from forward rotation to reverse rotation, and the recording material P is discharged from the paper discharge tray 12. It is sent to the double-sided transport path 47 without being discharged upward. The recording material P sent to the double-sided transport path 47 is returned to the transport path 45 by the pair of transport rollers 13, and the toner image is formed on the other surface through the same process as when forming the toner image on one side. .. Then, the recording material P having the toner images fixed on both surfaces is discharged onto the paper discharge tray 12 by the paper discharge roller pair 11 which rotates in the forward direction.

図1に示すように、本実施形態の画像形成装置50は、人感センサ450を備えている。人感センサ450は、例えば画像形成装置50の周囲の温度変化を検出可能な赤外線を用いた温度変化検出方式のセンサである。即ち、操作者が画像形成装置50に近付いて人感センサ450により発せられる赤外線を横切るなどして周囲温度が変化した場合に、人感センサ450は操作者の所在を検出し得る。本実施形態の場合、操作者が画像形成装置50の前面側、詳しくは操作者が操作パネル700の前面に相対する位置にいるときにその所在を検出できるように、人感センサ450は操作パネル700に配置されている。本実施形態では人感センサ450の検出可能範囲を、例えば人感センサ450を頂点とし、人感センサ450の前方において略500mm程度で半径略300mmになる円錐状の範囲内とした。なお、人感センサ450は赤外線を用いた温度変化検出方式の熱センサに限らず、人の所在を検出できるセンサであればどのような方式のセンサを用いてもよい。 As shown in FIG. 1, the image forming apparatus 50 of the present embodiment includes a human sensor 450. The human sensor 450 is, for example, a temperature change detection type sensor that uses infrared rays and can detect a temperature change around the image forming apparatus 50. That is, when the operator approaches the image forming apparatus 50 and the ambient temperature changes by crossing the infrared rays emitted by the human sensor 450, the human sensor 450 can detect the whereabouts of the operator. In the case of the present embodiment, the human sensor 450 is provided on the operation panel so that the operator can detect the location of the image forming apparatus 50 when the operator is in front of the image forming apparatus 50, specifically, in a position facing the front of the operation panel 700. It is located at 700. In the present embodiment, the detectable range of the human sensor 450 is, for example, within the conical range with the human sensor 450 as the apex and about 500 mm in front of the human sensor 450 and a radius of about 300 mm. The human sensor 450 is not limited to a temperature change detection type thermal sensor using infrared rays, and any type of sensor may be used as long as it can detect the location of a person.

<操作パネル>
また、本実施形態の画像形成装置50は操作パネル700を備えている。操作パネル700は、操作者が操作可能な操作子を有するもので、操作者が操作しやすいように装置本体50aの前面側に配置されている。操作パネル700は、例えばチルト機構やバリアングル機構などによって上下左右に角度調整可能に装置本体50aに設けられている。そのため、操作者は自身の顔と操作パネル700の前面とが相対するように、操作パネル700の向きを調整可能となっている。図2に、操作部としての操作パネル700の一例を示す。図2に示すように、操作パネル700は物理的に設けられたハードキー401を有するハード部400と、各種情報や後述のソフトキー403を含む各種画面を表示可能な表示部410と、内部に設けられた不図示の基板等を覆うパネルカバー710とを有する。パネルカバー710は、ハード部400と表示部410とを表面に露出させるように設けられている。本実施形態の場合、後述するように、操作パネル700のハード部400と表示部410とは、ユーザの視線による入力操作が可能なユーザインターフェースとして機能する。
<Operation panel>
Further, the image forming apparatus 50 of this embodiment includes an operation panel 700. The operation panel 700 has an operator that can be operated by the operator, and is arranged on the front side of the apparatus main body 50a so that the operator can easily operate it. The operation panel 700 is provided in the apparatus main body 50a so that the angle can be adjusted vertically and horizontally by a tilt mechanism or a vari-angle mechanism. Therefore, the operator can adjust the orientation of the operation panel 700 so that his/her face and the front surface of the operation panel 700 face each other. FIG. 2 shows an example of an operation panel 700 as an operation unit. As shown in FIG. 2, the operation panel 700 includes a hardware unit 400 having physically provided hard keys 401, a display unit 410 capable of displaying various information and various screens including soft keys 403 described below, and an internal display unit 410. And a panel cover 710 that covers a provided substrate (not shown) and the like. The panel cover 710 is provided so that the hard part 400 and the display part 410 are exposed on the surface. In the case of the present embodiment, as will be described later, the hardware unit 400 and the display unit 410 of the operation panel 700 function as a user interface that enables an input operation by the user's line of sight.

<ハード部>
ハード部400には、例えばプリントキー、コピーキー、テンキー、ストップキー、スタートキー、パワー(オンオフ)スイッチなどの、各種機能が割り当てられた物理的な操作子であるハードキー401が設けられている。本実施形態の場合、ハードキー401は例えば透過性のキーやボタンの裏側に発光用LED402(Light Emitting Diode)が配置されたバックライト付きの操作子である。即ち、ハードキー401を個別に光らせるために、発光用LED402が各ハードキー401に配置されている。なお、操作者が一見して各ハードキー401を区別できれば、発光用LED402の代わりに、ランプなどの発光素子が各ハードキー401の近傍に配設されていてもよい。
<Hardware part>
The hard section 400 is provided with a hard key 401 which is a physical operator to which various functions such as a print key, a copy key, a numeric keypad, a stop key, a start key, and a power (on/off) switch are assigned. .. In the case of this embodiment, the hard key 401 is an operator with a backlight in which a light emitting LED 402 (Light Emitting Diode) is arranged on the back side of a transparent key or button, for example. That is, the LEDs 402 for light emission are arranged on each hard key 401 in order to individually light the hard keys 401. If the operator can distinguish each hard key 401 at a glance, a light emitting element such as a lamp may be arranged near each hard key 401 instead of the light emitting LED 402.

上記したハードキー401にはそれぞれ、操作者による操作に応じて実行する各種機能が予め割り当てられていてもよい。一例として、プリントキーには、通常印刷に関する各種データの入力機能が割り当てられている。コピーキーには、画像形成装置50を複写機として使用する場合(複写モードと呼ぶ)における、複写印刷に関する各種データの入力機能が割り当てられている。具体的には、プリントキーやコピーキーが操作された場合、各種データの入力機能として例えば表示部410に各種データの入力を行うための入力画面を表示する機能が実行される。テンキーには、例えば印刷枚数などの数値を入力する入力機能が割り当てられている。ストップキーには、例えば実行中の画像形成ジョブを強制的に停止させる機能が割り当てられている。スタートキーには、複写モード時の原稿画像の読み取り動作を含め、画像形成ジョブの実行開始を指示する機能が割り当てられている。パワースイッチには、画像形成装置50の電源をオンオフする機能が割り当てられている。 Various functions to be executed according to the operation by the operator may be previously assigned to each of the hard keys 401 described above. As an example, the print key is assigned a function of inputting various data relating to normal printing. The copy key is assigned a function of inputting various data relating to copy printing when the image forming apparatus 50 is used as a copying machine (referred to as a copy mode). Specifically, when the print key or the copy key is operated, as a function of inputting various data, a function of displaying an input screen for inputting various data on the display unit 410 is executed. An input function of inputting a numerical value such as the number of printed sheets is assigned to the ten-key pad. The stop key is assigned, for example, a function of forcibly stopping the image forming job being executed. The start key is assigned a function of instructing the start of execution of an image forming job including the reading operation of the original image in the copy mode. The power switch is assigned a function of turning on/off the power of the image forming apparatus 50.

<表示部>
表示部410は、例えばハードキー401の操作に応じて入力された各種データや、装置の動作状況(ステータスなどと呼ばれる)といった各種情報、各種データを入力する入力画面などの各種画面を適宜に表示し得る。また、本実施形態の場合、表示部410はハードキー401などを模した仮想の操作子としてソフトキー403が表示可能である。図2ではソフトキー403として、例えば複写用のコピーボタン(COPY)、原稿読み取り開始用のスキャンボタン(SCAN)、FAX送信用のボタン(FAX)、これら以外の機能に関する設定画面などを表示させる設定ボタン(設定)等を例に示した。ソフトキー403が表示されている場合、操作者によるソフトキー403に対する表示部410へのタッチ操作に応じて、ソフトキー403に予め割り当てられている各種機能が実行される。つまり、表示部410は操作者によるタッチ操作可能なタッチパネル方式のディスプレイである。
<Display>
The display unit 410 appropriately displays various screens such as various data input according to the operation of the hard key 401, various information such as the operation status of the device (called status), and an input screen for inputting various data. You can Further, in the case of the present embodiment, the display unit 410 can display the soft key 403 as a virtual operator simulating the hard key 401 or the like. In FIG. 2, as the soft key 403, for example, a copy button (COPY) for copying, a scan button for starting document reading (SCAN), a button for fax transmission (FAX), and settings for displaying setting screens related to other functions Buttons (settings) and the like are shown as an example. When the soft key 403 is displayed, various functions pre-assigned to the soft key 403 are executed according to the touch operation of the display unit 410 on the soft key 403 by the operator. That is, the display unit 410 is a touch panel type display that can be touch-operated by the operator.

詳しくは後述するように、本実施形態の場合、操作者は実際にハードキー401に触れて操作せずとも、ハードキー401に視線を向けることで、実際に触れて操作した場合と同様にハードキー401を操作可能としている(所謂、視線入力)。また、表示部410にソフトキー403が表示されている場合に、操作者はソフトキー403へのタッチ操作を行わずとも、操作したいソフトキー403に視線を向けることで、タッチ操作した場合と同様に操作可能、つまり視線入力可能としている。そうするために、本実施形態の画像形成装置50には、操作者の視線を検出するために用いる視線検出装置500が操作パネル700の一部であるパネルカバー710に設けられている。視線検出装置500が操作パネル700に設けられることで、操作パネル700の角度調整にあわせて操作者の視線をより正しく検出可能な位置に調整され得る。 As will be described later in detail, in the case of the present embodiment, even if the operator does not actually touch and operate the hard key 401, the operator can turn the line of sight to the hard key 401 to perform the same hardware operation as when actually touching the hard key 401. The key 401 can be operated (so-called line-of-sight input). Further, when the soft key 403 is displayed on the display unit 410, the operator turns the line of sight to the desired soft key 403 without touching the soft key 403. It can be operated, that is, the line of sight can be input. In order to do so, in the image forming apparatus 50 of the present embodiment, the line-of-sight detection device 500 used to detect the line of sight of the operator is provided on the panel cover 710 which is a part of the operation panel 700. Since the line-of-sight detection device 500 is provided on the operation panel 700, the line-of-sight of the operator can be adjusted to a position that can detect the line-of-sight of the operator more accurately according to the angle adjustment of the operation panel 700.

<視線検出装置>
図2に示すように、視線検出装置500は、カメラ510と近赤外線光源520とを有する。撮像部としてのカメラ510は、例えば赤外光による撮影が可能なオートフォーカス(AF)デジタルカメラであり、CMOSセンサやCCDセンサなどの撮像素子を有している。照射部としての近赤外線光源520は、例えば不可視光の近赤外線光を照射可能な照明装置であり、複数の近赤外線LEDなどの発光素子を有している。近赤外線光源520は画像形成装置50の前面で操作パネル700を操作する操作者に向け近赤外線光を照射可能に配置され、カメラ510は近赤外線光源520から照射される近赤外線光を受けた操作者の顔(より詳くは目)を撮影可能に配置されている。
<Gaze detection device>
As shown in FIG. 2, the visual line detection device 500 has a camera 510 and a near infrared light source 520. The camera 510 as an image pickup unit is, for example, an autofocus (AF) digital camera capable of photographing with infrared light, and has an image pickup element such as a CMOS sensor or a CCD sensor. The near-infrared light source 520 as an irradiation unit is, for example, an illuminating device that can irradiate invisible near-infrared light, and has a plurality of light-emitting elements such as near-infrared LEDs. The near-infrared light source 520 is arranged on the front surface of the image forming apparatus 50 so as to be able to emit near-infrared light toward an operator who operates the operation panel 700, and the camera 510 is operated by receiving the near-infrared light emitted from the near-infrared light source 520. The person's face (more specifically, the eyes) is arranged so that it can be photographed.

また、操作パネル700には、表示ランプ420、カメラ位置表示部421、スピーカ430、振動発生装置440が設けられている。カメラ位置表示部421は、カメラ510の撮影中に点灯することでカメラ510を操作者に見させるために所定位置に配置された、例えば単色(例えば赤色)のLED等である。表示ランプ420は、例えば装置の動作状況を光で操作者に知らせるための複数色のLED等である。表示ランプ420は、例えば装置が使用可能な状態であるときに緑色に点灯され、紙詰まりや故障などにより装置が使用不可の状態であるときに赤色に点灯される。スピーカ430は、例えば音声ガイドによる操作の案内や警告音などを発生可能な音発生手段である。表示ランプ420やスピーカ430が位置調整可能な操作パネル700に設けられると、操作者に対する報知が視覚や音により適切に行われやすくなるので、好ましい。さらに、操作パネル700には振動発生装置440が設けられており、振動発生装置440はハードキー401を個別に振動させ得る。 Further, the operation panel 700 is provided with a display lamp 420, a camera position display unit 421, a speaker 430, and a vibration generator 440. The camera position display unit 421 is, for example, a single-color (for example, red) LED or the like arranged at a predetermined position so that the operator can see the camera 510 by turning on the camera 510 during shooting. The display lamp 420 is, for example, a multi-color LED or the like for notifying the operator of the operation status of the device by light. The display lamp 420 is lit in green when the device is in a usable state, and is lit in red when the device is in a disabled state due to a paper jam or a failure. The speaker 430 is a sound generation unit capable of generating guidance for operation by a voice guide, a warning sound, and the like. It is preferable that the display lamp 420 and the speaker 430 are provided on the operation panel 700 whose position can be adjusted, because it is easy for the operator to be appropriately notified visually or by sound. Further, the operation panel 700 is provided with a vibration generator 440, and the vibration generator 440 can individually vibrate the hard keys 401.

<視線検出について>
ここで、上記した視線検出装置500を用いた操作者の視線検出について、図3及び図4を用いて簡単に説明する。視線検出装置500を用いた操作者の視線検出を可能とするためには、カメラ510により撮影された操作者のデータ(詳しくは目のデータ)を解析する必要がある。そこで、このデータの解析を行うために、後述する制御部300(詳しくは視線検出部330、図5参照)が設けられている。即ち、本実施形態では、視線検出装置500と後述する制御部300(詳しくは視線検出部330)とにより、操作者の視線を検出可能な視線検出手段が構成されている。
<Gaze detection>
Here, the eye-gaze detection of the operator using the eye-gaze detection device 500 described above will be briefly described with reference to FIGS. 3 and 4. In order to detect the line of sight of the operator using the line-of-sight detection device 500, it is necessary to analyze the operator's data (specifically, eye data) captured by the camera 510. Therefore, in order to analyze this data, a control unit 300 (details of a line-of-sight detection unit 330, see FIG. 5) described later is provided. That is, in the present embodiment, the line-of-sight detection device 500 and the control unit 300 (specifically, the line-of-sight detection unit 330) described below constitute a line-of-sight detection unit capable of detecting the line of sight of the operator.

視線検出は、角膜反射法や強膜反射法などの一般的に知られている視線検出法を採用してよく、本実施形態では角膜反射法を採用した。角膜反射法は、近赤外線光が照射された操作者の目の角膜Km表面の反射光の反射点761(プルキニエ像)の反射点中心761pと、眼球750の瞳孔760の瞳孔中心760pとを特定して、操作者の視線を検出する方式である。つまり、反射点中心761pの位置を基準点に、瞳孔中心760pの位置が捉えられることにより、操作者の視線の向きが検出され得る。瞳孔中心760pの位置を捉える方法には明瞳孔法と暗瞳孔法の二つがあり、明瞳孔法は瞳孔を明るくして位置を捉える方法であり、暗瞳孔法は瞳孔を暗くして位置を捉える方法である。本実施形態では、暗瞳孔法を採用した。 For the line-of-sight detection, a generally known line-of-sight detection method such as a corneal reflection method or a scleral reflection method may be adopted, and in the present embodiment, the corneal reflection method is used. The corneal reflection method specifies the reflection point center 761p of the reflection point 761 (Purkinje image) of the reflected light on the cornea Km surface of the operator's eye irradiated with near-infrared light and the pupil center 760p of the pupil 760 of the eyeball 750. Then, the line of sight of the operator is detected. That is, the direction of the operator's line of sight can be detected by capturing the position of the pupil center 760p with the position of the reflection point center 761p as the reference point. There are two methods of capturing the position of the pupil center 760p, the bright pupil method and the dark pupil method. The bright pupil method is a method of brightening the pupil to capture the position, and the dark pupil method is capturing the position by darkening the pupil. Is the way. In this embodiment, the dark pupil method is adopted.

反射点中心761pの位置と瞳孔中心760pの位置の特定は、まず近赤外線光を照射した目の瞳孔760と虹彩762と反射点761とに、カメラ510により撮影されたデータをピクセル単位で分割し、各ピクセルでの輝度を比較する。各ピクセルでの輝度は、瞳孔<虹彩<反射点の順で検出される。この検出結果に従って、瞳孔760と虹彩762と反射点761の輝度の違いにより各々の境界を捉えた画像の白黒二値化が行われ、瞳孔760と反射点761の輪郭から中心を求め、瞳孔中心760pと反射点中心761pの位置を特定する。 To identify the position of the reflection point center 761p and the position of the pupil center 760p, first divide the data captured by the camera 510 into pixel units for the pupil 760 of the eye that has been irradiated with near-infrared light, the iris 762, and the reflection point 761. , Compare the brightness at each pixel. The brightness at each pixel is detected in the order of pupil <iris <reflection point. In accordance with this detection result, an image in which the boundaries of the pupil 760, the iris 762, and the reflection point 761 are captured is black-and-white binarized, and the center is obtained from the contours of the pupil 760 and the reflection point 761. The positions of 760p and the reflection point center 761p are specified.

反射点中心761pと瞳孔中心760pの位置が特定されると、これらに基づき視線ベクトルGbが求められる。視線ベクトルGbは、予め登録済みの眼球モデル情報に基づく角膜曲率半径Rk、瞳孔半径Rd、角膜曲率中心Kcから瞳孔中心760pまでの距離Dkdに基づき求められる(図4参照)。角膜曲率中心Kcと瞳孔中心760pは、瞳孔中心760p及び反射点中心761pの二点、角膜曲率半径Rk、瞳孔半径Rd、角膜曲率中心Kcから瞳孔中心760pまでの距離Dkdから求められる。角膜曲率中心Kcと瞳孔中心760pとがわかれば、これらを結ぶ視線ベクトルGbを得ることができる。視線ベクトルGbが得られることで、以降、カメラ510を介して瞳孔760の動きを捉えることができ、もって操作者の視線を検出可能となる。ここで、視線とは操作者が目で見ている方向であり、その視線が注がれるところが視点である。本実施形態では、この視線を検出することで、操作者が操作パネル700上のいずれの領域を見ているかを検出している。つまり、本実施形態では、視線を検出することで視点を検出していることになる。このように、操作者の視点を検出することにより、操作者が操作パネル700上の領域のうちいずれの領域を見ているかを検出することができる。なお、本実施形態の場合、角膜曲率半径Rk、瞳孔半径Rd、距離Dkdは一般的な平均値を用いてよい。 When the positions of the reflection point center 761p and the pupil center 760p are specified, the line-of-sight vector Gb is obtained based on them. The line-of-sight vector Gb is obtained based on the corneal curvature radius Rk, the pupil radius Rd, and the distance Dkd from the corneal curvature center Kc to the pupil center 760p based on the registered eyeball model information (see FIG. 4). The corneal curvature center Kc and the pupil center 760p are obtained from two points of the pupil center 760p and the reflection point center 761p, the corneal curvature radius Rk, the pupil radius Rd, and the distance Dkd from the corneal curvature center Kc to the pupil center 760p. If the corneal curvature center Kc and the pupil center 760p are known, the line-of-sight vector Gb connecting them can be obtained. By obtaining the line-of-sight vector Gb, it is possible to capture the movement of the pupil 760 through the camera 510, and thus the line-of-sight of the operator can be detected. Here, the line of sight is the direction in which the operator is looking, and the point of sight is the viewpoint. In the present embodiment, by detecting this line of sight, it is detected which area on the operation panel 700 the operator is looking at. That is, in this embodiment, the viewpoint is detected by detecting the line of sight. In this way, by detecting the operator's viewpoint, it is possible to detect which area of the area on the operation panel 700 the operator is looking at. In the case of this embodiment, general average values may be used for the corneal curvature radius Rk, the pupil radius Rd, and the distance Dkd.

なお、瞳孔中心760pと反射点中心761pの位置を特定した後に、視線補正(キャリブレーションなどと呼ばれる)を行うのが好ましい。視線補正は、より小さい誤差で操作者の視線検出を行うために行われる。 Note that it is preferable to perform line-of-sight correction (called calibration or the like) after specifying the positions of the pupil center 760p and the reflection point center 761p. The line-of-sight correction is performed to detect the line-of-sight of the operator with a smaller error.

<制御部>
図1に示すように、本実施形態の画像形成装置50は制御部300を有している。制御部300について、図1や図2を参照しながら図5を用いて説明する。なお、制御部300には、図示した以外にも例えば上述した画像形成ユニット1a〜1d、各種ローラを駆動するモータ、一次転写バイアスや二次転写バイアスを印加する電源、定着装置40などの各種機器が接続され、制御部300によって制御されている。しかし、ここでは発明の本旨でないので、それらの図示及び説明を省略する。
<Control part>
As shown in FIG. 1, the image forming apparatus 50 of this embodiment has a control unit 300. The controller 300 will be described with reference to FIG. 5 while referring to FIG. 1 and FIG. In addition to the illustrated units, the control unit 300 includes, for example, the above-described image forming units 1a to 1d, motors for driving various rollers, a power supply for applying a primary transfer bias and a secondary transfer bias, and various devices such as the fixing device 40. Are connected and controlled by the control unit 300. However, since it is not the gist of the invention here, illustration and description thereof are omitted.

図5に示すように、制御部300は、CPU310(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ320を有する。記憶手段としてのメモリ320には、例えば視線入力プログラム(後述する図6及び図7参照)や画像形成ジョブなどの各種プログラム、後述する視線プロファイル情報やソフトキー表示用の画像データなどの各種データが記憶され得る。CPU310は、メモリ320に記憶されている各種プログラムを実行可能である。なお、メモリ320は、各種プログラムの実行に伴う演算処理結果などを一時的に記憶することもできる。 As illustrated in FIG. 5, the control unit 300 includes a memory 320 such as a CPU 310 (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The memory 320 serving as a storage unit stores various programs such as a line-of-sight input program (see FIGS. 6 and 7 described later) and an image forming job, and various data such as line-of-sight profile information described below and image data for displaying soft keys. Can be remembered. The CPU 310 can execute various programs stored in the memory 320. The memory 320 can also temporarily store the calculation processing result and the like accompanying the execution of various programs.

本実施形態の場合、CPU310は視線入力プログラムを実行することにより、操作者の視線入力に関する画像形成装置50の各種動作を制御し得る。なお、視線入力プログラムはソフトウェアプログラムの形態に限られず、例えばDSP(ディジタル・シグナル・プロセッサ)によって処理されるマイクロプログラムの形態などでも実施可能である。即ち、CPU310は画像形成ジョブなどの制御プログラムを実行して画像形成動作などの各種制御を行うものを併用してよいが、これに限らず、視線入力プログラムを実行するのに専用に用意されたものを用いてもよい。 In the case of the present embodiment, the CPU 310 can control various operations of the image forming apparatus 50 relating to the operator's line-of-sight input by executing the line-of-sight input program. The line-of-sight input program is not limited to the form of a software program, and may be implemented in the form of a micro program processed by a DSP (digital signal processor), for example. That is, the CPU 310 may be configured to execute a control program such as an image forming job to perform various controls such as an image forming operation, but the present invention is not limited to this, and it is prepared specifically for executing the line-of-sight input program. You may use the thing.

このCPU310に対し、例えばデータバス及びアドレスバス等を介し、ハードキー401、発光用LED402、表示部410、表示ランプ420、スピーカ430、振動発生装置440、人感センサ450、視線検出装置500が接続されている。CPU310は、例えば操作者によるハードキー401の操作や表示部410へのタッチ操作により入力された各種データを取得して、メモリ320に記憶し得る。 A hard key 401, a light emitting LED 402, a display unit 410, a display lamp 420, a speaker 430, a vibration generator 440, a human sensor 450, and a line-of-sight detection device 500 are connected to the CPU 310 via, for example, a data bus and an address bus. Has been done. The CPU 310 can acquire various data input by, for example, an operation of the hard key 401 by the operator or a touch operation on the display unit 410, and store the data in the memory 320.

本実施形態の場合、CPU310は、上述した人感センサ450による操作者の所在を検出した場合に、視線入力プログラム(図6及び図7参照)をメモリ320から読み出して実行する。制御部300は、視線入力プログラムの実行時、視線検出部330、報知制御部340、表示制御部341、機能実行部350、情報作成部360などとして機能し得る。 In the case of the present embodiment, the CPU 310 reads the line-of-sight input program (see FIGS. 6 and 7) from the memory 320 and executes the program when the operator's location is detected by the human sensor 450 described above. The control unit 300 can function as the line-of-sight detection unit 330, the notification control unit 340, the display control unit 341, the function execution unit 350, the information creation unit 360, and the like when executing the line-of-sight input program.

視線検出部330は、視線検出装置500からカメラ510により撮影されたデータを取得し、取得したデータを解析する。これにより、視線検出装置500を用いた操作者の視線検出が可能となる。また、視線検出部330は、視線補正を実行し得る。これにより、より正確な視線検出を行うことが可能となる。こうして、本実施形態では、視線検出部330により視線検出装置500を用いた操作者の視線検出が実現される。報知制御部340は、操作者の視線を検出したことを、報知手段としての表示ランプ420、スピーカ430、振動発生装置440、さらには発光用LED402などにより、操作者に報知する制御を実行する。表示制御部341は、報知手段(表示手段)として表示部410を制御し得る。表示制御部341は、上記したソフトキー403やステータスや各種画面を表示部410に表示させる。本実施形態の場合、表示制御部341は操作者の視線を検出したことをステータスとして報知したり、あるいは検出した操作者の視線に基づいて視線が向いているソフトキー403の表示を変更するなどして報知したりし得る。 The line-of-sight detection unit 330 acquires data captured by the camera 510 from the line-of-sight detection device 500 and analyzes the acquired data. Thereby, the line-of-sight of the operator can be detected using the line-of-sight detection device 500. In addition, the line-of-sight detection unit 330 can perform line-of-sight correction. As a result, it is possible to detect the line of sight more accurately. Thus, in the present embodiment, the line-of-sight detection unit 330 realizes the line-of-sight detection of the operator using the line-of-sight detection device 500. The notification control unit 340 executes the control of notifying the operator that the line of sight of the operator has been detected by the display lamp 420, the speaker 430, the vibration generator 440, the light emitting LED 402, and the like as the notification means. The display control unit 341 can control the display unit 410 as a notification unit (display unit). The display control unit 341 causes the display unit 410 to display the above-described soft keys 403, status, and various screens. In the case of the present embodiment, the display control unit 341 notifies that the operator's line of sight has been detected as a status, or changes the display of the soft key 403 to which the line of sight is directed based on the detected line of sight of the operator, etc. You can then inform.

機能実行部350は、操作者によるハードキー401やソフトキー403の操作により、これら操作子に予め割り当てられている各種機能を実行する。これらハードキー401やソフトキー403に対する操作者の操作は、直接的な操作に限らず、上記した操作者の視線検出に基づく視線入力による間接的な操作であってもよい。情報作成手段としての情報作成部360は、後述するように、操作者毎(ユーザ毎)の視線に関する情報である視線プロファイル情報を作成し、作成した視線プロファイル情報をメモリ320に記憶する。 The function execution unit 350 executes various functions pre-assigned to these operators by the operation of the hard key 401 or the soft key 403 by the operator. The operation performed by the operator on the hard keys 401 and the soft keys 403 is not limited to a direct operation, but may be an indirect operation by the line-of-sight input based on the line-of-sight detection of the operator. As will be described later, the information creating unit 360 as an information creating unit creates line-of-sight profile information that is information about the line-of-sight of each operator (each user), and stores the created line-of-sight profile information in the memory 320.

<視線入力プログラム>
次に、本実施形態の視線入力プログラムについて、図3乃至図5を参照しながら図6及び図7を用いて説明する。ここに示す視線入力処理は制御部300により、人感センサ450によって操作者の所在が検出された場合に開始され、人感センサ450によって操作者の所在が検出されなくなった場合に終了される。なお、ここでは図示の都合上、視線入力処理の前半処理を図6に示し、前半処理に後続する後半処理を図7に示した。
<Gaze input program>
Next, the line-of-sight input program of this embodiment will be described with reference to FIGS. 3 to 5 and FIGS. 6 and 7. The line-of-sight input processing shown here is started by the control unit 300 when the presence sensor 450 detects the location of the operator, and ends when the presence sensor 450 no longer detects the location of the operator. For convenience of illustration, the first half processing of the line-of-sight input processing is shown in FIG. 6, and the second half processing subsequent to the first half processing is shown in FIG. 7.

本実施形態では、まずカメラ510により撮影された撮像結果である操作者のデータを解析することで、操作者の視線を検出可能とするための視線検出部330を設定したうえで、撮像結果に基づいて操作者の視線を検出する設定モードを実行する。図6に示すように、制御部300は、カメラ510による操作者の撮影を開始する(S1)。制御部300は撮影の開始に応じて、表示部410に「撮影開始」を表示する(S2)。また、制御部300はカメラ位置表示部421を点灯して(S3)、表示部410にステータスとして「パネル上の赤色部を見てください。」を表示させる(S4)。これにより、カメラ510を操作者に見させることで、カメラ510が操作者の顔を適切に撮影できるようにしている。そして、制御部300は、カメラ510によって撮影され得られたデータに基づいて顔の検出を開始する(S5)。制御部300は顔の検出が完了するまで装置を待機させ(S6のNO)、顔の検出が完了することにより次のステップS7の処理に進む(S6のYES)。この顔の検出では、操作者の視線検出を適正に行うことができるようにするために、操作者ごとに異なる目の位置が特定される。なお、操作者は顔が操作パネル700の正面を向くように、操作パネル700を位置調整することで、カメラ510が顔の検出に好適な位置で操作者の顔を撮影できるようにしている。 In the present embodiment, first, by analyzing the data of the operator, which is the imaged result captured by the camera 510, the line-of-sight detection unit 330 for detecting the line of sight of the operator is set, and then the imaged result is displayed. Based on this, a setting mode for detecting the line of sight of the operator is executed. As shown in FIG. 6, the control unit 300 starts capturing an image of the operator with the camera 510 (S1). In response to the start of shooting, the control unit 300 displays "start shooting" on the display unit 410 (S2). The control unit 300 also turns on the camera position display unit 421 (S3), and causes the display unit 410 to display “Please look at the red portion on the panel” as the status (S4). As a result, by making the operator see the camera 510, the camera 510 can appropriately capture the operator's face. Then, the control unit 300 starts face detection based on the data captured by the camera 510 (S5). The control unit 300 causes the device to wait until the face detection is completed (NO in S6), and when the face detection is completed, the process proceeds to the next step S7 (YES in S6). In this face detection, different eye positions are specified for each operator in order to properly detect the line of sight of the operator. The operator adjusts the position of the operation panel 700 so that the face faces the front of the operation panel 700, so that the camera 510 can photograph the operator's face at a position suitable for face detection.

上記の顔検出は、一般的なデジタルカメラで採用されている公知の顔認識機能を用いてよい。即ち、カメラ510によって撮影され得られたデータに、水平方向バンドパスフィルタ及び垂直方向バンドパスフィルタを作用させて、データからエッジ成分を検出する。そして、検出されたエッジ成分に基づく顔パターンと、メモリ320に記憶済みの多様な顔パターンとのパターンマッチングによって、目、鼻、口等の候補群を抽出することで、データが顔であることが認識される。 The face detection described above may use a known face recognition function adopted in a general digital camera. That is, the horizontal band pass filter and the vertical band pass filter are applied to the data captured by the camera 510 to detect the edge component from the data. Then, by extracting the candidate group of eyes, nose, mouth and the like by pattern matching between the face pattern based on the detected edge component and the various face patterns stored in the memory 320, the data is a face. Is recognized.

顔検出が完了すると、制御部300は近赤外線光源520により近赤外線光を照射開始し(S7)、上述した暗瞳孔法の角膜反射法を用いた視線検出を開始する(S8)。その際に、制御部300は、カメラ位置表示部421を引き続き点灯した状態に維持し、表示部410に「視線検出を開始します。パネル上の赤色部を見てください。」とステータスを表示させる(S9)。こうして、光が照射された状態で操作者にカメラ510を見させて操作者の撮影を行うことで、近赤外線光源520により照射される近赤外線光による角膜表面における反射光の像(プルキニエ像)が操作者の目に鮮明に映るようにしている。 When the face detection is completed, the control unit 300 starts irradiating the near infrared light from the near infrared light source 520 (S7), and starts the line-of-sight detection using the corneal reflection method of the dark pupil method described above (S8). At that time, the control unit 300 keeps the camera position display unit 421 continuously lit and displays the status on the display unit 410 such as "Start line-of-sight detection. Look at the red part on the panel." (S9). In this way, by causing the operator to look at the camera 510 in the state where the light is radiated and taking a picture of the operator, the image of the reflected light on the corneal surface by the near-infrared light emitted by the near-infrared light source 520 (Purkinje image) Is displayed clearly in the eyes of the operator.

そして、制御部300は視線検出が完了するまで装置を待機させ(S10のNO)、視線検出が完了することにより次のステップS11の処理に進む(S10のYES)。本実施形態の場合、制御部300は視線検出を完了したことを操作者に伝え、次の視線補正処理に進むための準備として、表示部410に「視線検出完了しました。次に視線補正を行います。」とステータスを表示させる(S11)。 Then, the control unit 300 makes the apparatus stand by until the line-of-sight detection is completed (NO in S10), and when the line-of-sight detection is completed, the process proceeds to the next step S11 (YES in S10). In the case of the present embodiment, the control unit 300 informs the operator that the sight line detection has been completed and prepares for proceeding to the next sight line correction process by displaying “The sight line detection has been completed. It will be done." is displayed (S11).

なお、本実施形態では、表示部410に上記したようなステータスを表示することで、操作者の視線検出が可能となったことを操作者に報知するようにしたが、操作者への報知方法はこれに限らない。例えば、表示ランプ420を用いてもよい。その場合、設定モードを開始した場合に表示ランプ420を「点滅」させ、設定モードを終了し操作者の視線による入力操作が可能となったら表示ランプ420を「点灯」させてもよい。あるいは、操作者の視線による入力操作が可能となったことを、スピーカ430からの音声により操作者に報知してもよいし、操作パネル700に設けた振動発生装置440を連続あるいは簡潔に振動させて操作者に報知してもよい。 In the present embodiment, by displaying the above status on the display unit 410, the operator is notified that the line-of-sight of the operator can be detected. Is not limited to this. For example, the display lamp 420 may be used. In that case, the display lamp 420 may be "blinked" when the setting mode is started, and the display lamp 420 may be "lighted" when the setting mode is ended and the input operation by the line of sight of the operator becomes possible. Alternatively, the operator may be notified by a voice from the speaker 430 that the input operation by the operator's line of sight has become possible, or the vibration generator 440 provided on the operation panel 700 may be vibrated continuously or simply. The operator may be informed.

本実施形態では、視線検出の完了後、引き続き視線補正(キャリブレーション)を行って視線プロファイル情報を作成する情報取得モードを実行し得る。即ち、図7に示すように、制御部300は視線検出の完了後、視線補正(キャリブレーション)を開始する(S12)。本実施形態では視線補正の一例として、操作者に複数点を停留視させる方法を用いた。即ち、操作者が操作パネル700の三つ以上の複数の箇所を見るように順次に誘導し、各箇所を所定時間以上に亘り見るように視線を停留させた状態で、各箇所における瞳孔中心760pおよび反射点中心761pの位置関係(図4参照)を得る。そして、得られた瞳孔中心760pおよび反射点中心761pの位置関係と、操作パネル700の各地点の位置関係とに基づき、視線検出結果(S10参照)を補正する。こうして視線補正された視線検出結果は、操作者毎に視線プロファイル情報としてメモリ320に記憶される。 In the present embodiment, after completion of the sight line detection, the information acquisition mode for continuously performing the sight line correction (calibration) and creating the sight line profile information can be executed. That is, as shown in FIG. 7, the control unit 300 starts line-of-sight correction (calibration) after completion of line-of-sight detection (S12). In the present embodiment, as an example of the line-of-sight correction, a method of allowing the operator to stay at a plurality of points is used. That is, the operator sequentially guides the operator to see three or more locations on the operation panel 700, and stops the line of sight so as to see each location for a predetermined time or longer. And the positional relationship of the reflection point center 761p (see FIG. 4) is obtained. Then, the visual axis detection result (see S10) is corrected based on the obtained positional relationship between the pupil center 760p and the reflection point center 761p and the positional relationship between the points on the operation panel 700. The line-of-sight detection result thus line-of-sight corrected is stored in the memory 320 as line-of-sight profile information for each operator.

ここで、視線補正に必要な条件について、図5を参照しながら図8を用いて説明する。操作パネル700には、視線検出部330が操作パネル700の各箇所を特定できるように、網の目状に分割されたアドレスが予め付されている。本実施形態では、図8に示すように、行方向を「AA」から「KK」で示す10行に振り分け、列方向を「01」から「13」で示す13列に振り分け、「10行×13列=130箇所」のアドレスを有している。このアドレスには、三次元空間の絶対座標としてX方向、Y方向、Z方向の絶対座標が付されており、視線検出部330による計算の基礎データとしてメモリ320に記憶されている。 Here, the conditions required for the line-of-sight correction will be described with reference to FIG. 5 and FIG. The operation panel 700 is preliminarily provided with addresses divided into a mesh shape so that the line-of-sight detection unit 330 can identify each location on the operation panel 700. In the present embodiment, as shown in FIG. 8, the row direction is divided into 10 rows indicated by “AA” and “KK”, and the column direction is divided into 13 columns indicated by “01” to “13”, and “10 rows× 13 columns=130 locations”. Absolute coordinates in the X direction, Y direction, and Z direction are attached to this address as absolute coordinates in the three-dimensional space, and are stored in the memory 320 as basic data for calculation by the line-of-sight detection unit 330.

また、操作パネル700の四隅のうちの3カ所には、視線補正のために操作者に視認させるためのターゲット部としてのマーカ751、752、753が設けられている。ここでは、マーカ751が操作パネル700の左上角部に、マーカ752が操作パネル700の右上角部に、マーカ753が操作パネル700の右下角部にそれぞれ設けられている。これらマーカ751〜753は、いずれか2つのマーカを結ぶ直線上に他のマーカが位置しないように設けられている。なお、マーカは操作パネル700上の少なくとも2カ所以上に設けられていればよい。ただし、マーカのうち少なくとも2つは操作パネル700の角部に設けられているのが好ましい。 In addition, markers 751, 752, and 753 are provided at three locations among the four corners of the operation panel 700 as target portions that are visually recognized by the operator for line-of-sight correction. Here, the marker 751 is provided in the upper left corner of the operation panel 700, the marker 752 is provided in the upper right corner of the operation panel 700, and the marker 753 is provided in the lower right corner of the operation panel 700. These markers 751 to 753 are provided so that no other marker is located on a straight line connecting any two markers. The markers may be provided on at least two locations on the operation panel 700. However, it is preferable that at least two of the markers are provided at the corners of the operation panel 700.

ターゲット部は操作者が視認しやすいように、例えば5mm×5mmの四角形状に形成され、マーカ751〜753のように目立つ色(例えば黄色や青色など、パネルカバー710の色と異なる色)で塗装されていてもよい。あるいは、LEDなどで発光可能に形成されていてもよい。また、パネルカバー710にシール部材が貼り付けられることで形成されていてもよい。なお、ターゲット部それぞれの大きさは、操作者が視認しやすい大きさであって、かつ視線補正が可能な大きさであれば上述した大きさに限らなくてもよい。これらターゲット部としてのマーカ751〜753には、三次元空間の絶対座標としてX方向、Y方向、Z方向の絶対座標が付される。例えば、マーカ751(アドレスAA01)の中心位置座標は、「X=AA01x、Y=AA01y、Z=AA01z」である。マーカ752(アドレスAA13)の中心位置座標は、「X=AA13x、Y=AA13y、Z=AA13z」である。マーカ753(アドレスKK13)の中心位置座標は、「X=KK13x、Y=KK13y、Z=KK13z」である。これらマーカ751〜753の中心位置座標は、操作パネル700の角度によって変わり得る。 The target portion is formed in a quadrangular shape of, for example, 5 mm×5 mm so that the operator can easily recognize it, and is painted in a conspicuous color (for example, a color different from the color of the panel cover 710 such as yellow or blue) like the markers 751 to 753. It may have been done. Alternatively, it may be formed so as to emit light by using an LED or the like. Further, it may be formed by attaching a seal member to the panel cover 710. Note that the size of each target portion is not limited to the above-described size as long as it is a size that is easily visible to the operator and that the line of sight can be corrected. The markers 751 to 753 as the target portions are provided with absolute coordinates in the X direction, Y direction, and Z direction as absolute coordinates in the three-dimensional space. For example, the center position coordinates of the marker 751 (address AA01) are “X=AA01x, Y=AA01y, Z=AA01z”. The center position coordinates of the marker 752 (address AA13) are “X=AA13x, Y=AA13y, Z=AA13z”. The center position coordinates of the marker 753 (address KK13) are “X=KK13x, Y=KK13y, Z=KK13z”. The center position coordinates of these markers 751 to 753 may change depending on the angle of the operation panel 700.

図7の説明に戻り、制御部300は、視線補正を行うことを操作者に報知するために、表示部410に「視線補正を開始します。操作部左上のマーカを見てください。」とステータスを表示させる(S13)。そして、制御部300は、カメラ510に撮影されたマーカ751を停留視する操作者のデータに基づいて、マーカ751の停留視により視線補正に必要な情報収集が完了したか否かを判定する(S14)。制御部300は、視線補正に必要な情報収集が完了するまで、操作者にマーカ751を停留視させて、それをカメラ510に撮影させる(S14のNO)。こうすることで、カメラ510に撮影された操作者のデータから、操作者がマーカ751(マーカA)を停留視した時の目視点2点の位置及び視線情報を得る。具体的には、マーカA反射点中心761pA、マーカA瞳孔中心760pA、マーカA算術角膜曲率中心KcAs、マーカA算術視線ベクトルGsAが得られる。 Returning to the explanation of FIG. 7, the control unit 300 informs the operator that the eye gaze correction will be performed. The display unit 410 says “Start eye gaze correction. Look at the marker on the upper left of the operation unit.” The status is displayed (S13). Then, the control unit 300 determines whether or not the information collection necessary for the line-of-sight correction has been completed by the stationary view of the marker 751 based on the data of the operator who fixedly views the marker 751 captured by the camera 510 ( S14). The control unit 300 makes the operator stop the marker 751 and causes the camera 510 to take an image of the marker 751 until the collection of information necessary for the line-of-sight correction is completed (NO in S14). By doing so, the position and line-of-sight information of the two eye viewpoints when the operator stops the marker 751 (marker A) from the data of the operator captured by the camera 510 are obtained. Specifically, the marker A reflection point center 761 pA, the marker A pupil center 760 pA, the marker A arithmetic corneal curvature center KcAs, and the marker A arithmetic line-of-sight vector GsA are obtained.

マーカ751の停留視により視線補正に必要な情報収集が完了した場合(S14のYES)、制御部300は同様にして、操作者に別のマーカ752を停留視させて、それをカメラ510に撮影させる。そうするため、制御部300は、表示部410に「視線補正中です。操作部右上のマーカを見てください。」とステータスを表示させる(S15)。制御部300は、マーカ752(マーカB)を停留視する操作者のデータに基づいて、マーカ752の停留視により視線補正に必要な情報収集が完了するまで、操作者にマーカ752を停留視させて、それをカメラ510に撮影させる(S16のNO)。こうすることで、カメラ510に撮影された操作者のデータから、マーカB反射点中心761pB、マーカB瞳孔中心760pB、マーカB算術角膜曲率中心KcBs、マーカB算術視線ベクトルGsBが得られる。 When the collection of information necessary for line-of-sight correction is completed due to the stationary view of the marker 751 (YES in S14), the control unit 300 similarly causes the operator to stay at another marker 752 and captures it with the camera 510. Let In order to do so, the control unit 300 causes the display unit 410 to display the status "Gaze correction is in progress. Look at the marker on the upper right of the operation unit." (S15). The control unit 300 causes the operator to stay on the marker 752 until the information gathered for the eye gaze correction is completed by stopping the marker 752 on the basis of the data of the operator who stays on the marker 752 (marker B). Then, the image is taken by the camera 510 (NO in S16). By doing so, the marker B reflection point center 761pB, the marker B pupil center 760pB, the marker B arithmetic corneal curvature center KcBs, and the marker B arithmetic line-of-sight vector GsB are obtained from the data of the operator photographed by the camera 510.

さらに、制御部300は、操作者に別のマーカ753を停留視させて、それをカメラ510に撮影させる。そうするため、制御部300は、表示部410に「視線補正中です。操作部右下のマーカを見てください。」とステータスを表示させる(S17)。制御部300は、マーカ753(マーカC)を停留視する操作者のデータに基づいて、マーカ753の停留視により視線補正に必要な情報収集が完了するまで、操作者にマーカ753を停留視させて、それをカメラ510に撮影させる(S18のNO)。こうすることで、カメラ510に撮影された操作者のデータから、マーカC反射点中心761pC、マーカC瞳孔中心760pC、マーカC算術角膜曲率中心KcCs、マーカC算術視線ベクトルGsCが得られる。制御部300は、こうして得た視線補正に必要な情報に基づき視線補正値を算出すると共に、表示部410に「視線補正計算中です。お待ちください。」とステータスを表示させる(S19)。また、制御部300は、カメラ位置表示部421を消灯する(S20)。制御部300は、情報作成部360による操作者毎の視線プロファイル情報の算出(視線補正値の算出)が完了するまで、言い換えれば当該操作者の適正な視線検出が可能となるまで、処理の進行を待機させる(S21のNO)。この視線補正値の算出が完了すると、制御部300(詳しくは視線検出部330)は視線ベクトル(図4参照)と操作パネル700のアドレス(図8参照)とを略一致させることが可能となる。なお、以上の説明では、各マーカ751〜753を見るように促す表示を、各マーカ751〜753毎に順に表示したが、これに限らない。例えば、マーカ751〜753の代わりにターゲット部としてLEDを設ける場合は、「点灯するLEDを順に見てください。」といった表示を行うものであってもよい。 Further, the control unit 300 makes the operator stop the other marker 753 and causes the camera 510 to take an image of it. In order to do so, the control unit 300 causes the display unit 410 to display the status "Gaze correction is in progress. Look at the marker at the lower right of the operation unit." (S17). The control unit 300 causes the operator to stay on the marker 753 until the collection of information necessary for the line-of-sight correction is completed based on the data on the operator who stays on the marker 753 (marker C). Then, the image is taken by the camera 510 (NO in S18). By doing this, the marker C reflection point center 761pC, the marker C pupil center 760pC, the marker C arithmetic corneal curvature center KcCs, and the marker C arithmetic line-of-sight vector GsC are obtained from the data of the operator photographed by the camera 510. The control unit 300 calculates the line-of-sight correction value based on the information necessary for line-of-sight correction thus obtained, and causes the display unit 410 to display the status “Line-of-sight correction is being calculated. Please wait.” (S19). The control unit 300 also turns off the camera position display unit 421 (S20). The control unit 300 proceeds with the process until the calculation of the line-of-sight profile information for each operator (calculation of the line-of-sight correction value) by the information creating unit 360 is completed, in other words, until the line-of-sight of the operator can be properly detected. Is waited (NO in S21). When the calculation of the line-of-sight correction value is completed, the control unit 300 (specifically, the line-of-sight detection unit 330) can substantially match the line-of-sight vector (see FIG. 4) and the address of the operation panel 700 (see FIG. 8). .. In the above description, the display prompting the user to see each of the markers 751 to 753 is sequentially displayed for each of the markers 751 to 753, but the display is not limited to this. For example, when an LED is provided as the target portion instead of the markers 751 to 753, a display such as “Please look at the LEDs that light up in order” may be displayed.

視線補正値の算出について、マーカ751のYZ方向の視線補正値を例に説明する。視線補正値の算出には、マーカ751の中心位置座標「X=AA01x、Y=AA01y、Z=AA01z」、マーカA反射点中心761pA、マーカA瞳孔中心760pA、マーカA算術角膜曲率中心KcAs、マーカA算術視線ベクトルGsAが用いられる。マーカ751の算術視線ベクトルGsAと操作パネル700のマーカ751のY座標「AA01y」とZ座標「AA01z」から、マーカA角膜曲率中心KcAが得られる。このマーカA角膜曲率中心KcAとマーカA算術角膜曲率中心KcAsの座標ずれが、操作者個々と算術式を用いた平均値との誤差であり、この誤差を補正値として視線検出部330の視線計測計算式(不図示)に用いる。これをXZ方向の算術、またマーカ752やマーカ753を停留視させることにより得られた視線情報でも同様に算術することで、より高い視線検出精度が得られる。 The calculation of the line-of-sight correction value will be described by taking the line-of-sight correction value of the marker 751 in the YZ direction as an example. To calculate the line-of-sight correction value, the center position coordinates “X=AA01x, Y=AA01y, Z=AA01z” of the marker 751, the marker A reflection point center 761pA, the marker A pupil center 760pA, the marker A arithmetic corneal curvature center KcAs, the marker The A arithmetic line-of-sight vector GsA is used. The marker A corneal curvature center KcA is obtained from the arithmetic line-of-sight vector GsA of the marker 751 and the Y coordinate “AA01y” and Z coordinate “AA01z” of the marker 751 on the operation panel 700. The coordinate deviation between the marker A corneal curvature center KcA and the marker A arithmetic corneal curvature center KcAs is an error between each operator and an average value using an arithmetic expression, and the line-of-sight measurement of the line-of-sight detection unit 330 is made the error as a correction value. Used for calculation formula (not shown). Higher visual line detection accuracy can be obtained by performing arithmetic on this in the XZ direction, and also by performing similar arithmetic operation on visual line information obtained by keeping the markers 752 and 753 stationary.

図7の説明に戻り、制御部300は、上述のように情報取得モードの実行によりマーカ751〜753を設けた所定位置毎に検出される操作者の視線に基づいて、操作者毎の視線プロファイル情報を作成する。そして、制御部300は、作成した視線プロファイル情報に基づき正確な視線検出が可能となると(S21のYES)、操作者の視線により各種機能を実行する視線入力モードに移行する。視線入力モードは、設定モードにおいて検出したユーザの視線による視線入力操作に従って画像形成に関する入力を受け付けるモードである。設定モードから視線入力モードへの移行に伴い、制御部300は表示部410にステータスとして「視線補正を完了し、視線検出を開始します。」と表示し(S22)、操作者の視線検出を開始する(S23)。このように、本実施形態では、設定モードにおいてユーザの視線を検出可能な状態に設定され、視線入力モードにおいて設定モードの設定に基づいて検出されたユーザの視線による視線入力操作が可能となったことを操作者に報知する。言い換えれば、設定モードにおいてユーザの視線を検出可能な状態への設定が完了したことをユーザに報知する、あるいは設定モードから視線入力モードに移行したことをユーザに報知する。この際に、制御部300(詳しくは表示制御部341)は視線検出の開始にあわせ、操作者の視線が向いている表示部410上の位置を操作者に報知するため、表示部410に操作者の視線を示す印として視線ポインタ810(図2参照)を表示させる(S24)。そして、制御部300は視線入力を開始する(S25)。即ち、表示部410に表示される視線ポインタ810は、操作者の視線移動にあわせて表示部410上を移動するように表示されることから、操作者は視線ポインタ810により自身の視線がどこに向いているのかを認識できる。また、操作者は視線をハード部のハードキー401に向ける、あるいは視線により視線ポインタ810を表示部410に表示されたソフトキー403にあわせることで、これらの操作つまりは各種機能を実行させることができる(視線入力)。 Returning to the description of FIG. 7, the control unit 300, based on the line of sight of the operator detected at each predetermined position where the markers 751 to 753 are provided by executing the information acquisition mode as described above, the line-of-sight profile for each operator. Create information. Then, when it becomes possible to accurately detect the line of sight based on the created line-of-sight profile information (YES in S21), the control unit 300 shifts to the line-of-sight input mode in which various functions are executed by the line of sight of the operator. The line-of-sight input mode is a mode in which an input relating to image formation is accepted according to the line-of-sight input operation by the user's line of sight detected in the setting mode. With the transition from the setting mode to the line-of-sight input mode, the control unit 300 displays “Status of completion of line-of-sight correction and start line-of-sight detection” on the display unit 410 (S22) to detect the line-of-sight of the operator. It starts (S23). As described above, in the present embodiment, the line of sight of the user is set in a state in which the line of sight of the user can be detected in the setting mode, and the line of sight input operation by the line of sight of the user detected based on the setting of the setting mode in the line of sight input mode becomes possible. This is notified to the operator. In other words, the user is notified that the setting to the state in which the user's line of sight can be detected in the setting mode is completed, or the user is notified that the setting mode has been changed to the line-of-sight input mode. At this time, the control unit 300 (specifically, the display control unit 341) operates the display unit 410 in order to notify the operator of the position on the display unit 410 at which the line of sight of the operator is facing, at the start of the detection of the line of sight. A line-of-sight pointer 810 (see FIG. 2) is displayed as a mark indicating the line of sight of the person (S24). Then, the control unit 300 starts line-of-sight input (S25). That is, the line-of-sight pointer 810 displayed on the display unit 410 is displayed so as to move on the display unit 410 in accordance with the line-of-sight movement of the operator. I can recognize what is happening. The operator can execute these operations, that is, various functions, by directing the line of sight to the hard key 401 of the hardware unit or by aligning the line of sight pointer 810 with the soft key 403 displayed on the display unit 410 by the line of sight. Can be done (line-of-sight input).

視線検出が可能となると、視線検出部330はカメラ510により撮影された操作者のデータに基づき、位置算出を連続的に行っていく。これにより、表示部410に表示される視線ポインタ810は、操作者の視線移動にあわせて表示制御部341により表示部410上を移動するように表示される。そして、操作者の視線が表示部410からはずれてハード部400に移動すると、表示制御部341は視線ポインタ810を非表示とする。また、操作者の視線がハード部400のいずれかのハードキー401に向いていれば、表示制御部341は視線先のハードキー401に関する情報(例えば名称や機能など)を表示部410に表示する。表示制御部341による視線先の特定は、操作パネル700のアドレス「AA01」から「KK13」の各領域の座標と(図8参照)、視線検出部330により特定される視線の座標とが略一致するかによって行われる。例えば、ハード部400の低電力モードボタンのアドレスは「BB12」であることから、視線の座標がアドレス「BB12」の座標と略一致した場合に、表示部410にステータスとして「低電力ボタンを見ています」などの表示が行われる。 When the line-of-sight detection is possible, the line-of-sight detection unit 330 continuously calculates the position based on the data of the operator photographed by the camera 510. As a result, the line-of-sight pointer 810 displayed on the display unit 410 is displayed by the display control unit 341 so as to move on the display unit 410 in accordance with the movement of the line of sight of the operator. Then, when the line of sight of the operator deviates from the display unit 410 and moves to the hardware unit 400, the display control unit 341 hides the line-of-sight pointer 810. Further, if the operator's line of sight is directed to one of the hard keys 401 of the hardware unit 400, the display control unit 341 displays information (for example, name and function) on the hard key 401 of the line of sight on the display unit 410. .. In the specification of the line-of-sight destination by the display control unit 341, the coordinates of each area from the address “AA01” to “KK13” of the operation panel 700 (see FIG. 8) and the coordinates of the line-of-sight specified by the line-of-sight detection unit 330 substantially match. It depends on what you do. For example, since the address of the low power mode button of the hardware unit 400 is “BB12”, when the coordinates of the line of sight are substantially coincident with the coordinates of the address “BB12”, the status of “Low power button is displayed on the display unit 410 is displayed. Is displayed.” is displayed.

そして、制御部300は、人感センサ450によって操作者の所在を検出している状態であるか否かを判定し(S26)、操作者の所在を検出している状態である限り(S26のYES)、S25の処理に戻って視線入力を続行する。他方、操作者の所在を検出している状態から操作者の所在を検出していない状態に移行した場合には(S26のNO)、制御部300は本視線入力処理を終了する。なお、上述したように、操作者の視線検出に非常に高い精度が求められないような場合には、視線補正が行われなくてもよい。この場合は、図6のS10で視線検出が完了した場合に、S11にて表示部に「視線検出完了。視線による入力操作が可能です。」等の表示を行う。つまり、視線補正を行わない場合は、S10で設定モードが完了したことになる。そして、図6のS11の処理を実行した後、図7のS23以降の処理を実行する。つまり、視線補正を行わない場合は、S10で検出した視線に基づいて、視線による入力操作が可能となる。また、視線補正を実行するか否かについては、操作者によって設定される構成としてもよい。 Then, the control unit 300 determines whether or not the presence sensor 450 is detecting the location of the operator (S26), and as long as the presence of the operator is detected (S26: (YES), and returns to the process of S25 to continue the line-of-sight input. On the other hand, when the state where the location of the operator is detected is changed to the state where the location of the operator is not detected (NO in S26), the control unit 300 ends the main line-of-sight input process. As described above, when the operator's line-of-sight detection does not require very high accuracy, the line-of-sight correction may not be performed. In this case, when the line-of-sight detection is completed in S10 of FIG. 6, a message such as "Line-of-sight detection completed. Input operation by line-of-sight is possible" is displayed on the display unit in S11. That is, when the line-of-sight correction is not performed, the setting mode is completed in S10. Then, after executing the process of S11 of FIG. 6, the processes of S23 and subsequent steps of FIG. 7 are executed. That is, when the line-of-sight correction is not performed, the line-of-sight input operation is possible based on the line-of-sight detected in S10. Further, whether or not to perform the line-of-sight correction may be set by the operator.

<視線入力操作の一例>
上記の視線入力操作について、図9及び図10を用いて具体的に説明する。図9では、表示部410に表示されたソフトキー403である「コピーボタン(COPY)」を、操作者が視線により操作する場合を例に説明する。操作者は表示部410に表示された視線ポインタ810を確認することで、視線をコピーボタン上に動かし得る。コピーボタンのアドレスは、「CC02、CC03,DD02、DD03」である(図8参照)。操作者がこの四ヶ所の領域内に第一時間以上(例えば2秒以上)に亘り視線ポインタ810がある状態を続けることで、視線検出部330は操作者がコピーボタンを見ていると確定できる。表示制御部341は、視線検出部330による操作者の視線の位置が確定されると、図9に示すように、表示部410にステータスとして「コピーボタンを選択しています」などと表示させる。また、表示制御部341は、視線ポインタ810に重なっているソフトキー(ここではコピーボタン)の表示色を、視線ポインタ810に重なっていない他のソフトキーの表示色と異なる色に変更する。これにより、操作者は、自身の視線の位置と、画像形成装置が検出している視線の位置とが一致するか否かを確認することができる。
<Example of eye-gaze input operation>
The above-mentioned line-of-sight input operation will be specifically described with reference to FIGS. 9 and 10. In FIG. 9, the case where the operator operates the “copy button (COPY)”, which is the soft key 403 displayed on the display unit 410, by the line of sight will be described as an example. By checking the line-of-sight pointer 810 displayed on the display unit 410, the operator can move the line of sight onto the copy button. The address of the copy button is “CC02, CC03, DD02, DD03” (see FIG. 8). When the operator keeps the line-of-sight pointer 810 in the four areas for the first time or longer (for example, 2 seconds or longer), the line-of-sight detection unit 330 can determine that the operator is looking at the copy button. .. When the position of the line of sight of the operator is determined by the line-of-sight detection unit 330, the display control unit 341 causes the display unit 410 to display “Status such as “copy button selected”” as shown in FIG. In addition, the display control unit 341 changes the display color of the soft key (here, the copy button) that is overlapped with the line-of-sight pointer 810 to a color different from the display color of the other soft keys that are not overlapped with the line-of-sight pointer 810. This allows the operator to confirm whether or not the position of his own line of sight and the position of his line of sight detected by the image forming apparatus match.

その後、上記四ヶ所の領域内に視線ポインタ810がある状態がさらに第二時間以上(例えば1秒以上)に亘り続けられると、表示制御部341は表示部410の表示を切り替える。例えば、図10に示すように、表示制御部341は「コピーボタン」の代わりのソフトキー403として、「はい」ボタンと「いいえ」ボタンとを有する選択画面を表示部410に表示させる。それと同時に、表示部410のステータスを「コピーボタンを選択しています」から「コピーボタンに決定しますか」に切り替える。そして、操作者が「はい」ボタンに視線を向けた場合、機能実行部350は「コピーボタン」に割り当てられたコピー機能を実行するよう装置を動作させる。他方、操作者が「いいえ」ボタンに視線を向けた場合、表示制御部341は上記の選択画面から、「コピーボタン」選択前の画面(図9参照)に戻る制御を行う。なお、視線ポインタ810が所定の領域内に所定時間位置している状態を判定できる時間であれば、第一時間や第二時間は同じ時間(例えばどちらも1秒以上等)としてもよい。 After that, when the state of the line-of-sight pointer 810 within the above-mentioned four areas continues for a second time or longer (for example, 1 second or longer), the display control unit 341 switches the display of the display unit 410. For example, as shown in FIG. 10, the display control unit 341 causes the display unit 410 to display a selection screen having a “Yes” button and a “No” button as the soft key 403 instead of the “Copy button”. At the same time, the status of the display unit 410 is switched from “selecting the copy button” to “decide on copy button”. Then, when the operator looks at the “Yes” button, the function executing unit 350 operates the apparatus so as to execute the copy function assigned to the “Copy button”. On the other hand, when the operator turns his sight to the “No” button, the display control unit 341 performs control to return from the above selection screen to the screen (see FIG. 9) before the selection of the “copy button”. The first time and the second time may be the same time (for example, both are 1 second or more) as long as it is possible to determine the state in which the line-of-sight pointer 810 is located within the predetermined area for the predetermined time.

なお、本実施形態では例えば操作方法がわからない場合に、操作者が表示部410に表示された「ヘルプ」ボタンを視線入力により操作して、マニュアルを呼び出したり、サポートセンターへの問合せを行う等、画像形成以外の動作を行うことができてもよい。 In the present embodiment, for example, when the operation method is unknown, the operator operates the “help” button displayed on the display unit 410 by line-of-sight input to call a manual or make an inquiry to the support center. It may be possible to perform operations other than image formation.

また、上述した実施形態では、視線によるハードキー401やソフトキー403の選択の際に、表示部410に選択されているハードキー401やソフトキー403に関する情報を表示して、操作者に報知するようにしたが、これに限らない。例えば、ハードキー401を点滅させる、ソフトキー403の表示色やサイズを変えるなど、操作者に視線の向いている先のハードキー401やソフトキー403、つまりは視線入力により操作されるハードキー401やソフトキー403を報知できればよい。さらには、スピーカ430を用いた音(音声ガイド)により、また振動発生装置440を用いた振動により報知してもよい。 Further, in the above-described embodiment, when the hard key 401 or the soft key 403 is selected by the line of sight, information about the selected hard key 401 or the soft key 403 is displayed on the display unit 410 to notify the operator. However, it is not limited to this. For example, the hard key 401 is blinked, the display color or size of the soft key 403 is changed, or the like. The hard key 401 or the soft key 403 ahead of the operator's line of sight, that is, the hard key 401 operated by line-of-sight input. It suffices that the or soft key 403 be notified. Furthermore, you may notify by the sound (sound guide) using the speaker 430, or the vibration using the vibration generator 440.

なお、作成された操作者毎の視線プロファイル情報はメモリ320(図5参照)に記憶しておき、次に画像形成装置50を使用する際に呼び出して使用できるようにするのが好ましい。こうすることで、同じ操作者が次に画像形成装置50を使用する際に、情報取得モード(図7のS12〜S21)の実行を省略できる。例えば、画像形成装置50に特定手段としての認証装置800(図1参照)を設け、個人情報が書き込まれたIDカードで認証を行うことによって、該当する視線プロファイル情報をメモリ320から読み出すことができるようにしてよい。即ち、認証装置800により特定された操作者がメモリ320に視線プロファイル情報の記憶されている操作者である場合、上述の情報取得モードとして、メモリ320から該当する視線プロファイル情報を読み出すだけでよい。言い換えれば、認証装置800により特定された操作者がメモリ320に視線プロファイル情報の記憶されていない操作者である場合に、上述の情報取得モードを実行して、視線プロファイル情報を作成してメモリ320に記憶する。 It is preferable that the created line-of-sight profile information for each operator is stored in the memory 320 (see FIG. 5) so that the line-of-sight profile information can be called and used when the image forming apparatus 50 is used next time. By doing so, when the same operator uses the image forming apparatus 50 next time, the execution of the information acquisition mode (S12 to S21 in FIG. 7) can be omitted. For example, by providing the image forming apparatus 50 with an authentication device 800 (see FIG. 1) as a specifying unit and performing authentication with an ID card in which personal information is written, corresponding line-of-sight profile information can be read from the memory 320. You can do it. That is, when the operator specified by the authentication device 800 is the operator whose line-of-sight profile information is stored in the memory 320, it suffices to read the corresponding line-of-sight profile information from the memory 320 as the above-described information acquisition mode. In other words, when the operator specified by the authentication device 800 is an operator whose line-of-sight profile information is not stored in the memory 320, the above-described information acquisition mode is executed to create the line-of-sight profile information to create the memory 320. Remember.

以上のように、本実施形態では、視線検出装置500を用いての操作者の視線検出が可能となったことを、表示、音声、振動などによって操作者に対し報知するようにした。操作者は、報知により視線検出が可能であることがわかるので、すぐに視線入力による操作を行うことができ、ユーザ利便性が向上する。これに対し、従来のように視線検出が可能であることが報知されていない場合、操作者は視線入力による操作が可能であるかがわからず、視線入力による操作に手間取る。特に、始めて視線入力を行う操作者は、そのための準備として視線検出を行う必要があり、視線検出が可能であることが報知されないと、スムースに視線入力を行うことが難しい。本実施形態では、操作者の視線検出が可能となったことを操作者に報知することで、操作者は準備としての視線検出から視線入力のための視線検出への移行をスムースに行うことができるので、ユーザ利便性が向上する。このように、画像形成装置50において視線検出技術を採用した構成であって、操作者にとってより使い勝手のよいつまりユーザ利便性のより高いものが実現できる。 As described above, in the present embodiment, the fact that the line-of-sight of the operator can be detected using the line-of-sight detection device 500 is notified to the operator by display, voice, vibration, or the like. Since the operator knows that the line-of-sight can be detected by the notification, the operator can immediately perform the operation by the line-of-sight input, which improves the convenience of the user. On the other hand, when it is not informed that the line-of-sight can be detected as in the conventional case, the operator does not know whether the operation can be performed by the line-of-sight input, and the operation by the line-of-sight input takes time. In particular, the operator who first inputs the line of sight needs to detect the line of sight as a preparation for that, and it is difficult to smoothly perform the line of sight input unless it is notified that the line of sight can be detected. In the present embodiment, by notifying the operator that the line-of-sight of the operator can be detected, the operator can smoothly perform the transition from the line-of-sight detection as preparation to the line-of-sight detection for line-of-sight input. Therefore, user convenience is improved. As described above, it is possible to realize a configuration in which the visual line detection technology is adopted in the image forming apparatus 50, which is more convenient for the operator, that is, more convenient for the user.

なお、上述した実施形態では、操作パネル700上にハード部400と表示部410とを有するものを例に説明したが、これに限らない。例えば、操作パネル700はハード部400のみを有するもの、あるいは表示部410のみの全面液晶パネルを有するものであってもよい。つまりは、ハードキー401のみ、あるいは表示部410に表示されたソフトキー403のみが、操作者の視線により操作可能であってよい。また、上述した実施形態では、操作パネル700に視線検出装置500を設ける構成としたがこれに限らない。例えば、視線検出装置500は、操作パネル700周辺の位置であって、操作パネル700に対する操作者の視線を検出することが可能な位置であれば、装置本体50aや原稿読取装置601などに設けられていてもよい。 In the above-described embodiment, the operation panel 700 having the hardware section 400 and the display section 410 has been described as an example, but the present invention is not limited to this. For example, the operation panel 700 may have only the hardware section 400 or may have an entire liquid crystal panel having only the display section 410. That is, only the hard key 401 or only the soft key 403 displayed on the display unit 410 may be operable by the operator's line of sight. Further, in the above-described embodiment, the line-of-sight detection device 500 is provided on the operation panel 700, but the present invention is not limited to this. For example, the line-of-sight detection device 500 is provided in the device main body 50a, the document reading device 601, or the like at a position around the operation panel 700 and at a position where the line of sight of the operator with respect to the operation panel 700 can be detected. May be.

50…画像形成装置、300…制御部、320…記憶手段(メモリ)、330…視線検出手段(視線検出部)、341…表示制御手段(表示制御部)、350…実行手段(機能実行部)、360…情報作成手段(情報作成部)、401…操作子(ハードキー)、402…報知手段(発光手段、発光用LED)、403…操作子(ソフトキー)、410…報知手段(表示手段、表示部)、420…報知手段(発光手段、表示ランプ)、430…報知手段(音発生手段、スピーカ)、440…報知手段(振動発生手段、振動発生装置)、500…視線検出手段(視線検出装置)、510…撮像部(カメラ)、700…操作部(操作パネル)、710…パネルカバー、751、752、753…ターゲット部(マーカ)、800…特定手段(認証装置) 50... Image forming apparatus, 300... Control unit, 320... Storage means (memory), 330... Line-of-sight detection unit (line-of-sight detection unit), 341... Display control unit (display control unit), 350... Execution unit (function execution unit) 360... Information creating means (information creating unit), 401... Operator (hard key), 402... Notification means (light emitting means, LED for light emission), 403... Operator (soft key), 410... Notification means (display means) , Display section), 420... Notification means (light emitting means, display lamp), 430... Notification means (sound generation means, speaker), 440... Notification means (vibration generation means, vibration generation device), 500... Sight line detection means (line of sight) Detection device) 510... Imaging unit (camera), 700... Operation unit (operation panel), 710... Panel cover, 751, 752, 753... Target part (marker), 800... Identification means (authentication device)

Claims (12)

記録材に画像を形成可能な画像形成装置であって、
ユーザの視線による入力操作が可能なユーザインターフェースを備える操作部と、
ユーザの顔を撮像する撮像部と、
前記撮像部により顔が撮像されたユーザの視線を検出可能な状態に設定する設定モードと、前記設定モードの設定に基づいて検出されるユーザの視線による前記ユーザインターフェースに対する視線入力操作に従って画像形成に関する入力を受け付ける入力モードとを実行可能な制御部と、を備え、
前記制御部は、前記入力モードにおいて前記ユーザの視線による視線入力操作が可能となったことをユーザに報知する、
ことを特徴とする画像形成装置。
An image forming apparatus capable of forming an image on a recording material,
An operation unit having a user interface capable of input operation by the user's line of sight,
An imaging unit for imaging the user's face,
A setting mode in which the line of sight of the user whose face is captured by the image capturing unit is set in a detectable state, and image formation in accordance with a line-of-sight input operation on the user interface by the line of sight of the user detected based on the setting of the setting mode And a control unit capable of executing an input mode for receiving an input,
The control unit notifies the user that a line-of-sight input operation based on the user's line of sight in the input mode is possible.
An image forming apparatus characterized by the above.
記録材に画像を形成可能な画像形成装置であって、
ユーザの視線による入力が可能なユーザインターフェースを備える操作部と、
ユーザの顔を撮像する撮像部と、
前記撮像部により顔が撮像されたユーザの視線を検出可能な状態に設定する設定モードと、前記設定モードの設定に基づいて検出されるユーザの視線による前記ユーザインターフェースに対する視線入力操作に従って画像形成に関する入力を受け付ける入力モードとを実行可能な制御部と、を備え、
前記制御部は、前記設定モードにおいてユーザの視線を検出可能な状態への設定が完了したことをユーザに報知する、
ことを特徴とする画像形成装置。
An image forming apparatus capable of forming an image on a recording material,
An operation unit having a user interface capable of inputting by the user's line of sight,
An imaging unit for imaging the user's face,
A setting mode in which the line of sight of the user whose face is captured by the image capturing unit is set in a detectable state, and image formation in accordance with a line-of-sight input operation on the user interface by the line of sight of the user detected based on the setting of the setting mode And a control unit capable of executing an input mode for receiving an input,
The control unit notifies the user that the setting to a state in which the user's line of sight can be detected in the setting mode has been completed,
An image forming apparatus characterized by the above.
記録材に画像を形成可能な画像形成装置であって、
ユーザの視線による入力が可能なユーザインターフェースを備える操作部と、
ユーザの顔を撮像する撮像部と、
前記撮像部により顔が撮像されたユーザの視線を検出可能な状態に設定する設定モードと、前記設定モードの設定に基づいて検出されるユーザの視線による前記ユーザインターフェースに対する視線入力操作に従って画像形成に関する入力を受け付ける入力モードとを実行可能な制御部と、を備え、
前記制御部は、前記設定モードから前記入力モードに移行したことをユーザに報知する、
ことを特徴とする画像形成装置。
An image forming apparatus capable of forming an image on a recording material,
An operation unit having a user interface capable of inputting by the user's line of sight,
An imaging unit for imaging the user's face,
A setting mode in which the line of sight of the user whose face is captured by the image capturing unit is set in a detectable state, and image formation in accordance with a line-of-sight input operation on the user interface by the line of sight of the user detected based on the setting of the setting mode And a control unit capable of executing an input mode for receiving an input,
The control unit notifies the user that the setting mode has been changed to the input mode,
An image forming apparatus characterized by the above.
前記操作部は、ユーザによるタッチ操作可能なソフトキーを表示可能な表示手段を有し、
前記制御部は、前記入力モードにおいてユーザの視線により前記ソフトキーに対する視線入力操作が可能である、
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像形成装置。
The operation unit has a display unit capable of displaying a soft key touchable by a user,
In the input mode, the control unit can perform a line-of-sight input operation on the soft key according to the line-of-sight of the user.
The image forming apparatus according to claim 1, wherein the image forming apparatus is an image forming apparatus.
前記操作部は、ユーザによる操作可能なハードキーを有し、
前記制御部は、前記入力モードにおいてユーザの視線により前記ハードキーに対する視線入力操作が可能である、
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像形成装置。
The operation unit has hard keys operable by a user,
In the input mode, the control unit can perform a line-of-sight input operation on the hard key according to the line-of-sight of the user.
The image forming apparatus according to claim 1, wherein the image forming apparatus is an image forming apparatus.
前記表示手段を露出させるように設けられたパネルカバーを備え、
前記撮像部は、前記パネルカバーに設けられている、
ことを特徴とする請求項4に記載の画像形成装置。
A panel cover provided to expose the display means,
The imaging unit is provided on the panel cover,
The image forming apparatus according to claim 4, wherein the image forming apparatus comprises:
前記撮像部は、前記操作部に設けられている、
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像形成装置。
The imaging unit is provided in the operation unit,
The image forming apparatus according to claim 1, wherein the image forming apparatus is an image forming apparatus.
ユーザに報知するための報知手段を備え、
前記報知手段は、前記操作部に設けられている、
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像形成装置。
A notification means for notifying the user,
The notification unit is provided in the operation unit,
The image forming apparatus according to claim 1, wherein the image forming apparatus is an image forming apparatus.
前記報知手段は、表示によりユーザに報知する表示手段である、
ことを特徴とする請求項8に記載の画像形成装置。
The notifying means is a display means for notifying the user by display.
The image forming apparatus according to claim 8, wherein:
前記報知手段は、光によりユーザに報知する発光手段である、
ことを特徴とする請求項8に記載の画像形成装置。
The notifying unit is a light emitting unit that notifies the user by light.
The image forming apparatus according to claim 8, wherein:
前記報知手段は、音によりユーザに報知する音発生手段である、
ことを特徴とする請求項8に記載の画像形成装置。
The notifying unit is a sound generating unit that notifies the user by sound.
The image forming apparatus according to claim 8, wherein:
前記報知手段は、振動によりユーザに報知する振動発生手段である、
ことを特徴とする請求項8に記載の画像形成装置。
The notifying unit is a vibration generating unit that notifies the user by vibration.
The image forming apparatus according to claim 8, wherein:
JP2019007929A 2019-01-21 2019-01-21 image forming device Active JP7277151B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019007929A JP7277151B2 (en) 2019-01-21 2019-01-21 image forming device
US16/748,136 US11196881B2 (en) 2019-01-21 2020-01-21 Image forming apparatus employs a line-of-sight detection technique to execute user operations in plural modes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019007929A JP7277151B2 (en) 2019-01-21 2019-01-21 image forming device

Publications (3)

Publication Number Publication Date
JP2020116778A true JP2020116778A (en) 2020-08-06
JP2020116778A5 JP2020116778A5 (en) 2022-01-27
JP7277151B2 JP7277151B2 (en) 2023-05-18

Family

ID=71889672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019007929A Active JP7277151B2 (en) 2019-01-21 2019-01-21 image forming device

Country Status (1)

Country Link
JP (1) JP7277151B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248872A (en) * 1994-03-11 1995-09-26 Matsushita Electric Ind Co Ltd Input device and arithmetic input/output device
JPH0844488A (en) * 1994-07-29 1996-02-16 Toshiba Corp Voting terminal option device
JP2005293061A (en) * 2004-03-31 2005-10-20 Advanced Telecommunication Research Institute International User interface device and user interface program
JP2006136450A (en) * 2004-11-11 2006-06-01 Matsushita Electric Ind Co Ltd Iris certification device
JP2007195892A (en) * 2006-01-30 2007-08-09 Toshiba Corp Ultrasonic diagnostic equipment and image processing program thereof
JP2015118556A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices
JP2016170528A (en) * 2015-03-11 2016-09-23 株式会社リコー Head mounted display and method for connecting with external device at head mounted display
JP2017215928A (en) * 2016-05-31 2017-12-07 フォーブ インコーポレーテッド Gaze detection system
JP2018049527A (en) * 2016-09-23 2018-03-29 富士ゼロックス株式会社 Information processing apparatus, image forming apparatus, and program
JP2018049528A (en) * 2016-09-23 2018-03-29 富士ゼロックス株式会社 Information processing apparatus, image forming apparatus, and program
JP2018183249A (en) * 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248872A (en) * 1994-03-11 1995-09-26 Matsushita Electric Ind Co Ltd Input device and arithmetic input/output device
JPH0844488A (en) * 1994-07-29 1996-02-16 Toshiba Corp Voting terminal option device
JP2005293061A (en) * 2004-03-31 2005-10-20 Advanced Telecommunication Research Institute International User interface device and user interface program
JP2006136450A (en) * 2004-11-11 2006-06-01 Matsushita Electric Ind Co Ltd Iris certification device
JP2007195892A (en) * 2006-01-30 2007-08-09 Toshiba Corp Ultrasonic diagnostic equipment and image processing program thereof
JP2015118556A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices
JP2016170528A (en) * 2015-03-11 2016-09-23 株式会社リコー Head mounted display and method for connecting with external device at head mounted display
JP2017215928A (en) * 2016-05-31 2017-12-07 フォーブ インコーポレーテッド Gaze detection system
JP2018049527A (en) * 2016-09-23 2018-03-29 富士ゼロックス株式会社 Information processing apparatus, image forming apparatus, and program
JP2018049528A (en) * 2016-09-23 2018-03-29 富士ゼロックス株式会社 Information processing apparatus, image forming apparatus, and program
JP2018183249A (en) * 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method

Also Published As

Publication number Publication date
JP7277151B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP6807630B2 (en) Image readers and multifunction devices, image reading methods, and image reading programs
US11196881B2 (en) Image forming apparatus employs a line-of-sight detection technique to execute user operations in plural modes
CN101866126A (en) Recording sheet surface detection apparatus and image forming apparatus
US9894226B2 (en) Information processing apparatus, setting condition specification method for image forming apparatus
JP2017175525A (en) Information processing device and image processing device
JP5854970B2 (en) Electronic apparatus and image forming apparatus
JP7277151B2 (en) image forming device
JP2010054559A (en) Display control device and image forming apparatus
JP2014014041A (en) Image forming apparatus and image reading device
JP2020119093A (en) Image forming apparatus
JP2020119092A (en) Image forming apparatus
JP2020116779A (en) Image formation apparatus
US11375074B2 (en) Image forming apparatus for forming an image for measuring a relative position with respect to a paper
JP2005342951A (en) Image forming apparatus
JP2016131310A (en) Image processing device, image forming device and image processing program
WO2016181716A1 (en) Image formation device
JP5726131B2 (en) Display input device
JP6780603B2 (en) Image reader and image forming device
US20230156133A1 (en) Image forming apparatus, post-processing position adjusting method and non-transitory computer-readable medium encoded with post-processing position adjusting program
JP6777039B2 (en) Image reader and image forming device
JP6895109B2 (en) Image reader and image forming device
JP2018043411A (en) Image forming apparatus
JPH04116571A (en) Color copying device
JP2018097100A (en) Image formation device
JP2021069034A (en) Image reading device and image forming apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7277151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151