JP7277151B2 - image forming device - Google Patents

image forming device Download PDF

Info

Publication number
JP7277151B2
JP7277151B2 JP2019007929A JP2019007929A JP7277151B2 JP 7277151 B2 JP7277151 B2 JP 7277151B2 JP 2019007929 A JP2019007929 A JP 2019007929A JP 2019007929 A JP2019007929 A JP 2019007929A JP 7277151 B2 JP7277151 B2 JP 7277151B2
Authority
JP
Japan
Prior art keywords
line
sight
operator
image forming
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019007929A
Other languages
Japanese (ja)
Other versions
JP2020116778A5 (en
JP2020116778A (en
Inventor
剛士 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019007929A priority Critical patent/JP7277151B2/en
Priority to US16/748,136 priority patent/US11196881B2/en
Publication of JP2020116778A publication Critical patent/JP2020116778A/en
Publication of JP2020116778A5 publication Critical patent/JP2020116778A5/ja
Application granted granted Critical
Publication of JP7277151B2 publication Critical patent/JP7277151B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視線検出技術を採用したプリンタ、複写機、ファクシミリあるいは複合機などの画像形成装置に関する。 The present invention relates to an image forming apparatus such as a printer, a copying machine, a facsimile machine, or a multi-function machine that employs line-of-sight detection technology.

最近では操作者(ユーザ)の利便性を向上すべく、操作者の視線を検出する視線検出技術を採用した画像形成装置が提案されている(特許文献1)。従来の装置では、表示装置に向けられた操作者の視線を検出することに応じて、表示装置に表示された表示を変更する制御が行われている(所謂、視線入力)。 Recently, in order to improve the convenience of an operator (user), there has been proposed an image forming apparatus that employs a line-of-sight detection technique for detecting the line of sight of an operator (Patent Document 1). In a conventional device, control is performed to change the display displayed on the display device according to detection of the operator's line of sight directed toward the display device (so-called line-of-sight input).

特開2018‐49528号公報JP-A-2018-49528

しかしながら、従来では視線検出技術を採用しているにも関わらず、画像形成装置としての使い勝手が良くなかった。即ち、上記したような視線入力を可能とするためには、操作者の視線を検出する必要がある。上記の特許文献1に記載の装置の場合、操作者の瞳孔や角膜反射点などの基準点を求めることで操作者の視線を検出している。それ故、操作者毎に基準点を計測し終わるまでは視線を検出することが難しいために、操作者は視線による入力操作を正しく行うことができない。しかしながら、従来では、基準点の計測が終わり視線入力可能であるか否かを操作者が知るべきすべがなかったために、操作者は視線入力を開始してよいかがわからずユーザの利便性が損なわれていた。そこで、画像形成装置において視線検出技術を採用した構成であって、操作者にとってより使い勝手のよい、つまりユーザの利便性のより高いものが望まれていたが、未だそのようなものは提案されていない。 However, although the conventional image forming apparatus employs the line-of-sight detection technology, it is not convenient for use as an image forming apparatus. That is, in order to enable the line-of-sight input as described above, it is necessary to detect the operator's line of sight. In the case of the apparatus described in Patent Document 1, the line of sight of the operator is detected by obtaining reference points such as the operator's pupil and corneal reflection points. Therefore, since it is difficult to detect the line of sight until the reference point is measured for each operator, the operator cannot correctly perform an input operation using the line of sight. However, conventionally, there is no way for the operator to know whether or not gaze input is possible after the measurement of the reference point is completed. It was Accordingly, there has been a demand for an image forming apparatus that employs line-of-sight detection technology and is more convenient for the operator, that is, more convenient for the user, but such a configuration has not yet been proposed. do not have.

本発明は上記問題に鑑みてなされ、視線検出技術を採用した画像形成装置において、ユーザの利便性を向上させた画像形成装置の提供を目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image forming apparatus that employs line-of-sight detection technology and that improves user convenience.

本発明の一実施形態に係る画像形成装置は、記録材に画像を形成可能な画像形成部と、ユーザの視線による入力が可能なソフトウェアキーを表示可能な表示部と、物理的に設けられたハードウェアキーとを有する操作部と、ユーザの顔を撮像する撮像部と、前記撮像部に撮像されたユーザの顔の画像によって得られる撮像結果に基づいてユーザの視線を検出可能な状態に設定する設定モードと、前記設定モードの設定に基づいて検出されるユーザの視線による前記ソフトウェアキーに対する視線入力操作に従って前記ソフトウェアキーに対応する入力を受け付ける入力モードとを実行可能な制御部と、を備え、前記制御部は、前記入力モードにおいて、ユーザの視線が前記ソフトウェアキーに向いている場合に前記ソフトウェアキーに予め割り当てられた機能を前記表示部に表示させ、ユーザの視線が前記ハードウェアキーに向いている場合に前記ハードウェアキーに予め割り当てられた機能を前記表示部に表示させる、ことを特徴とする。 An image forming apparatus according to an embodiment of the present invention includes an image forming unit capable of forming an image on a recording material, a display unit capable of displaying software keys that can be input by a user's line of sight, and an image forming apparatus. an operation unit having hardware keys; an imaging unit for capturing an image of a user's face; and an input mode for receiving an input corresponding to the software key according to a line-of-sight input operation for the software key by a user's line of sight detected based on the setting of the setting mode. The control unit causes the display unit to display a function assigned in advance to the software key when the user's line of sight is directed toward the software key in the input mode, and the display unit displays the function assigned in advance to the software key when the user's line of sight is directed toward the hardware key. A function assigned in advance to the hardware key is displayed on the display unit when the user is oriented .

本発明によれば、視線検出技術を採用した画像形成装置において、ユーザの利便性を向上させることができる。 According to the present invention, user convenience can be improved in an image forming apparatus that employs line-of-sight detection technology.

本実施形態の画像形成装置を示す概略図。1 is a schematic diagram showing an image forming apparatus according to an embodiment; FIG. 操作パネルを示す概略図。Schematic which shows an operation panel. カメラにより撮影された操作者の目の映像を示す模式図。FIG. 4 is a schematic diagram showing an image of an operator's eyes captured by a camera; 操作者の視線検出について説明するための、眼球を示す模式図。FIG. 4 is a schematic diagram showing an eyeball for explaining detection of an operator's line of sight; 制御部について説明するための制御ブロック図。FIG. 3 is a control block diagram for explaining a control unit; 視線入力処理の前半処理を示すフローチャート。4 is a flowchart showing the first half of line-of-sight input processing. 図6に示した前半処理に後続する後半処理を示すフローチャート。FIG. 7 is a flowchart showing second half processing that follows the first half processing shown in FIG. 6 ; FIG. 視線補正について説明する図。The figure explaining line-of-sight correction. 視線入力操作について説明する図。The figure explaining line-of-sight input operation. 視線入力操作の一例を示す図。The figure which shows an example of line-of-sight input operation.

<画像形成装置>
まず、本実施形態の画像形成装置について、図1を用いて説明する。図1に示す画像形成装置50は、電子写真方式のタンデム型のフルカラープリンタである。画像形成装置50は、装置本体50aに接続された原稿読取装置601あるいは装置本体50aに接続されたコンピュータ等の外部端末(不図示)から送られる画像データに基づいて、トナー像を記録材P(用紙、OHPシートなどのシート材など)に形成する。
<Image forming apparatus>
First, the image forming apparatus of this embodiment will be described with reference to FIG. The image forming apparatus 50 shown in FIG. 1 is an electrophotographic tandem full-color printer. The image forming apparatus 50 prints a toner image on a recording material P ( sheet material such as paper, OHP sheet, etc.).

原稿読取装置601は、原稿を載置可能な原稿台を有し、原稿台に載置された原稿を読み取り可能な読取装置610と、原稿を読取装置610へ搬送する原稿搬送装置611(Auto Document Feeder)とを有する。読取装置610には、主に不図示の第1読取部、原稿台ガラス、流し読みガラスとが設けられている。原稿搬送装置611は、読取装置610の原稿台ガラスに対して開閉可能になっている。原稿台ガラスに載置された原稿は、原稿台ガラスと対向して原稿搬送装置611に設けられる圧板部により押さえられ、原稿のコピーやスキャンの開始に応じて動作する第1読取部により画像が読み取られる。他方、原稿搬送装置611には、主に不図示の第2読取部や原稿搬送部とが設けられている。不図示のトレイ上に載置された原稿は、コピーやスキャンの開始に応じて動作する原稿搬送部によって読取装置610の流し読みガラス上へ送られて第1読取部により第1面の画像が読み取られ、第2読取部により第1面と反対の第2面の画像が読み取られる。そして、第1読取部や第2読取部により読み取られた画像は、画像データとして後述するレーザスキャナ6による感光ドラムa~d上への静電潜像の形成に用いられる。 The document reading device 601 has a document table on which a document can be placed. Feeder). The reading device 610 is mainly provided with a first reading section (not shown), a platen glass, and a reading glass. The document conveying device 611 can be opened and closed with respect to the platen glass of the reading device 610 . A document placed on the platen glass is pressed by a pressure plate unit provided in the document feeder 611 so as to face the platen glass. read. On the other hand, the document conveying device 611 is mainly provided with a second reading section and a document conveying section (not shown). A document placed on a tray (not shown) is sent onto the scanning glass of the reading device 610 by a document conveying section that operates in response to the start of copying or scanning, and the image on the first side is read by the first reading section. The image is read, and the image on the second side opposite to the first side is read by the second reading section. The images read by the first reading section and the second reading section are used as image data for forming electrostatic latent images on the photosensitive drums a to d by the laser scanner 6, which will be described later.

画像形成装置50は、イエロー、マゼンタ、シアン、ブラックの画像を形成可能な画像形成部10を備えている。画像形成部10は、中間転写ベルト58の周方向に沿って配列された画像形成ユニット1a、1b、1c、1dを有している。画像形成ユニット1a~1dはそれぞれ、回転可能な感光ドラムa~dと、帯電器60と、現像器59とを有している。感光ドラムa~dは対応する帯電器60で帯電された後に、レーザスキャナ6から発せられる画像データに対応したレーザ光により走査露光される。これにより、感光ドラムa~dの表面に画像データに応じた静電潜像が形成される。そして、感光ドラムa~dに形成された静電潜像は、現像器59により現像剤を用いてトナー像に現像される。感光ドラムa~dに形成された各トナー像は、中間転写ベルト58の内周側にて各感光ドラムa~dに対向して配置された一次転写ローラ2a~2dに一次転写バイアスが印加されることにより、一次転写ニップ部N1で中間転写ベルト58に一次転写される。 The image forming apparatus 50 includes an image forming section 10 capable of forming yellow, magenta, cyan, and black images. The image forming section 10 has image forming units 1 a , 1 b , 1 c , and 1 d arranged along the circumferential direction of the intermediate transfer belt 58 . The image forming units 1a-1d have rotatable photosensitive drums a-d, a charger 60, and a developer 59, respectively. After being charged by the corresponding charger 60, the photosensitive drums a to d are scanned and exposed by laser light corresponding to image data emitted from the laser scanner 6. FIG. As a result, electrostatic latent images corresponding to the image data are formed on the surfaces of the photosensitive drums a to d. Then, the electrostatic latent images formed on the photosensitive drums a to d are developed into toner images by the developing device 59 using developer. The toner images formed on the photosensitive drums a to d are applied with a primary transfer bias to the primary transfer rollers 2a to 2d arranged opposite to the photosensitive drums a to d on the inner peripheral side of the intermediate transfer belt 58. As a result, the image is primarily transferred onto the intermediate transfer belt 58 at the primary transfer nip portion N1.

無端ベルト状の中間転写ベルト58は、二次転写内ローラ51と張架ローラ52、53とによって張架されている。二次転写内ローラ51と中間転写ベルト58を挟んで対向する位置には二次転写外ローラ3aが配置され、中間転写ベルト58上のトナー像を記録材Pに二次転写するための二次転写ニップ部N2を形成している。 An endless intermediate transfer belt 58 is stretched between a secondary transfer inner roller 51 and tension rollers 52 and 53 . A secondary transfer outer roller 3a is disposed at a position opposed to the secondary transfer inner roller 51 with the intermediate transfer belt 58 interposed therebetween. A transfer nip portion N2 is formed.

画像形成装置50の下部には、記録材Pが載置された給紙カセット4が配置されている。記録材Pは、給送ローラ8により給紙カセット4から1枚ずつ搬送路45に供給される。給紙カセット4から供給された記録材Pは、搬送路45を通って一対のレジストローラ9に送られる。レジストローラ9は、記録材Pを一旦受け止めて記録材Pの斜行を補正したうえで、各画像形成ユニット1a~1dにおける中間転写ベルト58へのトナー像の形成タイミングにあわせて、記録材Pを二次転写ニップ部N2に搬送する。そして、二次転写外ローラ3aに二次転写バイアスが印加されることにより、中間転写ベルト58上のトナー像が二次転写ニップ部N2で記録材Pに二次転写される。その後、記録材Pは定着前搬送路30を介して定着装置40に向けて搬送される。定着装置40では、記録材Pが定着ニップ部を形成するローラ対により挟持搬送されることに伴い、トナー像が加熱、加圧されて記録材Pに定着される。 A paper feed cassette 4 in which the recording material P is placed is arranged in the lower part of the image forming apparatus 50 . The recording material P is supplied one by one from the paper feeding cassette 4 to the conveying path 45 by the feeding roller 8 . A recording material P supplied from the paper feed cassette 4 is conveyed to a pair of registration rollers 9 through a conveying path 45 . The registration roller 9 temporarily receives the recording material P and corrects the skew of the recording material P. Then, the recording material P is formed in accordance with the timing of forming the toner image on the intermediate transfer belt 58 in each of the image forming units 1a to 1d. is conveyed to the secondary transfer nip portion N2. By applying a secondary transfer bias to the secondary transfer outer roller 3a, the toner image on the intermediate transfer belt 58 is secondarily transferred onto the recording material P at the secondary transfer nip portion N2. Thereafter, the recording material P is transported toward the fixing device 40 via the pre-fixing transport path 30 . In the fixing device 40, the toner image is heated and pressurized to be fixed on the recording material P as the recording material P is nipped and conveyed by a pair of rollers forming a fixing nip portion.

記録材Pの片面だけにトナー像を形成する場合、定着装置40を通過した記録材Pは、正回転する排紙ローラ対11により排紙トレイ12上に排出される。他方、記録材Pの両面にトナー像を形成する場合、定着装置40を通過した記録材Pは正回転する排紙ローラ対11により搬送されるが、その搬送方向後端が反転ポイント42に達すると、両面搬送路47に向けスイッチバック搬送される。即ち、記録材Pの搬送方向後端が反転ポイント42に達すると、切り換えフラッパ46が切り換えられると共に、排紙ローラ対11の回転が正回転から逆回転に変わり、記録材Pは排紙トレイ12上に排出されることなく、両面搬送路47に送られる。両面搬送路47に送られた記録材Pは、搬送ローラ対13により搬送路45に戻され、片面へのトナー像形成時と同様の過程を経て、他方の面にもトナー像が形成される。そして、両面にトナー像が定着された記録材Pは、正回転する排紙ローラ対11により排紙トレイ12上に排出される。 When a toner image is formed on only one side of the recording material P, the recording material P that has passed through the fixing device 40 is discharged onto the paper discharge tray 12 by the paper discharge roller pair 11 that rotates forward. On the other hand, when toner images are formed on both sides of the recording material P, the recording material P that has passed through the fixing device 40 is conveyed by the paper discharge roller pair 11 that rotates in the normal direction. Then, the sheet is switchback-conveyed toward the double-sided conveying path 47 . That is, when the trailing end of the recording material P in the conveying direction reaches the reversing point 42, the switching flapper 46 is switched, and the rotation of the discharge roller pair 11 changes from normal rotation to reverse rotation, and the recording material P is moved to the discharge tray 12. It is sent to the double-sided conveying path 47 without being discharged upward. The recording material P sent to the double-sided conveying path 47 is returned to the conveying path 45 by the conveying roller pair 13, and a toner image is formed on the other side through the same process as the toner image formation on one side. . Then, the recording material P having the toner images fixed on both sides thereof is discharged onto the paper discharge tray 12 by the paper discharge roller pair 11 which rotates forward.

図1に示すように、本実施形態の画像形成装置50は、人感センサ450を備えている。人感センサ450は、例えば画像形成装置50の周囲の温度変化を検出可能な赤外線を用いた温度変化検出方式のセンサである。即ち、操作者が画像形成装置50に近付いて人感センサ450により発せられる赤外線を横切るなどして周囲温度が変化した場合に、人感センサ450は操作者の所在を検出し得る。本実施形態の場合、操作者が画像形成装置50の前面側、詳しくは操作者が操作パネル700の前面に相対する位置にいるときにその所在を検出できるように、人感センサ450は操作パネル700に配置されている。本実施形態では人感センサ450の検出可能範囲を、例えば人感センサ450を頂点とし、人感センサ450の前方において略500mm程度で半径略300mmになる円錐状の範囲内とした。なお、人感センサ450は赤外線を用いた温度変化検出方式の熱センサに限らず、人の所在を検出できるセンサであればどのような方式のセンサを用いてもよい。 As shown in FIG. 1, the image forming apparatus 50 of this embodiment includes a human sensor 450 . The human sensor 450 is, for example, a temperature change detection sensor using infrared rays capable of detecting temperature changes around the image forming apparatus 50 . That is, when the operator approaches the image forming apparatus 50 and crosses the infrared rays emitted by the human sensor 450 and the ambient temperature changes, the human sensor 450 can detect the location of the operator. In the case of the present embodiment, the human sensor 450 is mounted on the operation panel 700 so that the presence of the operator can be detected when the operator is on the front side of the image forming apparatus 50 , more specifically, when the operator is on the front side of the operation panel 700 . 700 is located. In the present embodiment, the detectable range of the human sensor 450 is, for example, within a conical range of approximately 500 mm in front of the human sensor 450 and approximately 300 mm in radius, with the human sensor 450 as the apex. Note that the human sensor 450 is not limited to a temperature change detection type heat sensor using infrared rays, and any type of sensor may be used as long as it can detect the whereabouts of a person.

<操作パネル>
また、本実施形態の画像形成装置50は操作パネル700を備えている。操作パネル700は、操作者が操作可能な操作子を有するもので、操作者が操作しやすいように装置本体50aの前面側に配置されている。操作パネル700は、例えばチルト機構やバリアングル機構などによって上下左右に角度調整可能に装置本体50aに設けられている。そのため、操作者は自身の顔と操作パネル700の前面とが相対するように、操作パネル700の向きを調整可能となっている。図2に、操作部としての操作パネル700の一例を示す。図2に示すように、操作パネル700は物理的に設けられたハードキー401を有するハード部400と、各種情報や後述のソフトキー403を含む各種画面を表示可能な表示部410と、内部に設けられた不図示の基板等を覆うパネルカバー710とを有する。パネルカバー710は、ハード部400と表示部410とを表面に露出させるように設けられている。本実施形態の場合、後述するように、操作パネル700のハード部400と表示部410とは、ユーザの視線による入力操作が可能なユーザインターフェースとして機能する。
<Operation panel>
Further, the image forming apparatus 50 of this embodiment has an operation panel 700 . The operation panel 700 has operation elements that can be operated by the operator, and is arranged on the front side of the apparatus main body 50a so that the operator can easily operate it. The operation panel 700 is provided on the apparatus main body 50a so as to be angle-adjustable vertically and horizontally by, for example, a tilt mechanism or a vari-angle mechanism. Therefore, the operator can adjust the orientation of the operation panel 700 so that the operator's face and the front surface of the operation panel 700 face each other. FIG. 2 shows an example of an operation panel 700 as an operation unit. As shown in FIG. 2, the operation panel 700 includes a hardware unit 400 having physically provided hard keys 401, a display unit 410 capable of displaying various kinds of information and various screens including soft keys 403, which will be described later. It also has a panel cover 710 that covers a substrate (not shown) provided. Panel cover 710 is provided to expose hard part 400 and display part 410 to the surface. In the case of this embodiment, as will be described later, the hardware unit 400 and the display unit 410 of the operation panel 700 function as a user interface that allows input operations by the user's line of sight.

<ハード部>
ハード部400には、例えばプリントキー、コピーキー、テンキー、ストップキー、スタートキー、パワー(オンオフ)スイッチなどの、各種機能が割り当てられた物理的な操作子であるハードキー401が設けられている。本実施形態の場合、ハードキー401は例えば透過性のキーやボタンの裏側に発光用LED402(Light Emitting Diode)が配置されたバックライト付きの操作子である。即ち、ハードキー401を個別に光らせるために、発光用LED402が各ハードキー401に配置されている。なお、操作者が一見して各ハードキー401を区別できれば、発光用LED402の代わりに、ランプなどの発光素子が各ハードキー401の近傍に配設されていてもよい。
<Hardware>
The hardware unit 400 is provided with hardware keys 401, which are physical operators to which various functions are assigned, such as a print key, a copy key, a numeric keypad, a stop key, a start key, and a power (on/off) switch. . In the case of this embodiment, the hard key 401 is, for example, a backlit operating element in which a light emitting LED 402 (Light Emitting Diode) is arranged on the back side of a transparent key or button. That is, a light-emitting LED 402 is arranged on each hard key 401 in order to individually illuminate the hard key 401 . A light-emitting element such as a lamp may be arranged near each hard key 401 instead of the LED 402 for light emission, as long as the operator can distinguish each hard key 401 at a glance.

上記したハードキー401にはそれぞれ、操作者による操作に応じて実行する各種機能が予め割り当てられていてもよい。一例として、プリントキーには、通常印刷に関する各種データの入力機能が割り当てられている。コピーキーには、画像形成装置50を複写機として使用する場合(複写モードと呼ぶ)における、複写印刷に関する各種データの入力機能が割り当てられている。具体的には、プリントキーやコピーキーが操作された場合、各種データの入力機能として例えば表示部410に各種データの入力を行うための入力画面を表示する機能が実行される。テンキーには、例えば印刷枚数などの数値を入力する入力機能が割り当てられている。ストップキーには、例えば実行中の画像形成ジョブを強制的に停止させる機能が割り当てられている。スタートキーには、複写モード時の原稿画像の読み取り動作を含め、画像形成ジョブの実行開始を指示する機能が割り当てられている。パワースイッチには、画像形成装置50の電源をオンオフする機能が割り当てられている。 Various functions to be executed according to operations by the operator may be assigned in advance to the hard keys 401 described above. As an example, the print key is assigned various data input functions related to normal printing. When the image forming apparatus 50 is used as a copier (referred to as a copy mode), the copy key is assigned a function of inputting various data related to copy printing. Specifically, when the print key or the copy key is operated, for example, a function of displaying an input screen for inputting various data on the display unit 410 is executed as a function of inputting various data. The numeric keypad is assigned an input function for inputting numerical values such as the number of prints. The stop key is assigned, for example, a function of forcibly stopping an image forming job being executed. The start key is assigned a function of instructing the start of execution of an image forming job, including the operation of reading an original image in the copy mode. The power switch is assigned a function of turning on/off the power of the image forming apparatus 50 .

<表示部>
表示部410は、例えばハードキー401の操作に応じて入力された各種データや、装置の動作状況(ステータスなどと呼ばれる)といった各種情報、各種データを入力する入力画面などの各種画面を適宜に表示し得る。また、本実施形態の場合、表示部410はハードキー401などを模した仮想の操作子としてソフトキー403が表示可能である。図2ではソフトキー403として、例えば複写用のコピーボタン(COPY)、原稿読み取り開始用のスキャンボタン(SCAN)、FAX送信用のボタン(FAX)、これら以外の機能に関する設定画面などを表示させる設定ボタン(設定)等を例に示した。ソフトキー403が表示されている場合、操作者によるソフトキー403に対する表示部410へのタッチ操作に応じて、ソフトキー403に予め割り当てられている各種機能が実行される。つまり、表示部410は操作者によるタッチ操作可能なタッチパネル方式のディスプレイである。
<Display part>
The display unit 410 appropriately displays various screens such as various data input in accordance with the operation of the hard keys 401, various information such as the operation status of the apparatus (called status), and an input screen for inputting various data. can. Further, in the case of this embodiment, the display unit 410 can display soft keys 403 as virtual operators modeled after the hard keys 401 and the like. In FIG. 2, the soft keys 403 are, for example, a copy button (COPY) for copying, a scan button (SCAN) for starting document reading, a button for FAX transmission (FAX), and settings for displaying setting screens related to other functions. A button (setting) is shown as an example. When the softkeys 403 are displayed, various functions assigned in advance to the softkeys 403 are executed in accordance with the operator's touch operation of the softkeys 403 on the display unit 410 . In other words, the display unit 410 is a touch panel type display that can be touch-operated by the operator.

詳しくは後述するように、本実施形態の場合、操作者は実際にハードキー401に触れて操作せずとも、ハードキー401に視線を向けることで、実際に触れて操作した場合と同様にハードキー401を操作可能としている(所謂、視線入力)。また、表示部410にソフトキー403が表示されている場合に、操作者はソフトキー403へのタッチ操作を行わずとも、操作したいソフトキー403に視線を向けることで、タッチ操作した場合と同様に操作可能、つまり視線入力可能としている。そうするために、本実施形態の画像形成装置50には、操作者の視線を検出するために用いる視線検出装置500が操作パネル700の一部であるパネルカバー710に設けられている。視線検出装置500が操作パネル700に設けられることで、操作パネル700の角度調整にあわせて操作者の視線をより正しく検出可能な位置に調整され得る。 As will be described later in detail, in the case of the present embodiment, even if the operator does not actually touch the hard key 401 to operate it, the operator turns his or her line of sight to the hard key 401 so that the hardware can be operated in the same way as if the operator actually touched and operated the hard key 401 . A key 401 is operable (so-called line-of-sight input). Also, when the softkeys 403 are displayed on the display unit 410, the operator can turn his or her line of sight to the softkeys 403 to be operated without performing the touch operation on the softkeys 403. can be operated, that is, line-of-sight input is possible. In order to do so, the image forming apparatus 50 of the present embodiment is provided with a panel cover 710 that is a part of the operation panel 700 with a line-of-sight detection device 500 that is used to detect the line of sight of the operator. By providing the line-of-sight detection device 500 on the operation panel 700 , the line-of-sight of the operator can be adjusted to a position where the operator's line of sight can be more accurately detected in accordance with the angle adjustment of the operation panel 700 .

<視線検出装置>
図2に示すように、視線検出装置500は、カメラ510と近赤外線光源520とを有する。撮像部としてのカメラ510は、例えば赤外光による撮影が可能なオートフォーカス(AF)デジタルカメラであり、CMOSセンサやCCDセンサなどの撮像素子を有している。照射部としての近赤外線光源520は、例えば不可視光の近赤外線光を照射可能な照明装置であり、複数の近赤外線LEDなどの発光素子を有している。近赤外線光源520は画像形成装置50の前面で操作パネル700を操作する操作者に向け近赤外線光を照射可能に配置され、カメラ510は近赤外線光源520から照射される近赤外線光を受けた操作者の顔(より詳くは目)を撮影可能に配置されている。
<Gaze detection device>
As shown in FIG. 2 , line-of-sight detection device 500 has camera 510 and near-infrared light source 520 . A camera 510 as an imaging unit is, for example, an autofocus (AF) digital camera capable of photographing with infrared light, and has an imaging device such as a CMOS sensor or a CCD sensor. The near-infrared light source 520 as an irradiation unit is, for example, a lighting device capable of irradiating invisible near-infrared light, and has light-emitting elements such as a plurality of near-infrared LEDs. A near-infrared light source 520 is arranged on the front surface of the image forming apparatus 50 so as to emit near-infrared light toward an operator who operates the operation panel 700 , and the camera 510 receives the near-infrared light emitted from the near-infrared light source 520 . It is arranged so that a person's face (more specifically, eyes) can be photographed.

また、操作パネル700には、表示ランプ420、カメラ位置表示部421、スピーカ430、振動発生装置440が設けられている。カメラ位置表示部421は、カメラ510の撮影中に点灯することでカメラ510を操作者に見させるために所定位置に配置された、例えば単色(例えば赤色)のLED等である。表示ランプ420は、例えば装置の動作状況を光で操作者に知らせるための複数色のLED等である。表示ランプ420は、例えば装置が使用可能な状態であるときに緑色に点灯され、紙詰まりや故障などにより装置が使用不可の状態であるときに赤色に点灯される。スピーカ430は、例えば音声ガイドによる操作の案内や警告音などを発生可能な音発生手段である。表示ランプ420やスピーカ430が位置調整可能な操作パネル700に設けられると、操作者に対する報知が視覚や音により適切に行われやすくなるので、好ましい。さらに、操作パネル700には振動発生装置440が設けられており、振動発生装置440はハードキー401を個別に振動させ得る。 Further, the operation panel 700 is provided with a display lamp 420 , a camera position display section 421 , a speaker 430 and a vibration generator 440 . The camera position display unit 421 is, for example, a monochromatic (for example, red) LED or the like arranged at a predetermined position so that the operator can see the camera 510 by turning it on while the camera 510 is shooting. The display lamp 420 is, for example, a multi-color LED or the like for informing the operator of the operating status of the device by means of light. The indicator lamp 420 is lit in green, for example, when the device is ready for use, and is lit in red when the device is unusable due to a paper jam or malfunction. The speaker 430 is sound generating means capable of generating, for example, voice guidance for operation guidance and warning sounds. If the display lamp 420 and the speaker 430 are provided on the position-adjustable operation panel 700, the operator can be notified appropriately visually and audibly, which is preferable. Furthermore, the operation panel 700 is provided with a vibration generator 440 , and the vibration generator 440 can individually vibrate the hard keys 401 .

<視線検出について>
ここで、上記した視線検出装置500を用いた操作者の視線検出について、図3及び図4を用いて簡単に説明する。視線検出装置500を用いた操作者の視線検出を可能とするためには、カメラ510により撮影された操作者のデータ(詳しくは目のデータ)を解析する必要がある。そこで、このデータの解析を行うために、後述する制御部300(詳しくは視線検出部330、図5参照)が設けられている。即ち、本実施形態では、視線検出装置500と後述する制御部300(詳しくは視線検出部330)とにより、操作者の視線を検出可能な視線検出手段が構成されている。
<About line-of-sight detection>
Here, detection of an operator's line of sight using the line of sight detection device 500 described above will be briefly described with reference to FIGS. 3 and 4. FIG. In order to detect the line of sight of the operator using the line of sight detection device 500, it is necessary to analyze data of the operator captured by the camera 510 (specifically, eye data). Therefore, in order to analyze this data, a control unit 300 (details of a line-of-sight detection unit 330, see FIG. 5), which will be described later, is provided. That is, in the present embodiment, the line-of-sight detection device 500 and the control unit 300 (more specifically, the line-of-sight detection unit 330) constitute line-of-sight detection means capable of detecting the line of sight of the operator.

視線検出は、角膜反射法や強膜反射法などの一般的に知られている視線検出法を採用してよく、本実施形態では角膜反射法を採用した。角膜反射法は、近赤外線光が照射された操作者の目の角膜Km表面の反射光の反射点761(プルキニエ像)の反射点中心761pと、眼球750の瞳孔760の瞳孔中心760pとを特定して、操作者の視線を検出する方式である。つまり、反射点中心761pの位置を基準点に、瞳孔中心760pの位置が捉えられることにより、操作者の視線の向きが検出され得る。瞳孔中心760pの位置を捉える方法には明瞳孔法と暗瞳孔法の二つがあり、明瞳孔法は瞳孔を明るくして位置を捉える方法であり、暗瞳孔法は瞳孔を暗くして位置を捉える方法である。本実施形態では、暗瞳孔法を採用した。 A commonly known line-of-sight detection method such as a corneal reflection method or a scleral reflection method may be used for line-of-sight detection, and the corneal reflection method is used in this embodiment. In the corneal reflection method, the reflection point center 761p of the reflection point 761 (Purkinje image) of the reflected light on the surface of the cornea Km of the operator's eye irradiated with near-infrared light and the pupil center 760p of the pupil 760 of the eyeball 750 are specified. Then, the line of sight of the operator is detected. That is, the direction of the operator's line of sight can be detected by capturing the position of the pupil center 760p with the position of the reflection point center 761p as a reference point. There are two methods for capturing the position of the pupil center 760p, the bright pupil method and the dark pupil method. The method. This embodiment employs the dark pupil method.

反射点中心761pの位置と瞳孔中心760pの位置の特定は、まず近赤外線光を照射した目の瞳孔760と虹彩762と反射点761とに、カメラ510により撮影されたデータをピクセル単位で分割し、各ピクセルでの輝度を比較する。各ピクセルでの輝度は、瞳孔<虹彩<反射点の順で検出される。この検出結果に従って、瞳孔760と虹彩762と反射点761の輝度の違いにより各々の境界を捉えた画像の白黒二値化が行われ、瞳孔760と反射点761の輪郭から中心を求め、瞳孔中心760pと反射点中心761pの位置を特定する。 The position of the reflection point center 761p and the position of the pupil center 760p are specified by first dividing the data captured by the camera 510 into the pupil 760, the iris 762, and the reflection point 761 of the eye irradiated with the near-infrared light in units of pixels. , to compare the luminance at each pixel. The luminance at each pixel is detected in the order of pupil<iris<reflection point. According to this detection result, black-and-white binarization is performed on the image capturing the boundaries of the pupil 760, the iris 762, and the reflection point 761 due to the difference in luminance, and the center is obtained from the contours of the pupil 760 and the reflection point 761. 760p and the position of the reflection point center 761p are identified.

反射点中心761pと瞳孔中心760pの位置が特定されると、これらに基づき視線ベクトルGbが求められる。視線ベクトルGbは、予め登録済みの眼球モデル情報に基づく角膜曲率半径Rk、瞳孔半径Rd、角膜曲率中心Kcから瞳孔中心760pまでの距離Dkdに基づき求められる(図4参照)。角膜曲率中心Kcと瞳孔中心760pは、瞳孔中心760p及び反射点中心761pの二点、角膜曲率半径Rk、瞳孔半径Rd、角膜曲率中心Kcから瞳孔中心760pまでの距離Dkdから求められる。角膜曲率中心Kcと瞳孔中心760pとがわかれば、これらを結ぶ視線ベクトルGbを得ることができる。視線ベクトルGbが得られることで、以降、カメラ510を介して瞳孔760の動きを捉えることができ、もって操作者の視線を検出可能となる。ここで、視線とは操作者が目で見ている方向であり、その視線が注がれるところが視点である。本実施形態では、この視線を検出することで、操作者が操作パネル700上のいずれの領域を見ているかを検出している。つまり、本実施形態では、視線を検出することで視点を検出していることになる。このように、操作者の視点を検出することにより、操作者が操作パネル700上の領域のうちいずれの領域を見ているかを検出することができる。なお、本実施形態の場合、角膜曲率半径Rk、瞳孔半径Rd、距離Dkdは一般的な平均値を用いてよい。 When the positions of the reflection point center 761p and the pupil center 760p are specified, the line-of-sight vector Gb is obtained based on these. The line-of-sight vector Gb is obtained based on the corneal curvature radius Rk, the pupil radius Rd, and the distance Dkd from the corneal curvature center Kc to the pupil center 760p based on pre-registered eyeball model information (see FIG. 4). The corneal curvature center Kc and the pupil center 760p are obtained from two points, the pupil center 760p and the reflection point center 761p, the corneal curvature radius Rk, the pupil radius Rd, and the distance Dkd from the corneal curvature center Kc to the pupil center 760p. If the corneal curvature center Kc and the pupil center 760p are known, the line-of-sight vector Gb connecting them can be obtained. By obtaining the line-of-sight vector Gb, it is possible to capture the movement of the pupil 760 via the camera 510, thereby making it possible to detect the line of sight of the operator. Here, the line of sight is the direction in which the operator's eyes are looking, and the point where the line of sight is directed is the viewpoint. In this embodiment, by detecting this line of sight, it is detected which area on the operation panel 700 the operator is looking at. That is, in this embodiment, the viewpoint is detected by detecting the line of sight. By detecting the viewpoint of the operator in this way, it is possible to detect which area of the operation panel 700 the operator is looking at. In addition, in the case of the present embodiment, general average values may be used for the corneal curvature radius Rk, the pupil radius Rd, and the distance Dkd.

なお、瞳孔中心760pと反射点中心761pの位置を特定した後に、視線補正(キャリブレーションなどと呼ばれる)を行うのが好ましい。視線補正は、より小さい誤差で操作者の視線検出を行うために行われる。 Note that it is preferable to perform line-of-sight correction (called calibration or the like) after specifying the positions of the pupil center 760p and the reflection point center 761p. Line-of-sight correction is performed to detect the line-of-sight of the operator with a smaller error.

<制御部>
図1に示すように、本実施形態の画像形成装置50は制御部300を有している。制御部300について、図1や図2を参照しながら図5を用いて説明する。なお、制御部300には、図示した以外にも例えば上述した画像形成ユニット1a~1d、各種ローラを駆動するモータ、一次転写バイアスや二次転写バイアスを印加する電源、定着装置40などの各種機器が接続され、制御部300によって制御されている。しかし、ここでは発明の本旨でないので、それらの図示及び説明を省略する。
<Control unit>
As shown in FIG. 1, the image forming apparatus 50 of this embodiment has a control section 300 . The control unit 300 will be described using FIG. 5 while referring to FIGS. 1 and 2. FIG. Note that the control unit 300 includes various devices other than those shown, such as the image forming units 1a to 1d described above, motors for driving various rollers, a power supply for applying a primary transfer bias and a secondary transfer bias, and the fixing device 40. are connected and controlled by the control unit 300 . However, since it is not the gist of the invention here, illustration and description thereof will be omitted.

図5に示すように、制御部300は、CPU310(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ320を有する。記憶手段としてのメモリ320には、例えば視線入力プログラム(後述する図6及び図7参照)や画像形成ジョブなどの各種プログラム、後述する視線プロファイル情報やソフトキー表示用の画像データなどの各種データが記憶され得る。CPU310は、メモリ320に記憶されている各種プログラムを実行可能である。なお、メモリ320は、各種プログラムの実行に伴う演算処理結果などを一時的に記憶することもできる。 As shown in FIG. 5, the control unit 300 has a CPU 310 (Central Processing Unit), a memory 320 such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The memory 320 as storage means stores various programs such as a line-of-sight input program (see FIGS. 6 and 7 described later) and image forming jobs, and various data such as line-of-sight profile information and image data for displaying soft keys, which will be described later. can be stored. CPU 310 can execute various programs stored in memory 320 . Note that the memory 320 can also temporarily store arithmetic processing results and the like associated with the execution of various programs.

本実施形態の場合、CPU310は視線入力プログラムを実行することにより、操作者の視線入力に関する画像形成装置50の各種動作を制御し得る。なお、視線入力プログラムはソフトウェアプログラムの形態に限られず、例えばDSP(ディジタル・シグナル・プロセッサ)によって処理されるマイクロプログラムの形態などでも実施可能である。即ち、CPU310は画像形成ジョブなどの制御プログラムを実行して画像形成動作などの各種制御を行うものを併用してよいが、これに限らず、視線入力プログラムを実行するのに専用に用意されたものを用いてもよい。 In the case of this embodiment, the CPU 310 can control various operations of the image forming apparatus 50 related to the operator's line-of-sight input by executing the line-of-sight input program. Note that the line-of-sight input program is not limited to the form of a software program, and can be implemented, for example, in the form of a microprogram processed by a DSP (digital signal processor). That is, the CPU 310 may be used together with a program for executing a control program such as an image forming job to perform various controls such as an image forming operation. You can use things.

このCPU310に対し、例えばデータバス及びアドレスバス等を介し、ハードキー401、発光用LED402、表示部410、表示ランプ420、スピーカ430、振動発生装置440、人感センサ450、視線検出装置500が接続されている。CPU310は、例えば操作者によるハードキー401の操作や表示部410へのタッチ操作により入力された各種データを取得して、メモリ320に記憶し得る。 A hardware key 401, a light-emitting LED 402, a display unit 410, a display lamp 420, a speaker 430, a vibration generator 440, a human sensor 450, and a line-of-sight detector 500 are connected to the CPU 310 via, for example, a data bus and an address bus. It is The CPU 310 can acquire various data input by an operator's operation of the hard keys 401 or a touch operation on the display unit 410 , and store the data in the memory 320 .

本実施形態の場合、CPU310は、上述した人感センサ450による操作者の所在を検出した場合に、視線入力プログラム(図6及び図7参照)をメモリ320から読み出して実行する。制御部300は、視線入力プログラムの実行時、視線検出部330、報知制御部340、表示制御部341、機能実行部350、情報作成部360などとして機能し得る。 In the case of this embodiment, the CPU 310 reads and executes the line-of-sight input program (see FIGS. 6 and 7) from the memory 320 when the human sensor 450 detects the location of the operator. The control unit 300 can function as a line-of-sight detection unit 330, a notification control unit 340, a display control unit 341, a function execution unit 350, an information generation unit 360, and the like when executing the line-of-sight input program.

視線検出部330は、視線検出装置500からカメラ510により撮影されたデータを取得し、取得したデータを解析する。これにより、視線検出装置500を用いた操作者の視線検出が可能となる。また、視線検出部330は、視線補正を実行し得る。これにより、より正確な視線検出を行うことが可能となる。こうして、本実施形態では、視線検出部330により視線検出装置500を用いた操作者の視線検出が実現される。報知制御部340は、操作者の視線を検出したことを、報知手段としての表示ランプ420、スピーカ430、振動発生装置440、さらには発光用LED402などにより、操作者に報知する制御を実行する。表示制御部341は、報知手段(表示手段)として表示部410を制御し得る。表示制御部341は、上記したソフトキー403やステータスや各種画面を表示部410に表示させる。本実施形態の場合、表示制御部341は操作者の視線を検出したことをステータスとして報知したり、あるいは検出した操作者の視線に基づいて視線が向いているソフトキー403の表示を変更するなどして報知したりし得る。 The line-of-sight detection unit 330 acquires data captured by the camera 510 from the line-of-sight detection device 500 and analyzes the acquired data. As a result, it becomes possible to detect the line of sight of the operator using the line of sight detection device 500 . Also, the line-of-sight detection unit 330 can perform line-of-sight correction. This makes it possible to perform more accurate line-of-sight detection. Thus, in the present embodiment, the line-of-sight detection unit 330 realizes detection of the line-of-sight of the operator using the line-of-sight detection device 500 . The notification control unit 340 performs control to notify the operator that the line of sight of the operator has been detected by means of the display lamp 420, the speaker 430, the vibration generator 440, and the LED 402 for light emission as notification means. The display control unit 341 can control the display unit 410 as notification means (display means). The display control unit 341 causes the display unit 410 to display the above soft keys 403, status, and various screens. In the case of this embodiment, the display control unit 341 notifies that the line of sight of the operator has been detected as a status, or changes the display of the soft key 403 to which the line of sight is directed based on the detected line of sight of the operator. and report it.

機能実行部350は、操作者によるハードキー401やソフトキー403の操作により、これら操作子に予め割り当てられている各種機能を実行する。これらハードキー401やソフトキー403に対する操作者の操作は、直接的な操作に限らず、上記した操作者の視線検出に基づく視線入力による間接的な操作であってもよい。情報作成手段としての情報作成部360は、後述するように、操作者毎(ユーザ毎)の視線に関する情報である視線プロファイル情報を作成し、作成した視線プロファイル情報をメモリ320に記憶する。 The function execution unit 350 executes various functions assigned in advance to these operators by operating the hard keys 401 and soft keys 403 by the operator. The operator's operations on these hard keys 401 and soft keys 403 are not limited to direct operations, and may be indirect operations by line-of-sight input based on the above-described line-of-sight detection of the operator. The information creating unit 360 as information creating means creates line-of-sight profile information, which is information about the line of sight of each operator (each user), and stores the created line-of-sight profile information in the memory 320, as will be described later.

<視線入力プログラム>
次に、本実施形態の視線入力プログラムについて、図3乃至図5を参照しながら図6及び図7を用いて説明する。ここに示す視線入力処理は制御部300により、人感センサ450によって操作者の所在が検出された場合に開始され、人感センサ450によって操作者の所在が検出されなくなった場合に終了される。なお、ここでは図示の都合上、視線入力処理の前半処理を図6に示し、前半処理に後続する後半処理を図7に示した。
<Gaze input program>
Next, the line-of-sight input program of the present embodiment will be described using FIGS. 6 and 7 while referring to FIGS. 3 to 5. FIG. The line-of-sight input processing shown here is started by the control unit 300 when the presence of the operator is detected by the human sensor 450, and ends when the human sensor 450 no longer detects the operator's location. For convenience of illustration, FIG. 6 shows the first half of the line-of-sight input process, and FIG. 7 shows the second half of the process following the first half.

本実施形態では、まずカメラ510により撮影された撮像結果である操作者のデータを解析することで、操作者の視線を検出可能とするための視線検出部330を設定したうえで、撮像結果に基づいて操作者の視線を検出する設定モードを実行する。図6に示すように、制御部300は、カメラ510による操作者の撮影を開始する(S1)。制御部300は撮影の開始に応じて、表示部410に「撮影開始」を表示する(S2)。また、制御部300はカメラ位置表示部421を点灯して(S3)、表示部410にステータスとして「パネル上の赤色部を見てください。」を表示させる(S4)。これにより、カメラ510を操作者に見させることで、カメラ510が操作者の顔を適切に撮影できるようにしている。そして、制御部300は、カメラ510によって撮影され得られたデータに基づいて顔の検出を開始する(S5)。制御部300は顔の検出が完了するまで装置を待機させ(S6のNO)、顔の検出が完了することにより次のステップS7の処理に進む(S6のYES)。この顔の検出では、操作者の視線検出を適正に行うことができるようにするために、操作者ごとに異なる目の位置が特定される。なお、操作者は顔が操作パネル700の正面を向くように、操作パネル700を位置調整することで、カメラ510が顔の検出に好適な位置で操作者の顔を撮影できるようにしている。 In the present embodiment, first, by analyzing the data of the operator, which is the result of imaging taken by the camera 510, the line-of-sight detection unit 330 for enabling detection of the line of sight of the operator is set, and then the result of the imaging is set. A setting mode for detecting the line of sight of the operator is executed based on the above. As shown in FIG. 6, the control unit 300 starts photographing the operator with the camera 510 (S1). The control unit 300 displays "shooting start" on the display unit 410 in response to the start of shooting (S2). Further, the control unit 300 turns on the camera position display unit 421 (S3), and causes the display unit 410 to display "Look at the red part on the panel" as the status (S4). This enables the camera 510 to appropriately photograph the operator's face by making the operator look at the camera 510 . Then, the control unit 300 starts face detection based on the data captured by the camera 510 (S5). The control unit 300 causes the apparatus to wait until the face detection is completed (NO in S6), and when the face detection is completed, the process proceeds to the next step S7 (YES in S6). In this face detection, different eye positions are specified for each operator in order to properly detect the line of sight of the operator. By adjusting the position of the operation panel 700 so that the operator faces the front of the operation panel 700, the camera 510 can photograph the operator's face at a position suitable for face detection.

上記の顔検出は、一般的なデジタルカメラで採用されている公知の顔認識機能を用いてよい。即ち、カメラ510によって撮影され得られたデータに、水平方向バンドパスフィルタ及び垂直方向バンドパスフィルタを作用させて、データからエッジ成分を検出する。そして、検出されたエッジ成分に基づく顔パターンと、メモリ320に記憶済みの多様な顔パターンとのパターンマッチングによって、目、鼻、口等の候補群を抽出することで、データが顔であることが認識される。 For the face detection described above, a known face recognition function employed in general digital cameras may be used. That is, a horizontal band-pass filter and a vertical band-pass filter are applied to data captured by the camera 510 to detect edge components from the data. Then, by pattern matching between the face pattern based on the detected edge component and various face patterns already stored in the memory 320, a group of candidates for the eyes, nose, mouth, etc., is extracted, thereby confirming that the data is a face. is recognized.

顔検出が完了すると、制御部300は近赤外線光源520により近赤外線光を照射開始し(S7)、上述した暗瞳孔法の角膜反射法を用いた視線検出を開始する(S8)。その際に、制御部300は、カメラ位置表示部421を引き続き点灯した状態に維持し、表示部410に「視線検出を開始します。パネル上の赤色部を見てください。」とステータスを表示させる(S9)。こうして、光が照射された状態で操作者にカメラ510を見させて操作者の撮影を行うことで、近赤外線光源520により照射される近赤外線光による角膜表面における反射光の像(プルキニエ像)が操作者の目に鮮明に映るようにしている。 When the face detection is completed, the controller 300 starts irradiation of near-infrared light from the near-infrared light source 520 (S7), and starts line-of-sight detection using the corneal reflection method of the dark pupil method described above (S8). At this time, the control unit 300 keeps the camera position display unit 421 continuously lit, and displays the status on the display unit 410 as "Detecting the line of sight will start. Look at the red part on the panel." (S9). In this way, by making the operator look at the camera 510 in a state where the light is irradiated and photographing the operator, an image (Purkinje image) of reflected light on the corneal surface due to the near-infrared light emitted by the near-infrared light source 520 is obtained. is clearly reflected to the eyes of the operator.

そして、制御部300は視線検出が完了するまで装置を待機させ(S10のNO)、視線検出が完了することにより次のステップS11の処理に進む(S10のYES)。本実施形態の場合、制御部300は視線検出を完了したことを操作者に伝え、次の視線補正処理に進むための準備として、表示部410に「視線検出完了しました。次に視線補正を行います。」とステータスを表示させる(S11)。 Then, the control unit 300 puts the device on standby until the line-of-sight detection is completed (NO in S10), and when the line-of-sight detection is completed, the process proceeds to the next step S11 (YES in S10). In the case of this embodiment, the control unit 300 informs the operator that the line-of-sight detection has been completed, and displays the message "Line-of-sight detection completed. will be done." is displayed on the status (S11).

なお、本実施形態では、表示部410に上記したようなステータスを表示することで、操作者の視線検出が可能となったことを操作者に報知するようにしたが、操作者への報知方法はこれに限らない。例えば、表示ランプ420を用いてもよい。その場合、設定モードを開始した場合に表示ランプ420を「点滅」させ、設定モードを終了し操作者の視線による入力操作が可能となったら表示ランプ420を「点灯」させてもよい。あるいは、操作者の視線による入力操作が可能となったことを、スピーカ430からの音声により操作者に報知してもよいし、操作パネル700に設けた振動発生装置440を連続あるいは簡潔に振動させて操作者に報知してもよい。 In the present embodiment, the operator is notified that the line of sight of the operator can be detected by displaying the above-described status on the display unit 410. is not limited to this. For example, an indicator lamp 420 may be used. In this case, the display lamp 420 may be "blinking" when the setting mode is started, and may be "lighted" when the setting mode is terminated and input operation by the operator's line of sight becomes possible. Alternatively, the operator may be informed that the input operation by the operator's line of sight is enabled by sound from the speaker 430, or the vibration generator 440 provided on the operation panel 700 may be vibrated continuously or briefly. may be notified to the operator.

本実施形態では、視線検出の完了後、引き続き視線補正(キャリブレーション)を行って視線プロファイル情報を作成する情報取得モードを実行し得る。即ち、図7に示すように、制御部300は視線検出の完了後、視線補正(キャリブレーション)を開始する(S12)。本実施形態では視線補正の一例として、操作者に複数点を停留視させる方法を用いた。即ち、操作者が操作パネル700の三つ以上の複数の箇所を見るように順次に誘導し、各箇所を所定時間以上に亘り見るように視線を停留させた状態で、各箇所における瞳孔中心760pおよび反射点中心761pの位置関係(図4参照)を得る。そして、得られた瞳孔中心760pおよび反射点中心761pの位置関係と、操作パネル700の各地点の位置関係とに基づき、視線検出結果(S10参照)を補正する。こうして視線補正された視線検出結果は、操作者毎に視線プロファイル情報としてメモリ320に記憶される。 In the present embodiment, after completion of line-of-sight detection, an information acquisition mode in which line-of-sight correction (calibration) is subsequently performed to create line-of-sight profile information can be executed. That is, as shown in FIG. 7, the control unit 300 starts line-of-sight correction (calibration) after completion of line-of-sight detection (S12). In this embodiment, as an example of line-of-sight correction, a method of causing the operator to fixate a plurality of points is used. That is, the operator is sequentially guided to look at three or more locations on the operation panel 700, and the pupil center 760p at each location is fixed in a state where the line of sight is fixed so as to look at each location for a predetermined time or longer. and the positional relationship of the reflection point center 761p (see FIG. 4). Then, based on the obtained positional relationship between the pupil center 760p and the reflection point center 761p and the positional relationship of each point on the operation panel 700, the line-of-sight detection result (see S10) is corrected. The line-of-sight detection result thus corrected is stored in the memory 320 as line-of-sight profile information for each operator.

ここで、視線補正に必要な条件について、図5を参照しながら図8を用いて説明する。操作パネル700には、視線検出部330が操作パネル700の各箇所を特定できるように、網の目状に分割されたアドレスが予め付されている。本実施形態では、図8に示すように、行方向を「AA」から「KK」で示す10行に振り分け、列方向を「01」から「13」で示す13列に振り分け、「10行×13列=130箇所」のアドレスを有している。このアドレスには、三次元空間の絶対座標としてX方向、Y方向、Z方向の絶対座標が付されており、視線検出部330による計算の基礎データとしてメモリ320に記憶されている。 Here, conditions necessary for line-of-sight correction will be described using FIG. 8 while referring to FIG. The operation panel 700 is pre-attached with meshed addresses so that the line-of-sight detection unit 330 can identify each location of the operation panel 700 . In this embodiment, as shown in FIG. 8, the row direction is divided into 10 rows indicated by "AA" to "KK", the column direction is divided into 13 columns indicated by "01" to "13", and "10 rows × It has 13 columns=130 addresses. Absolute coordinates in the X, Y, and Z directions are attached to this address as absolute coordinates in a three-dimensional space, and are stored in the memory 320 as basic data for calculation by the line-of-sight detection unit 330 .

また、操作パネル700の四隅のうちの3カ所には、視線補正のために操作者に視認させるためのターゲット部としてのマーカ751、752、753が設けられている。ここでは、マーカ751が操作パネル700の左上角部に、マーカ752が操作パネル700の右上角部に、マーカ753が操作パネル700の右下角部にそれぞれ設けられている。これらマーカ751~753は、いずれか2つのマーカを結ぶ直線上に他のマーカが位置しないように設けられている。なお、マーカは操作パネル700上の少なくとも2カ所以上に設けられていればよい。ただし、マーカのうち少なくとも2つは操作パネル700の角部に設けられているのが好ましい。 Markers 751, 752, and 753 are provided at three of the four corners of the operation panel 700 as target portions to be visually recognized by the operator for correcting the line of sight. Here, a marker 751 is provided at the upper left corner of the operation panel 700, a marker 752 is provided at the upper right corner of the operation panel 700, and a marker 753 is provided at the lower right corner of the operation panel 700, respectively. These markers 751 to 753 are provided so that no other marker is positioned on a straight line connecting any two markers. Note that the markers may be provided in at least two locations on the operation panel 700 . However, at least two of the markers are preferably provided at the corners of operation panel 700 .

ターゲット部は操作者が視認しやすいように、例えば5mm×5mmの四角形状に形成され、マーカ751~753のように目立つ色(例えば黄色や青色など、パネルカバー710の色と異なる色)で塗装されていてもよい。あるいは、LEDなどで発光可能に形成されていてもよい。また、パネルカバー710にシール部材が貼り付けられることで形成されていてもよい。なお、ターゲット部それぞれの大きさは、操作者が視認しやすい大きさであって、かつ視線補正が可能な大きさであれば上述した大きさに限らなくてもよい。これらターゲット部としてのマーカ751~753には、三次元空間の絶対座標としてX方向、Y方向、Z方向の絶対座標が付される。例えば、マーカ751(アドレスAA01)の中心位置座標は、「X=AA01x、Y=AA01y、Z=AA01z」である。マーカ752(アドレスAA13)の中心位置座標は、「X=AA13x、Y=AA13y、Z=AA13z」である。マーカ753(アドレスKK13)の中心位置座標は、「X=KK13x、Y=KK13y、Z=KK13z」である。これらマーカ751~753の中心位置座標は、操作パネル700の角度によって変わり得る。 The target portion is formed in a rectangular shape of, for example, 5 mm×5 mm so that the operator can easily visually recognize it, and is painted in a conspicuous color like the markers 751 to 753 (for example, a color different from the color of the panel cover 710, such as yellow or blue). may have been Alternatively, an LED or the like may be formed so as to emit light. Alternatively, it may be formed by attaching a sealing member to the panel cover 710 . It should be noted that the size of each target portion need not be limited to the size described above as long as the size is such that the operator can easily visually recognize the size and the line of sight can be corrected. These markers 751 to 753 as target portions are given absolute coordinates in the X, Y, and Z directions as absolute coordinates in a three-dimensional space. For example, the center position coordinates of the marker 751 (address AA01) are "X=AA01x, Y=AA01y, Z=AA01z". The center position coordinates of the marker 752 (address AA13) are "X=AA13x, Y=AA13y, Z=AA13z". The center position coordinates of the marker 753 (address KK13) are "X=KK13x, Y=KK13y, Z=KK13z". The center position coordinates of these markers 751 to 753 can change depending on the angle of operation panel 700 .

図7の説明に戻り、制御部300は、視線補正を行うことを操作者に報知するために、表示部410に「視線補正を開始します。操作部左上のマーカを見てください。」とステータスを表示させる(S13)。そして、制御部300は、カメラ510に撮影されたマーカ751を停留視する操作者のデータに基づいて、マーカ751の停留視により視線補正に必要な情報収集が完了したか否かを判定する(S14)。制御部300は、視線補正に必要な情報収集が完了するまで、操作者にマーカ751を停留視させて、それをカメラ510に撮影させる(S14のNO)。こうすることで、カメラ510に撮影された操作者のデータから、操作者がマーカ751(マーカA)を停留視した時の目視点2点の位置及び視線情報を得る。具体的には、マーカA反射点中心761pA、マーカA瞳孔中心760pA、マーカA算術角膜曲率中心KcAs、マーカA算術視線ベクトルGsAが得られる。 Returning to the description of FIG. 7, the control unit 300 displays the message "Starting line-of-sight correction. Look at the marker on the upper left of the operation unit." Display the status (S13). Then, the control unit 300 determines whether or not the collection of information necessary for correcting the line of sight has been completed based on the data of the operator who fixedly gazes at the marker 751 photographed by the camera 510 ( S14). The control unit 300 causes the operator to view the marker 751 stationary until the collection of information necessary for correcting the line of sight is completed, and causes the camera 510 to photograph the marker 751 (NO in S14). In this way, from the operator's data captured by the camera 510, the positions of the two visual points and line-of-sight information when the operator fixedly gazes at the marker 751 (marker A) are obtained. Specifically, marker A reflection point center 761pA, marker A pupil center 760pA, marker A arithmetic corneal curvature center KcAs, and marker A arithmetic sight line vector GsA are obtained.

マーカ751の停留視により視線補正に必要な情報収集が完了した場合(S14のYES)、制御部300は同様にして、操作者に別のマーカ752を停留視させて、それをカメラ510に撮影させる。そうするため、制御部300は、表示部410に「視線補正中です。操作部右上のマーカを見てください。」とステータスを表示させる(S15)。制御部300は、マーカ752(マーカB)を停留視する操作者のデータに基づいて、マーカ752の停留視により視線補正に必要な情報収集が完了するまで、操作者にマーカ752を停留視させて、それをカメラ510に撮影させる(S16のNO)。こうすることで、カメラ510に撮影された操作者のデータから、マーカB反射点中心761pB、マーカB瞳孔中心760pB、マーカB算術角膜曲率中心KcBs、マーカB算術視線ベクトルGsBが得られる。 When the collection of information necessary for line-of-sight correction is completed by fixating the marker 751 (YES in S14), the control unit 300 similarly causes the operator to fixate another marker 752, and the camera 510 captures it. Let In order to do so, the control unit 300 causes the display unit 410 to display the status "Currently correcting the line of sight. Look at the marker on the upper right of the operation unit" (S15). The control unit 300 causes the operator to fixate the marker 752 based on the data of the operator watching the marker 752 (marker B) with fixation until the collection of information necessary for correcting the line of sight is completed by the fixation of the marker 752 . and causes the camera 510 to photograph it (NO in S16). By doing this, from the data of the operator photographed by the camera 510, the marker B reflection point center 761pB, the marker B pupil center 760pB, the marker B arithmetic corneal curvature center KcBs, and the marker B arithmetic sight line vector GsB are obtained.

さらに、制御部300は、操作者に別のマーカ753を停留視させて、それをカメラ510に撮影させる。そうするため、制御部300は、表示部410に「視線補正中です。操作部右下のマーカを見てください。」とステータスを表示させる(S17)。制御部300は、マーカ753(マーカC)を停留視する操作者のデータに基づいて、マーカ753の停留視により視線補正に必要な情報収集が完了するまで、操作者にマーカ753を停留視させて、それをカメラ510に撮影させる(S18のNO)。こうすることで、カメラ510に撮影された操作者のデータから、マーカC反射点中心761pC、マーカC瞳孔中心760pC、マーカC算術角膜曲率中心KcCs、マーカC算術視線ベクトルGsCが得られる。制御部300は、こうして得た視線補正に必要な情報に基づき視線補正値を算出すると共に、表示部410に「視線補正計算中です。お待ちください。」とステータスを表示させる(S19)。また、制御部300は、カメラ位置表示部421を消灯する(S20)。制御部300は、情報作成部360による操作者毎の視線プロファイル情報の算出(視線補正値の算出)が完了するまで、言い換えれば当該操作者の適正な視線検出が可能となるまで、処理の進行を待機させる(S21のNO)。この視線補正値の算出が完了すると、制御部300(詳しくは視線検出部330)は視線ベクトル(図4参照)と操作パネル700のアドレス(図8参照)とを略一致させることが可能となる。なお、以上の説明では、各マーカ751~753を見るように促す表示を、各マーカ751~753毎に順に表示したが、これに限らない。例えば、マーカ751~753の代わりにターゲット部としてLEDを設ける場合は、「点灯するLEDを順に見てください。」といった表示を行うものであってもよい。 Furthermore, the control unit 300 causes the operator to fixate another marker 753 and causes the camera 510 to photograph it. In order to do so, the control unit 300 causes the display unit 410 to display the status "Currently correcting the line of sight. Look at the marker at the bottom right of the operation unit" (S17). The control unit 300 causes the operator to fixate the marker 753 (marker C) based on the data of the operator who fixates the marker 753 (marker C) until the collection of information necessary for correcting the line of sight is completed by the fixation of the marker 753 . and causes the camera 510 to photograph it (NO in S18). By doing this, from the data of the operator photographed by the camera 510, the marker C reflection point center 761 pC, the marker C pupil center 760 pC, the marker C arithmetic corneal curvature center KcCs, and the marker C arithmetic sight line vector GsC are obtained. The control unit 300 calculates the line-of-sight correction value based on the information necessary for the line-of-sight correction obtained in this way, and causes the display unit 410 to display the status "The line-of-sight correction is being calculated. Please wait." (S19). Also, the control unit 300 turns off the camera position display unit 421 (S20). The control unit 300 continues the processing until the calculation of the line-of-sight profile information for each operator (calculation of the line-of-sight correction value) by the information generation unit 360 is completed, in other words, until the proper line-of-sight detection of the operator becomes possible. (NO in S21). When the calculation of the line-of-sight correction value is completed, the control unit 300 (more specifically, the line-of-sight detection unit 330) can substantially match the line-of-sight vector (see FIG. 4) with the address of the operation panel 700 (see FIG. 8). . In the above description, the display prompting the user to look at the markers 751 to 753 is displayed in order for each of the markers 751 to 753, but the present invention is not limited to this. For example, when LEDs are provided as the target part instead of the markers 751 to 753, a display such as "Look at the lit LEDs in order" may be displayed.

視線補正値の算出について、マーカ751のYZ方向の視線補正値を例に説明する。視線補正値の算出には、マーカ751の中心位置座標「X=AA01x、Y=AA01y、Z=AA01z」、マーカA反射点中心761pA、マーカA瞳孔中心760pA、マーカA算術角膜曲率中心KcAs、マーカA算術視線ベクトルGsAが用いられる。マーカ751の算術視線ベクトルGsAと操作パネル700のマーカ751のY座標「AA01y」とZ座標「AA01z」から、マーカA角膜曲率中心KcAが得られる。このマーカA角膜曲率中心KcAとマーカA算術角膜曲率中心KcAsの座標ずれが、操作者個々と算術式を用いた平均値との誤差であり、この誤差を補正値として視線検出部330の視線計測計算式(不図示)に用いる。これをXZ方向の算術、またマーカ752やマーカ753を停留視させることにより得られた視線情報でも同様に算術することで、より高い視線検出精度が得られる。 Calculation of the line-of-sight correction value will be described using the line-of-sight correction value of the marker 751 in the YZ directions as an example. For calculating the line-of-sight correction value, the center position coordinates of the marker 751 "X=AA01x, Y=AA01y, Z=AA01z", marker A reflection point center 761pA, marker A pupil center 760pA, marker A arithmetic corneal curvature center KcAs, marker A arithmetic gaze vector GsA is used. The marker A corneal curvature center KcA is obtained from the arithmetic line-of-sight vector GsA of the marker 751 and the Y-coordinate “AA01y” and Z-coordinate “AA01z” of the marker 751 on the operation panel 700 . The coordinate deviation between the marker A corneal curvature center KcA and the marker A arithmetic corneal curvature center KcAs is the error between the individual operator and the average value using the arithmetic formula. Used in calculation formula (not shown). A higher accuracy of sight line detection can be obtained by performing this arithmetic operation in the XZ direction, and by performing the same arithmetic operation on the sight line information obtained by fixing the marker 752 and the marker 753 .

図7の説明に戻り、制御部300は、上述のように情報取得モードの実行によりマーカ751~753を設けた所定位置毎に検出される操作者の視線に基づいて、操作者毎の視線プロファイル情報を作成する。そして、制御部300は、作成した視線プロファイル情報に基づき正確な視線検出が可能となると(S21のYES)、操作者の視線により各種機能を実行する視線入力モードに移行する。視線入力モードは、設定モードにおいて検出したユーザの視線による視線入力操作に従って画像形成に関する入力を受け付けるモードである。設定モードから視線入力モードへの移行に伴い、制御部300は表示部410にステータスとして「視線補正を完了し、視線検出を開始します。」と表示し(S22)、操作者の視線検出を開始する(S23)。このように、本実施形態では、設定モードにおいてユーザの視線を検出可能な状態に設定され、視線入力モードにおいて設定モードの設定に基づいて検出されたユーザの視線による視線入力操作が可能となったことを操作者に報知する。言い換えれば、設定モードにおいてユーザの視線を検出可能な状態への設定が完了したことをユーザに報知する、あるいは設定モードから視線入力モードに移行したことをユーザに報知する。この際に、制御部300(詳しくは表示制御部341)は視線検出の開始にあわせ、操作者の視線が向いている表示部410上の位置を操作者に報知するため、表示部410に操作者の視線を示す印として視線ポインタ810(図2参照)を表示させる(S24)。そして、制御部300は視線入力を開始する(S25)。即ち、表示部410に表示される視線ポインタ810は、操作者の視線移動にあわせて表示部410上を移動するように表示されることから、操作者は視線ポインタ810により自身の視線がどこに向いているのかを認識できる。また、操作者は視線をハード部のハードキー401に向ける、あるいは視線により視線ポインタ810を表示部410に表示されたソフトキー403にあわせることで、これらの操作つまりは各種機能を実行させることができる(視線入力)。 Returning to the description of FIG. 7, the control unit 300 generates a line-of-sight profile for each operator based on the line-of-sight of the operator detected at each predetermined position where the markers 751 to 753 are provided by executing the information acquisition mode as described above. create information. Then, when accurate line-of-sight detection becomes possible based on the created line-of-sight profile information (YES in S21), the control unit 300 shifts to a line-of-sight input mode in which various functions are executed according to the operator's line of sight. The line-of-sight input mode is a mode for receiving an input regarding image formation according to a line-of-sight input operation by the user's line of sight detected in the setting mode. With the shift from the setting mode to the line-of-sight input mode, the control unit 300 displays "line-of-sight correction completed and line-of-sight detection started" as a status on the display unit 410 (S22), and detects the operator's line of sight. Start (S23). As described above, in the present embodiment, the user's line of sight is set to be detectable in the setting mode, and the line of sight input operation by the user's line of sight detected based on the setting of the setting mode is enabled in the line-of-sight input mode. Notify the operator. In other words, the user is notified that setting to a state in which the user's line of sight can be detected has been completed in the setting mode, or the user is notified that the setting mode has shifted to the line-of-sight input mode. At this time, the control unit 300 (specifically, the display control unit 341) operates the display unit 410 in order to notify the operator of the position on the display unit 410 to which the operator's line of sight is directed in accordance with the start of line-of-sight detection. A line-of-sight pointer 810 (see FIG. 2) is displayed as a mark indicating the line of sight of the person (S24). Then, the control unit 300 starts line-of-sight input (S25). That is, the line-of-sight pointer 810 displayed on the display unit 410 is displayed so as to move on the display unit 410 according to the movement of the line-of-sight of the operator. can recognize The operator directs his/her line of sight to the hard key 401 of the hardware unit, or aligns the line of sight pointer 810 with the line of sight to the soft key 403 displayed on the display unit 410, thereby executing these operations, that is, various functions. Yes (gaze input).

視線検出が可能となると、視線検出部330はカメラ510により撮影された操作者のデータに基づき、位置算出を連続的に行っていく。これにより、表示部410に表示される視線ポインタ810は、操作者の視線移動にあわせて表示制御部341により表示部410上を移動するように表示される。そして、操作者の視線が表示部410からはずれてハード部400に移動すると、表示制御部341は視線ポインタ810を非表示とする。また、操作者の視線がハード部400のいずれかのハードキー401に向いていれば、表示制御部341は視線先のハードキー401に関する情報(例えば名称や機能など)を表示部410に表示する。表示制御部341による視線先の特定は、操作パネル700のアドレス「AA01」から「KK13」の各領域の座標と(図8参照)、視線検出部330により特定される視線の座標とが略一致するかによって行われる。例えば、ハード部400の低電力モードボタンのアドレスは「BB12」であることから、視線の座標がアドレス「BB12」の座標と略一致した場合に、表示部410にステータスとして「低電力ボタンを見ています」などの表示が行われる。 When line-of-sight detection becomes possible, the line-of-sight detection unit 330 continuously performs position calculation based on data of the operator photographed by the camera 510 . Accordingly, the line-of-sight pointer 810 displayed on the display unit 410 is displayed so as to move on the display unit 410 by the display control unit 341 in accordance with the movement of the line-of-sight of the operator. Then, when the line of sight of the operator deviates from the display unit 410 and moves to the hardware unit 400 , the display control unit 341 hides the line-of-sight pointer 810 . Further, when the operator's line of sight is directed toward any of the hard keys 401 of the hardware unit 400, the display control unit 341 displays information (for example, name, function, etc.) regarding the hard key 401 at the line of sight on the display unit 410. . The line-of-sight destination is specified by the display control unit 341 so that the coordinates of each area from address "AA01" to "KK13" on the operation panel 700 (see FIG. 8) and the line-of-sight coordinates specified by the line-of-sight detection unit 330 substantially match. It is done by doing. For example, since the address of the low power mode button of the hardware unit 400 is "BB12", when the coordinates of the line of sight substantially match the coordinates of the address "BB12", the display unit 410 displays the status "Low power button is visible." is displayed.

そして、制御部300は、人感センサ450によって操作者の所在を検出している状態であるか否かを判定し(S26)、操作者の所在を検出している状態である限り(S26のYES)、S25の処理に戻って視線入力を続行する。他方、操作者の所在を検出している状態から操作者の所在を検出していない状態に移行した場合には(S26のNO)、制御部300は本視線入力処理を終了する。なお、上述したように、操作者の視線検出に非常に高い精度が求められないような場合には、視線補正が行われなくてもよい。この場合は、図6のS10で視線検出が完了した場合に、S11にて表示部に「視線検出完了。視線による入力操作が可能です。」等の表示を行う。つまり、視線補正を行わない場合は、S10で設定モードが完了したことになる。そして、図6のS11の処理を実行した後、図7のS23以降の処理を実行する。つまり、視線補正を行わない場合は、S10で検出した視線に基づいて、視線による入力操作が可能となる。また、視線補正を実行するか否かについては、操作者によって設定される構成としてもよい。 Then, the control unit 300 determines whether or not the presence of the operator is detected by the human sensor 450 (S26), and as long as the presence of the operator is detected (S26). YES), return to the process of S25 and continue the line-of-sight input. On the other hand, when the state in which the location of the operator is detected changes to the state in which the location of the operator is not detected (NO in S26), the control unit 300 terminates this line-of-sight input process. As described above, if very high accuracy is not required for detecting the operator's line of sight, line of sight correction may not be performed. In this case, when line-of-sight detection is completed in S10 of FIG. 6, a message such as "Line-of-sight detection completed. Input operation by line of sight is possible" is displayed on the display unit in S11. That is, if the line of sight correction is not performed, the setting mode is completed in S10. Then, after executing the process of S11 in FIG. 6, the processes after S23 in FIG. 7 are executed. In other words, when line-of-sight correction is not performed, it is possible to perform an input operation using the line-of-sight based on the line-of-sight detected in S10. Further, whether or not to execute line-of-sight correction may be configured to be set by the operator.

<視線入力操作の一例>
上記の視線入力操作について、図9及び図10を用いて具体的に説明する。図9では、表示部410に表示されたソフトキー403である「コピーボタン(COPY)」を、操作者が視線により操作する場合を例に説明する。操作者は表示部410に表示された視線ポインタ810を確認することで、視線をコピーボタン上に動かし得る。コピーボタンのアドレスは、「CC02、CC03,DD02、DD03」である(図8参照)。操作者がこの四ヶ所の領域内に第一時間以上(例えば2秒以上)に亘り視線ポインタ810がある状態を続けることで、視線検出部330は操作者がコピーボタンを見ていると確定できる。表示制御部341は、視線検出部330による操作者の視線の位置が確定されると、図9に示すように、表示部410にステータスとして「コピーボタンを選択しています」などと表示させる。また、表示制御部341は、視線ポインタ810に重なっているソフトキー(ここではコピーボタン)の表示色を、視線ポインタ810に重なっていない他のソフトキーの表示色と異なる色に変更する。これにより、操作者は、自身の視線の位置と、画像形成装置が検出している視線の位置とが一致するか否かを確認することができる。
<Example of line-of-sight input operation>
The above line-of-sight input operation will be specifically described with reference to FIGS. 9 and 10. FIG. FIG. 9 illustrates an example in which the operator operates the "copy button (COPY)", which is the soft key 403 displayed on the display unit 410, with his or her line of sight. By confirming the line-of-sight pointer 810 displayed on the display unit 410, the operator can move the line of sight to the copy button. The address of the copy button is "CC02, CC03, DD02, DD03" (see FIG. 8). When the operator keeps the line-of-sight pointer 810 in the four regions for the first time or longer (for example, two seconds or longer), the line-of-sight detection unit 330 can determine that the operator is looking at the copy button. . When the line-of-sight detection unit 330 determines the line-of-sight position of the operator, the display control unit 341 causes the display unit 410 to display a status such as "copy button selected" as shown in FIG. In addition, the display control unit 341 changes the display color of the soft key (here, the copy button) overlapping the line-of-sight pointer 810 to a color different from the display color of other soft keys not overlapping the line-of-sight pointer 810 . Accordingly, the operator can confirm whether or not the line-of-sight position of the operator matches the line-of-sight position detected by the image forming apparatus.

その後、上記四ヶ所の領域内に視線ポインタ810がある状態がさらに第二時間以上(例えば1秒以上)に亘り続けられると、表示制御部341は表示部410の表示を切り替える。例えば、図10に示すように、表示制御部341は「コピーボタン」の代わりのソフトキー403として、「はい」ボタンと「いいえ」ボタンとを有する選択画面を表示部410に表示させる。それと同時に、表示部410のステータスを「コピーボタンを選択しています」から「コピーボタンに決定しますか」に切り替える。そして、操作者が「はい」ボタンに視線を向けた場合、機能実行部350は「コピーボタン」に割り当てられたコピー機能を実行するよう装置を動作させる。他方、操作者が「いいえ」ボタンに視線を向けた場合、表示制御部341は上記の選択画面から、「コピーボタン」選択前の画面(図9参照)に戻る制御を行う。なお、視線ポインタ810が所定の領域内に所定時間位置している状態を判定できる時間であれば、第一時間や第二時間は同じ時間(例えばどちらも1秒以上等)としてもよい。 After that, when the line-of-sight pointer 810 remains in the four regions for a second time or more (for example, one second or more), the display control section 341 switches the display of the display section 410 . For example, as shown in FIG. 10, the display control unit 341 causes the display unit 410 to display a selection screen having a "yes" button and a "no" button as the soft keys 403 instead of the "copy button". At the same time, the status of the display unit 410 is switched from "Copy button selected" to "Do you decide to copy button?". Then, when the operator directs his/her gaze to the "Yes" button, the function executing section 350 operates the apparatus to execute the copy function assigned to the "Copy button". On the other hand, when the operator directs the line of sight to the "NO" button, the display control unit 341 performs control to return from the above selection screen to the screen (see FIG. 9) before the "COPY BUTTON" was selected. Note that the first time and the second time may be the same time (for example, both are 1 second or longer) as long as the time allows determination of the state in which the line-of-sight pointer 810 is positioned within the predetermined area for a predetermined time.

なお、本実施形態では例えば操作方法がわからない場合に、操作者が表示部410に表示された「ヘルプ」ボタンを視線入力により操作して、マニュアルを呼び出したり、サポートセンターへの問合せを行う等、画像形成以外の動作を行うことができてもよい。 In this embodiment, for example, when the operator does not know how to operate, the operator operates the "help" button displayed on the display unit 410 by inputting the line of sight to call up the manual, make an inquiry to the support center, etc. It may be possible to perform operations other than image formation.

また、上述した実施形態では、視線によるハードキー401やソフトキー403の選択の際に、表示部410に選択されているハードキー401やソフトキー403に関する情報を表示して、操作者に報知するようにしたが、これに限らない。例えば、ハードキー401を点滅させる、ソフトキー403の表示色やサイズを変えるなど、操作者に視線の向いている先のハードキー401やソフトキー403、つまりは視線入力により操作されるハードキー401やソフトキー403を報知できればよい。さらには、スピーカ430を用いた音(音声ガイド)により、また振動発生装置440を用いた振動により報知してもよい。 Further, in the above-described embodiment, when the hard key 401 or the soft key 403 is selected by the line of sight, information regarding the selected hard key 401 or soft key 403 is displayed on the display unit 410 to notify the operator. However, it is not limited to this. For example, the hard key 401 or soft key 403 at which the operator's line of sight is directed, that is, the hard key 401 operated by the line of sight input can be changed by blinking the hard key 401 or changing the display color or size of the soft key 403 . and the soft key 403 can be notified. Further, the notification may be made by sound (audio guide) using the speaker 430 or by vibration using the vibration generator 440 .

なお、作成された操作者毎の視線プロファイル情報はメモリ320(図5参照)に記憶しておき、次に画像形成装置50を使用する際に呼び出して使用できるようにするのが好ましい。こうすることで、同じ操作者が次に画像形成装置50を使用する際に、情報取得モード(図7のS12~S21)の実行を省略できる。例えば、画像形成装置50に特定手段としての認証装置800(図1参照)を設け、個人情報が書き込まれたIDカードで認証を行うことによって、該当する視線プロファイル情報をメモリ320から読み出すことができるようにしてよい。即ち、認証装置800により特定された操作者がメモリ320に視線プロファイル情報の記憶されている操作者である場合、上述の情報取得モードとして、メモリ320から該当する視線プロファイル情報を読み出すだけでよい。言い換えれば、認証装置800により特定された操作者がメモリ320に視線プロファイル情報の記憶されていない操作者である場合に、上述の情報取得モードを実行して、視線プロファイル情報を作成してメモリ320に記憶する。 It is preferable to store the created line-of-sight profile information for each operator in the memory 320 (see FIG. 5) so that it can be called up and used the next time the image forming apparatus 50 is used. By doing this, when the same operator uses the image forming apparatus 50 next time, execution of the information acquisition mode (S12 to S21 in FIG. 7) can be omitted. For example, by providing an authentication device 800 (see FIG. 1) as identification means in the image forming apparatus 50 and performing authentication using an ID card in which personal information is written, the corresponding line-of-sight profile information can be read out from the memory 320. You can do That is, when the operator identified by the authentication device 800 is an operator whose line-of-sight profile information is stored in the memory 320, it is only necessary to read out the corresponding line-of-sight profile information from the memory 320 in the above information acquisition mode. In other words, when the operator identified by the authentication device 800 is an operator whose line-of-sight profile information is not stored in the memory 320, the above-described information acquisition mode is executed to create the line-of-sight profile information and store it in the memory 320. memorize to

以上のように、本実施形態では、視線検出装置500を用いての操作者の視線検出が可能となったことを、表示、音声、振動などによって操作者に対し報知するようにした。操作者は、報知により視線検出が可能であることがわかるので、すぐに視線入力による操作を行うことができ、ユーザ利便性が向上する。これに対し、従来のように視線検出が可能であることが報知されていない場合、操作者は視線入力による操作が可能であるかがわからず、視線入力による操作に手間取る。特に、始めて視線入力を行う操作者は、そのための準備として視線検出を行う必要があり、視線検出が可能であることが報知されないと、スムースに視線入力を行うことが難しい。本実施形態では、操作者の視線検出が可能となったことを操作者に報知することで、操作者は準備としての視線検出から視線入力のための視線検出への移行をスムースに行うことができるので、ユーザ利便性が向上する。このように、画像形成装置50において視線検出技術を採用した構成であって、操作者にとってより使い勝手のよいつまりユーザ利便性のより高いものが実現できる。 As described above, in the present embodiment, the fact that the line-of-sight detection device 500 can be used to detect the line-of-sight of the operator is notified to the operator by display, sound, vibration, or the like. Since the operator can know that line-of-sight detection is possible from the notification, the operator can immediately perform an operation by line-of-sight input, thereby improving user convenience. On the other hand, if the operator is not informed that line-of-sight detection is possible as in the conventional art, the operator does not know whether the line-of-sight input operation is possible, and it takes time to perform the line-of-sight input operation. In particular, an operator performing line-of-sight input for the first time needs to perform line-of-sight detection as a preparation for that, and it is difficult to smoothly perform line-of-sight input unless notified that line-of-sight detection is possible. In this embodiment, by informing the operator that the operator's line of sight can be detected, the operator can smoothly transition from line of sight detection as preparation to line of sight detection for line of sight input. Therefore, user convenience is improved. In this manner, the image forming apparatus 50 adopts the line-of-sight detection technology, and is more convenient for the operator, that is, more convenient for the user.

なお、上述した実施形態では、操作パネル700上にハード部400と表示部410とを有するものを例に説明したが、これに限らない。例えば、操作パネル700はハード部400のみを有するもの、あるいは表示部410のみの全面液晶パネルを有するものであってもよい。つまりは、ハードキー401のみ、あるいは表示部410に表示されたソフトキー403のみが、操作者の視線により操作可能であってよい。また、上述した実施形態では、操作パネル700に視線検出装置500を設ける構成としたがこれに限らない。例えば、視線検出装置500は、操作パネル700周辺の位置であって、操作パネル700に対する操作者の視線を検出することが可能な位置であれば、装置本体50aや原稿読取装置601などに設けられていてもよい。 In the above-described embodiment, the operation panel 700 has the hardware unit 400 and the display unit 410 as an example, but the present invention is not limited to this. For example, the operation panel 700 may have only the hardware section 400 or may have a full liquid crystal panel with only the display section 410 . In other words, only the hard keys 401 or only the soft keys 403 displayed on the display unit 410 may be operable by the operator's line of sight. Further, in the above-described embodiment, the operation panel 700 is provided with the line-of-sight detection device 500, but the present invention is not limited to this. For example, if the line-of-sight detection device 500 is positioned around the operation panel 700 and can detect the line of sight of the operator with respect to the operation panel 700, it can be installed in the device body 50a, the document reading device 601, or the like. may be

50…画像形成装置、300…制御部、320…記憶手段(メモリ)、330…視線検出手段(視線検出部)、341…表示制御手段(表示制御部)、350…実行手段(機能実行部)、360…情報作成手段(情報作成部)、401…操作子(ハードキー)、402…報知手段(発光手段、発光用LED)、403…操作子(ソフトキー)、410…報知手段(表示手段、表示部)、420…報知手段(発光手段、表示ランプ)、430…報知手段(音発生手段、スピーカ)、440…報知手段(振動発生手段、振動発生装置)、500…視線検出手段(視線検出装置)、510…撮像部(カメラ)、700…操作部(操作パネル)、710…パネルカバー、751、752、753…ターゲット部(マーカ)、800…特定手段(認証装置) 50... Image forming apparatus 300... Control section 320... Storage means (memory) 330... Line-of-sight detection means (line-of-sight detection section) 341... Display control means (display control section) 350... Execution means (function execution section) , 360... Information creating means (information creating unit), 401... Operator (hard key), 402... Notification means (light emitting means, light emitting LED), 403... Operator (soft key), 410... Notification means (display means) , display unit), 420... Notifying means (light emitting means, display lamp), 430... Notifying means (sound generating means, speaker), 440... Notifying means (vibration generating means, vibration generating device), 500... Line of sight detecting means (line of sight Detecting device), 510: imaging unit (camera), 700: operation unit (operation panel), 710: panel cover, 751, 752, 753: target unit (marker), 800: specifying means (authentication device)

Claims (4)

記録材に画像を形成可能な画像形成部と、
ユーザの視線による入力が可能なソフトウェアキーを表示可能な表示部と、物理的に設けられたハードウェアキーとを有する操作部と、
ユーザの顔を撮像する撮像部と、
前記撮像部に撮像されたユーザの顔の画像によって得られる撮像結果に基づいてユーザの視線を検出可能な状態に設定する設定モードと、前記設定モードの設定に基づいて検出されるユーザの視線による前記ソフトウェアキーに対する視線入力操作に従って前記ソフトウェアキーに対応する入力を受け付ける入力モードとを実行可能な制御部と、を備え、
前記制御部は、前記入力モードにおいて、ユーザの視線が前記ソフトウェアキーに向いている場合に前記ソフトウェアキーに予め割り当てられた機能を前記表示部に表示させ、ユーザの視線が前記ハードウェアキーに向いている場合に前記ハードウェアキーに予め割り当てられた機能を前記表示部に表示させる、
ことを特徴とする画像形成装置。
an image forming unit capable of forming an image on a recording material;
an operation unit having a display unit capable of displaying software keys that can be input by the user's line of sight; and hardware keys that are physically provided;
an imaging unit that captures an image of a user's face;
A setting mode for setting a state in which the user's line of sight can be detected based on the imaging result obtained from the image of the user's face captured by the imaging unit; a control unit capable of executing an input mode for receiving an input corresponding to the software key in accordance with a line-of-sight input operation for the software key;
In the input mode, the control unit causes the display unit to display a function assigned in advance to the software key when the user's line of sight is directed toward the software key, and the user's line of sight is directed toward the hardware key. displaying a function pre-assigned to the hardware key on the display unit when the
An image forming apparatus characterized by:
前記制御部は、前記入力モードにおいて、ユーザの視線が前記ソフトウェアキーに向いている場合に、前記ソフトウェアキーに対する視線入力操作に基づいて前記画像形成部に前記記録材に画像を形成させる画像形成ジョブを実行させる、
ことを特徴とする請求項に記載の画像形成装置。
In the input mode, when the user's line of sight is directed toward the software key, the control unit causes the image forming unit to form an image on the recording material based on a line-of-sight input operation on the software key. to run
2. The image forming apparatus according to claim 1 , wherein:
前記表示部は、複数のソフトウェアキーを表示可能であり、
前記制御部は、前記入力モードにおいて、ユーザの視線の移動に連動して移動可能なマークを前記表示部に表示し、前記複数のソフトウェアキーのうち、前記マークと重なるソフトウェアキーの色を前記マークと重ならないソフトウェアキーの色と異なる色に変更する、
ことを特徴とする請求項又はに記載の画像形成装置。
The display unit can display a plurality of software keys,
In the input mode, the control unit displays a mark on the display unit that can be moved in conjunction with movement of a user's line of sight, and, among the plurality of software keys, displays a color of a software key that overlaps the mark. change to a different color than the software key color that does not overlap with
3. The image forming apparatus according to claim 1 , wherein:
前記制御部は、ユーザの視線が所定時間以上に亘って前記複数のソフトウェアキーのうち所定のソフトウェアキーに向いている場合に、前記所定のソフトウェアキーに予め割り当てられている機能を実行する、
ことを特徴とする請求項に記載の画像形成装置。
The control unit executes a function pre-assigned to the predetermined software key when the user's line of sight is directed to a predetermined software key among the plurality of software keys for a predetermined time or longer.
4. The image forming apparatus according to claim 3 , wherein:
JP2019007929A 2019-01-21 2019-01-21 image forming device Active JP7277151B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019007929A JP7277151B2 (en) 2019-01-21 2019-01-21 image forming device
US16/748,136 US11196881B2 (en) 2019-01-21 2020-01-21 Image forming apparatus employs a line-of-sight detection technique to execute user operations in plural modes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019007929A JP7277151B2 (en) 2019-01-21 2019-01-21 image forming device

Publications (3)

Publication Number Publication Date
JP2020116778A JP2020116778A (en) 2020-08-06
JP2020116778A5 JP2020116778A5 (en) 2022-01-27
JP7277151B2 true JP7277151B2 (en) 2023-05-18

Family

ID=71889672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019007929A Active JP7277151B2 (en) 2019-01-21 2019-01-21 image forming device

Country Status (1)

Country Link
JP (1) JP7277151B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293061A (en) 2004-03-31 2005-10-20 Advanced Telecommunication Research Institute International User interface device and user interface program
JP2006136450A (en) 2004-11-11 2006-06-01 Matsushita Electric Ind Co Ltd Iris certification device
JP2007195892A (en) 2006-01-30 2007-08-09 Toshiba Corp Ultrasonic diagnostic equipment and image processing program thereof
JP2015118556A (en) 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices
JP2016170528A (en) 2015-03-11 2016-09-23 株式会社リコー Head mounted display and method for connecting with external device at head mounted display
JP2017215928A (en) 2016-05-31 2017-12-07 フォーブ インコーポレーテッド Gaze detection system
JP2018049528A (en) 2016-09-23 2018-03-29 富士ゼロックス株式会社 Information processing apparatus, image forming apparatus, and program
JP2018049527A (en) 2016-09-23 2018-03-29 富士ゼロックス株式会社 Information processing apparatus, image forming apparatus, and program
JP2018183249A (en) 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248872A (en) * 1994-03-11 1995-09-26 Matsushita Electric Ind Co Ltd Input device and arithmetic input/output device
JPH0844488A (en) * 1994-07-29 1996-02-16 Toshiba Corp Voting terminal option device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293061A (en) 2004-03-31 2005-10-20 Advanced Telecommunication Research Institute International User interface device and user interface program
JP2006136450A (en) 2004-11-11 2006-06-01 Matsushita Electric Ind Co Ltd Iris certification device
JP2007195892A (en) 2006-01-30 2007-08-09 Toshiba Corp Ultrasonic diagnostic equipment and image processing program thereof
JP2015118556A (en) 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices
JP2016170528A (en) 2015-03-11 2016-09-23 株式会社リコー Head mounted display and method for connecting with external device at head mounted display
JP2017215928A (en) 2016-05-31 2017-12-07 フォーブ インコーポレーテッド Gaze detection system
JP2018049528A (en) 2016-09-23 2018-03-29 富士ゼロックス株式会社 Information processing apparatus, image forming apparatus, and program
JP2018049527A (en) 2016-09-23 2018-03-29 富士ゼロックス株式会社 Information processing apparatus, image forming apparatus, and program
JP2018183249A (en) 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method

Also Published As

Publication number Publication date
JP2020116778A (en) 2020-08-06

Similar Documents

Publication Publication Date Title
US9260259B2 (en) Image forming apparatus, sheet feed control method, and storage medium
US10498916B2 (en) Image scanning device, multifunction peripheral, image scanning method, and non-transitory computer-readable medium
US11196881B2 (en) Image forming apparatus employs a line-of-sight detection technique to execute user operations in plural modes
US8610982B2 (en) Image forming apparatus
US9025217B2 (en) Document, image forming apparatus, cover plate, image reading apparatus, image forming method, and image reading method
US9894226B2 (en) Information processing apparatus, setting condition specification method for image forming apparatus
US8953215B2 (en) Image forming apparatus, image forming method, non-transitory computer-readable medium, and test data
US20160212278A1 (en) Image reading device and image forming apparatus
CN107231500B (en) Information processing apparatus and image processing apparatus
JP5854970B2 (en) Electronic apparatus and image forming apparatus
JP7277151B2 (en) image forming device
JP2020119092A (en) Image forming apparatus
JP2020119093A (en) Image forming apparatus
JP2020116779A (en) Image formation apparatus
US11375074B2 (en) Image forming apparatus for forming an image for measuring a relative position with respect to a paper
CN107533361B (en) Image forming apparatus with a toner supply device
US20230156133A1 (en) Image forming apparatus, post-processing position adjusting method and non-transitory computer-readable medium encoded with post-processing position adjusting program
JP5726131B2 (en) Display input device
US20220094798A1 (en) Image formation apparatus, recording medium, and control method
JP6780603B2 (en) Image reader and image forming device
JP6895109B2 (en) Image reader and image forming device
JP2018180776A (en) Display input device
JP2014092763A (en) Electronic equipment and image forming apparatus
JP2021069034A (en) Image reading device and image forming apparatus
JP2020032690A (en) Electronic equipment and image formation apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7277151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151