JP6763260B2 - Information processing equipment, image forming equipment and programs - Google Patents

Information processing equipment, image forming equipment and programs Download PDF

Info

Publication number
JP6763260B2
JP6763260B2 JP2016185542A JP2016185542A JP6763260B2 JP 6763260 B2 JP6763260 B2 JP 6763260B2 JP 2016185542 A JP2016185542 A JP 2016185542A JP 2016185542 A JP2016185542 A JP 2016185542A JP 6763260 B2 JP6763260 B2 JP 6763260B2
Authority
JP
Japan
Prior art keywords
user
sight
line
information
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016185542A
Other languages
Japanese (ja)
Other versions
JP2018049527A (en
Inventor
祐一 河田
祐一 河田
英樹 山崎
英樹 山崎
齋藤 玲子
玲子 齋藤
義文 板東
義文 板東
健資 岡本
健資 岡本
知世 西田
知世 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016185542A priority Critical patent/JP6763260B2/en
Publication of JP2018049527A publication Critical patent/JP2018049527A/en
Application granted granted Critical
Publication of JP6763260B2 publication Critical patent/JP6763260B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、画像形成装置、プログラムに関する。 The present invention relates to an information processing device, an image forming device, and a program.

情報処理装置の表示部において自装置に関する機能の一覧を画像として表示するときがある。そしてユーザはこの一覧の中から目的の機能を選択する方法が一般的に用いられている。このときユーザが何れの箇所を見ているかを示す視線の位置を検知し、視線の位置により予め定められた処理を行なうものが提案されている。 The display unit of the information processing device may display a list of functions related to the own device as an image. A method in which the user selects a desired function from this list is generally used. At this time, it has been proposed that the position of the line of sight indicating which part the user is looking at is detected and a predetermined process is performed according to the position of the line of sight.

特許文献1には、映像再生装置は、ディスプレイに表示された映像に対しての人物の視線を検出する視線検出部と、視線検出部による検出結果に基づいて、ディスプレイの表示映像についての人物の視聴形態を判定する視聴形態判定部と、視聴形態判定部により判定された視聴形態に応じて、ディスプレイの表示映像の画質を調整する画質調整部と、を備えることが記載されている。
また特許文献2には、運動補助装置は、使用者が着座するシート部と、このシート部を揺動させる駆動部と、シート部を昇降させることによりシート部の高さを調整する昇降部と、使用者が足を載せる足置部と、使用者が手をかけて上半身を支えるためのハンドルと、ハンドルに取り付けられる表示パネルとを備えており、表示パネルは、運動時間等の情報が表示される表示部を有しているとともに、表示部が使用者の視線に合う位置に調整できるように構成されていることが記載されている。
According to Patent Document 1, the image reproduction device includes a line-of-sight detection unit that detects a person's line of sight with respect to an image displayed on a display, and a line-of-sight detection unit that detects a person's line of sight with respect to the image displayed on the display. It is described that the viewing mode determining unit for determining the viewing mode and the image quality adjusting unit for adjusting the image quality of the display image of the display according to the viewing mode determined by the viewing mode determining unit are provided.
Further, in Patent Document 2, the exercise assist device includes a seat portion on which the user sits, a drive portion that swings the seat portion, and an elevating portion that adjusts the height of the seat portion by raising and lowering the seat portion. It is equipped with a footrest on which the user rests his / her feet, a handle for the user to put his / her hand on and support the upper body, and a display panel attached to the handle. The display panel displays information such as exercise time. It is described that the display unit is provided and the display unit is configured to be adjusted to a position that matches the line of sight of the user.

特開2011−137874号公報Japanese Unexamined Patent Publication No. 2011-137874 特開2007−167292号公報JP-A-2007-167292

しかしながらユーザの視線の位置を検知する場合、ユーザの特徴により、位置の検出に誤差が生じることがある。特にユーザの特徴としてユーザの身長の高低により視線の方向が変化しやすく、視線の位置を精度よく検知しにくくなる問題がある。これを解決するには、ユーザ毎にキャリブレーションを行う必要があるが、この場合、利便性が低下する問題が生じる。
本発明は、ユーザ毎にキャリブレーションを行わなくても視線の位置を精度よく検知することができる情報処理装置等を提供することを目的とする。
However, when detecting the position of the line of sight of the user, an error may occur in the detection of the position due to the characteristics of the user. In particular, as a characteristic of the user, the direction of the line of sight is likely to change depending on the height of the user, and there is a problem that it is difficult to accurately detect the position of the line of sight. In order to solve this, it is necessary to perform calibration for each user, but in this case, there arises a problem that convenience is reduced.
An object of the present invention is to provide an information processing device or the like capable of accurately detecting the position of a line of sight without performing calibration for each user.

請求項1に記載の発明は、視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得手段と、取得した前記特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知手段と、を備え、前記特徴情報は、ユーザの身長の情報である情報処理装置である。
請求項2に記載の発明は、視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得手段と、取得した前記特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知手段と、を備え、前記視線検知手段は、前記特徴情報取得手段が取得した特徴情報に対応する視線の位置の調整を行なうための調整情報が存在するときは当該調整情報を使用して視線の位置を検知し、当該調整情報が存在しないときは予め用意された前記特徴情報と調整情報との関係から当該調整情報を取得し、取得した当該調整情報を使用して視線の位置を検知することを特徴とする報処理装置である。
請求項に記載の発明は、ユーザの認証を行なうユーザ認証手段と、前記ユーザ認証手段が使用するユーザの認証情報と前記調整情報とを対応させて記憶する記憶手段と、をさらに備えることを特徴とする請求項に記載の情報処理装置である。
請求項に記載の発明は、前記記憶手段は、ユーザの認証情報と前記特徴情報とを対応させてさらに記憶することを特徴とする請求項に記載の情報処理装置である。
請求項に記載の発明は、視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得手段と、取得した前記特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知手段と、を備え、前記視線検知手段は、ユーザの身長の情報が予め定められた身長より低いときは、視線の動きに対する感度を小さくする報処理装置である。
請求項に記載の発明は、記録材に画像を形成する画像形成部と、自装置に関する情報を画像として表示する表示部と、前記表示部上のユーザの視線の位置に応じて自装置を制御する制御部と、を備え、前記制御部は、視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得手段と、取得した前記特徴情報に応じて、前記表示部上の視線の位置を検知する視線検知手段と、を備え、前記特徴情報は、ユーザの身長の情報である画像形成装置である。
請求項に記載の発明は、コンピュータに、視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得機能と、取得した前記特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知機能と、を実現させ、前記特徴情報は、ユーザの身長の情報であるプログラムである。
The invention according to claim 1 is a feature information acquisition means for acquiring feature information which is information on a user's feature that affects the detection of the position of the line of sight, and an object to be viewed by the user according to the acquired feature information. The feature information is an information processing device that is information on the height of the user , including a line-of-sight detecting means for detecting the position of the line of sight on the object.
The invention according to claim 2 is a feature information acquisition means for acquiring feature information which is information on the characteristics of the user that affects the detection of the position of the line of sight, and an object to be viewed by the user according to the acquired feature information. The line-of-sight detecting means includes a line-of-sight detecting means for detecting the position of the line of sight in the object, and the line-of- sight detecting means has adjustment information for adjusting the position of the line of sight corresponding to the feature information acquired by the feature information acquiring means. When performing, the position of the line of sight is detected using the adjustment information, and when the adjustment information does not exist, the adjustment information is acquired from the relationship between the feature information and the adjustment information prepared in advance, and the acquired adjustment is performed. a information processing apparatus characterized by detecting the position of the line of sight by using the information.
The invention according to claim 3 further includes a user authentication means for authenticating a user, and a storage means for storing the user authentication information used by the user authentication means in association with the adjustment information. The information processing apparatus according to claim 2, which is a feature.
The invention according to claim 4 is the information processing device according to claim 3 , wherein the storage means further stores the user authentication information in association with the feature information.
The invention according to claim 5 is a feature information acquisition means for acquiring feature information, which is information on the characteristics of the user that affects the detection of the position of the line of sight, and an object to be viewed by the user according to the acquired feature information. made and a visual axis detecting means for detecting the position of the visual line in the object, the visual axis detecting means, is lower than the height information of the height of the user is predetermined, the information to reduce the sensitivity to movement of the line of sight report It is a processing device.
The invention according to claim 6 comprises an image forming unit that forms an image on a recording material, a display unit that displays information about the own device as an image, and the own device according to the position of the user's line of sight on the display unit. The control unit includes a control unit for controlling, and the control unit includes a feature information acquisition means for acquiring feature information which is information on the characteristics of a user that affects the detection of the position of the line of sight, and the control unit according to the acquired feature information. The feature information is an image forming apparatus that includes information on the height of the user , including a line-of-sight detecting means for detecting the position of the line of sight on the display unit.
The invention according to claim 7 is a feature information acquisition function for acquiring feature information, which is information on a user's feature that affects the detection of the position of the line of sight, and a user according to the acquired feature information. A line-of-sight detection function that detects the position of the line-of-sight on an object to be viewed is realized, and the feature information is a program that is information on the height of the user .

請求項1の発明によれば、ユーザ毎にキャリブレーションを行わなくても視線の位置を精度よく検知することができる情報処理装置が提供できる。また、ユーザの特徴の中で視線の位置の検知に特に影響を与えるものに合わせて調整情報を作成できる。
請求項2の発明によれば、キャリブレーションを既に行っているユーザに対しては、そのユーザに対する調整情報を使用し、キャリブレーションをまだ行っていないユーザに対しては、特徴情報から調整情報を取得することができる。
請求項の発明によれば、ユーザの認証情報を基に調整情報を取得できる。
請求項の発明によれば、いったん特徴情報を取得したユーザに対しては特徴情報を再度取得する必要がなくなる。
請求項の発明によれば、位置の検知により影響を与えやすい背の低いユーザに対する対応がより容易になる。
請求項の発明によれば、機能の一覧の中からユーザが目的の機能を選択しやすくなる画像形成装置が提供できる。また、ユーザの特徴の中で視線の位置の検知に特に影響を与えるものに合わせて調整情報を作成できる。
請求項の発明によれば、ユーザ毎にキャリブレーションを行わなくても視線の位置を精度よく検知することができる機能をコンピュータにより実現できる。また、ユーザの特徴の中で視線の位置の検知に特に影響を与えるものに合わせて調整情報を作成できる。
According to the first aspect of the present invention, it is possible to provide an information processing device capable of accurately detecting the position of the line of sight without performing calibration for each user. In addition, adjustment information can be created according to the characteristics of the user that particularly affect the detection of the position of the line of sight.
According to the invention of claim 2, the adjustment information for the user who has already performed the calibration is used, and the adjustment information is provided from the feature information for the user who has not yet performed the calibration. Can be obtained.
According to the invention of claim 3 , adjustment information can be acquired based on the user's authentication information.
According to the invention of claim 4 , it is not necessary to acquire the feature information again for the user who has acquired the feature information once.
According to the invention of claim 5 , it becomes easier to deal with a short user who is likely to be influenced by the position detection.
According to the invention of claim 6 , it is possible to provide an image forming apparatus that makes it easy for a user to select a desired function from a list of functions. In addition, adjustment information can be created according to the characteristics of the user that particularly affect the detection of the position of the line of sight.
According to the invention of claim 7, a function capable of accurately detecting the position of the line of sight without performing calibration for each user can be realized by a computer. In addition, adjustment information can be created according to the characteristics of the user that particularly affect the detection of the position of the line of sight.

本実施の形態に係る画像形成装置の外観図である。It is an external view of the image forming apparatus which concerns on this embodiment. 本実施の形態に係る画像形成装置の内部構造を示す図である。It is a figure which shows the internal structure of the image forming apparatus which concerns on this embodiment. ユーザインタフェースに表示される画像の一例を示した図である。It is a figure which showed an example of the image displayed in the user interface. (a)〜(d)は、カメラにより撮影されたユーザの目の画像からユーザの視線の位置を検知する方法について示した図である。(A) to (d) are diagrams showing a method of detecting the position of the user's line of sight from the image of the user's eyes taken by the camera. ユーザの身長が視線の位置の検出に与える影響について示した図である。It is a figure which showed the influence which the height of a user has on the detection of the position of a line of sight. 制御装置の機能構成例を示したブロック図である。It is a block diagram which showed the functional configuration example of a control device. 制御装置の動作について説明したフローチャートである。It is a flowchart explaining the operation of a control device.

以下、添付図面を参照して、実施の形態について詳細に説明する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

<画像形成装置1の全体構成の説明>
図1は、本実施の形態に係る画像形成装置1の外観図である。図2は、本実施の形態に係る画像形成装置1の内部構造を示す図である。
画像形成装置1は、原稿の画像を読み取る画像読取装置100と、記録材(以下、代表して「用紙」と記す場合もある。)上に画像を記録する画像記録装置200と、を備えている。また画像形成装置1は、ユーザからの操作入力の受付やユーザに対する各種情報の表示を行なうユーザインタフェース(UI)300を備えている。そして画像形成装置1は、ユーザの視線の位置を検知するためのカメラ400を備えている。さらに画像形成装置1は、画像形成装置1全体の動作を制御する制御装置500を備える。
<Explanation of the overall configuration of the image forming apparatus 1>
FIG. 1 is an external view of the image forming apparatus 1 according to the present embodiment. FIG. 2 is a diagram showing an internal structure of the image forming apparatus 1 according to the present embodiment.
The image forming apparatus 1 includes an image reading apparatus 100 that reads an image of a document, and an image recording apparatus 200 that records an image on a recording material (hereinafter, may be collectively referred to as “paper”). There is. Further, the image forming apparatus 1 includes a user interface (UI) 300 that accepts operation input from the user and displays various information to the user. The image forming apparatus 1 includes a camera 400 for detecting the position of the user's line of sight. Further, the image forming apparatus 1 includes a control device 500 that controls the operation of the entire image forming apparatus 1.

画像読取装置100は、画像形成装置1の上部に配置され、画像記録装置200は、画像読取装置100の下側に配置され、制御装置500を内蔵している。ユーザインタフェース300は、画像形成装置1の上部の手前側、つまり画像読取装置100の後述する画像読取部110の手前側に配置されている。またカメラ400は、ユーザインタフェース300の左側下端に配置されている。 The image reading device 100 is arranged above the image forming device 1, the image recording device 200 is arranged below the image reading device 100, and the control device 500 is built in. The user interface 300 is arranged on the front side of the upper part of the image forming apparatus 1, that is, on the front side of the image reading unit 110 described later of the image reading device 100. The camera 400 is arranged at the lower left end of the user interface 300.

まずは、画像読取装置100について説明する。
画像読取装置100は、原稿の画像を読み取る画像読取部110と、この画像読取部110に原稿を搬送する原稿搬送部120と、を備えている。原稿搬送部120は、画像読取装置100の上部に配置され、画像読取部110は、画像読取装置100の下部に配置されている。
原稿搬送部120は、原稿を収容する原稿収容部121と、この原稿収容部121から搬送された原稿が排出される原稿排出部122とを有し、原稿収容部121から原稿排出部122へ原稿を搬送する。原稿搬送部120は、原稿自動送り装置(ADF:Auto Document Feeder)とも呼ばれる。
First, the image reading device 100 will be described.
The image reading device 100 includes an image reading unit 110 that reads an image of a document, and a document conveying unit 120 that conveys the document to the image reading unit 110. The document transport unit 120 is arranged above the image reading device 100, and the image reading unit 110 is arranged below the image reading device 100.
The document transporting unit 120 has a document accommodating unit 121 for accommodating documents and a document discharging unit 122 for ejecting documents transported from the document accommodating unit 121, and the document is transmitted from the document accommodating unit 121 to the document discharging unit 122. To carry. The document transport unit 120 is also called an automatic document feeder (ADF: Auto Document Feeder).

画像読取部110は、プラテンガラス111と、光を原稿の被読取面(画像面)へ照射する光照射ユニット112と、光照射ユニット112から原稿の被読取面へ光Lが照射されて原稿の被読取面で反射した光Lを導く導光ユニット113と、導光ユニット113によって導かれた光Lの光学像を結像する結像レンズ114と、を備えている。また、画像読取部110は、結像レンズ114によって結像された光Lを光電変換するCCD(Charge Coupled Device)イメージセンサ等の光電変換素子で構成され、結像された光学像を検出する検出部115と、検出部115と電気的に接続されて、検出部115によって得られた画像情報としての電気信号が送られる画像処理部116と、を備えている。
画像読取部110は、原稿搬送部120によって搬送される原稿の画像、及びプラテンガラス111に載せられた原稿の画像を読み取る。
The image reading unit 110 includes a platen glass 111, a light irradiation unit 112 that irradiates the surface to be read (image surface) of the document with light, and the light irradiation unit 112 that irradiates the surface to be read of the document with light L. It includes a light guide unit 113 that guides the light L reflected by the surface to be read, and an imaging lens 114 that forms an optical image of the light L guided by the light guide unit 113. Further, the image reading unit 110 is composed of a photoelectric conversion element such as a CCD (Charge Coupled Device) image sensor that photoelectrically converts the light L imaged by the imaging lens 114, and detects an imaged optical image. The unit 115 includes an image processing unit 116 that is electrically connected to the detection unit 115 and transmits an electric signal as image information obtained by the detection unit 115.
The image reading unit 110 reads an image of the original document conveyed by the document conveying unit 120 and an image of the original document placed on the platen glass 111.

次に、画像記録装置200について説明する。
画像記録装置200は、用紙Pに画像を形成する画像形成部20と、画像形成部20に対して用紙Pを供給する用紙供給部60と、画像形成部20にて画像が形成された用紙Pを排出する用紙排出部70と、画像形成部20にて一方の面に画像が形成された用紙Pの表裏を反転させて再度画像形成部20に向けて搬送する反転搬送部80と、を備えている。
Next, the image recording device 200 will be described.
The image recording device 200 includes an image forming unit 20 that forms an image on the paper P, a paper supply unit 60 that supplies the paper P to the image forming unit 20, and a paper P on which an image is formed by the image forming unit 20. A paper ejection unit 70 for ejecting an image, and an inverted conveying unit 80 for inverting the front and back of the paper P on which an image is formed on one side of the image forming unit 20 and conveying the paper P toward the image forming unit 20 again. ing.

画像形成部20は、一定の間隔を置いて並列的に配置されるイエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の4つの画像形成ユニット21Y、21M、21C、21Kを備えている。各画像形成ユニット21Y、21M、21C、21Kは、感光体ドラム22と、感光体ドラム22の表面を一様に帯電する帯電器23と、後述する光学系ユニット50によるレーザ照射によって形成された静電潜像を予め定められた色成分トナーで現像し可視化する現像器24とを備えている。また、画像形成部20には、画像形成ユニット21Y、21M、21C、21Kの現像器24に対して各色のトナーを供給するためのトナーカートリッジ29Y、29M、29C、29Kが設けられている。 The image forming unit 20 has four image forming units 21Y, 21M, 21C, and 21K, which are arranged in parallel at regular intervals, yellow (Y), magenta (M), cyan (C), and black (K). It has. Each image forming unit 21Y, 21M, 21C, 21K is a static electricity formed by a photoconductor drum 22, a charger 23 that uniformly charges the surface of the photoconductor drum 22, and laser irradiation by an optical system unit 50 described later. It is provided with a developer 24 that develops and visualizes an electro-latent image with a predetermined color component toner. Further, the image forming unit 20 is provided with toner cartridges 29Y, 29M, 29C and 29K for supplying toner of each color to the developing units 24 of the image forming units 21Y, 21M, 21C and 21K.

画像形成部20は、画像形成ユニット21Y、21M、21C、21Kの下方に、画像形成ユニット21Y、21M、21C、21Kの感光体ドラム22に対してレーザ光を照射する光学系ユニット50を備えている。光学系ユニット50は、図示しない半導体レーザ、変調器の他、半導体レーザから出射されたレーザ光を偏向走査するポリゴンミラー(不図示)と、レーザ光を通過するガラス製のウィンドウ(不図示)と、各構成部材を密閉するためのフレーム(不図示)とを備えている。 The image forming unit 20 includes an optical system unit 50 that irradiates the photoconductor drum 22 of the image forming units 21Y, 21M, 21C, 21K with a laser beam below the image forming units 21Y, 21M, 21C, 21K. There is. The optical system unit 50 includes a semiconductor laser and a modulator (not shown), a polygon mirror (not shown) that deflects and scans the laser beam emitted from the semiconductor laser, and a glass window (not shown) that passes the laser beam. , A frame (not shown) for sealing each component is provided.

また、画像形成部20は、画像形成ユニット21Y、21M、21C、21Kの感光体ドラム22に形成された各色のトナー像を中間転写ベルト31上に多重転写させる中間転写ユニット30と、中間転写ユニット30上に重畳されて形成されたトナー像を用紙Pに転写する二次転写ユニット40と、用紙P上に形成されたトナー像を加熱および加圧して定着する定着装置45と、を備えている。 Further, the image forming unit 20 includes an intermediate transfer unit 30 for multiplex transfer of toner images of each color formed on the photoconductor drums 22 of the image forming units 21Y, 21M, 21C, and 21K onto the intermediate transfer belt 31, and an intermediate transfer unit. It is provided with a secondary transfer unit 40 that transfers a toner image formed on the paper P by superimposing the toner image on the paper P, and a fixing device 45 that heats and pressurizes the toner image formed on the paper P to fix the toner image. ..

中間転写ユニット30は、中間転写ベルト31と、この中間転写ベルト31を駆動するドライブローラ32と、中間転写ベルト31に一定のテンションを付与するテンションローラ33と、を備えている。また、中間転写ユニット30は、各感光体ドラム22と中間転写ベルト31を挟んで対向して感光体ドラム22上に形成されたトナー像を中間転写ベルト31上に転写するための複数(本実施の形態においては4つ)の一次転写ローラ34と、中間転写ベルト31を介して後述する二次転写ローラ41と対向するバックアップローラ35とを備えている。 The intermediate transfer unit 30 includes an intermediate transfer belt 31, a drive roller 32 for driving the intermediate transfer belt 31, and a tension roller 33 for applying a constant tension to the intermediate transfer belt 31. Further, the intermediate transfer unit 30 is a plurality of intermediate transfer units 30 for transferring the toner image formed on the photoconductor drum 22 facing each other with the intermediate transfer belt 31 interposed therebetween (this implementation). In this form, the primary transfer roller 34) and the backup roller 35 facing the secondary transfer roller 41 described later via the intermediate transfer belt 31 are provided.

中間転写ベルト31は、ドライブローラ32、テンションローラ33、複数の一次転写ローラ34、バックアップローラ35および従動ローラ36などの複数の回転部材に張りかけられている。そして、中間転写ベルト31は、駆動モータ(不図示)によって回転駆動されるドライブローラ32により、矢印方向に予め定められた速度で循環駆動される。この中間転写ベルト31は、例えば、ゴムまたは樹脂にて成形されたものが使用される。
また、中間転写ユニット30は、中間転写ベルト31上に存在する残留トナー等を除去するクリーニング装置37を備えている。クリーニング装置37は、トナー像の転写工程が終了した後の中間転写ベルト31の表面から残留トナーや紙粉等を除去する。
The intermediate transfer belt 31 is attached to a plurality of rotating members such as a drive roller 32, a tension roller 33, a plurality of primary transfer rollers 34, a backup roller 35, and a driven roller 36. Then, the intermediate transfer belt 31 is circulated and driven at a predetermined speed in the arrow direction by a drive roller 32 that is rotationally driven by a drive motor (not shown). As the intermediate transfer belt 31, for example, one molded from rubber or resin is used.
Further, the intermediate transfer unit 30 includes a cleaning device 37 for removing residual toner and the like existing on the intermediate transfer belt 31. The cleaning device 37 removes residual toner, paper dust, and the like from the surface of the intermediate transfer belt 31 after the toner image transfer step is completed.

二次転写ユニット40は、二次転写位置に設けられ中間転写ベルト31を介してバックアップローラ35を押圧し、用紙P上に画像を二次転写する二次転写ローラ41を備えている。二次転写ローラ41と、中間転写ベルト31を介して二次転写ローラ41と対向するバックアップローラ35とで、中間転写ベルト31に転写されたトナー画像が用紙Pに転写される二次転写位置が構成される。
定着装置45は、中間転写ユニット30によって二次転写された用紙P上の画像(トナー像)を、加熱定着ローラ46と加圧ローラ47とにより、熱および圧力を用いて用紙Pに定着させる。
The secondary transfer unit 40 includes a secondary transfer roller 41 that is provided at the secondary transfer position and presses the backup roller 35 via the intermediate transfer belt 31 to secondary transfer the image onto the paper P. The secondary transfer position where the toner image transferred to the intermediate transfer belt 31 is transferred to the paper P by the secondary transfer roller 41 and the backup roller 35 facing the secondary transfer roller 41 via the intermediate transfer belt 31 is determined. It is composed.
The fixing device 45 fixes the image (toner image) on the paper P secondarily transferred by the intermediate transfer unit 30 to the paper P by the heat fixing roller 46 and the pressure roller 47 using heat and pressure.

用紙供給部60は、画像が形成される用紙を収容する用紙収容部61と、用紙収容部61の各々に収容された用紙Pを送り出す送出ロール62と、送出ロール62にて送り出された用紙Pが搬送される搬送路63と、搬送路63に沿って配置され送出ロール62によって送り出された用紙Pを二次転写位置へ搬送する搬送ロール64、65、66と、を備えている。また用紙供給部60は、手差しにより用紙Pを供給することができる手差しトレイ67をさらに備えている。手差しトレイ67は、折りたたみが可能であり、使用しない状態では折りたたんでおき、使用するときには開いて用紙Pをセットすることができる。図1および図2では、手差しトレイ67は、折りたたんだ状態を図示している。 The paper supply unit 60 includes a paper storage unit 61 that stores the paper on which an image is formed, a delivery roll 62 that feeds out the paper P stored in each of the paper storage units 61, and the paper P that is fed by the delivery roll 62. It is provided with a transport path 63 for transporting the paper P, and transport rolls 64, 65, 66 for transporting the paper P arranged along the transport path 63 and fed by the delivery roll 62 to the secondary transfer position. Further, the paper supply unit 60 further includes a manual feed tray 67 capable of manually supplying the paper P. The manual feed tray 67 is foldable, can be folded when not in use, and can be opened to load paper P when in use. In FIGS. 1 and 2, the bypass tray 67 is shown in a folded state.

用紙排出部70は、画像形成部20の上方に設けられて、画像形成部20にて画像が形成された用紙Pを積載する第1の積載トレイ71と、この第1の積載トレイ71と画像読取装置100との間に設けられて、画像形成部20にて画像が形成された用紙Pを積載する第2の積載トレイ72と、を備えている。
用紙排出部70は、定着装置45よりも搬送方向下流側に設けられて、トナー画像が定着された用紙Pを搬送する搬送ロール75と、この搬送ロール75の搬送方向下流側に設けられて、用紙Pの搬送方向を切り替える切替ゲート76と、を備えている。また、用紙排出部70は、切替ゲート76の搬送方向下流側に、切替ゲート76によって切り替えられた搬送方向の一方側(図2における右側)に搬送される用紙Pを第1の積載トレイ71に排出する第1の排出ロール77を備えている。また、用紙排出部70は、切替ゲート76の搬送方向下流側に、切替ゲート76によって切り替えられた搬送方向の他方側(図2における上側)に搬送される用紙Pを搬送する搬送ロール78と、搬送ロール78によって搬送される用紙Pを第2の積載トレイ72に排出する第2の排出ロール79と、を備えている。
The paper ejection unit 70 is provided above the image forming unit 20, and has a first loading tray 71 for loading the paper P on which the image is formed by the image forming unit 20, and the first loading tray 71 and an image. A second loading tray 72 for loading the paper P on which the image is formed by the image forming unit 20 is provided between the reading device 100 and the reading device 100.
The paper ejection unit 70 is provided on the downstream side in the transport direction from the fixing device 45, and is provided on the transport roll 75 for transporting the paper P on which the toner image is fixed and on the downstream side in the transport direction of the transport roll 75. It is provided with a switching gate 76 for switching the conveying direction of the paper P. Further, the paper ejection unit 70 transfers the paper P transported to the downstream side in the transport direction of the switching gate 76 to one side (right side in FIG. 2) of the transport direction switched by the switching gate 76 to the first loading tray 71. A first discharge roll 77 for discharging is provided. Further, the paper ejection unit 70 includes a transport roll 78 for transporting the paper P to be transported to the downstream side of the switching gate 76 in the transport direction to the other side (upper side in FIG. 2) of the transport direction switched by the switching gate 76. It includes a second discharge roll 79 for discharging the paper P conveyed by the transfer roll 78 to the second loading tray 72.

反転搬送部80は、定着装置45の側方に、搬送ロール78を第2の積載トレイ72に用紙Pを排出する方向とは反対の方向に回転させることで反転された用紙Pが搬送される反転搬送路81を備えている。この反転搬送路81には、反転搬送路81に沿って複数の搬送ロール82が設けられている。これらの搬送ロール82によって搬送された用紙Pは、搬送ロール82によって、再度二次転写位置へ送り込まれる。 The reversing transport unit 80 transports the inverted paper P to the side of the fixing device 45 by rotating the transport roll 78 in the direction opposite to the direction in which the paper P is discharged to the second loading tray 72. The reverse transport path 81 is provided. A plurality of transport rolls 82 are provided in the reverse transport path 81 along the reverse transport path 81. The paper P conveyed by these transfer rolls 82 is again fed to the secondary transfer position by the transfer roll 82.

また、画像記録装置200は、画像形成部20、用紙供給部60、用紙排出部70、反転搬送部80および制御装置500を、直接的または間接的に支持する装置本体フレーム11と、この装置本体フレーム11に取り付けられて画像形成装置1の外面を形成する装置筐体12と、を備えている。
装置本体フレーム11は、画像形成装置1における横方向の一方の端部側で、内部に、切替ゲート76、第1の排出ロール77、搬送ロール78および第2の排出ロール79などを備えるとともに上下方向に伸びて、画像読取装置100を支持する読取装置支持部13を備えている。読取装置支持部13は、装置本体フレーム11における奥側の部位と協働して画像読取装置100を支持する。
Further, the image recording device 200 includes a device body frame 11 that directly or indirectly supports the image forming unit 20, the paper supply unit 60, the paper ejection unit 70, the reverse transfer unit 80, and the control device 500, and the device body. It includes a device housing 12 that is attached to the frame 11 to form the outer surface of the image forming device 1.
The apparatus main body frame 11 is provided with a switching gate 76, a first discharge roll 77, a transfer roll 78, a second discharge roll 79, and the like on the one end side in the lateral direction of the image forming apparatus 1, and is vertically and vertically provided. It includes a reader support unit 13 that extends in the direction and supports the image reader 100. The reading device support unit 13 supports the image reading device 100 in cooperation with a portion on the back side of the device main body frame 11.

また、画像記録装置200は、装置筐体12の一部として、画像形成部20の手前側に設けられるとともに、装置本体フレーム11に対して開閉可能に装着されるフロントカバー15を備えている。
ユーザは、フロントカバー15を開くことで、画像形成部20の中間転写ユニット30やトナーカートリッジ29Y、29M、29C、29Kを新しい物と取り替えることが可能となっている。
Further, the image recording device 200 is provided as a part of the device housing 12 on the front side of the image forming unit 20, and also includes a front cover 15 that is openably and closably attached to the device main body frame 11.
By opening the front cover 15, the user can replace the intermediate transfer unit 30 and the toner cartridges 29Y, 29M, 29C, and 29K of the image forming unit 20 with new ones.

ユーザインタフェース300は、例えばタッチパネルである。ユーザインタフェース300をタッチパネルにすることで、画像形成装置1の画像形成条件などの各種情報はタッチパネルに表示される。そしてユーザは、タッチパネルをタッチすることで画像形成条件などの入力操作を行なう。即ちユーザインタフェース300は、自装置である画像形成装置1に関する情報を画像として表示する表示部として機能するとともに、表示された画像の中からユーザが目的の機能を選択する選択操作を受け付ける操作部として機能する。なおユーザインタフェース300は、タッチパネルに限られるものではなく表示部としての機能と、操作部としての機能を分けてもよい。つまりユーザインタフェース300は、液晶ディスプレイ等からなる表示部と、物理キー等からなる操作部とを別々に備える構成であってもよい。 The user interface 300 is, for example, a touch panel. By using the user interface 300 as a touch panel, various information such as image forming conditions of the image forming apparatus 1 is displayed on the touch panel. Then, the user touches the touch panel to perform an input operation such as an image forming condition. That is, the user interface 300 functions as a display unit that displays information about the image forming apparatus 1 that is its own device as an image, and also as an operation unit that accepts a selection operation in which the user selects a target function from the displayed images. Function. The user interface 300 is not limited to the touch panel, and the function as a display unit and the function as an operation unit may be separated. That is, the user interface 300 may be configured to separately include a display unit including a liquid crystal display and the like and an operation unit including physical keys and the like.

カメラ400は、ユーザインタフェース300を操作するユーザの目を撮影する。
カメラ400は、例えば、ユーザの目の像を収束する光学系と、光学系により収束された像を検出するイメージセンサとを備える。光学系は、単一のレンズまたは複数のレンズを組み合わせて構成される。イメージセンサは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を配列して構成される。イメージセンサは、検出した像を画素単位で光電変換し、画像信号として出力する。
The camera 400 captures the eyes of the user operating the user interface 300.
The camera 400 includes, for example, an optical system that converges the image of the user's eyes and an image sensor that detects the image converged by the optical system. The optical system is composed of a single lens or a combination of a plurality of lenses. The image sensor is configured by arranging image pickup elements such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor). The image sensor photoelectrically converts the detected image in pixel units and outputs it as an image signal.

<画像形成装置1の動作の説明>
以上のように構成された画像形成装置1は、以下のように動作する。
例えば、ユーザは、画像形成装置1を使用して原稿のコピーを行なうことができる。即ち、画像読取装置100によって読み取られた原稿の画像データを基に、画像記録装置200により画像を用紙P上に形成することで原稿をコピーすることができる。またユーザは、通信回線に接続する図示しないパーソナルコンピュータ(PC)等から印刷のジョブを画像形成装置1に送信することでプリントを行なうことができる。即ち、通信回線を介して印刷のジョブを受信し、印刷のジョブに含まれる画像データを基に、画像記録装置200により画像を用紙P上に形成することでプリントすることができる。さらにユーザは、ファクシミリの送受信を行なうことができる。即ち、画像読取装置100によって読み取られた原稿の画像データを通信回線を介して送信できる。あるいはユーザは、原稿の画像データを保存することができる。即ち、原稿の画像データを画像形成装置1内部や通信回線に接続したPCに保存できる。
<Explanation of operation of image forming apparatus 1>
The image forming apparatus 1 configured as described above operates as follows.
For example, the user can copy the original using the image forming apparatus 1. That is, the original can be copied by forming an image on the paper P by the image recording device 200 based on the image data of the original read by the image reading device 100. Further, the user can print by transmitting a print job to the image forming apparatus 1 from a personal computer (PC) or the like (not shown) connected to the communication line. That is, a print job can be received via the communication line, and the image can be printed by forming the image on the paper P by the image recording device 200 based on the image data included in the print job. In addition, the user can send and receive facsimiles. That is, the image data of the original document read by the image reading device 100 can be transmitted via the communication line. Alternatively, the user can save the image data of the original. That is, the image data of the original can be saved inside the image forming apparatus 1 or in a PC connected to the communication line.

ここでは、ユーザが原稿のコピーやプリントを行なう場合を例に取り、画像形成装置1の動作について詳しく説明を行なう。
画像読取装置100によって読み取られた原稿の画像や、PC等から受信した画像データは、予め定められた画像処理が施され、画像処理が施された画像データは、イエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の4色の色材階調データに変換され、光学系ユニット50に出力される。
Here, the operation of the image forming apparatus 1 will be described in detail by taking the case where the user copies or prints the original as an example.
The image of the original read by the image reader 100 and the image data received from the PC or the like are subjected to predetermined image processing, and the image data subjected to the image processing is yellow (Y) or magenta (M). ), Cyan (C), and black (K) are converted into four-color material gradation data and output to the optical system unit 50.

光学系ユニット50は、入力された色材階調データに応じて、半導体レーザ(図示せず)から出射されたレーザ光を、f−θレンズ(不図示)を介してポリゴンミラーに出射する。ポリゴンミラーでは、入射されたレーザ光を各色の階調データに応じて変調し、偏向走査して、図示しない結像レンズおよび複数枚のミラーを介して画像形成ユニット21Y、21M、21C、21Kの感光体ドラム22に照射する。 The optical system unit 50 emits the laser light emitted from the semiconductor laser (not shown) to the polygon mirror via the f−θ lens (not shown) according to the input color material gradation data. In the polygon mirror, the incident laser beam is modulated according to the gradation data of each color, deflected and scanned, and the image forming units 21Y, 21M, 21C, and 21K are subjected to an imaging lens (not shown) and a plurality of mirrors. The photoconductor drum 22 is irradiated.

画像形成ユニット21Y、21M、21C、21Kの感光体ドラム22では、帯電器23で帯電された表面が走査露光され、静電潜像が形成される。形成された静電潜像は、各々の画像形成ユニット21Y、21M、21C、21Kにて、イエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の各色のトナー像として現像される。画像形成ユニット21Y、21M、21C、21Kの感光体ドラム22上に形成されたトナー像は、中間転写体である中間転写ベルト31上に多重転写される。 In the photoconductor drum 22 of the image forming units 21Y, 21M, 21C, and 21K, the surface charged by the charger 23 is scanned and exposed to form an electrostatic latent image. The formed electrostatic latent image is developed as a toner image of each color of yellow (Y), magenta (M), cyan (C), and black (K) in each image forming unit 21Y, 21M, 21C, 21K. Will be done. The toner images formed on the photoconductor drums 22 of the image forming units 21Y, 21M, 21C, and 21K are multiplex-transferred onto the intermediate transfer belt 31 which is an intermediate transfer body.

一方、用紙供給部60では、画像形成のタイミングに合わせて送出ロール62が回転して用紙収容部61に収容されている用紙Pを取り上げ、搬送路63を介して搬送ロール64、65にて搬送される。その後、トナー像が形成された中間転写ベルト31の移動タイミングに合わせて搬送ロール66が回転し、用紙Pは、バックアップローラ35および二次転写ローラ41によって形成される二次転写位置に搬送される。二次転写位置にて、下方から上方に向けて搬送される用紙Pには、圧接力および予め定められた電界を用いて、4色が多重されているトナー像が副走査方向に順次、転写される。そして、各色のトナー像が転写された用紙Pは、定着装置45によって熱および圧力で定着処理を受けた後に排出され、第1の積載トレイ71あるいは第2の積載トレイ72に積載される。 On the other hand, in the paper supply unit 60, the paper feeding roll 62 rotates in accordance with the timing of image formation to pick up the paper P stored in the paper storage unit 61 and transport the paper P through the transport path 63 by the transport rolls 64 and 65. Will be done. After that, the transfer roll 66 rotates according to the movement timing of the intermediate transfer belt 31 on which the toner image is formed, and the paper P is transferred to the secondary transfer position formed by the backup roller 35 and the secondary transfer roller 41. .. Toner images in which four colors are multiplexed are sequentially transferred in the sub-scanning direction on the paper P conveyed from the bottom to the top at the secondary transfer position using a pressure contact force and a predetermined electric field. Will be done. Then, the paper P on which the toner images of each color are transferred is subjected to a fixing process by heat and pressure by the fixing device 45, and then discharged and loaded on the first loading tray 71 or the second loading tray 72.

両面印刷の要求があった場合には、一方の面に画像が形成された用紙Pは、反転搬送部80にて表裏が反転するように搬送され、再度二次転写位置に送られる。そして、二次転写位置にて、用紙Pの他方の面にトナー像が転写され、定着装置45にて転写された画像が定着される。その後、両面に画像が形成された用紙Pは、排出され、第1の積載トレイ71あるいは第2の積載トレイ72に積載される。 When there is a request for double-sided printing, the paper P on which an image is formed on one side is conveyed by the reverse transfer unit 80 so that the front and back sides are reversed, and is sent to the secondary transfer position again. Then, at the secondary transfer position, the toner image is transferred to the other surface of the paper P, and the image transferred by the fixing device 45 is fixed. After that, the paper P on which the images are formed on both sides is ejected and loaded on the first loading tray 71 or the second loading tray 72.

またユーザインタフェース300は、以下のように動作する。
図3は、ユーザインタフェース300に表示される画像の一例を示した図である。
この場合、ユーザインタフェース300には、画像形成装置1が備える機能を実行するためのアイコンの一覧が画像として表示されている。
The user interface 300 operates as follows.
FIG. 3 is a diagram showing an example of an image displayed on the user interface 300.
In this case, the user interface 300 displays a list of icons for executing the function included in the image forming apparatus 1 as an image.

図示する例では、ユーザインタフェース300は、コピー、ファクス/インターネットファクス、スキャナ(メール送信)、ジョブフロー、どこでもプリント、らくらくファクス、スキャナ(PC保存)、外部アクセス、スキャナ(ボックス保存)、ボックス操作、ジョブメモリ、デジカメプリントのそれぞれの機能を表すアイコンを表示し、これを一覧としている。
また図示する例では、ユーザインタフェース300は、画面遷移のためのボタンとして「戻る」のボタンを表示している。
In the illustrated example, the user interface 300 is a copy, fax / internet fax, scanner (mail transmission), job flow, print anywhere, easy fax, scanner (PC save), external access, scanner (box save), box operation, Icons representing the functions of job memory and digital camera print are displayed, and these are listed.
Further, in the illustrated example, the user interface 300 displays a "back" button as a button for screen transition.

そしてユーザは、目的の機能を利用するためには、何れかのアイコンまたはボタンを選択する選択操作を行なう。
選択操作は、具体的には、ユーザインタフェース300がタッチパネルであった場合は、ユーザがアイコンまたはボタンをタッチする操作である。ユーザがアイコンをタッチするとアイコンに関連付けられた機能に対応する設定画面が表示される。例えば、「コピー」のアイコンをタッチすると、原稿のコピーを行なうための設定画面として、コピーを行なう枚数、使用する用紙の選択、白黒/カラーの選択、拡大/縮小の設定を行なう画面が表示される。そして設定後、ユーザが、図示しないスタートボタン等を押下すると、実際のコピー動作が開始される。また「戻る」のボタンをタッチすると、ホーム画面等の元の画面に戻ることができる。なおこれに限られるものではなく、例えば、ユーザインタフェース300が液晶ディスプレイと物理キーとに分かれて構成される場合は、物理キーである矢印キーを押下することでユーザがアイコンを選択し、同様に物理キーである決定キーを押下する操作を選択操作とすることができる。
Then, the user performs a selection operation to select one of the icons or buttons in order to use the desired function.
Specifically, the selection operation is an operation in which the user touches an icon or a button when the user interface 300 is a touch panel. When the user touches the icon, the setting screen corresponding to the function associated with the icon is displayed. For example, if you touch the "Copy" icon, the screen for setting the number of copies to be made, the paper to be used, the black / white / color selection, and the enlargement / reduction settings will be displayed as the setting screen for copying the original. To. Then, after the setting, when the user presses a start button or the like (not shown), the actual copy operation is started. You can also touch the "Back" button to return to the original screen such as the home screen. The user interface 300 is not limited to this, and for example, when the user interface 300 is composed of a liquid crystal display and a physical key, the user selects an icon by pressing the arrow key, which is a physical key, and similarly. The operation of pressing the enter key, which is a physical key, can be a selection operation.

また画像形成装置1は、カメラ400により撮影された画像を制御装置500で解析することによりユーザインタフェース300上におけるユーザの視線の位置を検知する。これにより例えば、検知したユーザの視線の位置により、ユーザが、ユーザインタフェース300の何れのアイコンを見ているかを判断する。そして例えば、予め定められた時間何れかのアイコンを凝視したときや、ユーザが何れかのアイコンを凝視したまま予め定められた回数の瞬きをしたときに、そのアイコンの選択操作が行なわれたとする。即ち、視線入力として使用することができる。 Further, the image forming apparatus 1 detects the position of the user's line of sight on the user interface 300 by analyzing the image taken by the camera 400 with the control device 500. Thereby, for example, it is determined which icon of the user interface 300 the user is looking at based on the detected position of the line of sight of the user. Then, for example, it is assumed that the icon selection operation is performed when staring at any icon for a predetermined time or when the user blinks a predetermined number of times while staring at any icon. .. That is, it can be used as a line-of-sight input.

図4(a)〜(d)は、カメラ400により撮影されたユーザの目の画像からユーザの視線の位置を検知する方法について示した図である。
このうち図4(a)〜(b)は、可視光により視線の位置を検知する方法について示している。
図示する例では、まずユーザの目Mにおける目頭Gおよび虹彩Kの位置を求める。この場合、ユーザの視線の位置が変化すると、図4(a)および図4(b)に示すように目頭Gと虹彩Kとの位置関係が変化する。その結果、目頭Gと虹彩Kとの位置関係により視線の位置を求めることができる。
また図4(c)〜(d)は、赤外線により視線の位置を検知する方法について示している。
図示する例では、まずユーザの目Mにおける瞳孔Dと角膜反射Hの位置を求める。この場合、ユーザの視線の位置が変化すると、図4(c)および図4(d)に示すように瞳孔Dと角膜反射Hとの位置関係が変化する。その結果、瞳孔Dと角膜反射Hとの位置関係により視線の位置を求めることができる。
4 (a) to 4 (d) are views showing a method of detecting the position of the user's line of sight from the image of the user's eyes taken by the camera 400.
Of these, FIGS. 4A to 4B show a method of detecting the position of the line of sight with visible light.
In the illustrated example, first, the positions of the inner corner G and the iris K in the user's eye M are obtained. In this case, when the position of the line of sight of the user changes, the positional relationship between the inner corner G and the iris K changes as shown in FIGS. 4 (a) and 4 (b). As a result, the position of the line of sight can be obtained from the positional relationship between the inner corner G of the eye and the iris K.
Further, FIGS. 4 (c) to 4 (d) show a method of detecting the position of the line of sight by infrared rays.
In the illustrated example, first, the positions of the pupil D and the corneal reflex H in the user's eye M are obtained. In this case, when the position of the user's line of sight changes, the positional relationship between the pupil D and the corneal reflex H changes as shown in FIGS. 4 (c) and 4 (d). As a result, the position of the line of sight can be obtained from the positional relationship between the pupil D and the corneal reflex H.

また視線の位置をより正確に求めるためには、キャリブレーションが必要となる。具体的には、キャリブレーションとして、図4で示した位置関係と実際の視線の位置との関係を調整する作業が必要となる。これはユーザの特徴により、検出される視線の位置に差異が生じるためである。ユーザの特徴とは、視線の位置の検知に影響を与えるユーザの身体的特徴である。具体的には、例えば、ユーザの身長である。またその他にも例えば、ユーザの顔の角度、顔の大きさ、目の幅、瞳孔の大きさ、両目の間隔、斜視であるか否かなどが挙げられる。この中でも特にユーザの身長が視線の位置の検出に与える影響は大きい。 Further, in order to obtain the position of the line of sight more accurately, calibration is required. Specifically, as calibration, it is necessary to adjust the relationship between the positional relationship shown in FIG. 4 and the actual line-of-sight position. This is because the position of the line of sight detected differs depending on the characteristics of the user. The user's characteristics are the user's physical characteristics that affect the detection of the position of the line of sight. Specifically, for example, the height of the user. In addition, for example, the angle of the user's face, the size of the face, the width of the eyes, the size of the pupil, the distance between the eyes, and whether or not the user has a squint. Of these, the height of the user has a particularly large effect on the detection of the position of the line of sight.

図5は、ユーザの身長が視線の位置の検出に与える影響について示した図である。
図5では、ユーザがユーザインタフェース300の上端Uを見ている場合を示している。このユーザインタフェース300は、奥行きが30cmである。またユーザの目M1、M2は、水平方向では、ユーザインタフェース300から20cm離れた位置にある。またこの例では、カメラ400は、ユーザインタフェース300の下端L付近に配されている。
FIG. 5 is a diagram showing the influence of the height of the user on the detection of the position of the line of sight.
FIG. 5 shows a case where the user is looking at the upper end U of the user interface 300. The user interface 300 has a depth of 30 cm. Further, the user's eyes M1 and M2 are located at a position 20 cm away from the user interface 300 in the horizontal direction. Further, in this example, the camera 400 is arranged near the lower end L of the user interface 300.

そして図では、身長が140cmの背の低いユーザと、身長が190cmの背が高いユーザとで視線の方向の違いを示している。このうち背が低いユーザの目の位置を、M1で図示している。目M1は、このときユーザインタフェース300から50cm上方にあるとする。そして背が低いユーザは、鉛直方向に対し、45°の方向を見ている。これは、カメラ400から見ると23°の角度となる。 The figure shows the difference in the direction of the line of sight between a short user with a height of 140 cm and a tall user with a height of 190 cm. Of these, the position of the eyes of the short user is illustrated by M1. It is assumed that the eye M1 is 50 cm above the user interface 300 at this time. And the short user is looking in the direction of 45 ° with respect to the vertical direction. This is an angle of 23 ° when viewed from the camera 400.

一方、背が高いユーザの目の位置を、M2で図示している。目M2は、このときユーザインタフェース300から100cm上方にあるとする。背が高いユーザは、鉛直方向に対し、26°の方向を見ている。これは、カメラ400から見ると15°の角度となる。よって見ている箇所が同じでも、ユーザの身長によりカメラ400から見たときの状態は異なる。 On the other hand, the position of the eyes of a tall user is illustrated by M2. It is assumed that the eye M2 is 100 cm above the user interface 300 at this time. Tall users are looking in a direction of 26 ° with respect to the vertical direction. This is an angle of 15 ° when viewed from the camera 400. Therefore, even if the viewing location is the same, the state when viewed from the camera 400 differs depending on the height of the user.

またユーザインタフェース300の上端Uから下端Lにユーザの視線の位置が移動したときは、背の低いユーザは、23°移動するが、背の高いユーザは、15°だけ移動することになる。つまり目の移動量が同じであっても、背の低いユーザほど視線の位置は小さく動き、背の高いユーザほど視線の位置は大きく動く。これは、目の動きに対し、視線の動きに対する感度は、背の高いユーザほど大きく、背の低いユーザほど小さいと言うこともできる。 Further, when the position of the user's line of sight moves from the upper end U to the lower end L of the user interface 300, the short user moves by 23 °, but the tall user moves by 15 °. That is, even if the amount of eye movement is the same, the shorter the user, the smaller the position of the line of sight, and the taller the user, the larger the position of the line of sight. It can be said that the sensitivity to the movement of the eyes is larger for the taller user and smaller for the shorter user.

このように目の位置に対する視線の位置や目の移動量に対する視線の位置の移動量は、ユーザの身長により大きく異なる。よってキャリブレーションを行なうことにより、この差を調整する必要が生じる。
なお図5の例では、ユーザインタフェース300の上下方向について説明したが、左右方向にも同様のことが言える。
As described above, the movement amount of the line-of-sight position with respect to the eye position and the movement amount of the line-of-sight position with respect to the eye movement amount greatly differ depending on the height of the user. Therefore, it is necessary to adjust this difference by performing calibration.
In the example of FIG. 5, the vertical direction of the user interface 300 has been described, but the same can be said for the horizontal direction.

実際にキャリブレーションを行なうには、例えば、ユーザインタフェース300上の複数位置にマークを順次表示する。そしてユーザがそれを目で追うことで上記位置関係と視線の位置との関係を把握する。キャリブレーションを行なうと、位置関係と視線の位置との関係を調整するパラメータであるキャリブレーション値が保存される。そしてそのユーザに関しては、以後、このキャリブレーション値を使用することで精度よく視線の位置を検知することができる。このキャリブレーション値は、視線の位置の調整を行なうための調整情報の一例である。 To actually perform calibration, for example, marks are sequentially displayed at a plurality of positions on the user interface 300. Then, the user follows it with his / her eyes to grasp the relationship between the above-mentioned positional relationship and the position of the line of sight. When calibration is performed, the calibration value, which is a parameter for adjusting the relationship between the positional relationship and the line-of-sight position, is saved. Then, for that user, the position of the line of sight can be detected accurately by using this calibration value thereafter. This calibration value is an example of adjustment information for adjusting the position of the line of sight.

しかしながら画像形成装置1は、不特定多数のユーザが使用することが多い。そしてこれらのユーザの身長等の特徴は、それぞれ異なる。ただしユーザ毎にキャリブレーションを行なうと、利便性が低下する。対して固定のキャリブレーション値を使用した場合は、上述したようにユーザの身長等の影響により精度よく視線の位置を検知することは困難である。 However, the image forming apparatus 1 is often used by an unspecified number of users. And the characteristics such as height of these users are different from each other. However, if calibration is performed for each user, the convenience is reduced. On the other hand, when a fixed calibration value is used, it is difficult to accurately detect the position of the line of sight due to the influence of the height of the user or the like as described above.

そこで本実施の形態では、身長等のユーザの特徴に合わせたキャリブレーション値を予め用意し、キャリブレーションを行っていないユーザに対して、そのユーザの特徴に近いキャリブレーション値を用いることでこの問題の抑制を図っている。以下、これを実現する制御装置500の構成について説明を行なう。 Therefore, in the present embodiment, a calibration value suitable for the user's characteristics such as height is prepared in advance, and a calibration value close to the user's characteristics is used for a user who has not been calibrated. We are trying to suppress. Hereinafter, the configuration of the control device 500 that realizes this will be described.

<制御装置500の説明>
図6は、制御装置500の機能構成例を示したブロック図である。なお図6では、制御装置500が有する種々の機能のうち本実施の形態に関係するものを選択して図示している。
制御装置500は、情報処理装置の一例であるとともに、ユーザインタフェース300上のユーザの視線の位置に応じて自装置(画像形成装置1)を制御する制御部の一例である。
図示するように本実施の形態の制御装置500は、ユーザ認証手段510と、キャリブレーション値取得手段520と、記憶手段530と、特徴情報取得手段540と、画像取得手段550と、視線検知手段560と、選択操作判断手段570とを備える。
<Explanation of control device 500>
FIG. 6 is a block diagram showing a functional configuration example of the control device 500. Note that, in FIG. 6, among various functions of the control device 500, those related to the present embodiment are selected and shown.
The control device 500 is an example of an information processing device, and is also an example of a control unit that controls its own device (image forming device 1) according to the position of the user's line of sight on the user interface 300.
As shown in the figure, the control device 500 of the present embodiment includes the user authentication means 510, the calibration value acquisition means 520, the storage means 530, the feature information acquisition means 540, the image acquisition means 550, and the line-of-sight detection means 560. And the selection operation determination means 570.

ユーザ認証手段510は、画像形成装置1を使用するユーザの認証を行なう。ユーザの認証は、例えば、ユーザがユーザインタフェース300からユーザIDとパスワードを入力するような方法でもよく、画像形成装置1に別途NFC(Near Field Communication)等を設け、NFCにユーザがIDカードをかざすような方法でもよい。図では、ユーザ認証手段510は、ユーザIDおよびパスワードによりユーザの認証を行なう場合について示している。 The user authentication means 510 authenticates the user who uses the image forming apparatus 1. User authentication may be performed by, for example, a method in which the user inputs a user ID and password from the user interface 300. An NFC (Near Field Communication) or the like is separately provided in the image forming apparatus 1, and the user holds the ID card over the NFC. The method may be used. In the figure, the user authentication means 510 shows a case where a user is authenticated by a user ID and a password.

キャリブレーション値取得手段520は、各ユーザに対するキャリブレーション値を取得する。キャリブレーション値取得手段520は、例えば、ユーザID(ユーザの認証情報)を基に、ユーザIDに紐付けされているキャリブレーション値を取得する。即ち、記憶手段530は、ユーザIDとキャリブレーション値とを対応させて記憶している。そしてキャリブレーション値取得手段520は、記憶手段530を参照し、ユーザIDに対応するキャリブレーション値を取得する。この場合は、このユーザが、既にキャリブレーションを行っているときであり、そのためキャリブレーション値が予め用意されている。 The calibration value acquisition means 520 acquires a calibration value for each user. The calibration value acquisition means 520 acquires the calibration value associated with the user ID, for example, based on the user ID (user authentication information). That is, the storage means 530 stores the user ID and the calibration value in correspondence with each other. Then, the calibration value acquisition means 520 refers to the storage means 530 and acquires the calibration value corresponding to the user ID. In this case, this user has already performed the calibration, and therefore the calibration value is prepared in advance.

またキャリブレーションを行っていないユーザの場合で、キャリブレーション値が用意されていない場合、特徴情報取得手段540がこのユーザに対応する特徴情報を取得する。
特徴情報は、視線の位置の検知に影響を及ぼすユーザの特徴の情報である。具体的には、特徴情報は、例えば、上述したユーザの身長の情報である。またその他にも例えば、ユーザの顔の角度、顔の大きさ、目の幅、瞳孔の大きさ、両目の間隔、斜視であるか否か等の情報であってもよい。
特徴情報は、例えば、ユーザがユーザインタフェース300から入力を行なうことで取得することができる。また特徴情報がユーザの身長等の画像から推定できるものであった場合は、例えば、カメラ400で撮影した画像から求めることもできる。
If the user has not been calibrated and the calibration value is not prepared, the feature information acquisition means 540 acquires the feature information corresponding to this user.
The feature information is information on the features of the user that influences the detection of the position of the line of sight. Specifically, the feature information is, for example, the height information of the user described above. In addition, for example, information such as the angle of the user's face, the size of the face, the width of the eyes, the size of the pupil, the distance between the eyes, and whether or not the user is squinting may be used.
The feature information can be acquired, for example, by the user inputting from the user interface 300. If the feature information can be estimated from an image such as the height of the user, it can be obtained from an image taken by the camera 400, for example.

画像取得手段550は、カメラ400が撮影したユーザの画像の画像信号を取得する。 The image acquisition means 550 acquires an image signal of the user's image taken by the camera 400.

視線検知手段560は、カメラ400が撮影したユーザの画像を基に、図4で説明したような位置関係を求める。そして視線検知手段560は、この位置関係からユーザが見る対象となる対象物における視線の位置を検知する。この場合、対象物は、ユーザインタフェース300であり、視線検知手段560は、ユーザインタフェース300上におけるユーザの視線の位置を検知する。 The line-of-sight detecting means 560 obtains the positional relationship as described with reference to FIG. 4 based on the user's image taken by the camera 400. Then, the line-of-sight detecting means 560 detects the position of the line of sight in the object to be viewed by the user from this positional relationship. In this case, the object is the user interface 300, and the line-of-sight detecting means 560 detects the position of the user's line of sight on the user interface 300.

このとき視線検知手段560は、取得した特徴情報に応じて、ユーザインタフェース300上でのユーザの視線の位置を検知する。
具体的には、記憶手段530に特徴情報に応じたキャリブレーション値が保存されている。即ち、記憶手段530は、特徴情報とキャリブレーション値とを対応させて記憶している。そしてキャリブレーション値取得手段520が、記憶手段530を参照しキャリブレーション値を取得する。このときキャリブレーション値取得手段520は、特徴情報取得手段540が取得した特徴情報に最も近い特徴情報を記憶手段530から見つけ、それに応じたキャリブレーション値を取得することができる。また特徴情報取得手段540が取得した特徴情報に近い特徴情報を記憶手段530から複数見つけ、それに応じたキャリブレーション値を加重平均してもよい。さらに複数の特徴量を基にしてキャリブレーション値を取得するときは、それぞれの特徴量に重み付け係数を設定する。そしてそれぞれの特徴量に対し、特徴情報取得手段540が取得した特徴情報に最も近い特徴情報を記憶手段530から見つける。さらに特徴情報取得手段540が取得した特徴情報と記憶手段530に保存された特徴情報の差を取り、重み付け係数を乗算する。その結果、乗算後の値が最も小さいものに対するキャリブレーション値を選択する。
At this time, the line-of-sight detecting means 560 detects the position of the user's line of sight on the user interface 300 according to the acquired feature information.
Specifically, the storage means 530 stores the calibration value according to the feature information. That is, the storage means 530 stores the feature information and the calibration value in correspondence with each other. Then, the calibration value acquisition means 520 acquires the calibration value with reference to the storage means 530. At this time, the calibration value acquisition means 520 can find the feature information closest to the feature information acquired by the feature information acquisition means 540 from the storage means 530 and acquire the calibration value accordingly. Further, a plurality of feature information close to the feature information acquired by the feature information acquisition means 540 may be found from the storage means 530, and the calibration values corresponding thereto may be weighted averaged. Further, when acquiring a calibration value based on a plurality of feature quantities, a weighting coefficient is set for each feature quantity. Then, for each feature amount, the feature information closest to the feature information acquired by the feature information acquisition means 540 is found from the storage means 530. Further, the difference between the feature information acquired by the feature information acquisition means 540 and the feature information stored in the storage means 530 is taken and multiplied by a weighting coefficient. As a result, the calibration value for the one with the smallest value after multiplication is selected.

そして視線検知手段560が、取得したキャリブレーション値を使用して、ユーザインタフェース300上におけるユーザの視線の位置を求める。 Then, the line-of-sight detecting means 560 uses the acquired calibration value to determine the position of the user's line of sight on the user interface 300.

選択操作判断手段570は、視線検知手段560が検知した視線の位置を基に、ユーザインタフェース300上でユーザが選択操作をしたことを判断する。選択操作判断手段570は、上述したように、例えば、予め定められた時間何れかのアイコン等を凝視したときや、ユーザが何れかのアイコン等を凝視したまま予め定められた回数の瞬きをしたときに、そのアイコン等の選択操作が行なわれたと判断する。選択操作判断手段570が、ユーザが選択操作をしたと判断したときは、アイコン等が選択された旨を表す選択情報を出力する。 The selection operation determination means 570 determines that the user has performed a selection operation on the user interface 300 based on the position of the line of sight detected by the line-of-sight detection means 560. As described above, the selection operation determination means 570 blinks a predetermined number of times, for example, when staring at any icon or the like for a predetermined time, or when the user stares at any of the icons or the like. Occasionally, it is determined that the selection operation of the icon or the like has been performed. When the selection operation determination means 570 determines that the user has performed the selection operation, it outputs selection information indicating that the icon or the like has been selected.

このように本実施の形態の制御装置500において、視線検知手段560は、視線の位置の調整を行なうためのキャリブレーション値が存在するときはこのキャリブレーション値を使用して視線の位置を検知する。また視線検知手段560は、入力された特徴情報に対応するキャリブレーション値が存在しないときは予め用意された特徴情報とキャリブレーション値との関係からキャリブレーション値を取得し、取得したキャリブレーション値を使用して視線の位置を検知する。 As described above, in the control device 500 of the present embodiment, the line-of-sight detection means 560 detects the position of the line of sight by using the calibration value when there is a calibration value for adjusting the position of the line of sight. .. When the line-of-sight detection means 560 does not have a calibration value corresponding to the input feature information, the line-of-sight detection means 560 acquires a calibration value from the relationship between the feature information prepared in advance and the calibration value, and obtains the acquired calibration value. Use to detect the position of the line of sight.

<制御装置500の動作の説明>
次に制御装置500の動作の説明を行なう。
図7は、制御装置500の動作について説明したフローチャートである。
まずユーザ認証手段510が、画像形成装置1を使用するユーザの認証を行なう(ステップ101)。
<Explanation of operation of control device 500>
Next, the operation of the control device 500 will be described.
FIG. 7 is a flowchart illustrating the operation of the control device 500.
First, the user authentication means 510 authenticates the user who uses the image forming apparatus 1 (step 101).

次にキャリブレーション値取得手段520が、記憶手段530を参照し、認証を行ったユーザについてのキャリブレーション値が存在するか否かを判断する(ステップ102)。 Next, the calibration value acquisition means 520 refers to the storage means 530 and determines whether or not there is a calibration value for the authenticated user (step 102).

その結果、キャリブレーション値が存在した場合(ステップ102でYes)、キャリブレーション値取得手段520は、記憶手段530からキャリブレーション値を取得する(ステップ103)。そして以後、ステップ106に移行する。即ち、既に用意されているキャリブレーション値を使用して、視線検知手段560が、ユーザの視線の位置を検知する。 As a result, when the calibration value exists (Yes in step 102), the calibration value acquisition means 520 acquires the calibration value from the storage means 530 (step 103). After that, the process proceeds to step 106. That is, the line-of-sight detecting means 560 detects the position of the user's line of sight using the calibration value already prepared.

対してキャリブレーション値が存在しなかった場合(ステップ102でNo)、特徴情報取得手段540が、認証を行ったユーザに対応する特徴情報を取得する(ステップ104)。
次にキャリブレーション値取得手段520が、記憶手段530を参照し、取得した特徴情報に応じたキャリブレーション値を取得する(ステップ105)。
On the other hand, when the calibration value does not exist (No in step 102), the feature information acquisition means 540 acquires the feature information corresponding to the authenticated user (step 104).
Next, the calibration value acquisition means 520 refers to the storage means 530 and acquires the calibration value according to the acquired feature information (step 105).

また画像取得手段550が、カメラ400が撮影したユーザの画像を取得する(ステップ106)。 Further, the image acquisition means 550 acquires an image of the user taken by the camera 400 (step 106).

そして視線検知手段560が、カメラ400が撮影したユーザの画像を基に、図4で説明したような位置関係を求める。さらに視線検知手段560は、キャリブレーション値取得手段520が取得したキャリブレーション値を使用してユーザインタフェース300上におけるユーザの視線の位置を検知する(ステップ107)。 Then, the line-of-sight detecting means 560 obtains the positional relationship as described with reference to FIG. 4 based on the user's image taken by the camera 400. Further, the line-of-sight detecting means 560 detects the position of the user's line of sight on the user interface 300 by using the calibration value acquired by the calibration value acquiring means 520 (step 107).

さらに選択操作判断手段570が、視線検知手段560が検知した視線の位置を基に、ユーザインタフェース300上でユーザが選択操作をしたか否かを判断する(ステップ108)。 Further, the selection operation determination means 570 determines whether or not the user has performed the selection operation on the user interface 300 based on the position of the line of sight detected by the line-of-sight detection means 560 (step 108).

そして選択操作判断手段570が、ユーザが選択操作をしたと判断した場合(ステップ108でYes)、選択情報を出力する(ステップ109)。
対して選択操作判断手段570が、ユーザが選択操作をしたと判断しなかった場合(ステップ108でNo)、ステップ106に戻る。
Then, when the selection operation determination means 570 determines that the user has performed the selection operation (Yes in step 108), the selection information is output (step 109).
On the other hand, when the selection operation determination means 570 does not determine that the user has performed the selection operation (No in step 108), the process returns to step 106.

以下、本発明を実施例を用いてより詳細に説明するが、本発明は、その要旨を越えない限りこの実施例により限定されるものではない。 Hereinafter, the present invention will be described in more detail with reference to Examples, but the present invention is not limited to these Examples as long as the gist thereof is not exceeded.

(実施例1)
ユーザA(身長152cm)、ユーザB(身長164cm)、ユーザC(身長178cm)、およびユーザD(身長191cm)の4人のユーザが画像形成装置1を使用する場合を考える。このとき以下の表1に示すようにユーザAおよびユーザCは、既にキャリブレーションを行ない、記憶手段530にキャリブレーション値が保存されている。一方、ユーザBとユーザDは、キャリブレーションをまだ行なっておらず、記憶手段530には、キャリブレーション値は保存されていない。
(Example 1)
Consider a case where four users, user A (height 152 cm), user B (height 164 cm), user C (height 178 cm), and user D (height 191 cm), use the image forming apparatus 1. At this time, as shown in Table 1 below, the user A and the user C have already performed the calibration, and the calibration value is stored in the storage means 530. On the other hand, the user B and the user D have not yet performed the calibration, and the calibration value is not stored in the storage means 530.

Figure 0006763260
Figure 0006763260

このときユーザAまたはユーザCが、画像形成装置1を使用するためにユーザ認証手段510によりユーザの認証を行なったときは、キャリブレーション値取得手段520が、記憶手段530に保存されているキャリブレーション値を取得する。そして視線検知手段560が、このキャリブレーション値を使用してユーザの視線の位置を検知する。 At this time, when the user A or the user C authenticates the user by the user authentication means 510 in order to use the image forming apparatus 1, the calibration value acquisition means 520 is stored in the storage means 530 for calibration. Get the value. Then, the line-of-sight detecting means 560 uses this calibration value to detect the position of the user's line of sight.

一方、ユーザBまたはユーザDが、画像形成装置1を使用するためにユーザ認証手段510によりユーザの認証を行なったときは、特徴情報取得手段540が、ユーザBまたはユーザDについての特徴情報を取得する。そしてキャリブレーション値取得手段520が、記憶手段530を参照し、取得した特徴情報に応じたキャリブレーション値を取得する。 On the other hand, when the user B or the user D authenticates the user by the user authentication means 510 in order to use the image forming apparatus 1, the feature information acquisition means 540 acquires the feature information about the user B or the user D. To do. Then, the calibration value acquisition means 520 refers to the storage means 530 and acquires the calibration value according to the acquired feature information.

表2は、このとき記憶手段530に保存されている特徴情報とキャリブレーション値との関係を示している。この場合、特徴情報は、ユーザの身長の情報である。身長は、140cm〜190cmの間で10cm毎に設定され、それぞれにキャリブレーション値が対応付けられている。 Table 2 shows the relationship between the feature information stored in the storage means 530 and the calibration value at this time. In this case, the feature information is the height information of the user. The height is set every 10 cm between 140 cm and 190 cm, and a calibration value is associated with each.

Figure 0006763260
Figure 0006763260

ユーザBは、身長が164cmであるので、キャリブレーション値取得手段520は、例えば、表2の中で164cmに最も近い160cmのキャリブレーション値を取得する。またユーザDは、身長が191cmであるので、キャリブレーション値取得手段520は、例えば、表2の中で191cmに最も近い190cmのキャリブレーション値を取得する。 Since the height of the user B is 164 cm, the calibration value acquisition means 520 acquires, for example, the calibration value of 160 cm, which is the closest to 164 cm in Table 2. Further, since the user D has a height of 191 cm, the calibration value acquisition means 520 acquires, for example, the calibration value of 190 cm, which is the closest to 191 cm in Table 2.

以後は、ユーザA〜ユーザDの何れのユーザについても、同様の処理が行われる。つまり画像取得手段550が、カメラ400が撮影したユーザの画像を取得する。そして視線検知手段560が、カメラ400が撮影したユーザの画像を基に、取得したキャリブレーション値を使用してユーザインタフェース300上におけるユーザの視線の位置を検知する。さらに選択操作判断手段570が、検知した視線の位置を基に、ユーザインタフェース300上でユーザが選択操作をしたか否かを判断する。 After that, the same processing is performed for any of the users A to D. That is, the image acquisition means 550 acquires the image of the user taken by the camera 400. Then, the line-of-sight detecting means 560 detects the position of the user's line of sight on the user interface 300 by using the acquired calibration value based on the image of the user taken by the camera 400. Further, the selection operation determination means 570 determines whether or not the user has performed the selection operation on the user interface 300 based on the detected position of the line of sight.

またこのときユーザBおよびユーザDについては、記憶手段530が、ユーザIDと特徴情報とを対応させて記憶することが好ましい。表3に記憶されるユーザIDと特徴情報との対応関係の一例を示す。これにより以後、特徴情報の取得の必要が不要となる。 At this time, it is preferable that the storage means 530 stores the user ID and the feature information in correspondence with each other for the user B and the user D. Table 3 shows an example of the correspondence between the user ID stored in the user ID and the feature information. This eliminates the need to acquire feature information thereafter.

Figure 0006763260
Figure 0006763260

以上説明した形態によれば、画像形成装置1を使用する各ユーザに対し、ユーザ毎にキャリブレーションを行わなくても視線の位置を精度よく検知することができる。 According to the above-described embodiment, it is possible to accurately detect the position of the line of sight for each user who uses the image forming apparatus 1 without performing calibration for each user.

なお上述した例では、情報処理装置として画像形成装置1を例に取り説明を行なったがこれに限られるものではない。即ち、視線を検知する装置であれば、本実施の形態の適用が可能である。例えば、アプリケーションソフトウェアのアイコンを並べて表示する携帯電話、スマートフォン、タブレットのような機器に対しても適用できる。
また上述した例では、ユーザは、ユーザインタフェース300を見ており、ユーザインタフェース300上での視線の位置を検知していたが、他の箇所を見ている場合にも適用できることはもちろんである。
また視線の位置に及ぼすユーザの身長の影響は、ユーザの身長がより低いほど問題になるため、ユーザの身長の情報が予め定められた身長以上のときは、固定のキャリブレーション値を使用し、ユーザの身長の情報が予め定められた身長より低いときは、視線の動きに対する感度を小さくするキャリブレーション値を使用することも考えられる。
In the above-mentioned example, the image forming apparatus 1 has been taken as an example of the information processing apparatus, but the description is not limited to this. That is, the present embodiment can be applied to any device that detects the line of sight. For example, it can be applied to devices such as mobile phones, smartphones, and tablets that display application software icons side by side.
Further, in the above-described example, the user is looking at the user interface 300 and has detected the position of the line of sight on the user interface 300, but of course, it can be applied to the case of looking at other parts.
In addition, the effect of the user's height on the position of the line of sight becomes more problematic as the user's height is lower. Therefore, when the user's height information is greater than or equal to a predetermined height, a fixed calibration value is used. When the height information of the user is lower than the predetermined height, it is conceivable to use a calibration value that reduces the sensitivity to the movement of the line of sight.

<プログラムの説明>
なお制御装置500が行う処理は、ソフトウェアとハードウェア資源とが協働することにより実現される。
<Program description>
The processing performed by the control device 500 is realized by the cooperation of software and hardware resources.

よって制御装置500が行う処理は、コンピュータに、視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得機能と、取得した特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知機能と、を実現させるプログラムとして捉えることもできる。 Therefore, the processing performed by the control device 500 is a feature information acquisition function for acquiring the feature information which is the feature information of the user which affects the detection of the position of the line of sight, and the user sees the feature information according to the acquired feature information. It can also be regarded as a program that realizes a line-of-sight detection function that detects the position of the line of sight in the target object.

1…画像形成装置、20…画像形成部、30…中間転写ユニット、40…二次転写ユニット、45…定着装置、100…画像読取装置、200…画像記録装置、300…ユーザインタフェース、400…カメラ、500…制御装置、510…ユーザ認証手段、520…キャリブレーション値取得手段、530…記憶手段、540…特徴情報取得手段、550…画像取得手段、560…視線検知手段、570…選択操作判断手段 1 ... Image forming device, 20 ... Image forming unit, 30 ... Intermediate transfer unit, 40 ... Secondary transfer unit, 45 ... Fixing device, 100 ... Image reading device, 200 ... Image recording device, 300 ... User interface, 400 ... Camera , 500 ... Control device, 510 ... User authentication means, 520 ... Calibration value acquisition means, 530 ... Storage means, 540 ... Feature information acquisition means, 550 ... Image acquisition means, 560 ... Line-of-sight detection means, 570 ... Selection operation determination means

Claims (7)

視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得手段と、
取得した前記特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知手段と、
を備え
前記特徴情報は、ユーザの身長の情報である情報処理装置。
Feature information acquisition means for acquiring feature information, which is information on user features that affect the detection of the position of the line of sight,
A line-of-sight detection means for detecting the position of the line of sight in an object to be viewed by the user according to the acquired feature information.
Equipped with a,
The feature information is an information processing device that is information on the height of the user .
視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得手段と、
取得した前記特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知手段と、
を備え、
前記視線検知手段は、前記特徴情報取得手段が取得した特徴情報に対応する視線の位置の調整を行なうための調整情報が存在するときは当該調整情報を使用して視線の位置を検知し、当該調整情報が存在しないときは予め用意された前記特徴情報と調整情報との関係から当該調整情報を取得し、取得した当該調整情報を使用して視線の位置を検知することを特徴とする報処理装置。
Feature information acquisition means for acquiring feature information, which is information on user features that affect the detection of the position of the line of sight,
A line-of-sight detection means for detecting the position of the line of sight in an object to be viewed by the user according to the acquired feature information.
With
The line-of-sight detecting means detects the position of the line of sight by using the adjustment information when there is adjustment information for adjusting the position of the line of sight corresponding to the feature information acquired by the feature information acquiring means. when the adjustment information is not present acquires the adjustment information from the relationship between the feature information and the adjustment information prepared in advance, information for and detecting the position of the line of sight by using the obtained corresponding adjustment information Processing equipment.
ユーザの認証を行なうユーザ認証手段と、
前記ユーザ認証手段が使用するユーザの認証情報と前記調整情報とを対応させて記憶する記憶手段と、
をさらに備えることを特徴とする請求項に記載の情報処理装置。
User authentication means for authenticating users and
A storage means for storing the user authentication information used by the user authentication means in association with the adjustment information, and
The information processing apparatus according to claim 2 , further comprising.
前記記憶手段は、ユーザの認証情報と前記特徴情報とを対応させてさらに記憶することを特徴とする請求項に記載の情報処理装置。 The information processing device according to claim 3 , wherein the storage means further stores the user authentication information in association with the feature information. 視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得手段と、
取得した前記特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知手段と、
を備え、
前記視線検知手段は、ユーザの身長の情報が予め定められた身長より低いときは、視線の動きに対する感度を小さくする報処理装置。
Feature information acquisition means for acquiring feature information, which is information on user features that affect the detection of the position of the line of sight,
A line-of-sight detection means for detecting the position of the line of sight in an object to be viewed by the user according to the acquired feature information.
With
The visual axis detecting means, is lower than the height information of the height of the user is predetermined, the information processing apparatus to reduce the sensitivity to movement of the line of sight.
記録材に画像を形成する画像形成部と、
自装置に関する情報を画像として表示する表示部と、
前記表示部上のユーザの視線の位置に応じて自装置を制御する制御部と、
を備え、
前記制御部は、
視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得手段と、
取得した前記特徴情報に応じて、前記表示部上の視線の位置を検知する視線検知手段と、
を備え
前記特徴情報は、ユーザの身長の情報である画像形成装置。
An image forming part that forms an image on the recording material,
A display unit that displays information about the own device as an image,
A control unit that controls its own device according to the position of the user's line of sight on the display unit,
With
The control unit
Feature information acquisition means for acquiring feature information, which is information on user features that affect the detection of the position of the line of sight,
A line-of-sight detecting means for detecting the position of the line of sight on the display unit according to the acquired feature information.
Equipped with a,
The feature information is an image forming apparatus that is information on the height of the user .
コンピュータに、
視線の位置の検知に影響を及ぼすユーザの特徴の情報である特徴情報を取得する特徴情報取得機能と、
取得した前記特徴情報に応じて、ユーザが見る対象となる対象物における視線の位置を検知する視線検知機能と、
を実現させ
前記特徴情報は、ユーザの身長の情報であるプログラム。
On the computer
A feature information acquisition function that acquires feature information, which is information on user features that affect the detection of the position of the line of sight,
A line-of-sight detection function that detects the position of the line of sight on an object to be viewed by the user according to the acquired feature information.
Realized ,
The feature information is a program that is information on the height of the user .
JP2016185542A 2016-09-23 2016-09-23 Information processing equipment, image forming equipment and programs Active JP6763260B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016185542A JP6763260B2 (en) 2016-09-23 2016-09-23 Information processing equipment, image forming equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016185542A JP6763260B2 (en) 2016-09-23 2016-09-23 Information processing equipment, image forming equipment and programs

Publications (2)

Publication Number Publication Date
JP2018049527A JP2018049527A (en) 2018-03-29
JP6763260B2 true JP6763260B2 (en) 2020-09-30

Family

ID=61767669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016185542A Active JP6763260B2 (en) 2016-09-23 2016-09-23 Information processing equipment, image forming equipment and programs

Country Status (1)

Country Link
JP (1) JP6763260B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7277151B2 (en) * 2019-01-21 2023-05-18 キヤノン株式会社 image forming device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06324808A (en) * 1992-04-16 1994-11-25 Hitachi Ltd Touch panel control system
JP4772526B2 (en) * 2006-02-02 2011-09-14 東芝テック株式会社 Display device with touch panel
JP4399607B2 (en) * 2006-02-13 2010-01-20 国立大学法人埼玉大学 Gaze control display device and display method
JP5755012B2 (en) * 2011-04-21 2015-07-29 キヤノン株式会社 Information processing apparatus, processing method thereof, program, and imaging apparatus
JP5907353B2 (en) * 2013-08-06 2016-04-26 コニカミノルタ株式会社 Display device, display control program, and image processing device
JP2015191241A (en) * 2014-03-27 2015-11-02 京セラドキュメントソリューションズ株式会社 Electronic apparatus and operation support program

Also Published As

Publication number Publication date
JP2018049527A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6784116B2 (en) Information processing equipment, image forming equipment and programs
US10097702B2 (en) Image processing apparatus and image processing system
US20170013158A1 (en) Image forming apparatus and image forming method for both side copying
JP6047528B2 (en) Image reading apparatus and image forming apparatus
CN110278337A (en) Image forming apparatus, original document reading apparatus and delivery method
EP3007422B1 (en) Document reading device and image forming device provided with same
JP6763260B2 (en) Information processing equipment, image forming equipment and programs
US8681386B2 (en) Image reading apparatus and foreign matter detection method
JP6729054B2 (en) Information processing apparatus, information processing system, and image forming apparatus
US10616436B2 (en) Image reading apparatus and image forming system, including opposing part
US8941851B2 (en) Image forming apparatus configured so that an attachable and detachable storage medium is attachable thereto
JP4323506B2 (en) Image processing device
US9906670B2 (en) Adaptive mode image forming apparatus
JP5779554B2 (en) Image forming apparatus
JP2018005335A (en) Information processing apparatus, information processing system, and image forming apparatus
JP5789572B2 (en) Image forming apparatus
JP6784143B2 (en) Information processing equipment, image forming equipment and programs
JP6897820B2 (en) Information processing equipment, information processing system and image forming equipment
JP2020088794A (en) Image reading apparatus, image forming apparatus, and image forming system
US11985279B2 (en) Information processing of user feedback using image forming apparatus
JP6515896B2 (en) Image processing device
JP6825545B2 (en) Image forming device and image processing method
JP2020184706A (en) Image forming apparatus and control method for image forming apparatus
JP6330376B2 (en) Image reading apparatus and copying machine
JP2022006251A (en) Image forming apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6763260

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350