JP6811642B2 - Image forming device, information processing system, information processing program and information processing method - Google Patents

Image forming device, information processing system, information processing program and information processing method Download PDF

Info

Publication number
JP6811642B2
JP6811642B2 JP2017030385A JP2017030385A JP6811642B2 JP 6811642 B2 JP6811642 B2 JP 6811642B2 JP 2017030385 A JP2017030385 A JP 2017030385A JP 2017030385 A JP2017030385 A JP 2017030385A JP 6811642 B2 JP6811642 B2 JP 6811642B2
Authority
JP
Japan
Prior art keywords
person
image forming
forming apparatus
state
print data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017030385A
Other languages
Japanese (ja)
Other versions
JP2018137589A (en
Inventor
中井 康博
康博 中井
佐枝 政夫
政夫 佐枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017030385A priority Critical patent/JP6811642B2/en
Publication of JP2018137589A publication Critical patent/JP2018137589A/en
Application granted granted Critical
Publication of JP6811642B2 publication Critical patent/JP6811642B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Power Sources (AREA)
  • Facsimiles In General (AREA)

Description

この発明は、画像形成装置、情報処理システム、情報処理プログラムおよび情報処理方法に関し、特にたとえば、人物の位置の一連の変化に応じた状態に設定される、画像形成装置、情報処理システム、情報処理プログラムおよび情報処理方法に関する。 The present invention relates to an image forming apparatus, an information processing system, an information processing program and an information processing method, and in particular, for example, an image forming apparatus, an information processing system, and information processing which are set in a state corresponding to a series of changes in the position of a person. Regarding programs and information processing methods.

この種の画像形成装置の一例が特許文献1に開示される。この特許文献1に開示される複写装置では、ICカ−ドにより画像メモリに登録された画像データに基づく複写要求がなされると、CPUがICカードによる複写要求有無を識別して画像メモリに登録された画像データに基づく複写要求可否を制御し、画像メモリ上の画像データの第三者による利用を制限させる。 An example of this type of image forming apparatus is disclosed in Patent Document 1. In the copying apparatus disclosed in Patent Document 1, when a copying request is made based on the image data registered in the image memory by the IC card, the CPU identifies the presence or absence of the copying request by the IC card and registers it in the image memory. It controls whether or not a copy request can be made based on the image data, and restricts the use of the image data on the image memory by a third party.

特開平5−122476号公報Japanese Unexamined Patent Publication No. 5-122476

しかし、特許文献1に開示された技術では、画像メモリ上の画像データを利用するためには、ICカードを複写装置に挿入する必要がある。つまり、ユーザが複写装置を直接操作できる状況でなければ、画像データの印刷等を実行することができない。 However, in the technique disclosed in Patent Document 1, in order to use the image data on the image memory, it is necessary to insert the IC card into the copying device. That is, unless the user can directly operate the copying device, it is not possible to print the image data or the like.

それゆえに、この発明の主たる目的は、新規な、画像形成装置、情報処理システム、情報処理プログラムおよび情報処理方法を提供することである。 Therefore, a main object of the present invention is to provide a novel image forming apparatus, information processing system, information processing program and information processing method.

この発明の他の目的は、利便性を向上できる、画像形成装置、情報処理システム、情報処理プログラムおよび情報処理方法を提供することである。 Another object of the present invention is to provide an image forming apparatus, an information processing system, an information processing program, and an information processing method that can improve convenience.

第1の発明は、受信手段、追跡手段、状態決定手段、設定手段、印刷実行手段、およびプレビュー表示手段を備える、画像形成装置である。受信手段は、外部端末からの印刷データを受信する。追跡手段は、画像形成装置自身が設置される場所において当該画像形成装置自身に対する人物の位置を追跡する。状態決定手段は、追跡手段によって追跡された人物の位置の一連の変化が人物が画像形成装置自身に向かって近づいていることを示す場合に、人物との位置関係に応じて画像形成装置自身のあるべき状態を決定する。設定手段は、画像形成装置自身の状態を状態決定手段によって決定されたあるべき状態に設定する。印刷実行手段は、設定手段によってあるべき状態として印刷可能な状態に設定され、所定の条件を満たす場合に、受信手段によって受信された印刷データに基づく印刷を実行する。プレビュー表示手段は、印刷実行手段によって印刷データに基づく印刷を実行したことに応じて、印刷データに対応するプレビュー画像を表示する。 The first invention, the receiving means, tracking means, state determination means, setting means, the print execution means, and a preview display unit, an image forming apparatus. The receiving means receives the print data from the external terminal. The tracking means tracks the position of the person with respect to the image forming apparatus itself at the place where the image forming apparatus itself is installed. The state determining means of the image forming apparatus itself according to the positional relationship with the person when a series of changes in the position of the person tracked by the tracking means indicate that the person is approaching the image forming apparatus itself. Determine what it should be. The setting means sets the state of the image forming apparatus itself to the desired state determined by the state determining means. The print executing means is set to a printable state as it should be by the setting means, and when a predetermined condition is satisfied, printing is executed based on the print data received by the receiving means. The preview display means displays a preview image corresponding to the print data in response to the print execution means performing printing based on the print data.

第1の発明によれば、人物が画像形成装置に向かって近づく場合に、人物との位置関係に応じて画像形成装置自身の状態をあるべき状態に設定するので、利便性を向上させることができる。
また、第1の発明によれば、印刷データを受信すると一旦保持し、印刷可能な状態に設定され、所定の条件を満たす場合に、印刷データに基づく印刷を実行するので、たとえば、印刷データを送信した人物が画像形成装置に近づいた場合に印刷を実行することができる。したがって、人物が近づいたことによってユーザ認証を行い、ユーザ認証に基づく印刷処理が可能である。
さらに、第1の発明によれば、印刷データのプレビュー画像を表示するので、出力画像を見なくても、プレビュー画像によって印刷された内容を知ることができる。
According to the first invention, when a person approaches the image forming apparatus, the state of the image forming apparatus itself is set to the desired state according to the positional relationship with the person, so that convenience can be improved. it can.
Further, according to the first invention, when print data is received, it is temporarily held, set to a printable state, and when a predetermined condition is satisfied, printing is executed based on the print data. Therefore, for example, print data can be printed. Printing can be performed when the transmitting person approaches the image forming apparatus. Therefore, it is possible to perform user authentication when a person approaches and perform printing processing based on the user authentication.
Further, according to the first invention, since the preview image of the print data is displayed, the content printed by the preview image can be known without looking at the output image.

の発明は、第1の発明に従属し、方向検出手段をさらに備える。方向検出手段は、追跡手段によって追跡された人物の位置の一連の変化に基づいて、人物の移動方向を検出する。たとえば、人物の直前の位置と現在の位置とから現在の移動方向が検出される。プレビュー表示手段は、方向検出手段によって検出された移動方向に上下方向が一致するようにプレビュー画像を表示する。 The second invention is subordinate to the first invention and further includes direction detecting means. The direction detecting means detects the moving direction of the person based on a series of changes in the position of the person tracked by the tracking means. For example, the current moving direction is detected from the position immediately before the person and the current position. The preview display means displays the preview image so that the vertical direction coincides with the moving direction detected by the direction detecting means.

の発明によれば、向かってくる人物に見易いプレビュー画像を表示することができる。 According to the second invention, it is possible to display a preview image that is easy to see for an approaching person.

第3の発明は、第1の発明に従属し、視線方向検出手段は、追跡手段によって追跡された人物が画像形成装置自身に向かってくる場合に、当該人物の視線方向を検出する。プレビュー表示手段は、視線方向検出手段によって検出された視線方向に上下方向が一致するようにプレビュー画像を表示する。 The third invention is subordinate to the first invention, and the line-of-sight direction detecting means detects the line-of-sight direction of a person tracked by the tracking means when the person is approaching the image forming apparatus itself. The preview display means displays the preview image so that the vertical direction coincides with the line-of-sight direction detected by the line-of-sight direction detecting means.

の発明においても、向かってくる人物に見易いプレビュー画像を表示することができる。 Also in the third invention, a preview image that is easy to see for an approaching person can be displayed.

の発明は、第1ないし第の発明のいずれかに従属し、床センサをさらに備える。床センサは、画像形成装置自身が配置される環境に設けられる。追跡手段は、床センサの出力に基づいて人物の位置を追跡する。 The fourth invention is subordinate to any of the first to third inventions and further comprises a floor sensor. The floor sensor is provided in an environment in which the image forming apparatus itself is arranged. The tracking means tracks the position of the person based on the output of the floor sensor.

の発明によれば、床センサを用いるので、人物の足に相当する大きさおよび形状の圧力の変化を検出することにより、人物を追跡することができる。また、特定の押圧形状を検出可能にすれば、画像形成装置自身が配置される環境に設置される他の設置物の配置位置を識別可能に知ることもできる。 According to the fourth invention, since the floor sensor is used, the person can be tracked by detecting the change in pressure of the size and shape corresponding to the person's foot. Further, if a specific pressing shape can be detected, the arrangement position of another installation object installed in the environment in which the image forming apparatus itself is arranged can be identifiable.

の発明は、請求項に従属し、追跡手段は、床センサの出力に基づいて、環境における人物の位置を初期位置から追跡する。 A fifth aspect of the invention is subject to claim 4 , wherein the tracking means tracks the position of a person in the environment from an initial position based on the output of the floor sensor.

の発明によれば、初期位置からの一連の位置の変化を検出することができる。 According to the fifth invention, a series of changes in position from the initial position can be detected.

の発明は、第の発明に従属し、初期位置は、追跡手段によって追跡される人物の座席位置である。 The sixth invention is subordinate to the fifth invention, where the initial position is the seating position of the person being tracked by the tracking means.

の発明によれば、座席位置の事務机を使用する人物を識別可能に記憶しておければ、初期位置から人物の位置を追跡することにより、人物を特定することもできる。 According to the sixth invention, if the person who uses the office desk in the seat position is identifiablely stored, the person can be identified by tracking the position of the person from the initial position.

第7の発明は、画像形成装置および当該画像形成装置と通信可能に接続されるサーバを備える情報処理システムであって、サーバは、画像形成装置が設置される場所において当該画像形成装置に対する人物の位置を追跡する追跡手段、追跡手段によって追跡された人物の位置の一連の変化が人物が画像形成装置に向かって近づいていることを示す場合に、人物との位置関係に応じて画像形成装置のあるべき状態を決定する状態決定手段、画像形成装置の状態を状態決定手段によって決定されたあるべき状態に設定することを当該画像形成装置に指示する設定手段、および設定手段によってあるべき状態として印刷可能な状態に設定され、所定の条件を満たす場合に、画像形成装置に印刷の実行を指示する印刷指示手段を備え、画像形成装置は、外部端末からの印刷データを受信する受信手段、印刷指示手段によって印刷の実行を指示された場合に、受信手段によって受信された印刷データに基づく印刷を実行する印刷実行手段、および印刷実行手段によって印刷データに基づく印刷を実行したことに応じて、印刷データに対応するプレビュー画像を表示するプレビュー表示手段を備える、情報処理システムである。 A seventh invention is an information processing system including an image forming apparatus and a server communicably connected to the image forming apparatus, wherein the server is a person with respect to the image forming apparatus at a place where the image forming apparatus is installed. A tracking means for tracking a position, when a series of changes in the position of a person tracked by the tracking means indicate that the person is approaching the image forming apparatus, the image forming apparatus is subjected to the positional relationship with the person. A state determining means for determining an ideal state, a setting means for instructing the image forming apparatus to set the state of the image forming apparatus to the ideal state determined by the state determining means, and printing as the ideal state by the setting means. A print instruction means for instructing the image forming apparatus to execute printing when the state is set to be possible and a predetermined condition is satisfied, and the image forming apparatus is a receiving means for receiving print data from an external terminal and a print instruction. When the means instructed to execute printing, the print execution means that executes printing based on the print data received by the receiving means, and the print data according to the print execution means that executes printing based on the print data. Ru with a preview display means for displaying a preview image corresponding to an information processing system.

の発明は、コンピュータによって実行される情報処理プログラムであって、コンピュータのプロセッサに、外部端末からの印刷データを受信する受信ステップ、事務機器が設置される場所において当該事務機器に対する人物の位置を追跡する追跡ステップ、追跡ステップにおいて追跡した人物の位置の一連の変化が人物が事務機器に向かって近づいていることを示す場合に、人物との位置関係に応じて事務機器のあるべき状態を決定する状態決定ステップ、事務機器の状態を状態決定ステップにおいて決定したあるべき状態に設定する設定ステップ、設定ステップにおいてあるべき状態として印刷可能な状態に設定し、所定の条件を満たす場合に、受信ステップにおいて受信した印刷データに基づく印刷を実行する印刷実行ステップ、および印刷実行ステップにおいて印刷データに基づく印刷を実行したことに応じて、印刷データに対応するプレビュー画像を表示するプレビュー表示ステップを実行させる、情報処理プログラムである。 The eighth invention is an information processing program executed by a computer, in which a receiving step for receiving print data from an external terminal on a computer processor, a position of a person with respect to the office equipment at a place where the office equipment is installed. When a series of changes in the position of the person tracked in the tracking step and the tracking step indicate that the person is approaching the office equipment, the state of the office equipment should be determined according to the positional relationship with the person. determining the state determination step, setting step of setting a state there should determined in clerical state condition determination step of a device, and set to a printable state as the state should be in the setting step, when a predetermined condition is satisfied, A print execution step that executes printing based on the received print data in the reception step, and a preview display step that displays a preview image corresponding to the print data are executed in response to the execution of printing based on the print data in the print execution step. It is an information processing program.

の発明は、情報処理方法であって、(a)外部端末からの印刷データを受信するステップ、)事務機器が設置される場所において当該事務機器に対する人物の位置を追跡するステップ、()ステップ()において追跡した人物の位置の一連の変化が人物が事務機器に向かって近づいていることを示す場合に、人物との位置関係に応じて事務機器のあるべき状態を決定するステップ)事務機器の状態をステップ()において決定したあるべき状態に設定するステップ、(e)ステップ(d)においてあるべき状態として印刷可能な状態に設定し、所定の条件を満たす場合に、ステップ(a)において受信した印刷データに基づく印刷を実行するステップ、および(f)ステップ(e)において印刷データに基づく印刷を実行したことに応じて、印刷データに対応するプレビュー画像を表示するステップを含む、情報処理方法である。 A ninth invention is an information processing method, wherein (a) a step of receiving print data from an external terminal, and ( b ) a step of tracking the position of a person with respect to the office equipment at a place where the office equipment is installed. ( C ) When a series of changes in the position of the person tracked in step ( b ) indicate that the person is approaching the office equipment, the ideal state of the office equipment is determined according to the positional relationship with the person. Steps to be performed , ( d ) Set the state of the office equipment to the desired state determined in step ( c ), (e) Set the state to be printable as the desired state in step (d), and set predetermined conditions. When satisfied, the preview image corresponding to the print data according to the step (a) of executing printing based on the received print data in step (a) and (f) performing printing based on print data in step (e). It is an information processing method including a step of displaying .

ないし第の発明においても、第1の発明と同様に、利便性を向上させることができる。 In the seventh to ninth inventions as well, the convenience can be improved as in the first invention.

この発明によれば、人物が画像形成装置に向かって近づく場合に、人物との位置関係に応じて画像形成装置自身の状態をあるべき状態に設定するので、人物が画像形成装置を直接操作できる状態でなくても、画像形成装置を適切に動作させることができる。このため、利便性を向上させることができる。 According to the present invention, when a person approaches the image forming apparatus, the state of the image forming apparatus itself is set to the desired state according to the positional relationship with the person, so that the person can directly operate the image forming apparatus. The image forming apparatus can be operated appropriately even if it is not in the state. Therefore, convenience can be improved.

図1はこの発明の第1実施例である情報処理システムの構成の一例を示す図解図である。FIG. 1 is an illustrated diagram showing an example of a configuration of an information processing system according to a first embodiment of the present invention. 図2は図1に画像形成装置の電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the image forming apparatus in FIG. 図3は図1に示す情報処理システムが適用される環境を俯瞰的に見た図解図である。FIG. 3 is an illustrated diagram showing a bird's-eye view of the environment to which the information processing system shown in FIG. 1 is applied. 図4は図2に示す各事務機器と人物との位置関係を判断するために各事務機器に設定される範囲を説明するための図解図である。FIG. 4 is an illustrated diagram for explaining a range set for each office device in order to determine the positional relationship between each office device and a person shown in FIG. 図5(A)は人物情報のテーブルを示す図解図であり、図5(B)は機器情報のテーブルを示す図解図であり、図5(C)は状態情報のテーブルを示す図解図である。FIG. 5 (A) is a graphic diagram showing a table of person information, FIG. 5 (B) is a graphic diagram showing a table of device information, and FIG. 5 (C) is a graphic diagram showing a table of state information. .. 図6は図1に示す画像形成装置のRAMのメモリマップの一例を示す図解図である。FIG. 6 is an illustrated diagram showing an example of a memory map of the RAM of the image forming apparatus shown in FIG. 図7は図6に示すデータ記憶領域の具体的な内容を説明するための図解図である。FIG. 7 is an illustrated diagram for explaining the specific contents of the data storage area shown in FIG. 図8は図1に示す画像形成装置のCPUの状態制御処理の一例の一部を示すフロー図である。FIG. 8 is a flow chart showing a part of an example of the state control processing of the CPU of the image forming apparatus shown in FIG. 図9は図1に示す画像形成装置のCPUの状態制御処理の第2の一部であって、図8に後続するフロー図である。FIG. 9 is a second part of the state control process of the CPU of the image forming apparatus shown in FIG. 1, and is a flow chart following FIG. 図10は図1に示す画像形成装置のCPUの状態制御処理の第3の一部であって、図8に後続するフロー図である。FIG. 10 is a third part of the state control process of the CPU of the image forming apparatus shown in FIG. 1, and is a flow chart following FIG. 図11は図1に示す画像形成装置のCPUの状態制御処理の第4の一部であって、図10に後続するフロー図である。FIG. 11 is a fourth part of the state control process of the CPU of the image forming apparatus shown in FIG. 1, and is a flow chart following FIG. 図12は図1に示す画像形成装置のCPUの状態制御処理の第5の一部であって、図8に後続するフロー図である。FIG. 12 is a fifth part of the state control process of the CPU of the image forming apparatus shown in FIG. 1, and is a flow chart following FIG. 図13は図1に示す情報処理システムの他の適用例を示す図解図である。FIG. 13 is an illustrated diagram showing another application example of the information processing system shown in FIG. 図14は第2実施例における画像形成装置の外観構成の一例を示す図解図である。FIG. 14 is an illustrated diagram showing an example of the appearance configuration of the image forming apparatus in the second embodiment. 図15は図14に示すセンサ内蔵液晶パネルの一部の断面の一例を示す断面図である。FIG. 15 is a cross-sectional view showing an example of a partial cross section of the liquid crystal panel with a built-in sensor shown in FIG. 図16は図14に示すセンサ内蔵液晶パネルをタッチ操作する場合のタッチ位置を検出する方法の一例を説明するための図解図である。FIG. 16 is an illustrated diagram for explaining an example of a method of detecting a touch position when the liquid crystal panel with a built-in sensor shown in FIG. 14 is touch-operated. 図17は図14に示すセンサ内蔵液晶パネルをタッチ操作する場合のタッチ位置を検出する方法の他の例を説明するための図解図である。FIG. 17 is an illustrated diagram for explaining another example of a method of detecting a touch position when the liquid crystal panel with a built-in sensor shown in FIG. 14 is touch-operated. 図18(A)は第2実施例における画像形成装置に設けられるカメラの画角およびカメラで撮影される人物の視線を説明するための図解図であり、図18(B)は人物の視線に応じたプレビュー画像の表示例を示す図解図である。FIG. 18A is an illustrated diagram for explaining the angle of view of the camera provided in the image forming apparatus in the second embodiment and the line of sight of the person photographed by the camera, and FIG. 18B is the line of sight of the person. It is a schematic diagram which shows the display example of the corresponding preview image. 図19は第3実施例における情報処理システムの構成の一例を示す図解図である。FIG. 19 is an illustrated diagram showing an example of the configuration of the information processing system in the third embodiment.

[第1実施例]
図1は情報処理システム10の一例を示す図解図である。この図1を参照して、第1実施例の情報処理システム10は、画像形成装置12を含み、画像形成装置12には、床センサ(床圧力センサ)14が接続される。また、画像形成装置12は、LANなどのネットワーク16を介して、裁断機18および複数のユーザ端末30に接続される。
[First Example]
FIG. 1 is an illustrated diagram showing an example of the information processing system 10. With reference to FIG. 1, the information processing system 10 of the first embodiment includes an image forming apparatus 12, and a floor sensor (floor pressure sensor) 14 is connected to the image forming apparatus 12. Further, the image forming apparatus 12 is connected to the cutting machine 18 and the plurality of user terminals 30 via a network 16 such as a LAN.

なお、この第1実施例の情報処理システム10では、一台の画像形成装置12および一台の裁断機18が設けられるが、画像形成装置12または/および裁断機18は複数設けられてもよい。また、この第1実施例の情報処理システム10では、画像形成装置12は、複数のユーザ端末30に接続されるが、ユーザ端末30は一台でもよい。さらに、画像形成装置12、裁断機18およびユーザ端末30は、有線で接続されてもよいし、無線で接続されてもよい。 In the information processing system 10 of the first embodiment, one image forming device 12 and one cutting machine 18 are provided, but a plurality of image forming devices 12 and / and the cutting machine 18 may be provided. .. Further, in the information processing system 10 of the first embodiment, the image forming apparatus 12 is connected to a plurality of user terminals 30, but the number of user terminals 30 may be one. Further, the image forming apparatus 12, the cutting machine 18, and the user terminal 30 may be connected by wire or wirelessly.

画像形成装置12は、典型的には、複写機能、プリンタ機能、スキャナ機能およびファクシミリ機能などを有する複合機(MFP:Multifunction Peripheral)である。ただし、画像形成装置12は、複写機能、プリンタ機能、スキャナ機能およびファクシミリ機能のうちの1つでも備えていればよい。 The image forming apparatus 12 is typically a multifunction device (MFP: Multifunction Peripheral) having a copying function, a printer function, a scanner function, a facsimile function, and the like. However, the image forming apparatus 12 may include any one of a copying function, a printer function, a scanner function, and a facsimile function.

床センサ14は、多数の感圧センサによって構成される。感圧センサは、接触の圧力(荷重の大きさ)によって抵抗値が変化するセンサであり、シート状の厚みを有し、所定の大きさおよび所定の形状に形成される。この第1実施例では、後述するように、床センサ14の出力に基づいて、人物の足および画像形成装置12、裁断機18および事務机32の下面に形成された突起(突出部)による押圧を検知し、その位置を2次元座標で管理するため、たとえば、一つの感圧センサは、10cm×10cmの正方形の形状に形成される。 The floor sensor 14 is composed of a large number of pressure sensors. The pressure-sensitive sensor is a sensor whose resistance value changes depending on the contact pressure (magnitude of load), has a sheet-like thickness, and is formed in a predetermined size and a predetermined shape. In this first embodiment, as will be described later, based on the output of the floor sensor 14, pressing by a protrusion (protruding portion) formed on the lower surface of a person's foot, an image forming device 12, a cutting machine 18, and an office desk 32. For example, one pressure sensor is formed in a square shape of 10 cm × 10 cm in order to detect and manage the position in two-dimensional coordinates.

裁断機18は、用紙を裁断するための機器であり、図示は省略するが、マイクロコンピュータおよび通信モジュールを備える。マイクロコンピュータは、通信モジュールを用いて、ネットワーク16を介して外部機器(外部装置)と通信する。第1実施例では、マイクロコンピュータは、画像形成装置12からの指示に従って、自身を内蔵する裁断機18の電源をオン/オフする。 The cutting machine 18 is a device for cutting paper, and although not shown, the cutting machine 18 includes a microcomputer and a communication module. The microcomputer communicates with an external device (external device) via the network 16 by using the communication module. In the first embodiment, the microcomputer turns on / off the power of the cutting machine 18 including itself according to the instruction from the image forming apparatus 12.

ユーザ端末30は、ユーザが使用する汎用のコンピュータ(端末)であり、具体的には、デスクトップPC、ノート(ラップトップ)PCおよびタブレットPCなどが該当する。図示は省略するが、ユーザ端末30には、モニタおよび入力装置が接続される、または、一体的に設けられる。 The user terminal 30 is a general-purpose computer (terminal) used by the user, and specifically, a desktop PC, a notebook (laptop) PC, a tablet PC, or the like is applicable. Although not shown, the user terminal 30 is connected to or integrally provided with a monitor and an input device.

図2は図1に示す画像形成装置12の電気的な構成の限定しない一例を示すブロック図である。図2に示すように、画像形成装置12は、CPU50を含み、CPU50はバス52を介して、RAM54、HDD56、通信部58、モデム60、タッチパネル制御回路62、表示制御回路64、操作部検出回路66、画像読取部68および画像形成部70に接続される。また、画像形成装置12は、タッチパネル72、本体ディスプレイ74および操作部76を備える。タッチパネル72はタッチパネル制御回路62に接続され、本体ディスプレイ74は表示制御回路64に接続され、そして、操作部76は操作部検出回路66に接続される。 FIG. 2 is a block diagram showing an unlimited example of the electrical configuration of the image forming apparatus 12 shown in FIG. As shown in FIG. 2, the image forming apparatus 12 includes a CPU 50, and the CPU 50 includes a RAM 54, an HDD 56, a communication unit 58, a modem 60, a touch panel control circuit 62, a display control circuit 64, and an operation unit detection circuit via a bus 52. 66, connected to the image reading unit 68 and the image forming unit 70. Further, the image forming apparatus 12 includes a touch panel 72, a main body display 74, and an operation unit 76. The touch panel 72 is connected to the touch panel control circuit 62, the main body display 74 is connected to the display control circuit 64, and the operation unit 76 is connected to the operation unit detection circuit 66.

CPU50は、画像形成装置12の全体的な制御を司る。RAM54は、CPU50のワーキング領域およびバッファ領域として用いられる。HDD56は、画像形成装置12の主記憶装置であり、画像読取部68で読み取った画像データおよび外部コンピュータから送信された画像データ等を保存する。 The CPU 50 controls the overall control of the image forming apparatus 12. The RAM 54 is used as a working area and a buffer area of the CPU 50. The HDD 56 is the main storage device of the image forming apparatus 12, and stores the image data read by the image reading unit 68, the image data transmitted from the external computer, and the like.

ただし、画像読取部68で読み取られた画像データには、増幅、アナログ/デジタル変換、シェーディング補正、RGBからYMCへの色変換、色諧調の調整等の所定の処理が施される。CPU50は、所定の処理が施された画像データを、HDD56に記憶したり、画像形成部70を制御して、対応する画像を記録紙(用紙)などに印刷したりする。 However, the image data read by the image reading unit 68 is subjected to predetermined processing such as amplification, analog / digital conversion, shading correction, color conversion from RGB to YMC, and color gradation adjustment. The CPU 50 stores the image data subjected to the predetermined processing in the HDD 56, or controls the image forming unit 70 to print the corresponding image on a recording paper (paper) or the like.

なお、図示は省略するが、画像形成装置12には、画像形成装置12の起動プログラムや各種情報についてのデフォルト値を記憶するROMも設けられる。 Although not shown, the image forming apparatus 12 is also provided with a ROM for storing default values for the startup program of the image forming apparatus 12 and various information.

通信部58は、ネットワーク16に接続され、画像形成装置12がネットワーク16を介して他(外部)のコンピュータ(たとえば、ユーザ端末30)と通信するためのインターフェースないしモジュールである。モデム60は、電話回線に接続され、ファクシミリについてのデータの送信および受信を行なう。 The communication unit 58 is an interface or module connected to the network 16 for the image forming apparatus 12 to communicate with another (external) computer (for example, the user terminal 30) via the network 16. The modem 60 is connected to a telephone line and transmits and receives data about the facsimile.

タッチパネル72は、静電容量方式のタッチパネルであり、本体ディスプレイ74の表示面上に設けられる。ただし、タッチパネルが一体的に設けられた本体ディスプレイ74が設けられてもよい。また、タッチパネルは、抵抗膜方式、光センサ内蔵LCD(Liquid Crystal Display)方式、赤外線方式などの他の方式のものを用いることもできる。 The touch panel 72 is a capacitance type touch panel, and is provided on the display surface of the main body display 74. However, the main body display 74 in which the touch panel is integrally provided may be provided. Further, as the touch panel, other types such as a resistance film type, an LCD (Liquid Crystal Display) type with a built-in optical sensor, and an infrared type can also be used.

タッチパネル制御回路62は、タッチパネル72に必要な電圧などを付与するとともに、タッチパネル72のタッチ有効範囲内でのタッチ操作(タッチ入力)を検出されると、そのタッチ入力の位置を示すタッチ座標データをCPU50に出力する。 The touch panel control circuit 62 applies a voltage or the like required for the touch panel 72, and when a touch operation (touch input) within the effective touch range of the touch panel 72 is detected, the touch panel control circuit 62 outputs touch coordinate data indicating the position of the touch input. Output to CPU 50.

本体ディスプレイ74は、操作パネルに設けられる表示装置であり、LCDまたは有機ELが用いられる。本体ディスプレイ74には、画像形成装置12の操作および各種の設定に必要な各種のソフトウェアボタン、各種の設定内容、プレビュー画像、画像形成装置12の状態を示す画像などが表示される。 The main body display 74 is a display device provided on the operation panel, and an LCD or an organic EL is used. On the main body display 74, various software buttons required for the operation of the image forming apparatus 12 and various settings, various setting contents, a preview image, an image showing the state of the image forming apparatus 12, and the like are displayed.

表示制御回路64は、GPUおよびVRAMなどを含んでおり、CPU50の指示の下、GPUは、RAM54に記憶された画像生成データ(図示せず)を用いて、各種の画面を表示するための画面データをVRAMに生成し、生成した画面データを本体ディスプレイ74に出力する。 The display control circuit 64 includes a GPU, a VRAM, and the like, and under the instruction of the CPU 50, the GPU uses the image generation data (not shown) stored in the RAM 54 to display various screens. The data is generated in VRAM, and the generated screen data is output to the main body display 74.

操作部76は、画像形成装置12に設けられたハードウェアボタンであり、たとえば、電源ボタン、リセットボタン、節電ボタンおよびホームボタンなどを含む。操作部検出回路66は、操作部76の操作に応じた操作信号ないし操作データをCPU50に出力する。 The operation unit 76 is a hardware button provided on the image forming apparatus 12, and includes, for example, a power button, a reset button, a power saving button, and a home button. The operation unit detection circuit 66 outputs an operation signal or operation data corresponding to the operation of the operation unit 76 to the CPU 50.

画像読取部68は、透明の原稿台に載置等された原稿をスキャンするラインセンサを含み、ラインセンサは、CPU50の指示の下、受光素子に結像された反射光の輝度や色度を検出し、原稿表面の画像に基づく画像データを生成し、上述したように、所定の処理が施された後に、CPU50に入力される。たとえば、スキャンされることにより得られた画像データは、通信部58からネットワーク16を介して、ユーザ端末30のような外部のコンピュータに送信される。 The image reading unit 68 includes a line sensor that scans a document placed on a transparent platen or the like, and the line sensor measures the brightness and chromaticity of the reflected light imaged on the light receiving element under the instruction of the CPU 50. It is detected, image data based on the image of the surface of the document is generated, and as described above, it is input to the CPU 50 after being subjected to a predetermined process. For example, the image data obtained by scanning is transmitted from the communication unit 58 to an external computer such as the user terminal 30 via the network 16.

画像形成部70は、CPU50からの指示に従って、上記のように、画像データに対応する画像を記録紙(用紙)などに印刷する。画像形成部70は、露光ユニット、現像器、感光体ドラム、クリーナユニット、帯電器、中間転写ベルトユニット、2次転写ローラおよび定着ユニットなどを備え、給紙トレイから搬送される用紙上に画像を形成し、画像形成済みの用紙を排紙トレイに排出する。用紙上に画像を形成するための画像データとしては、画像読取部68で読み取った画像データや外部のコンピュータから送信された画像データ等が利用される。 The image forming unit 70 prints an image corresponding to the image data on a recording paper (paper) or the like as described above according to the instruction from the CPU 50. The image forming unit 70 includes an exposure unit, a developing device, a photoconductor drum, a cleaner unit, a charging device, an intermediate transfer belt unit, a secondary transfer roller, a fixing unit, and the like, and displays an image on paper conveyed from a paper feed tray. The formed and image-formed paper is ejected to the output tray. As the image data for forming an image on the paper, the image data read by the image reading unit 68, the image data transmitted from an external computer, and the like are used.

図3は第1実施例の情報処理システム10が適用される環境(或る部屋)を俯瞰的に見た場合の図解図である。図3に示すように、この第1実施例の情報処理システム10は、或る会社の或る部屋に適用され、人物(ユーザ)は、画像形成装置12、裁断機18およびユーザ端末30を使用することができる。 FIG. 3 is an illustrated diagram when a bird's-eye view of the environment (a certain room) to which the information system 10 of the first embodiment is applied. As shown in FIG. 3, the information processing system 10 of the first embodiment is applied to a certain room of a certain company, and a person (user) uses an image forming apparatus 12, a cutting machine 18, and a user terminal 30. can do.

図3に示すように、或る部屋には、画像形成装置12、床センサ14および裁断機18が設けられる。図3では、部屋を区画する壁は斜線を付して示してある。床センサ14は、或る部屋の床一面に敷き詰められる。画像形成装置12および裁断機18は、或る部屋の所定の位置に配置される。また、或る部屋には、複数の人物が作業を行うための複数の事務机32が配置され、各事務机32には各人物が使用するユーザ端末30が載置される。また、画像形成装置12および裁断機18が配置される場所(領域)と、複数の事務机32が配置される領域の間には、二つの棚が配置される。二つの棚の間、各棚と壁との間が複数の事務机32が配置された領域から画像形成装置12および裁断機18が配置される領域への通路になっている。また、画像形成装置12の近傍に、或る部屋の出入り口が設けられる。 As shown in FIG. 3, a room is provided with an image forming apparatus 12, a floor sensor 14, and a cutting machine 18. In FIG. 3, the walls partitioning the room are shown with diagonal lines. The floor sensor 14 is spread all over the floor of a certain room. The image forming apparatus 12 and the cutting machine 18 are arranged at predetermined positions in a certain room. Further, in a certain room, a plurality of office desks 32 for a plurality of persons to perform work are arranged, and a user terminal 30 used by each person is placed on each office desk 32. Further, two shelves are arranged between the place (area) where the image forming apparatus 12 and the cutting machine 18 are arranged and the area where the plurality of office desks 32 are arranged. Between the two shelves, between each shelf and the wall is a passage from the area where the plurality of office desks 32 are arranged to the area where the image forming apparatus 12 and the cutting machine 18 are arranged. Further, an entrance / exit of a certain room is provided in the vicinity of the image forming apparatus 12.

上述したように、画像形成装置12は、ネットワーク16を介してユーザ端末30に接続される。このため、或る部屋で作業する各人物は、ユーザ端末30を用いて作成した文書等についての印刷データを印刷指示とともに画像形成装置12に出力(送信)することにより、その文書等を印刷することができる。また、各人物は、画像形成装置12を用いて、スキャンしたり、複写したり、ファクシミリを送信したりすることができる。また、各人物は、裁断機18を用いて、不要になった用紙またはディスク媒体(CDまたはDVDなど)を裁断することができる。さらに、各人物は、ユーザ端末30を用いて文書等を作成することができる。 As described above, the image forming apparatus 12 is connected to the user terminal 30 via the network 16. Therefore, each person working in a certain room prints the document or the like by outputting (transmitting) the print data about the document or the like created by using the user terminal 30 to the image forming apparatus 12 together with the print instruction. be able to. In addition, each person can scan, copy, and transmit a facsimile using the image forming apparatus 12. In addition, each person can use the cutting machine 18 to cut unnecessary paper or disc media (CD, DVD, etc.). Further, each person can create a document or the like using the user terminal 30.

画像形成装置12、裁断機18およびユーザ端末30等の事務機器は、省電力化のため、使用しない時には、電源をオフされたり、消費電力を極力抑えた状態(省電力モードまたはスタンバイ状態)にされたりすることが一般的である。 In order to save power, office equipment such as the image forming apparatus 12, the cutting machine 18, and the user terminal 30 are turned off or put into a state in which power consumption is suppressed as much as possible (power saving mode or standby state) when not in use. It is common to be done.

一般的には、画像形成装置12の場合には、使用しない時には、省電力モードにされ、人物(ユーザ)の操作に応じて、または、焦電センサ(赤外線センサ)のような人検知センサを用いて人物を検知したことに応じて、通常モードに移行される。焦電センサを用いる場合には、画像形成装置12を、人物がボタン操作によって通常モードに移行させるよりも早いタイミングで移行させるようにしてある。 Generally, in the case of the image forming apparatus 12, when not in use, the power saving mode is set, and a person detection sensor such as a pyroelectric sensor (infrared sensor) is used according to the operation of a person (user). Depending on the detection of a person by using, the mode is shifted to the normal mode. When the pyroelectric sensor is used, the image forming apparatus 12 is set to shift at an earlier timing than the person shifts to the normal mode by operating a button.

また、一般的には、裁断機18は、ネットワーク接続が行われず、人物が電源をオン/オフする。または、人物が裁断する用紙等を裁断機18に設定したことに応じて、裁断機18が電源オンされ、裁断を終了した後に所定時間が経過したときに、裁断機18は電源オフされる。 Further, in general, the cutting machine 18 is not connected to the network, and a person turns the power on / off. Alternatively, the power of the cutting machine 18 is turned on according to the setting of the paper or the like to be cut by the person in the cutting machine 18, and the power of the cutting machine 18 is turned off when a predetermined time elapses after the cutting is completed.

さらに、一般的には、ユーザ端末30の場合には、省電力モードを使用することが設定されている場合には、人物によって省電力モードに移行することが指示された場合または所定時間何も操作が行われない場合に、省電力モードに移行され、人物がキーボードのいずれかのキーを操作したり、タッチパネルをタッチしたり、コンピュータマウスをクリックまたは動かしたりしたことに応じて、通常モードに移行される。 Further, in general, in the case of the user terminal 30, when the power saving mode is set to be used, when the person instructs the user terminal 30 to shift to the power saving mode, or nothing is performed for a predetermined time. When no action is taken, it goes into power saving mode and goes into normal mode in response to a person operating any key on the keyboard, touching the touch panel, or clicking or moving the computer mouse. Will be migrated.

このため、図3に示すような環境においては、たとえば、人物が画像形成装置12の前を通って退室する場合にも、焦電センサによってこの人物が検知されると、画像形成装置12が通常モードに移行されることがある。このため、無駄な電力を消費してしまう問題がある。これを回避するため、焦電センサで人物を検知(感知)する距離を短く設定した場合には、画像形成装置12が通常モードに移行するまでの時間が、画像形成装置12を操作することにより通常モードに移行させる場合とほとんど変わらない可能性がある。また、そのような距離の設定(調整)も面倒である。 Therefore, in the environment as shown in FIG. 3, for example, even when a person leaves the room by passing in front of the image forming apparatus 12, when this person is detected by the pyroelectric sensor, the image forming apparatus 12 usually operates. It may shift to the mode. Therefore, there is a problem that wasteful power is consumed. In order to avoid this, when the distance for detecting (sensing) a person by the pyroelectric sensor is set short, the time until the image forming apparatus 12 shifts to the normal mode is increased by operating the image forming apparatus 12. There is a possibility that it is almost the same as when shifting to normal mode. Also, setting (adjusting) such a distance is troublesome.

また、裁断機18およびユーザ端末30の場合には、人物の操作によって省電力モード(または電源オフ)から通常モード(または電源オン)に移行されるため、人物が裁断機18およびユーザ端末30を操作する必要があり、また、通常モード(または電源オン)に移行されるまでは、人物は、裁断機18およびユーザ端末30の使用を待機する必要がある。 Further, in the case of the cutting machine 18 and the user terminal 30, the person operates the cutting machine 18 and the user terminal 30 to shift from the power saving mode (or power off) to the normal mode (or power on). The person needs to wait for the use of the cutting machine 18 and the user terminal 30 until the operation is required and the mode is changed to the normal mode (or the power is turned on).

したがって、この第1実施例では、床センサ14の出力に基づいて人物の位置を追跡し、追跡した人物の位置の一連の変化(移動軌跡)に基づいて、画像形成装置12、裁断機18またはユーザ端末30のあるべき状態を決定し、画像形成装置12、裁断機18またはユーザ端末30を決定した状態に設定する(変化させる)ようにしてある。ここで、あるべき状態とは、人物(ユーザ)が事務機器を使用する場合に、必要と考えられる準備が整えられた状態(使用可能な状態)を意味する。 Therefore, in this first embodiment, the position of the person is tracked based on the output of the floor sensor 14, and the image forming apparatus 12, the cutting machine 18, or the cutting machine 18 or based on the series of changes (movement locus) of the tracked person's position. The ideal state of the user terminal 30 is determined, and the image forming apparatus 12, the cutting machine 18, or the user terminal 30 is set (changed) to the determined state. Here, the ideal state means a state (usable state) in which a person (user) is ready to be considered necessary when using the office equipment.

ただし、ユーザ端末30は、これを使用する人物の座席(事務机32上)に設置されるため、床センサ14の出力に基づいてユーザ端末30を認識することができない。このため、床センサ14の出力に基づいて移動する人物を特定する場合には、ユーザ端末30に代えて事務机32を検出するようにしてある。したがって、この明細書においては、移動する人物を特定する場合には、事務機器は、画像形成装置12、裁断機18および事務机32を意味するが、状態を変化させる場合には、画像形成装置12、裁断機18およびユーザ端末30を意味する。 However, since the user terminal 30 is installed on the seat of the person who uses it (on the office desk 32), the user terminal 30 cannot be recognized based on the output of the floor sensor 14. Therefore, when identifying a moving person based on the output of the floor sensor 14, the office desk 32 is detected instead of the user terminal 30. Therefore, in this specification, the office equipment means an image forming device 12, a cutting machine 18, and an office desk 32 when identifying a moving person, but when changing the state, the office equipment means an image forming device 12. 12, meaning the cutting machine 18 and the user terminal 30.

図4は事務機器(12、18、32)に対して設定される範囲(領域)R1および範囲R2を示す図解図である。 FIG. 4 is an illustrated diagram showing a range (area) R1 and a range R2 set for office equipment (12, 18, 32).

図4に示すように、事務機器(12、18、32)には、範囲R1および範囲R2が設定される。範囲R1は事務機器(12、18、32)から距離d1の範囲であり、範囲R2は事務機器(12、18、32)から距離d2の範囲において範囲R1を除く範囲である。図4からも分かるように、距離d2は距離d1よりも大きい。たとえば、距離d1は1m程度であり、距離d2は2m程度である。 As shown in FIG. 4, a range R1 and a range R2 are set in the office equipment (12, 18, 32). The range R1 is the range of the distance d1 from the office equipment (12, 18, 32), and the range R2 is the range excluding the range R1 in the range of the distance d2 from the office equipment (12, 18, 32). As can be seen from FIG. 4, the distance d2 is larger than the distance d1. For example, the distance d1 is about 1 m, and the distance d2 is about 2 m.

また、図4からも分かるように、事務機器(12、18、32)の前方に、半円(扇形)の範囲R1および範囲R1の外側に帯状(ドーナツ形状の一部)の範囲R2が設定される。つまり、範囲R1および範囲R2は、人物が事務機器(12、18、32)に近づいたり使用したりする場合に、この人物を検出可能に設定される。 Further, as can be seen from FIG. 4, a semicircular (fan-shaped) range R1 and a strip-shaped (part of the donut-shaped) range R2 are set in front of the office equipment (12, 18, 32). Will be done. That is, the range R1 and the range R2 are set so that the person can be detected when the person approaches or uses the office equipment (12, 18, 32).

この第1実施例では、事務機器(12、18、32)の種類に拘わらず、同じ大きさの範囲R1および範囲R2を設定するようにしてあるが、事務機器(12、18、32)の種類に応じて範囲R1または/および範囲R2の大きさは変化されてもよい。 In this first embodiment, the range R1 and the range R2 of the same size are set regardless of the type of the office equipment (12, 18, 32), but the office equipment (12, 18, 32) The magnitude of range R1 and / and range R2 may vary depending on the type.

また、範囲R1および範囲R2の大きさを決定するための距離d1および距離d2は事務機器(12、18、32)の前面の中央の位置からの距離である。ただし、事務機器(12、18、32)の前面は、事務機器(12、18、32)を使用する際に人物と対面する側の面である。 Further, the distance d1 and the distance d2 for determining the size of the range R1 and the range R2 are the distances from the central position on the front surface of the office equipment (12, 18, 32). However, the front surface of the office equipment (12, 18, 32) is the surface facing the person when using the office equipment (12, 18, 32).

この第1実施例では、床センサ14の出力に基づいて人物の位置の一連の変化を検出し、人物が事務機器(12、18、32)に近づいている場合に、画像形成装置12、裁断機18およびユーザ端末30の状態を、人物の位置に応じて設定する(変化させる)。 In this first embodiment, a series of changes in the position of the person are detected based on the output of the floor sensor 14, and when the person is approaching the office equipment (12, 18, 32), the image forming apparatus 12 is cut. The states of the machine 18 and the user terminal 30 are set (changed) according to the position of a person.

人物が事務機器(12、18、32)に近づいているかの判断は次のように行われる。まず、人物の今回の位置情報と事務機器(12、18、32)の距離(第1距離)と当該人物の前回の位置情報と当該事務機器(12、18、32)の距離(第2距離)を比較して、第1距離が第2距離よりも短いかどうかを判断する。第1距離が第2距離よりも短い場合には、さらに、当該人物の移動方向が事務機器(12、18、32)に向かっているかどうかを判断する。移動方向が事務機器(12、18、32)に向かっている場合に、人物が事務機器(12、18,32)に近づいていると判断される。ただし、人物の移動方向は、前回の位置情報を始点とし、現在の位置情報を終点とするベクトルの向きで決定される。 Judgment as to whether a person is approaching office equipment (12, 18, 32) is performed as follows. First, the distance (first distance) between the current position information of the person and the office equipment (12, 18, 32) and the previous position information of the person and the office equipment (12, 18, 32) (second distance). ) Are compared to determine whether the first distance is shorter than the second distance. When the first distance is shorter than the second distance, it is further determined whether or not the moving direction of the person is toward the office equipment (12, 18, 32). When the moving direction is toward the office equipment (12, 18, 32), it is determined that the person is approaching the office equipment (12, 18, 32). However, the moving direction of the person is determined by the direction of the vector starting from the previous position information and ending at the current position information.

なお、第1距離が第2距離以上である場合および移動方向が事務機器(12,18、32)に向かっていない場合には、人物が事務機器(12、18、32)に近づいていると判断されない。 When the first distance is the second distance or more and the moving direction is not toward the office equipment (12, 18, 32), it is said that the person is approaching the office equipment (12, 18, 32). Not judged.

このように、人物の位置を検出するとともに移動方向を算出(決定)するので、歩幅に相当する距離だけ移動方向に移動された足の位置を検出するようにすれば、複数の人物が部屋の中を移動した場合であっても、各人物を個別に追跡することができる。ただし、歩幅は、成人男性の歩幅の平均値および成人女性の歩幅の平均値に基づいて決定される。 In this way, since the position of the person is detected and the movement direction is calculated (determined), if the position of the foot moved in the movement direction by the distance corresponding to the stride is detected, a plurality of people can be in the room. Each person can be tracked individually, even when moving through. However, the stride is determined based on the average stride of an adult male and the average stride of an adult female.

また、移動する人物の特定および画像形成装置12、裁断機18およびユーザ端末30の状態の設定は、図5(A)〜図5(C)に示す各テーブルを用いて行われる。図5(A)は人物情報のテーブルの一例を示す図解図であり、図5(B)は機器情報のテーブルの一例を示す図解図であり、図5(C)は状態情報のテーブルの一例を示す図解図である。この第1実施例では、図5(A)〜図5(C)に示すテーブルは、予め作成され、対応するデータが画像形成装置12のHDD56に記憶され、状態制御処理が実行されるときに読み出され、RAM54に記憶される。 Further, the identification of the moving person and the setting of the states of the image forming apparatus 12, the cutting machine 18, and the user terminal 30 are performed using the tables shown in FIGS. 5A to 5C. FIG. 5 (A) is an illustrated diagram showing an example of a person information table, FIG. 5 (B) is an illustrated diagram showing an example of a device information table, and FIG. 5 (C) is an example of a state information table. It is a schematic diagram which shows. In this first embodiment, the tables shown in FIGS. 5A to 5C are created in advance, and when the corresponding data is stored in the HDD 56 of the image forming apparatus 12 and the state control process is executed. It is read and stored in the RAM 54.

図5(A)に示すように、人物情報のテーブルでは、人物IDに対応して、端末IDおよび機器IDが記述される。人物IDは、情報処理システム10が適用される環境に存在する人物を識別するための識別情報である。この第1実施例では、人物IDは4文字のアルファベットで表現される。ただし、識別情報は、限定される必要は無く、人物を識別可能であれば、数字または他の記号を用いてもよい。このことは、後述する端末IDおよび機器IDについても同様である。ただし、人物ID、端末IDおよび機器IDは、それぞれを識別可能に設定される。 As shown in FIG. 5A, the terminal ID and the device ID are described in the person information table corresponding to the person ID. The person ID is identification information for identifying a person existing in the environment to which the information processing system 10 is applied. In this first embodiment, the person ID is represented by a four-character alphabet. However, the identification information does not have to be limited, and numbers or other symbols may be used as long as the person can be identified. This also applies to the terminal ID and the device ID described later. However, the person ID, the terminal ID, and the device ID are set so as to be identifiable.

端末IDは、人物が使用するユーザ端末30を識別するための識別情報である。この実施例では、アルファベットのTと数字を用いて表現される。ただし、端末IDは、ネットワーク16上でユーザ端末30に割り当てられるIPアドレスが用いられてもよい。または、ユーザ端末30が備える通信部に割り当てられたMACアドレスが用いられてもよい。IPアドレスまたはMACアドレスを使用する場合には、画像形成装置12は印刷指示の送信元をIPアドレスまたはMACアドレスによって知ることができる。ただし、端末IDとして、IPアドレスまたはMACアドレスを使用しない場合には、IPアドレスまたはMACアドレスは端末IDに紐付けられる。 The terminal ID is identification information for identifying the user terminal 30 used by a person. In this embodiment, it is expressed using the letters T and numbers. However, as the terminal ID, the IP address assigned to the user terminal 30 on the network 16 may be used. Alternatively, the MAC address assigned to the communication unit included in the user terminal 30 may be used. When the IP address or MAC address is used, the image forming apparatus 12 can know the source of the print instruction by the IP address or MAC address. However, when the IP address or MAC address is not used as the terminal ID, the IP address or MAC address is associated with the terminal ID.

機器IDは、画像形成装置12、裁断機18および事務机32を識別するための識別情報である。この実施例では、機器IDはアルファベットのMと数字を用いて表現される。ただし、人物情報のテーブルに記述される機器IDは、対応する人物IDが示す人物の座席に使用される事務机32についての機器IDである。このように、人物情報のテーブルに機器IDを含めるのは、人物が使用するユーザ端末30と事務机32を紐付けるためである。これによって、後述するように、床センサ14の出力に基づいて人物が移動を開始したことを検知したときに、移動を開始した起点の位置またはその近傍の位置に配置されている事務机32から人物を特定することができるのである。 The device ID is identification information for identifying the image forming apparatus 12, the cutting machine 18, and the office desk 32. In this embodiment, the device ID is represented using the letters M and numbers. However, the device ID described in the person information table is the device ID for the office desk 32 used for the seat of the person indicated by the corresponding person ID. In this way, the device ID is included in the person information table in order to associate the user terminal 30 used by the person with the office desk 32. As a result, as will be described later, when it is detected that a person has started moving based on the output of the floor sensor 14, the office desk 32 arranged at or near the starting point where the movement has started It is possible to identify a person.

図5(B)に示すように、機器情報のテーブルでは、機器IDに対応して、名称、押圧形状および位置情報が記述される。機器IDは、上述したとおりである。名称は、機器IDが割り当てられた事務機器、第1実施例では、画像形成装置12(複合機)、裁断機18および事務机32の名称である。押圧形状は、画像形成装置12、裁断機18および事務机32が床センサ14上に配置されている場合に、床センサ14を押圧して形成される形状である。つまり、機器IDに対応する画像形成装置12、裁断機18および事務机32の下面ないし足の裏には、押圧形状が示す形状で床センサ14を押圧する突起が形成されているのである。 As shown in FIG. 5B, in the device information table, the name, pressing shape, and position information are described corresponding to the device ID. The device ID is as described above. The names are the names of the office equipment to which the equipment ID is assigned, and in the first embodiment, the image forming apparatus 12 (multifunction device), the cutting machine 18, and the office desk 32. The pressing shape is a shape formed by pressing the floor sensor 14 when the image forming apparatus 12, the cutting machine 18, and the office desk 32 are arranged on the floor sensor 14. That is, protrusions that press the floor sensor 14 in the shape indicated by the pressing shape are formed on the lower surface or the sole of the foot of the image forming device 12, the cutting machine 18, and the office desk 32 corresponding to the device ID.

位置情報は、対応する画像形成装置12、裁断機18および事務机32が配置される位置を座標を用いて表現したものである。たとえば、位置情報は、情報処理システム10が適用される環境の床面を2次元座標系で表現した場合に、画像形成装置12、裁断機18および事務机32が配置される位置の座標である。ただし、押圧形状の突起が設けられた位置が当該押圧形状の突起が形成された画像形成装置12、裁断機18および事務机32の位置に決定される。たとえば、図3に示す実施例では、図面において、床部分の左上の頂点が原点に設定され、横方向がX軸方向であり、縦方向がY軸方向である。また、位置情報の各軸成分の長さの単位はcmである。 The position information represents the position where the corresponding image forming apparatus 12, the cutting machine 18, and the office desk 32 are arranged by using coordinates. For example, the position information is the coordinates of the position where the image forming apparatus 12, the cutting machine 18, and the office desk 32 are arranged when the floor surface of the environment to which the information processing system 10 is applied is represented by a two-dimensional coordinate system. .. However, the position where the pressing-shaped protrusion is provided is determined at the position of the image forming device 12, the cutting machine 18, and the office desk 32 where the pressing-shaped protrusion is formed. For example, in the embodiment shown in FIG. 3, in the drawing, the upper left apex of the floor portion is set as the origin, the horizontal direction is the X-axis direction, and the vertical direction is the Y-axis direction. The unit of length of each axis component of the position information is cm.

図5(C)に示すように、状態情報のテーブルでは、機器IDに対応して、状態1、状態2および状態3が記述される。機器IDは、上述したとおりである。状態1、状態2および状態3は、対応する機器IDが付された画像形成装置12、裁断機18および事務机32に設定される状態の内容を示す。ただし、事務机32に対して設定される状態は、当該事務机32上に配置されたユーザ端末30の状態を意味する。 As shown in FIG. 5C, in the state information table, states 1, state 2 and state 3 are described corresponding to the device IDs. The device ID is as described above. The states 1, the state 2, and the state 3 indicate the contents of the states set in the image forming apparatus 12, the cutting machine 18, and the office desk 32 to which the corresponding device IDs are attached. However, the state set for the office desk 32 means the state of the user terminal 30 arranged on the office desk 32.

したがって、床センサ14の出力に基づいて、環境内における物の移動を検出すると、床センサ14に対する物の押圧形状を認識することにより、移動された物が人物であるか事務機器であるかが判断される。 Therefore, when the movement of an object in the environment is detected based on the output of the floor sensor 14, the pressed shape of the object against the floor sensor 14 is recognized to determine whether the moved object is a person or an office device. Judged.

床センサ14の出力に基づいて、機器情報のテーブルに記述された押圧形状と同じ押圧形状が一旦検出されなくなった後に再度検出された場合には、該当する事務機器(12、18,32)が移動されたと判断し、当該事務機器の位置情報が更新される。一方、床センサ14の出力に基づいて、検出される押圧形状が機器情報のテーブルに記述された押圧形状と異なり、その大きさが20〜30cm程度の長円形状(足跡の形状)あれば、人物が移動されたと判断し、当該人物が特定される。 Based on the output of the floor sensor 14, if the same pressing shape as the pressing shape described in the device information table is not detected once and then detected again, the corresponding office equipment (12, 18, 32) is detected. It is determined that the office equipment has been moved, and the location information of the office equipment is updated. On the other hand, if the pressed shape detected based on the output of the floor sensor 14 is different from the pressed shape described in the device information table and the size is an oval shape (footprint shape) of about 20 to 30 cm, It is determined that the person has been moved, and the person is identified.

床センサ14の出力から圧力が変化した位置の位置情報は時系列に従って記憶されており、機器情報のテーブルを参照することにより、位置情報の変化の起点の位置またはその近傍の位置に事務机32が配置されている場合には、人物情報のテーブルを参照することにより、その事務机32を使用する人物が特定される。ただし、人物が部屋の外から中に入ってきた場合には、位置情報の変化の起点の位置またはその近傍の位置に事務机32が配置されていないため、人物は特定されない。 The position information of the position where the pressure changes from the output of the floor sensor 14 is stored in chronological order, and by referring to the table of device information, the office desk 32 can be located at the starting point of the change of the position information or a position in the vicinity thereof. When is arranged, the person who uses the office desk 32 is specified by referring to the person information table. However, when a person enters from the outside of the room, the person is not specified because the office desk 32 is not arranged at the position of the starting point of the change of the position information or the position in the vicinity thereof.

人物が画像形成装置12に近づいている場合には、人物が画像形成装置12に設定された範囲R2に入ると、画像形成装置12は、省電力モードの状態から電源オン(通常モード)の状態に設定され、さらに、範囲R1に入ると、画像形成装置12は、印刷処理を実行可能な状態に設定される。したがって、人物がユーザ端末30を用いて印刷指示および印刷データを画像形成装置12に送信すると、画像形成装置12は印刷指示および印刷データを受信および保持し、その後、当該人物が近づいたときに、保持しておいた印刷データについての印刷処理を実行する。ただし、画像形成装置12に近づいた人物を特定できない場合には、画像形成装置12は、印刷指示および印刷データを保持している場合であっても、印刷処理を実行しない。このように、画像形成装置12は、床センサ14の出力に基づいて、ユーザ認証を実行するとともに、ユーザ認証に基づく印刷処理を実行する。 When the person is approaching the image forming apparatus 12, when the person enters the range R2 set in the image forming apparatus 12, the image forming apparatus 12 is in the power-on (normal mode) state from the power saving mode state. When the range R1 is entered, the image forming apparatus 12 is set to a state in which the printing process can be executed. Therefore, when a person transmits a print instruction and print data to the image forming apparatus 12 using the user terminal 30, the image forming apparatus 12 receives and holds the print instruction and the print data, and then when the person approaches, when the person approaches. Executes the print process for the retained print data. However, when the person who approaches the image forming apparatus 12 cannot be identified, the image forming apparatus 12 does not execute the printing process even when the print instruction and the print data are held. In this way, the image forming apparatus 12 executes the user authentication based on the output of the floor sensor 14 and also executes the printing process based on the user authentication.

人物が裁断機18に近づいている場合には、人物が裁断機18に設定された範囲R2に入ると、裁断機18は電源オフの状態から電源オンの状態に設定される。裁断機18の場合には、さらに人物が範囲R1に入っても(移動しても)、電源オンの状態が維持される。したがって、人物が裁断機18に向かうと、裁断機18に近づいたときに電源がオンされるため、直ぐに裁断することができる。ただし、裁断機18は、画像形成装置12からのコマンドに従って状態を設定する。たとえば、画像形成装置12のCPU50は、通信部58を用いて裁断機18を起動するためのコマンド(Wake−on−LAN)を送信する。すると、裁断機18は、そのコマンドに従って、電源オフの状態から電源オンの状態に設定(変化)される。 When the person is approaching the cutting machine 18, when the person enters the range R2 set in the cutting machine 18, the cutting machine 18 is set from the power off state to the power on state. In the case of the cutting machine 18, the power-on state is maintained even if a person enters (moves) the range R1. Therefore, when a person heads for the cutting machine 18, the power is turned on when the person approaches the cutting machine 18, so that the person can cut immediately. However, the cutting machine 18 sets the state according to a command from the image forming apparatus 12. For example, the CPU 50 of the image forming apparatus 12 transmits a command (Wake-on-LAN) for activating the cutting machine 18 using the communication unit 58. Then, the cutting machine 18 is set (changed) from the power-off state to the power-on state according to the command.

人物が自身の事務机32(ユーザ端末30)に近づいている場合には、人物が自身の事務机32に設定された範囲R2に入ると、ユーザ端末30の省電力モードの状態が維持され、さらに、範囲R1に入ると、ログイン画面が表示される通常モードの状態に設定される。ただし、ユーザ端末30の状態を設定するためのコマンドは、画像形成装置12から送信される。画像形成装置12は、通常モードの状態を設定する場合には、通信部58を用いて、特定した人物が使用するユーザ端末30を起動するためのコマンド(Wake−on−LAN)を送信する。すると、ユーザ端末30は、そのコマンドに従って、電源オフ(省電力)の状態から電源オンの状態に設定(変化)される。したがって、人物が自身のユーザ端末30に向かうと、ユーザ端末30に近づいたときにログイン画面が表示されるため、人物が着席すると直ぐにユーザ端末30へのログインを実行することができる。ただし、事務机32(ユーザ端末30)に近づいた人物を特定できない場合には、画像形成装置12は、当該事務机32に設置されたユーザ端末30の状態を設定するためのコマンドを送信しない。 When a person is approaching his / her office desk 32 (user terminal 30), when the person enters the range R2 set in his / her office desk 32, the power saving mode state of the user terminal 30 is maintained. Further, when entering the range R1, the state of the normal mode in which the login screen is displayed is set. However, the command for setting the state of the user terminal 30 is transmitted from the image forming apparatus 12. When the image forming apparatus 12 sets the state of the normal mode, the image forming apparatus 12 transmits a command (Wake-on-LAN) for activating the user terminal 30 used by the specified person by using the communication unit 58. Then, the user terminal 30 is set (changed) from the power-off (power saving) state to the power-on state according to the command. Therefore, when a person heads for his / her own user terminal 30, the login screen is displayed when he / she approaches the user terminal 30, so that he / she can log in to the user terminal 30 as soon as the person is seated. However, if the person who approaches the office desk 32 (user terminal 30) cannot be identified, the image forming apparatus 12 does not send a command for setting the state of the user terminal 30 installed on the office desk 32.

このように、人物が範囲R1または範囲R2に入る(存在する)ことのみならず、画像形成装置12、裁断機18および事務机32に向かって近づいているかどうかを判断するのは、人物が画像形成装置12、裁断機18および事務机32の前を横切るだけの場合にまで、状態が変化されてしまうのを出来る限り防止するためである。また、人物が画像形成装置12、裁断機18および事務机32から離れる場合に、電源オンの状態に設定にされることが無い。つまり、不要な動作が実行されることは無い。このため、無駄な電力が消費されるのを出来る限り防止できる。 In this way, it is the person's image that determines whether the person is not only in (existing) in range R1 or range R2, but also approaching the image forming apparatus 12, the cutting machine 18, and the office desk 32. This is to prevent the state from being changed as much as possible even when only crossing the front of the forming device 12, the cutting machine 18, and the office desk 32. Further, when the person leaves the image forming apparatus 12, the cutting machine 18, and the office desk 32, the power is not set to the on state. That is, unnecessary operations are not executed. Therefore, wasteful power consumption can be prevented as much as possible.

また、この第1実施例では、図5(A)〜図5(C)に示したテーブルが予め作成されるようにしてあるが、図5(B)に示す機器情報のテーブルは、画像形成装置12、裁断機18および事務机32が或る部屋に設置された後または設置位置を変更した後に、情報処理システム10の管理者等の指示に従って、画像形成装置12が、床センサ14の出力に基づいて、画像形成装置12自身、裁断機18および事務机32の位置情報を取得し、作成してもよい。ただし、機器情報のうち、機器ID、名称および押圧形状については予め作成される。 Further, in this first embodiment, the tables shown in FIGS. 5 (A) to 5 (C) are created in advance, but the table of device information shown in FIG. 5 (B) forms an image. After the device 12, the cutting machine 18, and the office desk 32 are installed in a certain room or after the installation position is changed, the image forming device 12 outputs the output of the floor sensor 14 according to the instructions of the administrator of the information processing system 10. The position information of the image forming apparatus 12 itself, the cutting machine 18 and the office desk 32 may be acquired and created based on the above. However, among the device information, the device ID, name, and pressing shape are created in advance.

また、この第1実施例では、画像形成装置12、裁断機18および事務机32などの事務機器(設置物)の下面ないし足の裏に、押圧形状を有する突起が形成されるが、突起は事務機器の下面ないし足の裏に貼り付けられてもよい。 Further, in the first embodiment, protrusions having a pressing shape are formed on the lower surface or the sole of the foot of the office equipment (installed object) such as the image forming apparatus 12, the cutting machine 18, and the office desk 32. It may be attached to the underside of office equipment or the sole of the foot.

さらに、この第1実施例では、1つの事務機器に対して1つの押圧形状が割り当てられるようにしてあるが、複数の押圧形状が割り当てられてもよい。かかる場合には、複数の押圧形状を事務機器に割り当てることにより、押圧形状の個数、位置および押圧力の大きさの違いによって、事務機器を識別可能にしてもよい。 Further, in this first embodiment, one pressing shape is assigned to one office device, but a plurality of pressing shapes may be assigned. In such a case, by assigning a plurality of pressing shapes to the office equipment, the office equipment may be identified by the difference in the number, positions, and the magnitudes of the pressing pressure.

図6は図2に示した画像形成装置12のRAM54のメモリマップ300の一例を示す図解図である。図6に示すように、RAM54は、プログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302は、画像形成装置12で実行される状態制御処理についてのプログラム(情報処理プログラム)を記憶し、情報処理プログラムは、メイン処理プログラム302a、通信プログラム302b、センサ出力検出プログラム302c、機器情報更新プログラム302d、追跡プログラム302e、状態決定プログラム302f、状態設定プログラム302g、操作検出プログラム302h、画像生成プログラム302i、画像表示プログラム302j、スキャンプログラム302k、印刷プログラム302mおよび複写プログラム302nなどで構成される。この情報処理プログラムは、たとえば、画像形成装置12に内蔵されたHDD56から読み出され、RAM54に記憶される。 FIG. 6 is an illustrated diagram showing an example of the memory map 300 of the RAM 54 of the image forming apparatus 12 shown in FIG. As shown in FIG. 6, the RAM 54 includes a program storage area 302 and a data storage area 304. The program storage area 302 stores a program (information processing program) for the state control process executed by the image forming apparatus 12, and the information processing program includes the main processing program 302a, the communication program 302b, the sensor output detection program 302c, and the device. It is composed of an information update program 302d, a tracking program 302e, a state determination program 302f, a state setting program 302g, an operation detection program 302h, an image generation program 302i, an image display program 302j, a scan program 302k, a print program 302m, a copy program 302n, and the like. .. This information processing program is read from, for example, the HDD 56 built in the image forming apparatus 12 and stored in the RAM 54.

メイン処理プログラム302aは、この第1実施例の状態制御処理(情報処理)のメインルーチンを実行するためのプログラムである。通信プログラム302bは、ユーザ端末30などの外部のコンピュータと通信するためのプログラムである。 The main processing program 302a is a program for executing the main routine of the state control processing (information processing) of the first embodiment. The communication program 302b is a program for communicating with an external computer such as a user terminal 30.

センサ出力検出プログラム302cは、所定時間(たとえば、数100msec)毎に、床センサ14の出力を検出するためのプログラムである。機器情報更新プログラム302dは、センサ出力検出プログラム302cに従って検出された床センサ14の出力に基づいて、情報処理システム10が適用される環境内における事務機器(12、18、32)の位置情報を含む機器情報データ304eを更新するためのプログラムである。 The sensor output detection program 302c is a program for detecting the output of the floor sensor 14 every predetermined time (for example, several hundred msec). The device information update program 302d includes the position information of the office equipment (12, 18, 32) in the environment to which the information processing system 10 is applied, based on the output of the floor sensor 14 detected according to the sensor output detection program 302c. This is a program for updating the device information data 304e.

追跡プログラム302eは、床センサ14の出力に基づいて人物の位置を時系列に従って検出するとともに、人物の移動方向を算出(決定)して、人物を追跡するためのプログラムである。 The tracking program 302e is a program for tracking a person by detecting the position of the person in chronological order based on the output of the floor sensor 14 and calculating (determining) the moving direction of the person.

状態決定プログラム302fは、状態情報のテーブルに対応する状態情報データ304fを参照して、事務機器(12、18、30)の状態を決定するためのプログラムである。状態設定プログラム302gは、状態決定プログラム302fに従って決定された状態に、事務機器(12、18、30)を設定するためのプログラムである。したがって、状態設定プログラム302gは、電源オフの状態の裁断機18およびスリープ状態のユーザ端末30を起動する(Wake-on-LAN)ためのプログラムでもある。 The state determination program 302f is a program for determining the state of the office equipment (12, 18, 30) with reference to the state information data 304f corresponding to the state information table. The state setting program 302g is a program for setting the office equipment (12, 18, 30) in the state determined according to the state determination program 302f. Therefore, the state setting program 302g is also a program for activating (Wake-on-LAN) the cutting machine 18 in the power-off state and the user terminal 30 in the sleep state.

操作検出プログラム302hは、操作入力データを検出するためのプログラムである。つまり、タッチパネル72からのタッチ座標データおよび操作部76からのボタン操作信号(ボタン操作データ)が検出される。CPU12aは、この操作検出プログラム302hに従って検出されたタッチ座標データまたは/およびボタン操作データを取得し、取得したタッチ座標データまたは/およびボタン操作データを時系列に従ってRAM54に記憶する。 The operation detection program 302h is a program for detecting operation input data. That is, the touch coordinate data from the touch panel 72 and the button operation signal (button operation data) from the operation unit 76 are detected. The CPU 12a acquires the touch coordinate data and / and the button operation data detected according to the operation detection program 302h, and stores the acquired touch coordinate data and / and the button operation data in the RAM 54 in chronological order.

画像生成プログラム302iは、後述する画像生成用データ304bを用いて、本体ディスプレイ74に表示される各種の表示画面についての画面データを生成するためのプログラムである。図示は省略したが、画面データは、CPU50の指示の下、表示制御回路64に内蔵されるGPUによってVRAM上に生成される。 The image generation program 302i is a program for generating screen data for various display screens displayed on the main body display 74 by using the image generation data 304b described later. Although not shown, the screen data is generated on the VRAM by the GPU built in the display control circuit 64 under the instruction of the CPU 50.

画像表示プログラム302jは、画像生成プログラム302iに従って生成された画面データに対応する表示画面を本体ディスプレイ74に表示するためプログラムであり、CPU50は、表示制御回路64を制御して、VRAM上に生成された画面データを本体ディスプレイ74に出力する。 The image display program 302j is a program for displaying a display screen corresponding to the screen data generated according to the image generation program 302i on the main body display 74, and the CPU 50 controls the display control circuit 64 and is generated on the VRAM. The screen data is output to the main body display 74.

スキャンプログラム302kは、原稿をスキャンし、所定の処理を施した画像データを取得するためのプログラムである。印刷プログラム302mは、ユーザ端末30などの外部のコンピュータからの印刷指示および印刷データに従って印刷処理を実行するためのプログラムである。複写プログラム302nは、原稿をスキャンし、スキャンによって取得された画像データについて印刷処理を実行するためのプログラムである。 The scan program 302k is a program for scanning a document and acquiring image data subjected to predetermined processing. The print program 302m is a program for executing a print process according to a print instruction and print data from an external computer such as a user terminal 30. The copying program 302n is a program for scanning a document and executing a printing process on the image data acquired by the scanning.

図示は省略するが、プログラム記憶領域302には、画像形成装置12が備える他の機能を実行するためのプログラムなども記憶される。 Although not shown, the program storage area 302 also stores a program for executing other functions included in the image forming apparatus 12.

また、データ記憶領域304には、操作入力データ304a、画像生成用データ304b、床センサデータ304c、人物情報データ304d、機器情報データ304e、状態情報データ304f、追跡データ304g、スキャンデータ304hおよび印刷データ304iが記憶される。 Further, in the data storage area 304, operation input data 304a, image generation data 304b, floor sensor data 304c, person information data 304d, device information data 304e, state information data 304f, tracking data 304g, scan data 304h and print data 304i is stored.

操作入力データ304aは、タッチパネル72からのタッチ座標データおよび操作部76からのボタン操作データであって、時系列に従って記憶される。画像生成用データ304bは、操作パネルに表示される各種の画面を生成するときに使用されるデータであり、ポリゴンデータやテクスチャデータなどを含む。この画像生成用データ304bは、HDD56から読み出され、RAM54に記憶される。床センサデータ304cは、多数の感圧センサから出力された抵抗値についてのデータであり、2次元座標によって各感圧センサを識別可能に記憶される。 The operation input data 304a is touch coordinate data from the touch panel 72 and button operation data from the operation unit 76, and is stored in chronological order. The image generation data 304b is data used when generating various screens displayed on the operation panel, and includes polygon data, texture data, and the like. The image generation data 304b is read from the HDD 56 and stored in the RAM 54. The floor sensor data 304c is data about resistance values output from a large number of pressure-sensitive sensors, and is stored so that each pressure-sensitive sensor can be identified by two-dimensional coordinates.

人物情報データ304dは、図5(A)に示した人物情報のテーブルについてのデータであり、情報処理システム10が適用される環境に応じて設定される。機器情報データ304eは、図5(B)に示した機器情報のテーブルについてのデータであり、情報処理システム10が適用される環境に応じて設定され、床センサ14の検出結果に基づいて位置情報が更新される。状態情報データ304fは、図5(C)に示した状態情報のテーブルについてのデータであり、情報処理システム10が適用される環境に応じて設定される。上述したように、人物情報データ304d、機器情報データ304eおよび状態情報データ304fは、HDD56から読み出され、RAM54に記憶される。 The person information data 304d is data about the table of person information shown in FIG. 5A, and is set according to the environment to which the information processing system 10 is applied. The device information data 304e is data about the device information table shown in FIG. 5B, is set according to the environment to which the information processing system 10 is applied, and position information based on the detection result of the floor sensor 14. Is updated. The state information data 304f is data about the state information table shown in FIG. 5C, and is set according to the environment to which the information processing system 10 is applied. As described above, the person information data 304d, the device information data 304e, and the state information data 304f are read from the HDD 56 and stored in the RAM 54.

追跡データ304gは、追跡プログラム302eに従って検出および算出される人物の位置情報および人物の現在の移動方向についてのデータである。スキャンデータ304hは、原稿をスキャンしたときに取得された画像データである。印刷データ304iは、ユーザ端末30等の外部のコンピュータから印刷指示とともに送信された印刷データである。この印刷データには、送信元のユーザ端末30等の外部のコンピュータの識別情報(端末ID)が付加される。 The tracking data 304g is data about the position information of the person and the current moving direction of the person detected and calculated according to the tracking program 302e. The scan data 304h is image data acquired when the original is scanned. The print data 304i is print data transmitted together with a print instruction from an external computer such as the user terminal 30. Identification information (terminal ID) of an external computer such as the user terminal 30 of the transmission source is added to the print data.

データ記憶領域304には、情報処理プログラムを実行するために必要な他のデータも記憶され、また、情報処理プログラムを実行するために必要なカウンタ(タイマ)およびフラグなども設けられる。 The data storage area 304 also stores other data necessary for executing the information processing program, and is also provided with counters (timers) and flags necessary for executing the information processing program.

図8〜図12は図2に示したCPU50の状態制御処理の一例を示すフロー図である。以下、状態制御処理について説明するが、一度説明した処理と同じ処理の詳細な説明については省略することにする。 8 to 12 are flow charts showing an example of the state control process of the CPU 50 shown in FIG. Hereinafter, the state control process will be described, but a detailed description of the same process as the process once described will be omitted.

状態制御処理は、画像形成装置12が省電力モードに設定されたときに開始され、また、状態制御処理を終了した後では、所定時間が経過したときに開始される。 The state control process is started when the image forming apparatus 12 is set to the power saving mode, and is started when a predetermined time elapses after the state control process is completed.

図8に示すように、CPU50は、状態制御処理を開始すると、ステップS1で、床センサ14の出力を検出する。次のステップS3では、圧力の変化が有るかどうかを判断する。ステップS3で“NO”であれば、つまり、圧力の変化が無い場合には、ステップS5で、操作が有るかどうかを判断する。つまり、CPU50は、現フレームの操作入力データ304aがデータ記憶領域304に記憶されているかどうかを判断する。ただし、フレームは、1/30秒、1/60秒または1/120秒の所定時間である。 As shown in FIG. 8, when the CPU 50 starts the state control process, the CPU 50 detects the output of the floor sensor 14 in step S1. In the next step S3, it is determined whether or not there is a change in pressure. If it is "NO" in step S3, that is, if there is no change in pressure, it is determined in step S5 whether or not there is an operation. That is, the CPU 50 determines whether or not the operation input data 304a of the current frame is stored in the data storage area 304. However, the frame has a predetermined time of 1/30 second, 1/60 second, or 1/120 second.

なお、CPU50は、状態制御処理と並行して、タッチパネル72からのタッチ座標データおよび操作部76からのボタン操作データを検出し、検出したタッチ座標データまたは/およびボタン操作データを時系列に従って記憶する処理を実行する。 In parallel with the state control process, the CPU 50 detects the touch coordinate data from the touch panel 72 and the button operation data from the operation unit 76, and stores the detected touch coordinate data and / and the button operation data in chronological order. Execute the process.

ステップS5で“NO”であれば、つまり、操作が無ければ、ステップS1に戻る。一方、ステップS5で“YES”であれば、つまり、操作が有れば、ステップS7で、省電力モードの設定かどうかを判断する。ステップS7で“NO”であれば、つまり、省電力モードの設定でなければ、図12に示すステップS55に進む。一方、ステップS7で“YES”であれば、つまり、省電力モードの設定であれば、画像形成装置12自身を省電力モードの状態に設定する。省電力モードでは、CPU50、RAM54、通信部58、タッチパネル制御回路62、操作部検出回路66、タッチパネル72および操作部76以外のコンポーネントへの電力供給が停止される。 If it is "NO" in step S5, that is, if there is no operation, the process returns to step S1. On the other hand, if "YES" in step S5, that is, if there is an operation, in step S7, it is determined whether or not the power saving mode is set. If the result is "NO" in step S7, that is, if the power saving mode is not set, the process proceeds to step S55 shown in FIG. On the other hand, if "YES" in step S7, that is, if the power saving mode is set, the image forming apparatus 12 itself is set to the power saving mode state. In the power saving mode, the power supply to the components other than the CPU 50, the RAM 54, the communication unit 58, the touch panel control circuit 62, the operation unit detection circuit 66, the touch panel 72, and the operation unit 76 is stopped.

また、ステップS3で“YES”であれば、つまり、圧力の変化が有れば、ステップS9で、押圧形状を認識する。ここでは、CPU50は、圧力が変化することにより、新たに押圧された複数の感圧センサによって形成されている形状を認識する。次のステップS11で、位置情報を取得する。ここでは、押圧されている複数の感圧センサに設定された座標から算出した中心座標または重心座標を位置情報として取得する。ここで取得された位置情報のデータは、追跡データ304gとして時系列に従って記憶(追加)される。ただし、CPU50は、ステップS11において、複数の位置情報を取得した場合には、異なる複数の場所で複数の人物がそれぞれ移動していると判断し、異なる人物毎に識別可能に位置情報のデータを記憶する。 Further, if "YES" in step S3, that is, if there is a change in pressure, the pressed shape is recognized in step S9. Here, the CPU 50 recognizes the shape formed by the plurality of newly pressed pressure-sensitive sensors as the pressure changes. In the next step S11, the position information is acquired. Here, the center coordinates or the center of gravity coordinates calculated from the coordinates set in the plurality of pressure-sensitive sensors being pressed are acquired as the position information. The position information data acquired here is stored (added) in chronological order as tracking data 304 g. However, when the CPU 50 acquires a plurality of position information in step S11, the CPU 50 determines that a plurality of persons are moving in different plurality of places, and can identify the position information data for each different person. Remember.

続くステップS13では、事務機器(12、18、32)かどうかを判断する。ここでは、CPU50は、ステップS9において認識した押圧形状と一致する押圧形状が機器情報のテーブルに含まれているかどうかを判断する。 In the following step S13, it is determined whether or not the equipment is office equipment (12, 18, 32). Here, the CPU 50 determines whether or not the pressing shape that matches the pressing shape recognized in step S9 is included in the device information table.

ステップS13で“YES”であれば、つまり、事務機器(12、18、32)であれば、ステップS15で、機器情報のテーブルにおいて、該当する事務機器(12、18、32)の位置情報をステップS11で取得した位置情報に更新して、ステップS1に戻る。 If "YES" in step S13, that is, if the office equipment (12, 18, 32), in step S15, the position information of the corresponding office equipment (12, 18, 32) is displayed in the device information table. The position information acquired in step S11 is updated, and the process returns to step S1.

ステップS13で“NO”であれば、つまり、事務機器(12、18、32)でなければ、ステップS17で、起点付近に事務机32が有るかどうかを判断する。追跡データ304gに含まれる位置情報のデータうち、時間的に最も古い位置情報に近傍する位置情報を含む事務机32(機器ID)が有るかどうかを判断する。つまり、このステップS17では、事務机32の位置から移動を開始した人物が存在するかどうかを判断しているのである。 If it is "NO" in step S13, that is, if it is not the office equipment (12, 18, 32), it is determined in step S17 whether or not the office desk 32 is near the starting point. Among the location information data included in the tracking data 304g, it is determined whether or not there is an office desk 32 (device ID) including the location information close to the oldest location information in time. That is, in this step S17, it is determined whether or not there is a person who has started moving from the position of the office desk 32.

ステップS17で“NO”であれば、つまり、起点付近に事務机32が無ければ、図9に示すステップS23に進む。ステップS17で“YES”であれば、つまり、起点付近に事務机32が有れば、ステップS19で、人物を特定する。このステップS19では、CPU50は、機器情報データ304eを参照して、起点付近に存在する事務机32の機器IDを取得し、さらに、人物情報データ304dを参照して、取得した機器IDが記載された人物IDを取得する。 If the result is "NO" in step S17, that is, if there is no office desk 32 near the starting point, the process proceeds to step S23 shown in FIG. If "YES" in step S17, that is, if there is an office desk 32 near the starting point, the person is specified in step S19. In this step S19, the CPU 50 refers to the device information data 304e to acquire the device ID of the office desk 32 existing near the starting point, and further, refers to the person information data 304d to describe the acquired device ID. Acquire the person ID.

続くステップS21では、特定された人物からの印刷指示が有るかどうかを判断する。つまり、CPU50は、特定された人物からの印刷データ304jがRAM54に記憶されているかどうかを判断する。ステップS21で“NO”であれば、つまり、特定された人物からの印刷指示が無ければ、図9のステップS23に進む。一方、ステップS21で“YES”であれば、つまり、特定された人物からの印刷指示が有れば、図10のステップS35に進む。 In the following step S21, it is determined whether or not there is a print instruction from the specified person. That is, the CPU 50 determines whether or not the print data 304j from the specified person is stored in the RAM 54. If "NO" is obtained in step S21, that is, if there is no print instruction from the specified person, the process proceeds to step S23 in FIG. On the other hand, if "YES" in step S21, that is, if there is a print instruction from the specified person, the process proceeds to step S35 in FIG.

図9に示すように、ステップS23では、人物(位置情報)が画像形成装置12に近づいているかどうかを判断する。上述したように、CPU50は、今回の位置情報と画像形成装置12の距離(第1距離)と前回の位置情報と画像形成装置12の距離(第2距離)を比較して、第1距離が第2距離よりも短いかどうかを判断する。このことは、裁断機18およびユーザ端末30(事務机32)に人物(位置情報)が近づいているかどうかを判断する場合についても同様である。 As shown in FIG. 9, in step S23, it is determined whether or not a person (position information) is approaching the image forming apparatus 12. As described above, the CPU 50 compares the current position information with the distance between the image forming apparatus 12 (first distance) and the previous position information with the distance between the image forming apparatus 12 (second distance), and the first distance is determined. Determine if it is shorter than the second distance. This also applies to the case where it is determined whether or not a person (position information) is approaching the cutting machine 18 and the user terminal 30 (office desk 32).

ステップS23で“NO”であれば、つまり、人物が画像形成装置12に近づいていない場合には、図8に示したステップS1に戻る。一方、ステップS23で“YES”であれば、つまり、人物が画像形成装置12に近づいている場合には、ステップS25で、人物が画像形成装置12に設定された範囲R2内に存在するかどうかを判断する。ステップS25では、CPU50は、現在の位置情報が、画像形成装置12に設定された範囲R2内に含まれているかどうかを判断する。以下、人物が裁断機18およびユーザ端末30(事務机32)に設定された範囲R1内または範囲R2内に存在するかどうかを判断する場合についても同様である。 If the result is "NO" in step S23, that is, if the person is not approaching the image forming apparatus 12, the process returns to step S1 shown in FIG. On the other hand, if "YES" in step S23, that is, if the person is approaching the image forming apparatus 12, whether or not the person exists within the range R2 set in the image forming apparatus 12 in step S25. To judge. In step S25, the CPU 50 determines whether or not the current position information is included in the range R2 set in the image forming apparatus 12. Hereinafter, the same applies to the case where it is determined whether or not the person exists in the range R1 or the range R2 set in the cutting machine 18 and the user terminal 30 (office desk 32).

ステップS25で“NO”であれば、つまり、人物が画像形成装置12に設定された範囲R2内に存在しなければ、ステップS29に進む。一方、ステップS25で“YES”であれば、つまり、人物が画像形成装置12に設定された範囲R2内に存在すれば、ステップS27で、画像形成装置12自身を範囲R2内に対応する状態に設定して、ステップS29に進む。ステップS27では、図5(C)に示した状態情報のテーブルに従って、画像形成装置12は、電源オンの状態(通常モード)に設定される。ただし、既に電源オンの状態である場合には、ステップS27の処理はスキップされる。 If the result is "NO" in step S25, that is, if the person does not exist within the range R2 set in the image forming apparatus 12, the process proceeds to step S29. On the other hand, if "YES" in step S25, that is, if the person is within the range R2 set in the image forming apparatus 12, in step S27, the image forming apparatus 12 itself is brought into the state corresponding to the range R2. The setting is made, and the process proceeds to step S29. In step S27, the image forming apparatus 12 is set to the power-on state (normal mode) according to the state information table shown in FIG. 5C. However, if the power is already on, the process of step S27 is skipped.

ステップS29では、人物が裁断機18に近づいているかどうかを判断する。ステップS29で“NO”であれば、つまり、人物が裁断機18に近づいていなければ、ステップS1に戻る。一方、ステップS29で“YES”であれば、つまり、人物が裁断機18に近づいていれば、ステップS31で、人物が裁断機18に設定された範囲R2内に存在するかどうかを判断する。 In step S29, it is determined whether or not the person is approaching the cutting machine 18. If "NO" in step S29, that is, if the person is not approaching the cutting machine 18, the process returns to step S1. On the other hand, if "YES" in step S29, that is, if the person is approaching the cutting machine 18, it is determined in step S31 whether or not the person is within the range R2 set in the cutting machine 18.

ステップS31で“NO”であれば、つまり、人物が裁断機18に設定された範囲R2内に存在しなければ、ステップS1に戻る。一方、ステップS31で“YES”であれば、つまり、人物が裁断機18に設定された範囲R2内に存在すれば、ステップS33で、裁断機18を範囲R2内に対応する状態に設定して、ステップS1に戻る。ステップS33では、図5(C)に示した状態情報のテーブルに従って、画像形成装置12(CPU50)は、裁断機18を電源オンの状態(通常モード)に設定させる。ただし、裁断機18は、既に電源オンの状態である場合には、ステップS33の処理はスキップされる。 If it is "NO" in step S31, that is, if the person does not exist within the range R2 set in the cutting machine 18, the process returns to step S1. On the other hand, if "YES" in step S31, that is, if the person exists in the range R2 set in the cutting machine 18, the cutting machine 18 is set in the state corresponding to the range R2 in step S33. , Return to step S1. In step S33, the image forming apparatus 12 (CPU50) causes the cutting machine 18 to be set to the power-on state (normal mode) according to the state information table shown in FIG. 5C. However, if the cutting machine 18 is already in the power-on state, the process of step S33 is skipped.

また、図10に示すように、ステップS35では、特定された人物が画像形成装置12に近づいているかどうかを判断する。ステップS35で“NO”であれば、ステップS41に進む。一方、ステップS35で“YES”であれば、ステップS37で、特定された人物が画像形成装置12の範囲R2内に存在するかどうかを判断する。 Further, as shown in FIG. 10, in step S35, it is determined whether or not the specified person is approaching the image forming apparatus 12. If "NO" in step S35, the process proceeds to step S41. On the other hand, if "YES" in step S35, it is determined in step S37 whether or not the specified person exists within the range R2 of the image forming apparatus 12.

ステップS37で“NO”であれば、ステップS41に進む。一方、ステップS37で“YES”であれば、ステップS39で、画像形成装置12を画像形成装置12自身に設定された範囲R2内に対応する状態に設定して、ステップS41に進む。 If "NO" in step S37, the process proceeds to step S41. On the other hand, if "YES" in step S37, the image forming apparatus 12 is set to a state corresponding to the range R2 set in the image forming apparatus 12 itself in step S39, and the process proceeds to step S41.

ステップS41では、特定された人物が裁断機18に近づいているかどうかを判断する。ステップS41で“NO”であれば、ステップS47に進む。一方、ステップS41で“YES”であれば、ステップS43で、特定された人物が裁断機18に設定された範囲R2内に存在するかどうかを判断する。 In step S41, it is determined whether or not the identified person is approaching the cutting machine 18. If "NO" in step S41, the process proceeds to step S47. On the other hand, if "YES" in step S41, it is determined in step S43 whether or not the specified person exists within the range R2 set in the cutting machine 18.

ステップS43で“NO”であれば、ステップS47に進む。一方、ステップS43で“YES”であれば、ステップS45で、裁断機18を裁断機18自身に設定された範囲R2内に対応する状態に設定して、ステップS47に進む。 If "NO" in step S43, the process proceeds to step S47. On the other hand, if "YES" in step S43, the cutting machine 18 is set to a state corresponding to the range R2 set in the cutting machine 18 itself in step S45, and the process proceeds to step S47.

ステップS47では、特定された人物が自身の事務机32に近づいているかどうかを判断する。ステップS47で“NO”であれば、つまり、特定された人物が自身の事務机32に近づいていない場合には、図11に示すステップS53に進む。 In step S47, it is determined whether or not the identified person is approaching his / her office desk 32. If "NO" is set in step S47, that is, if the specified person is not approaching his / her office desk 32, the process proceeds to step S53 shown in FIG.

一方、ステップS47で“YES”であれば、つまり、特定された人物が自身の事務机32に近づいている場合には、ステップS49で、特定された人物が自身の事務机32に設定された範囲R2内に存在するかどうかを判断する。ステップS49で“NO”であれば、つまり、特定された人物が自身の事務机32に設定された範囲R2内に存在しない場合には、ステップS53に進む。一方、ステップS49で“YES”であれば、つまり、特定された人物が自身の事務机32に設定された範囲R2内に存在する場合には、ステップS51で、特定された人物のユーザ端末30をユーザ端末30自身が配置される事務机32に設定された範囲R2内に対応する状態に設定して、ステップS53に進む。ただし、この第1実施例では、図5(C)に示した状態情報のテーブルに従うため、ユーザ端末30は、人物が範囲R2外に存在する場合と範囲R2内に存在する場合とで同じ状態に設定される。つまり、状態が変化されない。 On the other hand, if "YES" in step S47, that is, when the specified person is approaching his / her own office desk 32, the specified person is set to his / her own office desk 32 in step S49. Determine if it is within range R2. If "NO" in step S49, that is, if the specified person does not exist within the range R2 set in the own office desk 32, the process proceeds to step S53. On the other hand, if "YES" in step S49, that is, if the specified person exists within the range R2 set in the own office desk 32, the user terminal 30 of the specified person in step S51. Is set to a state corresponding to the range R2 set in the office desk 32 where the user terminal 30 itself is arranged, and the process proceeds to step S53. However, in this first embodiment, since the table of state information shown in FIG. 5C is followed, the user terminal 30 is in the same state when the person is outside the range R2 and when the person is inside the range R2. Is set to. That is, the state does not change.

図11に示すように、ステップS53では、特定された人物が画像形成装置12に近づいているかどうかを判断する。ステップS53で“NO”であれば、ステップS59に進む。一方、ステップS53で“YES”であれば、ステップS55で、特定された人物が画像形成装置12に設定された範囲R1内に存在するかどうかを判断する。 As shown in FIG. 11, in step S53, it is determined whether or not the specified person is approaching the image forming apparatus 12. If "NO" in step S53, the process proceeds to step S59. On the other hand, if "YES" in step S53, it is determined in step S55 whether or not the specified person exists within the range R1 set in the image forming apparatus 12.

ステップS55で“NO”であれば、ステップS59に進む。一方、ステップS55で“YES”であれば、ステップS57で、画像形成装置12を画像形成装置12自身に設定された範囲R1内に対応する状態に設定して、ステップS59に進む。 If "NO" in step S55, the process proceeds to step S59. On the other hand, if "YES" in step S55, the image forming apparatus 12 is set to a state corresponding to the range R1 set in the image forming apparatus 12 itself in step S57, and the process proceeds to step S59.

ステップS59では、特定された人物が裁断機18に近づいているかどうかを判断する。ステップS59で“NO”であれば、ステップS65に進む。一方、ステップS59で“YES”であれば、ステップS61で、特定された人物が裁断機18に設定された範囲R2内に存在するかどうかを判断する。 In step S59, it is determined whether or not the identified person is approaching the cutting machine 18. If "NO" in step S59, the process proceeds to step S65. On the other hand, if "YES" in step S59, it is determined in step S61 whether or not the specified person exists within the range R2 set in the cutting machine 18.

ステップS61で“NO”であれば、ステップS65に進む。一方、ステップS61で“YES”であれば、ステップS63で、裁断機18を裁断機18自身に設定された範囲R1内に対応する状態に設定して、ステップS65に進む。ただし、この第1実施例では、図5(C)に示した状態情報のテーブルに従うため、裁断機18は、人物が範囲R2内に存在する場合と範囲R1内に存在する場合とで同じ状態に設定される。つまり、状態が変化されない。 If "NO" in step S61, the process proceeds to step S65. On the other hand, if "YES" in step S61, the cutting machine 18 is set to a state corresponding to the range R1 set in the cutting machine 18 itself in step S63, and the process proceeds to step S65. However, in this first embodiment, since the table of state information shown in FIG. 5C is followed, the cutting machine 18 is in the same state when the person is in the range R2 and when the person is in the range R1. Is set to. That is, the state does not change.

ステップS65では、特定された人物が自身の事務机32に近づいているかどうかを判断する。ステップS65で“NO”であれば、図8に示したステップS1に戻る。一方、ステップS65で“YES”であれば、ステップS67で、特定された人物が自身の事務机32に設定された範囲R1内に存在するかどうかを判断する。 In step S65, it is determined whether or not the identified person is approaching his / her office desk 32. If "NO" in step S65, the process returns to step S1 shown in FIG. On the other hand, if "YES" in step S65, it is determined in step S67 whether or not the specified person exists within the range R1 set in the own office desk 32.

ステップS67で“NO”であれば、図8に示したステップS1に戻る。一方、ステップS67で“YES”であれば、ステップS69で、特定人物のユーザ端末30をユーザ端末30自身が配置される事務机32に設定された範囲R1内に対応する状態に設定して、ステップS1に戻る。 If "NO" in step S67, the process returns to step S1 shown in FIG. On the other hand, if "YES" in step S67, in step S69, the user terminal 30 of a specific person is set to a state corresponding to the range R1 set in the office desk 32 where the user terminal 30 itself is arranged. Return to step S1.

また、図8に示したように、ステップS7で“NO”であれば、図12に示すステップS71で、スキャンの実行かどうかを判断する。つまり、CPU50は、スキャンの開始が指示されたかどうかを判断する。 Further, as shown in FIG. 8, if "NO" is obtained in step S7, it is determined in step S71 shown in FIG. 12 whether or not the scan is executed. That is, the CPU 50 determines whether or not the start of scanning is instructed.

ステップS71で“NO”であれば、つまり、スキャンの実行でなければ、ステップS75に進む。一方、ステップS71で“YES”であれば、つまり、スキャンの実行であれば、ステップS73で、スキャンを実行して、ステップS75に進む。 If "NO" is obtained in step S71, that is, if the scan is not executed, the process proceeds to step S75. On the other hand, if "YES" in step S71, that is, if the scan is executed, the scan is executed in step S73 and the process proceeds to step S75.

ステップS75では、コピーの実行かどうかを判断する。つまり、CPU50は、コピーの開始が指示されたかどうかを判断する。ステップS75で“NO”であれば、ステップS79に進む。一方、ステップS75で“YES”であれば、コピーを実行してから、ステップS79に進む。 In step S75, it is determined whether or not to execute the copy. That is, the CPU 50 determines whether or not the start of copying is instructed. If "NO" in step S75, the process proceeds to step S79. On the other hand, if "YES" in step S75, the copy is executed and then the process proceeds to step S79.

ステップS79では、その他の処理を実行して、ステップS1に戻る。その他の処理としては、コピーモード、スキャンモード、ファクシミリモードの設定および各モードにおける各種の設定が該当する。コピーモードでは、各種の設定として、コピーの枚数、印字の濃さ、倍率および用紙サイズの設定などが該当する。スキャンモードでは、各種の設定として、原稿サイズ、解像度およびスキャンデータの宛先の設定などが該当する。ファクシミリモードでは、各種の設定として、ファクシミリの宛先および受信データの転送先の設定などが該当する。 In step S79, other processing is executed, and the process returns to step S1. Other processes include copy mode, scan mode, facsimile mode settings, and various settings in each mode. In the copy mode, various settings such as the number of copies, print density, magnification, and paper size are applicable. In the scan mode, various settings such as document size, resolution, and scan data destination settings are applicable. In the facsimile mode, as various settings, settings such as a facsimile destination and a transfer destination of received data are applicable.

この第1実施例によれば、人物が事務機器(12、18、32)に近づくときに、事務機器(12、18、32)に設定された範囲に応じて画像形成装置12、裁断機18およびユーザ端末30の状態をあるべき状態に設定するので、人物が事務機器(12、18、32)に設定され範囲内を通過するだけで機器の状態が変化されるのを回避し、人物が機器に近づくときには使用可能な状態のようなあるべき状態に設定されるので、画像形成装置12、裁断機18およびユーザ端末30を直接操作しなくても、あるべき状態に設定することができる。つまり、利便性を向上させることができる。また、通過するだけで画像形成装置12、裁断機18およびユーザ端末30の状態が変化されることが無いため、無駄な電力が消費されるのを出来る限り防止することができる。 According to this first embodiment, when a person approaches the office equipment (12, 18, 32), the image forming apparatus 12 and the cutting machine 18 are set according to the range set in the office equipment (12, 18, 32). And since the state of the user terminal 30 is set to the desired state, it is possible to prevent the state of the device from being changed only when the person is set to the office equipment (12, 18, 32) and passes within the range, and the person When approaching the device, it is set to the desired state such as a usable state, so that the desired state can be set without directly operating the image forming apparatus 12, the cutting machine 18, and the user terminal 30. That is, convenience can be improved. Further, since the states of the image forming apparatus 12, the cutting machine 18, and the user terminal 30 are not changed only by passing through, wasteful power consumption can be prevented as much as possible.

また、この第1実施例によれば、床センサ14の出力に基づいて、人物の位置の一連の変化を検出するので、変化の起点付近に配置される事務机32からこれを使用する人物を特定し、特定した人物が画像形成装置12に近づいたときに、特定の人物からの印刷データが保持される場合には、保持された印刷データについての印刷処理を実行するので、ユーザの個人認証を別途行わずに、セキュリティの確保された印刷処理を実行することができる。 Further, according to the first embodiment, since a series of changes in the position of the person are detected based on the output of the floor sensor 14, the person who uses the person is selected from the office desk 32 arranged near the starting point of the change. When the specified person approaches the image forming apparatus 12 and the print data from the specific person is retained, the print process for the retained print data is executed, so that the user's personal authentication is performed. It is possible to execute the printing process with ensured security without performing the above separately.

なお、この第1実施例では、情報処理システム10が適用される環境において、床一面に床センサ14が敷き詰められた場合について説明したが、これに限定される必要はない。たとえば、図13に示すように、画像形成装置12、裁断機18および事務机32(ユーザ端末30)を使用するときに人物を認識できる部分と、人物が環境(部屋)内において画像形成装置12、裁断機18および事務机32(ユーザ端末30)に向かって移動するときの通路の一部に床センサ14を設けるようにしてもよい。 In the first embodiment, the case where the floor sensor 14 is spread all over the floor in the environment to which the information processing system 10 is applied has been described, but the present invention is not limited to this. For example, as shown in FIG. 13, a portion capable of recognizing a person when using the image forming apparatus 12, the cutting machine 18, and the office desk 32 (user terminal 30) and the image forming apparatus 12 in the environment (room). , The floor sensor 14 may be provided in a part of the passage when moving toward the cutting machine 18 and the office desk 32 (user terminal 30).

かかる場合には、床センサ14が設けられていない部分についての人物の位置の変化(移動軌跡)は、床センサ14が設けられた部分において床センサ14の出力に基づいて追跡された人物の移動軌跡から補間(推定)される。上述の第1実施例では、人物の位置を検出するとともに、人物が移動する場合の移動方向を算出するため、床センサ14が設けられていない領域に人物が入ると、最後に算出された移動方向の延長線上に当該人物が存在すると判断する。その後、床センサ14が設けられた領域に人物が入ったときに、当該人物が延長線上またはその近傍に存在する場合に、床センサ14が設けられていない部分の移動軌跡が補間される。 In such a case, the change in the position of the person (movement locus) with respect to the portion where the floor sensor 14 is not provided is the movement of the person tracked based on the output of the floor sensor 14 in the portion where the floor sensor 14 is provided. Interpolated (estimated) from the locus. In the above-described first embodiment, in order to detect the position of the person and calculate the moving direction when the person moves, when the person enters the area where the floor sensor 14 is not provided, the last calculated movement is performed. It is determined that the person is on the extension of the direction. After that, when a person enters the area where the floor sensor 14 is provided, if the person is on or near the extension line, the movement locus of the portion where the floor sensor 14 is not provided is interpolated.

なお、第1実施例では、床センサ14を設けて、環境内を移動する人物の位置を追跡したり、当該人物を特定したりしたが、これに限定される必要はない。床センサ14に代えて、環境を俯瞰的に見るように撮影可能な一台または複数台のカメラを天井に設置し、カメラによって撮影される画像に基づいて人物の位置を追跡したり、当該人物を特定したりするようにしてもよい。ただし、かかる場合には、各人物が着用する上着の肩の部分に、各人物を識別可能な図形または文字(数字)を記載しておき、撮影された画像において、これらの図形または文字(数字)を認識することにより、人物が個別に特定することができる。
[第2実施例]
第2実施例の情報処理システム10は、画像形成装置12に印刷データのプレビュー画像を表示し、画像形成装置12に近づく人物に印刷データの内容を報知するようにした以外は、第1実施例と同じであるため、重複した説明は省略する。
In the first embodiment, the floor sensor 14 is provided to track the position of a person moving in the environment and to identify the person, but the present invention is not limited to this. Instead of the floor sensor 14, one or more cameras capable of taking a bird's-eye view of the environment are installed on the ceiling, and the position of the person can be tracked based on the image taken by the cameras. May be specified. However, in such a case, a figure or character (number) that can identify each person should be written on the shoulder of the jacket worn by each person, and these figures or characters (numbers) should be written in the captured image. By recognizing (number), a person can be individually identified.
[Second Example]
The information processing system 10 of the second embodiment displays a preview image of the print data on the image forming apparatus 12, and notifies a person approaching the image forming apparatus 12 of the contents of the print data. Since it is the same as, the duplicate description is omitted.

図14は第2実施例の情報処理システム10に適用される画像形成装置12の外観構成の一例を斜め上方から見た斜視図である。図14に示す画像形成装置12は、画像形成部70を含む本体部102を含み、本体部102の下方に給紙カセットが設けられる。また、本体部102の上部(上面)に排紙トレイが設けられ、さらに、その上部に操作部76および光センサ内蔵液晶表示装置80が設けられる。この光センサ内蔵液晶表示装置80は、タッチパネル72および本体ディスプレイ74の両方の機能を備える装置である。したがって、光センサ内蔵液晶表示装置80は、ソフトウェアキーを表示した操作パネルとして機能し、各種の操作画面およびプレビュー画像を表示する表示装置として機能し、原稿をスキャンするスキャナとしても機能する。つまり、光センサ内蔵液晶表示装置80は、タッチ機能、表示機能、スキャン機能を有している。また、光センサ内蔵液晶表示装置80の前面側に操作部76が設けられ、操作部76の前端面の中央部に撮像装置78が設けられる。 FIG. 14 is a perspective view of an example of the appearance configuration of the image forming apparatus 12 applied to the information processing system 10 of the second embodiment when viewed from diagonally above. The image forming apparatus 12 shown in FIG. 14 includes a main body 102 including an image forming section 70, and a paper feed cassette is provided below the main body 102. In addition, a paper output tray is provided on the upper part (upper surface) of the main body 102, and an operation unit 76 and a liquid crystal display device 80 with a built-in optical sensor are further provided on the upper part. The liquid crystal display device 80 with a built-in optical sensor is a device having the functions of both the touch panel 72 and the main body display 74. Therefore, the liquid crystal display device 80 with a built-in optical sensor functions as an operation panel that displays software keys, functions as a display device that displays various operation screens and preview images, and also functions as a scanner that scans documents. That is, the liquid crystal display device 80 with a built-in optical sensor has a touch function, a display function, and a scan function. Further, an operation unit 76 is provided on the front side of the liquid crystal display device 80 with a built-in optical sensor, and an image pickup device 78 is provided at the center of the front end surface of the operation unit 76.

図15は第2実施例の画像形成装置12に設けられる光センサ内蔵液晶表示装置80のセンサ内蔵液晶パネルの一部の断面構造を概略的に示す図解図である。図16は反射像によってタッチ位置を検出する方法を示す図解図である。図17は影像によってタッチ位置を検出する方法を示す図解図である。 FIG. 15 is an illustrated diagram schematically showing a cross-sectional structure of a part of the sensor-embedded liquid crystal panel of the optical sensor-embedded liquid crystal display device 80 provided in the image forming apparatus 12 of the second embodiment. FIG. 16 is an illustrated diagram showing a method of detecting a touch position by a reflected image. FIG. 17 is an illustrated diagram showing a method of detecting a touch position by an image.

図15に示すように、光センサ内蔵液晶表示装置80は、センサ内蔵液晶パネル(以下、単に「液晶パネル」という)82およびこの液晶パネル82の背面側に配置されるバックライト84を備える。ただし、図15では、液晶パネル82のうち、1つの画素に対応する部分についての断面図であり、1つの画素はRGB(赤緑青)の3つのサブ画素で構成される。図示は省略するが、液晶パネル82およびバックライト84は、制御回路によって制御される。 As shown in FIG. 15, the liquid crystal display device 80 with a built-in optical sensor includes a liquid crystal panel with a built-in sensor (hereinafter, simply referred to as “liquid crystal panel”) 82 and a backlight 84 arranged on the back side of the liquid crystal panel 82. However, FIG. 15 is a cross-sectional view of a portion of the liquid crystal panel 82 corresponding to one pixel, and one pixel is composed of three sub-pixels of RGB (red, green, and blue). Although not shown, the liquid crystal panel 82 and the backlight 84 are controlled by a control circuit.

図15に示すように、液晶パネル82は、背面側に配置されるアクティブマトリクス基板82aと、表面側に配置される対向基板82bを備え、アクティブマトリクス基板82aと対向基板82bの間に液晶層82cを挟持している。 As shown in FIG. 15, the liquid crystal panel 82 includes an active matrix substrate 82a arranged on the back surface side and an opposing substrate 82b arranged on the front surface side, and a liquid crystal layer 82c is provided between the active matrix substrate 82a and the opposing substrate 82b. Is sandwiched.

アクティブマトリクス基板82aには、画素電極800、データ信号線802、光センサ804、配向膜806、偏光板(偏光フィルタ)808およびガラス基板810などが設けられる。また、対向基板82bには、カラーフィルタ812r(赤)、812g(緑)、812b(青)、遮光膜814、対向電極816、配向膜806、ガラス基板810および偏光板808などが設けられる。 The active matrix substrate 82a is provided with a pixel electrode 800, a data signal line 802, an optical sensor 804, an alignment film 806, a polarizing plate (polarizing filter) 808, a glass substrate 810, and the like. Further, the facing substrate 82b is provided with a color filter 812r (red), 812g (green), 812b (blue), a light shielding film 814, a counter electrode 816, an alignment film 806, a glass substrate 810, a polarizing plate 808, and the like.

このような液晶パネル82では、画像を表示する場合には、バックライト84から光が照射され、画素電極800と対向電極816の間に電圧が印加される。電圧が印加されることにより、液晶層82c内の液晶分子の向き(液晶配向)が変化される。したがって、液晶配向の変化された液晶層82cと2枚の偏光板808を含めた全体の透過率が変化され、表示の明るさが変化される。 In such a liquid crystal panel 82, when displaying an image, light is emitted from the backlight 84, and a voltage is applied between the pixel electrode 800 and the counter electrode 816. By applying a voltage, the orientation (liquid crystal orientation) of the liquid crystal molecules in the liquid crystal layer 82c is changed. Therefore, the overall transmittance of the liquid crystal layer 82c whose liquid crystal orientation has been changed and the two polarizing plates 808 is changed, and the brightness of the display is changed.

また、液晶パネル82では、原稿をスキャンする場合には、アクティブマトリクス基板82aの偏光板818上に原稿が載置され、バックライト84から光が照射される。バックライト84の光は、偏光板808上の原稿によって反射され、この反射光がカラーフィルタ812r,812g,812bを通過して光センサ804で検出される。したがって、原稿の画像が読み取られる。 Further, in the liquid crystal panel 82, when scanning a document, the document is placed on the polarizing plate 818 of the active matrix substrate 82a, and light is emitted from the backlight 84. The light of the backlight 84 is reflected by the document on the polarizing plate 808, and the reflected light passes through the color filters 812r, 812g, 812b and is detected by the optical sensor 804. Therefore, the image of the original is read.

また、液晶パネル82では、ユーザがタッチした位置(タッチ位置)を検出する場合には、ユーザが指先などで偏光板808をタッチすると、ユーザの指先などの反射像が光センサ804で検出される。具体的には、図16に示すように、バックライト84から照射された光は、ユーザの指などの対象物によって反射される。対象物によって反射された反射光は、光センサ804に入射される。このとき、光センサ804から出力されるセンサ出力信号のレベルが変動する。センサ出力信号のレベルが所定値(閾値)以上である場合に、対象物が存在することが判断される。そして、対象物が検出された画素の位置に応じて、タッチ位置が検出される。 Further, in the liquid crystal panel 82, when the user touches the position (touch position), when the user touches the polarizing plate 808 with the fingertip or the like, the reflected image of the user's fingertip or the like is detected by the optical sensor 804. .. Specifically, as shown in FIG. 16, the light emitted from the backlight 84 is reflected by an object such as a user's finger. The reflected light reflected by the object is incident on the optical sensor 804. At this time, the level of the sensor output signal output from the optical sensor 804 fluctuates. When the level of the sensor output signal is equal to or higher than a predetermined value (threshold value), it is determined that the object exists. Then, the touch position is detected according to the position of the pixel in which the object is detected.

さらに、液晶パネル82は、影像を光センサ804で検出することによって、タッチ位置を検出することもできる。液晶パネル82に含まれる光センサ804は、対向基板82bなどを透過した外光を検出することもできる。図17に示すように、ユーザの指などの対象物がある場合は、外光の入射が妨げられ、光センサ804に入射される外光の光量が減る。このため、光センサ804から出力されるセンサ出力信号のレベルが変動し、対象物が存在することが判断される。 Further, the liquid crystal panel 82 can also detect the touch position by detecting the image with the optical sensor 804. The optical sensor 804 included in the liquid crystal panel 82 can also detect external light transmitted through the facing substrate 82b or the like. As shown in FIG. 17, when there is an object such as a user's finger, the incident of the external light is hindered, and the amount of the external light incident on the optical sensor 804 is reduced. Therefore, the level of the sensor output signal output from the optical sensor 804 fluctuates, and it is determined that the object exists.

なお、光センサ内蔵液晶表示装置80の電気的な構成および詳細な説明等は、出願人が先に出願し、既に公開された特開2010−62940号公報に開示されるため、その説明については省略することにする。 The electrical configuration and detailed description of the liquid crystal display device 80 with a built-in optical sensor will be disclosed in Japanese Patent Application Laid-Open No. 2010-62940, which the applicant filed earlier and has already been published. I will omit it.

第2実施例の情報処理システム10では、画像形成装置12は、人物が画像形成装置12自身に近づいてくるとき(向かってくるとき)、人物の視線方向を検出する。そして、画像形成装置12は、その人物の印刷指示および印刷データを保持している場合に、当該印刷データについての印刷処理を実行するとともに、印刷データのプレビュー画像を光センサ内蔵液晶表示装置80に表示する。このとき、人物の視線方向に合わせてプレビュー画像を回転させる。第2実施例では、プレビュー画像は、人物が見やすい向きで表示される。具体的には、図18(B)に示すように、図18(A)に示した視線方向と並行であり、プレビュー画像の上が視線方向の先端(矢先)側に配置され、プレビュー画像の下が視線方向の後端(矢尻)側に配置される。 In the information processing system 10 of the second embodiment, the image forming apparatus 12 detects the line-of-sight direction of the person when the person approaches (approaches) the image forming apparatus 12 itself. Then, when the image forming apparatus 12 holds the print instruction and the print data of the person, the image forming apparatus 12 executes the print process for the print data and displays the preview image of the print data on the liquid crystal display device 80 with a built-in optical sensor. indicate. At this time, the preview image is rotated according to the line-of-sight direction of the person. In the second embodiment, the preview image is displayed in an orientation that is easy for a person to see. Specifically, as shown in FIG. 18 (B), it is parallel to the line-of-sight direction shown in FIG. 18 (A), and the upper part of the preview image is arranged on the tip (arrow tip) side in the line-of-sight direction. The bottom is placed on the rear end (arrowhead) side in the line-of-sight direction.

このため、第2実施例では、上述したように、画像形成装置12は、デジタルカメラのような撮像装置78をさらに備える。ただし、撮像装置78は、USBケーブルのような所定のインターフェースを用いて画像形成装置12に装着されてもよい。 Therefore, in the second embodiment, as described above, the image forming apparatus 12 further includes an imaging apparatus 78 such as a digital camera. However, the image pickup apparatus 78 may be attached to the image forming apparatus 12 by using a predetermined interface such as a USB cable.

図18(A)からも分かるように、撮像装置78は、画像形成装置12の前面側の中央に配置される。また、図14に示したように、撮像装置78は、画像形成装置12の上部であり、操作部76の前端面の中央に設けられる。ただし、撮像装置78が設けられる位置は一例であり、限定されるべきでない。画像形成装置12に近づいてくる人物の顔を撮影できれば、他の位置に設けられてもよい。 As can be seen from FIG. 18A, the image pickup apparatus 78 is arranged at the center of the front surface side of the image forming apparatus 12. Further, as shown in FIG. 14, the image pickup apparatus 78 is an upper portion of the image forming apparatus 12, and is provided at the center of the front end surface of the operation unit 76. However, the position where the image pickup apparatus 78 is provided is an example and should not be limited. As long as the face of a person approaching the image forming apparatus 12 can be photographed, it may be provided at another position.

なお、撮影画像から人物の顔画像を抽出し、顔画像から人物の視線方向を検出方法は既に公知であり、本願発明の本質的な内容でないため、視線方向を検出する方法の説明は省略する。 It should be noted that a method of extracting a person's face image from a photographed image and detecting the person's line-of-sight direction from the face image is already known and is not an essential content of the present invention. ..

また、プレビュー画像のような画像を任意の角度に従って回転させる画像処理については既に周知であるため、プレビュー画像を回転して表示する方法の説明についても省略する。 Further, since the image processing for rotating an image such as a preview image according to an arbitrary angle is already well known, the description of the method for rotating and displaying the preview image will be omitted.

第2実施例によれば、第1実施例の効果に加えて、印刷データのプレビュー画像を、画像形成装置12に近づいてくる人物に向けて表示するので、プレビュー画像を見ることにより、印刷物が誰のものかを容易に知ることができる。また、プレビュー画像が見易い。このため、人物は画像形成装置12から少し離れた位置まで近づけば、印刷物が誰のものかを知ることができる。 According to the second embodiment, in addition to the effect of the first embodiment, the preview image of the print data is displayed toward the person approaching the image forming apparatus 12, so that the printed matter can be displayed by looking at the preview image. You can easily find out who it belongs to. Also, the preview image is easy to see. Therefore, the person can know who the printed matter belongs to by approaching the image forming apparatus 12 to a position slightly away from the image forming apparatus 12.

なお、第2実施例では、人物の視線を検出して、視線方向に上下方向が一致するようにプレビュー画像を回転させて表示するようにしたが、これに限定される必要はない。人物の位置のみならず、人物の移動方向を検出するようにしてあるため、人物の移動方向に上下方向が一致するようにプレビュー画像を回転させて表示するようにしてもよい。これは、人物が移動する場合には、通常移動方向に視線を向けていると考えられるからである。したがって、かかる場合には、撮像装置78を設ける必要はない。
[第3実施例]
第3実施例の情報処理システム10は、サーバ20をさらに備えるとともに、床センサ14を画像形成装置12に代えてサーバ20に接続し、サーバ20のCPU20aが図8〜図12に示した状態制御処理を実行するようにした以外は、第1実施例と同様であるため、重複した説明は省略する。
In the second embodiment, the line of sight of the person is detected, and the preview image is rotated and displayed so that the vertical direction coincides with the line of sight, but the present invention is not limited to this. Since not only the position of the person but also the moving direction of the person is detected, the preview image may be rotated and displayed so that the vertical direction coincides with the moving direction of the person. This is because when a person moves, it is considered that the line of sight is usually directed in the moving direction. Therefore, in such a case, it is not necessary to provide the image pickup device 78.
[Third Example]
The information processing system 10 of the third embodiment further includes a server 20, connects the floor sensor 14 to the server 20 instead of the image forming apparatus 12, and the CPU 20a of the server 20 controls the states shown in FIGS. 8 to 12. Since it is the same as that of the first embodiment except that the processing is executed, the duplicate description will be omitted.

図19は第3実施例の情報処理システム10の構成の例を示す図解図である。図19に示すように、第3実施例では、情報処理システム10は、サーバ20を備える。サーバ20は、汎用のサーバであり、CPU20a、RAM20bおよび通信部20cなどの回路コンポーネントを含む。CPU20a、RAM20bおよび通信部20cは、画像形成装置12に含まれるCPU50、RAM54および通信部58とそれぞれ同じであるため、重複した説明は省略する。 FIG. 19 is an illustrated diagram showing an example of the configuration of the information processing system 10 of the third embodiment. As shown in FIG. 19, in the third embodiment, the information processing system 10 includes a server 20. The server 20 is a general-purpose server and includes circuit components such as a CPU 20a, a RAM 20b, and a communication unit 20c. Since the CPU 20a, the RAM 20b, and the communication unit 20c are the same as the CPU 50, the RAM 54, and the communication unit 58 included in the image forming apparatus 12, duplicate description will be omitted.

また、床センサ14が、画像形成装置12に代えてサーバ20に接続される。また、サーバ20は、ネットワーク16を介して、画像形成装置12、裁断機18および複数のユーザ端末30に接続される。さらに、サーバ20は、内蔵されるHDDに、人物情報テーブル、事務機器情報テーブルおよび状態情報テーブルを記憶する。ただし、HDDに代えて、サーバ20に直接またはネットワーク16を介して接続されたデータベースに、これらのテーブルを記憶してもよい。 Further, the floor sensor 14 is connected to the server 20 instead of the image forming apparatus 12. Further, the server 20 is connected to the image forming apparatus 12, the cutting machine 18, and the plurality of user terminals 30 via the network 16. Further, the server 20 stores a person information table, an office equipment information table, and a status information table in the built-in HDD. However, instead of the HDD, these tables may be stored in a database connected directly to the server 20 or via the network 16.

第3実施例では、サーバ20(CPU20a)が第1実施例で示した状態制御処理(図8〜図12)に相当する処理を実行する。ただし、第3実施例では、サーバ20のCPU20aは、人物が画像形成装置12に近づき、画像形成装置12に設定された範囲R2に入った場合には(ステップS25で“YES”またはステップS37で“YES”)、範囲R2内に対応する状態に設定することを画像形成装置12に指示する(ステップS27またはステップS39)。 In the third embodiment, the server 20 (CPU 20a) executes a process corresponding to the state control process (FIGS. 8 to 12) shown in the first embodiment. However, in the third embodiment, when a person approaches the image forming apparatus 12 and enters the range R2 set in the image forming apparatus 12, the CPU 20a of the server 20 is "YES" in step S25 or in step S37. “YES”), instructing the image forming apparatus 12 to set the state corresponding to the range R2 (step S27 or step S39).

また、サーバ20のCPU20aは、人物が画像形成装置12に近づき、画像形成装置12に設定された範囲R1に入った場合には、当該人物からの印刷指示が有るかどうかを画像形成装置12に問い合わせる(ステップS55)。そして、サーバ20は、画像形成装置12から印刷指示が有ることが通知されたことに応じて(ステップS55で“YES”)、画像形成装置12に印刷処理の開始を指示する(ステップS57)。 Further, when a person approaches the image forming apparatus 12 and enters the range R1 set in the image forming apparatus 12, the CPU 20a of the server 20 informs the image forming apparatus 12 whether or not there is a print instruction from the person. Inquire (step S55). Then, the server 20 instructs the image forming apparatus 12 to start the printing process in response to the notification from the image forming apparatus 12 that there is a printing instruction (“YES” in step S55) (step S57).

第3実施例においても、第1実施例と同様に、利便性を向上させることができる。また、ユーザの個人認証を別途行わずに、セキュリティの確保された印刷処理を実行することができる。 In the third embodiment as well, the convenience can be improved as in the first embodiment. In addition, it is possible to execute a printing process in which security is ensured without separately performing personal authentication of the user.

なお、上述の各実施例で挙げた画面および具体的な数値等は一例であり、実際の製品に応じて適宜変更することが可能である。また、同じ効果が得られる場合には、フロー図に示した各ステップの順番は適宜変更されてもよい。 The screens and specific numerical values given in each of the above embodiments are examples, and can be appropriately changed according to the actual product. Further, when the same effect is obtained, the order of each step shown in the flow chart may be changed as appropriate.

10 …情報処理システム
12 …画像形成装置
14 …床センサ
18 …裁断機
20 …サーバ
30 …ユーザ端末
50 …CPU
54 …RAM
56 …HDD
58 …通信部
72 …タッチパネル
74 …本体ディスプレイ
76 …操作部
78 …撮像装置
80 …光センサ内蔵液晶表示装置
10 ... Information processing system 12 ... Image forming device 14 ... Floor sensor 18 ... Cutting machine 20 ... Server 30 ... User terminal 50 ... CPU
54 ... RAM
56 ... HDD
58 ... Communication unit 72 ... Touch panel 74 ... Main unit display 76 ... Operation unit 78 ... Imaging device 80 ... Liquid crystal display device with built-in optical sensor

Claims (9)

外部端末からの印刷データを受信する受信手段、
画像形成装置自身が設置される場所において当該画像形成装置自身に対する人物の位置を追跡する追跡手段、
前記追跡手段によって追跡された人物の位置の一連の変化が前記人物が前記画像形成装置自身に向かって近づいていることを示す場合に、前記人物との位置関係に応じて前記画像形成装置自身のあるべき状態を決定する状態決定手段
前記画像形成装置自身の状態を前記状態決定手段によって決定されたあるべき状態に設定する設定手段、
前記設定手段によって前記あるべき状態として印刷可能な状態に設定され、所定の条件を満たす場合に、前記受信手段によって受信された印刷データに基づく印刷を実行する印刷実行手段、および
前記印刷実行手段によって印刷データに基づく印刷を実行したことに応じて、前記印刷データに対応するプレビュー画像を表示するプレビュー表示手段を備える、画像形成装置。
Receiving means for receiving print data from an external terminal,
A tracking means for tracking the position of a person with respect to the image forming apparatus itself at the place where the image forming apparatus itself is installed.
When a series of changes in the position of the person tracked by the tracking means indicate that the person is approaching the image forming apparatus itself, the image forming apparatus itself may have a positional relationship with the person. A state-determining means that determines the desired state ,
Setting means to set the state of the image forming apparatus itself to the state is to determined by the state determining means,
A print executing means that executes printing based on print data received by the receiving means when the setting means sets the printable state as the desired state and satisfies a predetermined condition, and a print executing means.
An image forming apparatus including a preview display means for displaying a preview image corresponding to the print data in response to printing based on the print data by the print execution means .
前記追跡手段によって追跡された人物の位置の一連の変化に基づいて、前記人物の移動方向を検出する方向検出手段をさらに備え、
前記プレビュー表示手段は、前記方向検出手段によって検出された移動方向に上下方向が一致するように前記プレビュー画像を表示する、請求項記載の画像形成装置。
Further provided with a direction detecting means for detecting the moving direction of the person based on a series of changes in the position of the person tracked by the tracking means.
Said preview display means, said direction detecting means vertically in the moving direction detected by displays the preview image so as to match the image forming apparatus according to claim 1.
前記追跡手段によって追跡された人物が前記画像形成装置自身に向かってくる場合に、当該人物の視線方向を検出する視線方向検出手段をさらに備え、
前記プレビュー表示手段は、前記視線方向検出手段によって検出された視線方向に上下方向が一致するように前記プレビュー画像を表示する、請求項1記載の画像形成装置。
When a person tracked by the tracking means approaches the image forming apparatus itself, the line-of-sight direction detecting means for detecting the line-of-sight direction of the person is further provided.
It said preview display means, the sight line direction detecting unit vertically on the detected viewing direction by displays the preview image so as to match, according to claim 1 Symbol placing the image forming apparatus.
前記画像形成装置自身が配置される環境に設けられる床センサをさらに備え、
前記追跡手段は、前記床センサの出力に基づいて前記人物の位置を追跡する、請求項1ないしのいずれかに記載の画像形成装置。
Further equipped with a floor sensor provided in the environment in which the image forming apparatus itself is arranged,
The image forming apparatus according to any one of claims 1 to 3 , wherein the tracking means tracks the position of the person based on the output of the floor sensor.
前記追跡手段は、前記床センサの出力に基づいて、前記環境における前記人物の位置を初期位置から追跡する、請求項記載の画像形成装置。 The image forming apparatus according to claim 4 , wherein the tracking means tracks the position of the person in the environment from an initial position based on the output of the floor sensor. 前記初期位置は、前記追跡手段によって追跡される人物の座席位置である、請求項記載の画像形成装置。 The image forming apparatus according to claim 5 , wherein the initial position is a seat position of a person tracked by the tracking means. 画像形成装置および当該画像形成装置と通信可能に接続されるサーバを備える情報処理システムであって、
前記サーバは、
前記画像形成装置が設置される場所において当該画像形成装置に対する人物の位置を追跡する追跡手段、
前記追跡手段によって追跡された人物の位置の一連の変化が前記人物が前記画像形成装置に向かって近づいていることを示す場合に、前記人物との位置関係に応じて前記画像形成装置のあるべき状態を決定する状態決定手段、
前記画像形成装置の状態を前記状態決定手段によって決定されたあるべき状態に設定することを当該画像形成装置に指示する設定手段、および
前記設定手段によって前記あるべき状態として印刷可能な状態に設定され、所定の条件を満たす場合に、前記画像形成装置に印刷の実行を指示する印刷指示手段を備え、
前記画像形成装置は、
外部端末からの印刷データを受信する受信手段、
前記印刷指示手段によって印刷の実行を指示された場合に、前記受信手段によって受信された印刷データに基づく印刷を実行する印刷実行手段、および
前記印刷実行手段によって印刷データに基づく印刷を実行したことに応じて、前記印刷データに対応するプレビュー画像を表示するプレビュー表示手段を備える、情報処理システム。
An information processing system including an image forming apparatus and a server communicatively connected to the image forming apparatus.
The server
A tracking means for tracking the position of a person with respect to the image forming apparatus at the place where the image forming apparatus is installed.
The image forming apparatus should be in accordance with the positional relationship with the person when a series of changes in the position of the person tracked by the tracking means indicate that the person is approaching the image forming apparatus. State-determining means for determining state,
The setting means for instructing the image forming apparatus to set the state of the image forming apparatus to the ideal state determined by the state determining means, and the setting means are set to a printable state as the desired state. , The image forming apparatus is provided with a printing instruction means for instructing the execution of printing when a predetermined condition is satisfied.
The image forming apparatus
Receiving means for receiving print data from an external terminal,
When the printing instruction means is instructed to execute printing, the print execution means that executes printing based on the print data received by the reception means, and the print execution means that executes printing based on the print data. An information processing system comprising a preview display means for displaying a preview image corresponding to the print data accordingly.
コンピュータによって実行される情報処理プログラムであって、
前記コンピュータのプロセッサに、
外部端末からの印刷データを受信する受信ステップ、
事務機器が設置される場所において当該事務機器に対する人物の位置を追跡する追跡ステップ、
前記追跡ステップにおいて追跡した人物の位置の一連の変化が前記人物が前記事務機器に向かって近づいていることを示す場合に、前記人物との位置関係に応じて前記事務機器のあるべき状態を決定する状態決定ステップ
前記事務機器の状態を前記状態決定ステップにおいて決定したあるべき状態に設定する設定ステップ、
前記設定ステップにおいて前記あるべき状態として印刷可能な状態に設定し、所定の条件を満たす場合に、前記受信ステップにおいて受信した印刷データに基づく印刷を実行する印刷実行ステップ、および
前記印刷実行ステップにおいて印刷データに基づく印刷を実行したことに応じて、前記印刷データに対応するプレビュー画像を表示するプレビュー表示ステップを実行させる、情報処理プログラム。
An information processing program executed by a computer
To the processor of the computer
Receiving step to receive print data from an external terminal,
A tracking step that tracks the position of a person with respect to the office equipment at the location where the office equipment is installed.
When a series of changes in the position of the person tracked in the tracking step indicates that the person is approaching the office equipment, the ideal state of the office equipment is determined according to the positional relationship with the person. State determination step ,
A setting step that sets the state of the office equipment to the desired state determined in the state determination step,
A print execution step of setting a printable state as the desired state in the setting step and executing printing based on the print data received in the reception step when a predetermined condition is satisfied, and a print execution step.
An information processing program that executes a preview display step of displaying a preview image corresponding to the print data in response to executing printing based on the print data in the print execution step .
(a)外部端末からの印刷データを受信するステップ、
)事務機器が設置される場所において当該事務機器に対する人物の位置を追跡するステップ、
)前記ステップ()において追跡した人物の位置の一連の変化が前記人物が前記事務機器に向かって近づいていることを示す場合に、前記人物との位置関係に応じて前記事務機器のあるべき状態を決定するステップ
)前記事務機器の状態を前記ステップ()において決定したあるべき状態に設定するステップ、
(e)前記ステップ(d)において前記あるべき状態として印刷可能な状態に設定し、所定の条件を満たす場合に、前記ステップ(a)において受信した印刷データに基づく印刷を実行するステップ、および
(f)前記ステップ(e)において印刷データに基づく印刷を実行したことに応じて、前記印刷データに対応するプレビュー画像を表示するステップを含む、情報処理方法。
(A) Step of receiving print data from an external terminal,
( B ) A step of tracking the position of a person with respect to the office equipment at the place where the office equipment is installed,
( C ) When a series of changes in the position of the person tracked in the step ( b ) indicate that the person is approaching the office equipment, the office equipment according to the positional relationship with the person. Steps to determine what should be ,
( D ) A step of setting the state of the office equipment to the desired state determined in the step ( c ),
(E) A step of setting a printable state as the desired state in the step (d) and executing printing based on the print data received in the step (a) when a predetermined condition is satisfied.
(F) An information processing method including a step of displaying a preview image corresponding to the print data in response to executing printing based on the print data in the step (e) .
JP2017030385A 2017-02-21 2017-02-21 Image forming device, information processing system, information processing program and information processing method Active JP6811642B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017030385A JP6811642B2 (en) 2017-02-21 2017-02-21 Image forming device, information processing system, information processing program and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017030385A JP6811642B2 (en) 2017-02-21 2017-02-21 Image forming device, information processing system, information processing program and information processing method

Publications (2)

Publication Number Publication Date
JP2018137589A JP2018137589A (en) 2018-08-30
JP6811642B2 true JP6811642B2 (en) 2021-01-13

Family

ID=63367160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017030385A Active JP6811642B2 (en) 2017-02-21 2017-02-21 Image forming device, information processing system, information processing program and information processing method

Country Status (1)

Country Link
JP (1) JP6811642B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7430981B2 (en) * 2018-12-18 2024-02-14 コニカミノルタ株式会社 Image processing device, image forming system, image forming device, control method, and computer program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6478469B2 (en) * 2014-03-14 2019-03-06 キヤノン株式会社 Image forming apparatus, image forming apparatus control method, and program
JP2016203566A (en) * 2015-04-28 2016-12-08 キヤノン株式会社 Image formation apparatus
JP6354663B2 (en) * 2015-05-29 2018-07-11 京セラドキュメントソリューションズ株式会社 Sleep mode control system

Also Published As

Publication number Publication date
JP2018137589A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
US8151362B2 (en) Image forming apparatus, function extending method and user authentication system
US20140160505A1 (en) Image processing apparatus, method of controlling image processing apparatus, and program
US20160028907A1 (en) Image processing apparatus and method of displaying object in image processing apparatus
US20090315847A1 (en) Input apparatus having touch panel operation accepting method, and operation accepting program embodied on computer readable medium
US20110134470A1 (en) Information processing apparatus, display control method, and storage medium
US20100332699A1 (en) Computer readable medium and information processing apparatus
US10990275B2 (en) Electronic device with settable low power consumption mode
CN107264089B (en) Image forming apparatus and control method thereof
US11184490B2 (en) Image forming apparatus, non-transitory computer-readable medium, and control method
CN103685811A (en) Electronic apparatus, display control method and network system
BR102013028349A2 (en) ELECTRONIC APPARATUS AND CONTROL METHOD OF DISPLAY
JP6790365B2 (en) Information processing equipment, information processing systems, and programs
JP6187063B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP6811642B2 (en) Image forming device, information processing system, information processing program and information processing method
US10356613B2 (en) Information processing device and information processing system that executes a process based on a user operation received from an operator
JP6848380B2 (en) Information processing system and information processing method
CN104113653A (en) Information Processing Apparatus Accepting Inputs Through Input Screen
US20170346978A1 (en) Wake-up control device, image processing apparatus, and non-transitory computer readable medium
US20160349893A1 (en) Operation display system, operation display apparatus, and operation display program
US10645250B2 (en) Image forming system, original document arrangement setting method and non transitory recording medium that records an original document arrangement setting program
JP6724818B2 (en) Touch operation device and image forming apparatus
JP2010108446A (en) Information processor, control method of information processor, and information processing program
JP6701932B2 (en) Image forming device, program, conference system
JP2016162309A (en) Information processing apparatus, control method thereof, and program
US10509550B2 (en) Display device changing displayed image in accordance with depressed state on touch panel and image processing device using same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201215

R150 Certificate of patent or registration of utility model

Ref document number: 6811642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150