JP2014109723A - Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program - Google Patents

Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program Download PDF

Info

Publication number
JP2014109723A
JP2014109723A JP2012264536A JP2012264536A JP2014109723A JP 2014109723 A JP2014109723 A JP 2014109723A JP 2012264536 A JP2012264536 A JP 2012264536A JP 2012264536 A JP2012264536 A JP 2012264536A JP 2014109723 A JP2014109723 A JP 2014109723A
Authority
JP
Japan
Prior art keywords
image processing
detection
processing apparatus
unit
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012264536A
Other languages
Japanese (ja)
Inventor
Naotsugu Ito
直紹 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012264536A priority Critical patent/JP2014109723A/en
Priority to US14/092,186 priority patent/US20140160505A1/en
Publication of JP2014109723A publication Critical patent/JP2014109723A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a user to easily confirm and adjust a relative position of an invisible detection range of a human sensor from a device body, while adjusting a control operation of a device using the human sensor as intended by the user.SOLUTION: A CPU 105 of an image processing apparatus 1 causes a remote operation screen of an external device (terminal device 2) to display information by indicating a detection range of a human sensor part 103 using a relative position from the image processing apparatus 1, receives settings for changing the detection range of the human sensor part 103 from the remote operation screen (receives settings for enabling/disabling human sensors of the human sensor part 103 or changing the direction of the human sensor part 103), and changes a power state of the image processing apparatus 1 when the human sensor part 103 detects an object in the latter detection range.

Description

本発明は、人感センサを利用した装置の制御に関するものである。   The present invention relates to control of an apparatus using a human sensor.

従来、画像処理装置等の電子機器には、装置に内蔵された人感センサからの情報を用いて近隣のユーザの存在を検知して、装置の制御を行うものがある。代表的な制御として、画像処理装置が通常の動作モードの他に消費電力を低減する省電力モードを持つ場合に、省電力モード中にユーザが人感センサの検知範囲に入ったときに、省電力モードから通常の動作モードに復帰するものがある(特許文献1参照)。   2. Description of the Related Art Conventionally, some electronic devices such as image processing apparatuses control an apparatus by detecting the presence of a nearby user using information from a human sensor incorporated in the apparatus. As a typical control, when the image processing apparatus has a power saving mode for reducing power consumption in addition to the normal operation mode, the user can save when the user enters the detection range of the human sensor during the power saving mode. Some return from the power mode to the normal operation mode (see Patent Document 1).

特開平11−202690号公報JP-A-11-202690

しかし、画像処理装置の設置場所や設置方向によって、画像処理装置に内蔵された人感センサの検知範囲が変わってしまう。そのため、その検知範囲によっては、人感センサを利用した制御動作が、ユーザの意図に合わなくなってしまう場合がある。例えば、装置を利用したいユーザが装置に近づいても検知されなかったり、逆に、装置の傍を通っただけの人を頻繁に検知してしまったりする場合がある。   However, the detection range of the human sensor built in the image processing apparatus changes depending on the installation location and installation direction of the image processing apparatus. Therefore, depending on the detection range, the control operation using the human sensor may not match the user's intention. For example, a user who wants to use the device may not be detected even if he approaches the device, or conversely, a person who has just passed by the device may be detected frequently.

さらに、人感センサの検知範囲は、目に見えないために、ユーザはそのような状態であることに気付くことが困難である。
もし仮に、そのような状態に気付き、人感センサを利用した制御動作がユーザの意図に合うものとなるように画像処理装置の設置場所や設置方向を調節しようとしても、人感センサの検知範囲は目に見えないため、調整は極めて困難である。
Furthermore, since the detection range of the human sensor is not visible, it is difficult for the user to notice that it is in such a state.
Even if the user notices such a situation and tries to adjust the installation location or orientation of the image processing device so that the control operation using the human sensor matches the user's intention, the detection range of the human sensor Is invisible, so adjustment is extremely difficult.

本発明は、上記の問題点を解決するためになされたものである。本発明の目的は、目視では直接確認できない人感センサの検知範囲の装置本体からの相対位置の確認と、調節を容易にできるようにし、人感センサを利用した装置の制御動作をユーザの意図する状態に調整可能にする仕組みを提供することである。   The present invention has been made to solve the above problems. An object of the present invention is to make it easy to confirm and adjust the relative position of the detection range of the human sensor that cannot be directly confirmed by visual observation from the apparatus body, and to control the operation of the apparatus using the human sensor. It is to provide a mechanism that can be adjusted to the state to be.

本発明は、画像処理装置であって、物体を検知する検知手段と、前記検知手段の検知範囲を示す設定情報を記憶する記憶手段と、前記記憶手段に記憶される設定情報に基づく前記検知手段の検知範囲を前記画像処理装置からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信手段と、前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信手段と、前記受信手段が受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新手段と、前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記画像処理装置の動作を制御する制御手段と、を有することを特徴とする。   The present invention is an image processing apparatus, wherein the detection unit detects an object, the storage unit stores setting information indicating a detection range of the detection unit, and the detection unit based on the setting information stored in the storage unit Generating display information including information indicating a detection range of the image in a relative position from the image processing apparatus, and transmitting the generated display information to the external apparatus to display the generated display information on the external apparatus, and the detection Receiving means for receiving an instruction to change the detection range of the means from the external device, updating means for updating setting information stored in the storage means based on the instruction received by the receiving means, and based on the setting information Control means for controlling the operation of the image processing apparatus in accordance with a detection state of the detection means in a detection range.

本発明によれば、目視では直接確認できない人感センサの検知範囲の装置本体からの相対位置の確認と、調節を容易にできるようにし、人感センサを利用した装置の制御動作をユーザの意図する状態に調整することができる。   According to the present invention, it is possible to easily confirm and adjust the relative position from the apparatus main body of the detection range of the human sensor that cannot be directly confirmed visually, and to control the operation of the apparatus using the human sensor. It can be adjusted to the state.

本発明の電子機器の一実施例を示す画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus which shows one Example of the electronic device of this invention. 端末装置2の構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a configuration of a terminal device 2. FIG. 画像処理装置1と周囲のユーザとの位置関係、及び人感センサ部103の検知範囲を示した模式図である。4 is a schematic diagram showing a positional relationship between the image processing apparatus 1 and surrounding users and a detection range of the human sensor unit 103. FIG. 端末装置2で画像処理装置1をリモート操作する場合に表示・操作部202に表示される画面の一例を示す図である。6 is a diagram illustrating an example of a screen displayed on the display / operation unit 202 when the terminal device 2 remotely operates the image processing apparatus 1. FIG. 端末装置2で画像処理装置1をリモート操作するときに表示・操作部202に表示される画面の一例を示す図である。6 is a diagram illustrating an example of a screen displayed on the display / operation unit 202 when the terminal device 2 remotely operates the image processing apparatus 1. FIG. 人感センサ画面D43における画像処理装置1のフローチャートである。It is a flowchart of the image processing apparatus 1 in the human sensitive sensor screen D43. 設定変更画面D44における画像処理装置1のフローチャートである。It is a flowchart of the image processing apparatus 1 in the setting change screen D44.

以下、本発明を実施するための形態について図面を用いて説明する。なお、本実施例では、本発明を適用可能な電子機器の一例として画像処理装置を用いて説明する。
図1は、本発明の電子機器の一実施例を示す画像処理装置の構成の一例を示すブロック図である。
図1に示すように、画像処理装置1は、画像読み取り部101、ネットワークインタフェース部102、人感センサ部103、表示・操作部104、CPU105、メモリ106、HDD107、画像印刷部108、データバス109、電源制御部110を有する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In this embodiment, an image processing apparatus will be described as an example of an electronic apparatus to which the present invention can be applied.
FIG. 1 is a block diagram showing an example of the configuration of an image processing apparatus showing an embodiment of an electronic apparatus of the present invention.
As shown in FIG. 1, the image processing apparatus 1 includes an image reading unit 101, a network interface unit 102, a human sensor unit 103, a display / operation unit 104, a CPU 105, a memory 106, an HDD 107, an image printing unit 108, and a data bus 109. The power supply control unit 110 is included.

画像読み取り部101は、CPU105の制御により動作し、図示しない原稿台にユーザがセットされた原稿をスキャンして画像データを生成し、データバス109を介してメモリ106に送信する。   The image reading unit 101 operates under the control of the CPU 105, scans a document set by a user on a document table (not shown), generates image data, and transmits the image data to the memory 106 via the data bus 109.

ネットワークインタフェース部102は、CPU105の制御により動作し、データバス109を介して、メモリ106に格納されているデータを読み出して画像処理装置1外部のLANに対して送信する。また、ネットワークインタフェース部102は、画像処理装置1外部のLANから受信したデータを、データバス109を介してメモリ106に格納する。例えば、画像処理装置1は、ネットワークインタフェース部102を介して、後述する図2に示す端末装置2と通信可能である。   The network interface unit 102 operates under the control of the CPU 105, reads data stored in the memory 106 via the data bus 109, and transmits the data to the LAN outside the image processing apparatus 1. The network interface unit 102 stores data received from the LAN outside the image processing apparatus 1 in the memory 106 via the data bus 109. For example, the image processing apparatus 1 can communicate with a terminal apparatus 2 shown in FIG. 2 described later via the network interface unit 102.

人感センサ部103は、画像処理装置1の周囲の物体を検知するための焦電センサなどに代表されるセンサ(人感センサ)を複数備えるものである。また、人感センサ部103が検知する物体は、静止体であっても移動体であってもよい。本実施例では、人感センサ部103が検知する物体を人体として説明するが、人感センサ部103が検知する物体は人体に限定されるものではない。本実施例では、人感センサ部103は、画像処理装置1の周囲のユーザを検知するための焦電センサなどに代表される人感センサを複数備えるものである。人感センサ部103は、CPU105の制御により各人感センサの検出情報をCPU105に対して送信する。即ち、CPU105は、人感センサ部103より、人感センサ部103が備える複数のセンサに対応する領域毎の検知結果を取得可能である。また、人感センサ部103は、CPU105からの制御により、不図示の駆動部を駆動して人感センサの向きを変えることでその検知範囲を変更することができる。
なお、焦電センサは、物体の存在を赤外線量等から検知可能なものである。焦電センサはパッシブ型の人感センサで、人体等の温度を持つ物体から自然に放射されている赤外線による温度変化を検知することで物体(例えば人体)の接近を検出するものである。焦電センサは、消費電力が小さく、検知領域は比較的広いのが特徴である。なお、本実施例では、人感センサ部103を構成する人感センサを焦電センサとして説明するが、人感センサは、焦電センサに限定されるものではなく、他の種類の人感センサであってもよい。なお、本実施例では、人感センサ部103は、人感センサ(焦電センサ)をN×Nアレイ状に並べた人感アレイセンサを用いるものとする。
The human sensor unit 103 includes a plurality of sensors (human sensors) typified by pyroelectric sensors for detecting objects around the image processing apparatus 1. The object detected by the human sensor 103 may be a stationary body or a moving body. In this embodiment, the object detected by the human sensor unit 103 is described as a human body, but the object detected by the human sensor unit 103 is not limited to the human body. In the present embodiment, the human sensor unit 103 includes a plurality of human sensors represented by pyroelectric sensors for detecting users around the image processing apparatus 1. The human sensor unit 103 transmits detection information of each human sensor to the CPU 105 under the control of the CPU 105. That is, the CPU 105 can acquire detection results for each region corresponding to a plurality of sensors included in the human sensor unit 103 from the human sensor unit 103. Further, the human sensor unit 103 can change the detection range by driving a driving unit (not shown) and changing the direction of the human sensor under the control of the CPU 105.
The pyroelectric sensor can detect the presence of an object from the amount of infrared rays or the like. The pyroelectric sensor is a passive human sensor that detects an approach of an object (for example, a human body) by detecting a temperature change caused by infrared rays naturally emitted from an object having a temperature such as a human body. The pyroelectric sensor is characterized by low power consumption and a relatively wide detection area. In the present embodiment, the human sensor constituting the human sensor unit 103 is described as a pyroelectric sensor. However, the human sensor is not limited to the pyroelectric sensor, and other types of human sensors. It may be. In this embodiment, the human sensor unit 103 uses a human sensor array in which human sensors (pyroelectric sensors) are arranged in an N × N array.

表示・操作部104は、表示装置(不図示)と入力装置(不図示)を有する。表示・操作部104は、CPU105の制御により動作し、データバス109を介してCPU105から受信した情報を表示装置(不図示)に表示する。また、表示・操作部104は、入力装置(不図示)をユーザが操作した操作情報をCPU105に送信する。   The display / operation unit 104 includes a display device (not shown) and an input device (not shown). The display / operation unit 104 operates under the control of the CPU 105 and displays information received from the CPU 105 via the data bus 109 on a display device (not shown). Further, the display / operation unit 104 transmits operation information on the operation of the input device (not shown) by the user to the CPU 105.

CPU105は、HDD107に格納されたプログラムをメモリ106に読み出し、そのプログラムに従って画像処理装置1全体の制御を行う。メモリ106は、HDD107から読み出したCPU105のプログラムや、画像データを格納する一時メモリである。HDD107はハードディスクドライブであり、CPU105のプログラムが格納してある他、後述する各種設定値や各種画面のデータ、画像データ等を格納する。HDD107は、SSD(Solid State Drive)等のフラッシュメモリであってもよい。   The CPU 105 reads a program stored in the HDD 107 to the memory 106 and controls the entire image processing apparatus 1 according to the program. The memory 106 is a temporary memory for storing the CPU 105 program read from the HDD 107 and image data. An HDD 107 is a hard disk drive that stores a program of the CPU 105 and stores various setting values, various screen data, image data, and the like, which will be described later. The HDD 107 may be a flash memory such as an SSD (Solid State Drive).

画像印刷部108は、CPU105の制御により動作し、データバス109を介して受信した画像データを、図示しない印刷用紙に電子写真プロセスやインクジェット印刷方式等を用いて印刷出力する。データバス109は、画像データや情報の転送を行う。   The image printing unit 108 operates under the control of the CPU 105, and prints out image data received via the data bus 109 on a printing sheet (not shown) using an electrophotographic process, an inkjet printing method, or the like. The data bus 109 transfers image data and information.

電源制御部110は、外部の電源コンセントから供給される電力を画像処理装置1内部の各処理部に供給する。電源制御部110の内部には、電源スイッチ1101及び1102がある。電源スイッチ1101及び1102は、CPU105の制御でオンまたはオフが切り換えられる電源スイッチである。これら電源スイッチ1101及び1102を使用して、画像処理装置1は、CPU105の制御で消費電力の異なる複数の動作モードに移行することが可能である。   The power control unit 110 supplies power supplied from an external power outlet to each processing unit in the image processing apparatus 1. There are power switches 1101 and 1102 inside the power controller 110. The power switches 1101 and 1102 are power switches that can be turned on or off under the control of the CPU 105. Using these power switches 1101 and 1102, the image processing apparatus 1 can shift to a plurality of operation modes with different power consumption under the control of the CPU 105.

動作モードには例えば3種類ある。1つめの動作モードは、画像処理装置1の全ての機能が動作する「通常動作モード」(第1電力状態)である。通常動作モードは、CPU105が電源制御部110を制御して電源スイッチ1101及び1102を両方オンにした動作モードである。   There are three types of operation modes, for example. The first operation mode is a “normal operation mode” (first power state) in which all the functions of the image processing apparatus 1 operate. The normal operation mode is an operation mode in which the CPU 105 controls the power control unit 110 to turn on both the power switches 1101 and 1102.

2つめの動作モードは、画像読み取り部101と表示・操作部104とHDD107と画像印刷部108への電力供給を停止する「スリープモード」(第2電力状態)である。スリープモードは、CPU105が電源制御部110を制御して電源スイッチ1101及び1102を両方オフにした動作モードである。   The second operation mode is a “sleep mode” (second power state) in which power supply to the image reading unit 101, the display / operation unit 104, the HDD 107, and the image printing unit 108 is stopped. The sleep mode is an operation mode in which the CPU 105 controls the power control unit 110 to turn off both power switches 1101 and 1102.

3つめの動作モードは、画像読み取り部101と画像印刷部108への電力供給を停止する「操作部のみ動作モード」(第3電力状態)である。操作部のみ動作モードは、CPU105が電源制御部110を制御して電源スイッチ1101をオンに、電源スイッチ1102をオフにした動作モードである。   The third operation mode is an “operation unit only operation mode” (third power state) in which power supply to the image reading unit 101 and the image printing unit 108 is stopped. The operation mode only operation mode is an operation mode in which the CPU 105 controls the power control unit 110 to turn on the power switch 1101 and turn off the power switch 1102.

CPU105、メモリ106、ネットワークインタフェース部102、人感センサ部103、及び電源制御部110は、常時電源が供給されている。上記消費電力の異なる3つの動作モード間の遷移は、CPU105が制御している。「スリープモード」から「操作部のみ動作モード」や「通常動作モード」への遷移は、CPU105が、人感センサ部103の各センサの検出情報を使用して、後述の設定内容に応じて行う。   The CPU 105, the memory 106, the network interface unit 102, the human sensor unit 103, and the power control unit 110 are constantly supplied with power. The transition between the three operation modes with different power consumptions is controlled by the CPU 105. The transition from the “sleep mode” to the “operation unit only operation mode” or the “normal operation mode” is performed by the CPU 105 according to the setting contents described later using detection information of each sensor of the human sensor unit 103. .

基本的には、画像印刷部108などへの通電が制限されているスリープモード時にも人感センサ部103には通電されており、CPU105は、人感センサが人の存在を検知した場合に、通常動作モードに遷移して画像印刷部108などへの通電を開始するような制御する。なお、スリープモードから他の動作モードへの遷移をスリープ復帰動作と呼ぶ。   Basically, the human sensor unit 103 is energized even in the sleep mode in which the energization of the image printing unit 108 or the like is restricted. When the human sensor detects the presence of a person, Control is performed so as to shift to the normal operation mode and start energization of the image printing unit 108 and the like. The transition from the sleep mode to another operation mode is called a sleep return operation.

図2は、端末装置2の構成の一例を示すブロック図である。端末装置2は、例えば、パーソナルコンピュータ等の情報処理装置である。端末装置2は、ノート型パーソナルコンピュータ、タブレット型コンピュータ、スマートフォン等の携帯端末であってもよい。   FIG. 2 is a block diagram illustrating an example of the configuration of the terminal device 2. The terminal device 2 is an information processing device such as a personal computer, for example. The terminal device 2 may be a portable terminal such as a notebook personal computer, a tablet computer, or a smartphone.

端末装置2は、図2に示すように、ネットワークインタフェース部201、表示・操作部202、CPU203、メモリ204、HDD205、データバス206を有する。
ネットワークインタフェース部201は、CPU203の制御により動作し、データバス206を介してメモリ204に格納されているデータを読み出して、端末装置2外部のLANに対して送信する。また、ネットワークインタフェース部201は、端末装置2外部のLANから受信したデータを、データバス206を介してメモリ204に格納する。例えば、端末装置2は、ネットワークインタフェース部201を介して、図1に示した画像処理装置1と通信可能である。
As illustrated in FIG. 2, the terminal device 2 includes a network interface unit 201, a display / operation unit 202, a CPU 203, a memory 204, an HDD 205, and a data bus 206.
The network interface unit 201 operates under the control of the CPU 203, reads data stored in the memory 204 via the data bus 206, and transmits it to the LAN outside the terminal device 2. Further, the network interface unit 201 stores data received from the LAN outside the terminal device 2 in the memory 204 via the data bus 206. For example, the terminal device 2 can communicate with the image processing device 1 illustrated in FIG. 1 via the network interface unit 201.

表示・操作部202は、CPU203の制御により動作し、データバス206を介してCPU203から受信した情報を、図示しない表示装置(ディスプレイ)に表示する。また、表示・操作部202は、図示しない入力装置(例えば、キーボード、ポインティングデバイス、タッチパネル)をユーザが操作した操作情報を、CPU203に送信する。   The display / operation unit 202 operates under the control of the CPU 203 and displays information received from the CPU 203 via the data bus 206 on a display device (display) (not shown). In addition, the display / operation unit 202 transmits, to the CPU 203, operation information that the user has operated an input device (for example, a keyboard, a pointing device, or a touch panel) (not shown).

CPU203は、HDD205に格納されたプログラムをメモリ204に読み出し、そのプログラムに従って端末装置2全体の制御を行う。メモリ204は、HDD205から読み出したCPU203のプログラムを格納したり、LANから受信したデータを格納する一時メモリである。HDD205はハードディスクドライブであり、CPU203のプログラムが格納してある他、各種データ等を格納する。HDD205は、SSD(Solid State Drive)等のフラッシュメモリであってもよい。206はデータバスであり、データの転送を行う。   The CPU 203 reads the program stored in the HDD 205 to the memory 204 and controls the entire terminal device 2 according to the program. The memory 204 is a temporary memory that stores a program of the CPU 203 read from the HDD 205 and stores data received from the LAN. An HDD 205 is a hard disk drive that stores a program of the CPU 203 and various data. The HDD 205 may be a flash memory such as an SSD (Solid State Drive). Reference numeral 206 denotes a data bus, which transfers data.

端末装置2は、CPU203の制御によってLANを介して画像処理装置1と通信を行い、画像処理装置1のリモート操作を行うことができる。ここで、リモート操作とは、表示・操作部202に画像処理装置1から受信した情報を表示し、また、表示・操作部202に入力された操作内容を画像処理装置1に対して送信して、端末装置2から画像処理装置1を操作することを指している。   The terminal device 2 can communicate with the image processing device 1 via the LAN under the control of the CPU 203 and perform remote operation of the image processing device 1. Here, the remote operation means that the information received from the image processing apparatus 1 is displayed on the display / operation unit 202, and the operation content input to the display / operation unit 202 is transmitted to the image processing apparatus 1. The operation of the image processing apparatus 1 from the terminal device 2 is indicated.

リモート操作の動作は、画像処理装置1のCPU105と端末装置2のCPU203それぞれの制御が連携することで実現しているが、その手順は以下である。
端末装置2において、CPU203は、ネットワークインタフェース部201を介してLANに接続された画像処理装置1へリモート操作接続要求信号を送信する。画像処理装置1のCPU105は、端末装置2から送信されたリモート操作接続要求信号を、ネットワークインタフェース部102を介して受信する。CPU105は、リモート操作の表示と操作に必要な情報を、ネットワークインタフェース部102を介してLANに接続された端末装置2へ送信する。端末装置2のCPU203は、リモート操作の表示と操作に必要な情報を、ネットワークインタフェース部201を介して受信する。端末装置2のCPU203は、リモート操作の表示と操作に必要な情報に基づいて、操作画面を表示・操作部202に表示し、ユーザからの操作を受け付ける。ユーザ操作がかると、端末装置2のCPU203は、表示・操作部202に対するユーザによる操作内容を示す信号を、ネットワークインタフェース部201を介してLANに接続された画像処理装置1へ送信する。画像処理装置1のCPU105は、端末装置2から送信された信号を、ネットワークインタフェース部102を介して受信する。端末装置2のCPU203と画像処理装置1のCPU105は、このようなLANを介した情報のやり取りを繰り返し行うことで、リモート操作を実現している。
The operation of the remote operation is realized by the cooperation of the control of the CPU 105 of the image processing apparatus 1 and the CPU 203 of the terminal apparatus 2, and the procedure is as follows.
In the terminal device 2, the CPU 203 transmits a remote operation connection request signal to the image processing device 1 connected to the LAN via the network interface unit 201. The CPU 105 of the image processing apparatus 1 receives the remote operation connection request signal transmitted from the terminal apparatus 2 via the network interface unit 102. The CPU 105 transmits information necessary for display and operation of the remote operation to the terminal device 2 connected to the LAN via the network interface unit 102. The CPU 203 of the terminal device 2 receives information necessary for display and operation of the remote operation via the network interface unit 201. The CPU 203 of the terminal device 2 displays an operation screen on the display / operation unit 202 based on information necessary for display and operation of the remote operation, and accepts an operation from the user. When a user operation is performed, the CPU 203 of the terminal device 2 transmits a signal indicating the operation content by the user to the display / operation unit 202 to the image processing apparatus 1 connected to the LAN via the network interface unit 201. The CPU 105 of the image processing apparatus 1 receives the signal transmitted from the terminal device 2 via the network interface unit 102. The CPU 203 of the terminal device 2 and the CPU 105 of the image processing apparatus 1 realize remote operation by repeatedly exchanging information via such a LAN.

図3は、画像処理装置1と周囲のユーザとの位置関係、及び人感センサ部103の検知範囲を示した模式図であり、画像処理装置1とその周囲を上から見下ろした俯瞰図で表現してある。なお、図1、図2と同一のものには同一の符号を付してある。   FIG. 3 is a schematic diagram showing the positional relationship between the image processing apparatus 1 and surrounding users and the detection range of the human sensor 103, and is represented by an overhead view of the image processing apparatus 1 and its surroundings as viewed from above. It is. In addition, the same code | symbol is attached | subjected to the same thing as FIG. 1, FIG.

図3(A)は、画像処理装置1、及び端末装置2を使用しているユーザ3の位置関係を示す。
図3(B)は、図3(A)の状態において、人感センサ部103による人感検知範囲を複数の台形で表したものであり、各台形は人感センサ部103の複数の焦電センサそれぞれの検知範囲を示している。
人感センサ部103の複数の焦電センサは、この図に示すように、それぞれが近接した異なる範囲を検知できるように画像処理装置1の周囲に斜め下向きに取り付けられている。図中の斜線付の台形は、その台形に対応する焦電センサがユーザを検知していることを表している。
FIG. 3A shows the positional relationship between the image processing device 1 and the user 3 who is using the terminal device 2.
FIG. 3B shows the human detection range by the human sensor unit 103 in the state of FIG. 3A with a plurality of trapezoids, and each trapezoid has a plurality of pyroelectric elements of the human sensor unit 103. The detection range of each sensor is shown.
As shown in this figure, the plurality of pyroelectric sensors of the human sensor unit 103 are attached obliquely downward around the image processing apparatus 1 so as to detect different adjacent ranges. The trapezoid with a diagonal line in the figure indicates that the pyroelectric sensor corresponding to the trapezoid detects the user.

図3(C)は、画像処理装置1、及び端末装置2を使用しているユーザ3の位置関係を示す。
図3(D)は、図3(C)の状態において、人感センサ部103による人感検知範囲を複数の台形で表したものである。
FIG. 3C shows the positional relationship between the image processing device 1 and the user 3 who is using the terminal device 2.
FIG. 3D shows a human detection range by the human sensor unit 103 as a plurality of trapezoids in the state of FIG.

図3(E)は、画像処理装置1、端末装置2を使用しているユーザ3、及び、別のユーザ4の位置関係を示す。
図3(F)は、図3(E)の状態において、人感センサ部103による人感検知範囲を複数の台形で表したものである。
FIG. 3E shows the positional relationship between the image processing device 1, the user 3 using the terminal device 2, and another user 4.
FIG. 3F shows the human detection range by the human sensor unit 103 in the state of FIG. 3E as a plurality of trapezoids.

なお、ユーザ3は、画像処理装置1を使用しようとしているユーザではないため、画像処理装置1がスリープモードにある場合には、人感センサ部103によりユーザ3が検知されても、スリープ復帰動作を行う必要はない。
また、ユーザ4は、印刷済みの用紙を取りに来ただけのユーザであるが、画像処理装置1がスリープモードにある場合には、表示・操作部104の表示装置に印刷状況を表示すると利便性が高まると考えられる。そのため、画像処理装置1は、人感センサ部103によりユーザ4が検知された場合、スリープモードから操作部のみスリープ復帰動作を行うとよい。
Since the user 3 is not a user who intends to use the image processing apparatus 1, when the image processing apparatus 1 is in the sleep mode, even if the user 3 is detected by the human sensor unit 103, the sleep recovery operation is performed. There is no need to do.
Also, the user 4 is a user who has just picked up printed paper, but when the image processing apparatus 1 is in the sleep mode, it is convenient to display the print status on the display device of the display / operation unit 104. It is thought that the nature increases. Therefore, when the user 4 is detected by the human sensor unit 103, the image processing apparatus 1 may perform the sleep return operation only from the operation mode from the sleep mode.

なお、本実施例では、人感センサ部103による人感検知範囲を複数の台形で表しているが、人感センサの検知範囲の形状と同等な形状であればよく、台形以外であってもよい。   In this embodiment, the human detection range by the human sensor unit 103 is represented by a plurality of trapezoids, but it may be a shape equivalent to the detection range of the human sensor, and may be other than the trapezoid. Good.

図4は、端末装置2で画像処理装置1をリモート操作する場合に表示・操作部202に表示される画面の一例を示す図である。
図4(A)は、端末装置2において、画像処理装置1のリモート操作アプリケーションを起動したときのトップ画面D41である。411はコピーボタン、412はスキャンボタン、413は状態表示ボタン、414はプリントボタン、415は設定ボタンである。ユーザは、これらのボタンをクリック(タッチ等の指示でもよいが、以下「クリック」という)することで、画像処理装置1に対して各種動作の指示を出すことができる。
FIG. 4 is a diagram illustrating an example of a screen displayed on the display / operation unit 202 when the image processing apparatus 1 is remotely operated by the terminal device 2.
FIG. 4A shows a top screen D41 when the remote operation application of the image processing apparatus 1 is activated in the terminal device 2. Reference numeral 411 is a copy button, 412 is a scan button, 413 is a status display button, 414 is a print button, and 415 is a setting button. The user can issue instructions for various operations to the image processing apparatus 1 by clicking these buttons (which may be an instruction such as touch or the like, but hereinafter referred to as “click”).

図4(B)は、トップ画面D41(図4(A))において、ユーザが状態表示ボタン413をクリックしたときに遷移する状態表示画面D42である。421はジョブ履歴ボタン、422は用紙残量:トナー残量ボタン、423は人感センサボタン、424は戻るボタンである。ユーザはこれらのボタンをクリックすることで、画像処理装置1に対して各種動作の指示を出すことができる。   FIG. 4B is a state display screen D42 that transitions when the user clicks the state display button 413 on the top screen D41 (FIG. 4A). 421 is a job history button, 422 is a remaining paper amount: toner remaining amount button, 423 is a human sensor button, and 424 is a return button. The user can issue instructions for various operations to the image processing apparatus 1 by clicking these buttons.

図4(C)は、状態表示画面D42(図4(B))において、ユーザが人感センサボタン423をクリックしたときに遷移する人感センサ画面D43である。431は人感センサ部103の人感検知範囲、432は戻るボタン、433は設定変更ボタンである。   FIG. 4C is a human sensor screen D43 that transitions when the user clicks the human sensor button 423 on the state display screen D42 (FIG. 4B). 431 is a human detection range of the human sensor unit 103, 432 is a return button, and 433 is a setting change button.

人感検知範囲431は、中心に表示されている画像処理装置1(図中438)を上面から見た模式図を基準にして、相対的な位置がわかるような表示になっている。また、人感検知範囲431は、複数の台形で表してあるが、各台形は人感センサ部103の複数の焦電センサそれぞれの検知範囲を示している。例えば、人感センサ部103の各焦電センサと各台形が1対1に対応している。各台形の位置と大きさは、対応する焦電センサの検知範囲の位置と大きさを、画像処理装置1からの相対的な位置関係で表現したものとなっている。なお、図中、434に示すような斜線が付された台形は、その台形に対応する焦電センサがユーザを検知していることを表している。   The human detection range 431 is displayed so that the relative position can be seen with reference to a schematic view of the image processing apparatus 1 (438 in the figure) displayed at the center as viewed from above. Moreover, although the human detection range 431 is represented by a plurality of trapezoids, each trapezoid indicates a detection range of each of the plurality of pyroelectric sensors of the human detection sensor unit 103. For example, each pyroelectric sensor of the human sensor 103 and each trapezoid have a one-to-one correspondence. The position and size of each trapezoid represent the position and size of the detection range of the corresponding pyroelectric sensor as a relative positional relationship from the image processing apparatus 1. In the figure, a trapezoid with an oblique line as indicated by reference numeral 434 indicates that the pyroelectric sensor corresponding to the trapezoid detects the user.

また、各台形は、その台形に対応する焦電センサがユーザを検知した場合にどのようなスリープ復帰動作を行うかの設定情報を持ち、その設定情報に応じた模様(435、436、437等)で台形の背景が表示される。   Each trapezoid has setting information indicating what sleep return operation is performed when the pyroelectric sensor corresponding to the trapezoid detects the user, and a pattern (435, 436, 437, etc.) corresponding to the setting information. ) Displays a trapezoidal background.

スリープモードから通常動作モードに遷移する動作(第1動作)を行う設定(第1動作設定)を持つ台形は背景が白(白背景435)である。また、スリープモードから操作部のみ動作モードに遷移する動作(第2動作)を行う設定(第2動作設定)を持つ台形は背景が網掛け(網掛け背景436)である。また、ユーザを検知してもスリープ復帰動作を行わない設定(無効設定)を持つ台形は背景が黒(黒背景437)である。これらの背景はフルカラーで区別可能なものでもよい。   A trapezoid having a setting (first operation setting) for performing an operation (first operation) for transition from the sleep mode to the normal operation mode has a white background (white background 435). In addition, the background of the trapezoid having the setting (second operation setting) for performing the operation (second operation) for shifting only the operation unit from the sleep mode to the operation mode is shaded (shaded background 436). A trapezoid having a setting (invalid setting) that does not perform the sleep recovery operation even when a user is detected has a black background (black background 437). These backgrounds may be full color and distinguishable.

白背景435の台形が持つ設定を、「スリープ復帰有効設定」と呼ぶ。また、網掛け背景436の台形が持つ設定を、「操作部のみスリープ復帰有効設定」と呼ぶ。さらに、黒背景437の台形が持つ設定を「検知無効設定」と呼ぶ。なお、画面D43(図4(C))は、全ての台形にスリープ復帰有効設定がなされている場合に対応する(全ての台形が白背景435)。   The setting of the trapezoid of the white background 435 is referred to as “sleep recovery effective setting”. Further, the setting of the trapezoid of the shaded background 436 is referred to as “only the operation unit sleep return effective setting”. Further, the setting of the trapezoid of the black background 437 is referred to as “detection invalid setting”. Note that the screen D43 (FIG. 4C) corresponds to the case where all trapezoids are set to enable sleep recovery (all trapezoids are white background 435).

図4(D)は、人感センサ画面D43(図4(C))において、ユーザが設定変更ボタン433をクリックしたときに遷移する設定変更画面D44である。
設定変更画面D44において、441は人感センサ部103の人感検知範囲ボタンである。442は変更キャンセルボタンである。443は決定ボタンである。444は内向きに変更ボタンである。
FIG. 4D is a setting change screen D44 that transitions when the user clicks the setting change button 433 in the human sensor screen D43 (FIG. 4C).
In the setting change screen D44, reference numeral 441 denotes a human detection range button of the human sensor unit 103. Reference numeral 442 denotes a change cancel button. Reference numeral 443 denotes an enter button. Reference numeral 444 denotes an inward change button.

人感検知範囲ボタン441は、図4(C)における人感検知範囲431と同様に複数の台形で表してあり、斜線付きの意味と背景の意味も同じであるが、各台形はボタンになっている。各台形のボタンをクリックすることで、それに対応する焦電センサがユーザを検知したときの動作を、スリープ復帰有効設定、操作部のみスリープ復帰設定、検知無効設定の順番に切り替えることができる。なお、検知無効設定になっている台形をさらにクリックすることで、再度、スリープ復帰有効設定に切り替えることができる。
なお、図4(D)の画面D44は、図3(C)および(D)に示した状況での検知状態を表している。
The human detection range button 441 is represented by a plurality of trapezoids similarly to the human detection range 431 in FIG. 4C, and the meaning of the hatched and the background is the same, but each trapezoid is a button. ing. By clicking each trapezoid button, the operation when the corresponding pyroelectric sensor detects the user can be switched in the order of sleep return valid setting, only the operation unit sleep return setting, and detection invalid setting. It should be noted that by further clicking on the trapezoid whose detection is disabled, it can be switched again to the sleep recovery enabled setting.
Note that a screen D44 in FIG. 4D represents a detection state in the situation illustrated in FIGS. 3C and 3D.

図4(E)は、設定変更画面D44において、ユーザが内向きに変更ボタン444をクリックしたときの設定変更画面D44である。なお、図4(D)と同一のものには同一の符号を付してある。   FIG. 4E shows the setting change screen D44 when the user clicks the change button 444 inward on the setting change screen D44. In addition, the same code | symbol is attached | subjected to the same thing as FIG.4 (D).

画像処理装置1のCPU105は、内向きに変更ボタン444(図4(D))がクリックされたときに、人感センサ部103の複数の焦電センサの向きを少し下向きに変更して検知範囲全体を内側に縮小する。CPU105はその動作と共に、図4(E)に示すように、人感検知範囲ボタン441の形状を縮小してリモート操作画面に表示させている。   When the change button 444 (FIG. 4D) is clicked inward, the CPU 105 of the image processing apparatus 1 changes the direction of the plurality of pyroelectric sensors of the human sensor unit 103 slightly downward to detect the detection range. Shrink the whole inside. Along with the operation, the CPU 105 reduces the shape of the human detection range button 441 and displays it on the remote operation screen as shown in FIG.

454は外向きに変更ボタンである。画像処理装置1のCPU105は、外向きに変更ボタン454(図4(E))がクリックされたときに、人感センサ部103の複数の焦電センサの向きを少し上向きに変更して検知範囲全体を外側に拡大する。CPU105はその動作と共に、人感検知範囲ボタン441の形状を拡大してリモート操作画面に表示させる。   Reference numeral 454 denotes an outward change button. When the change button 454 (FIG. 4 (E)) is clicked outward, the CPU 105 of the image processing apparatus 1 changes the direction of the plurality of pyroelectric sensors of the human sensor unit 103 slightly upward to detect the detection range. Enlarge the whole outward. With the operation, the CPU 105 enlarges the shape of the human detection range button 441 and displays it on the remote operation screen.

なお、図4では、人感センサ部103の複数の焦電センサの向きを少し下(上)向きに変更して検知範囲全体を内(外)側に縮小(拡大)する構成を示したが、人感センサ部103の複数の焦電センサの向きを、左右にも変更可能に構成してもよい。そして、左向きに変更ボタン、右向きに変更ボタンを設け、左(右)向きに変更ボタンがクリックされたときに、人感センサ部103の複数の焦電センサの向きを少し左(右)向きに変更して検知範囲全体を左(右)側に移動するようにしてもよい。また、複数の焦電センサの向きを、上述した上下、左右で組み合わせて変更可能にしてもよい。即ち、正面上、正面下、左上、左下、右上、右下のように変更可能にしてもよい。さらに、人感センサ部103の複数の焦電センサの向きを各向きにそれぞれ複数の段階で変更可能にしてもよい。即ち、人感センサ部103の複数の焦電センサの向きを、上下に複数段階の変更と左右に複数段階の変更とを組み合わせて変更可能にしてもよい。   Note that FIG. 4 shows a configuration in which the direction of the plurality of pyroelectric sensors of the human sensor unit 103 is changed slightly downward (upward) to reduce (enlarge) the entire detection range inward (outward). The orientations of the plurality of pyroelectric sensors of the human sensor unit 103 may be configured to be changeable to the left and right. Then, a change button is provided in the left direction and a change button is provided in the right direction. When the change button is clicked in the left (right) direction, the direction of the plurality of pyroelectric sensors in the human sensor unit 103 is slightly left (right). It may be changed to move the entire detection range to the left (right) side. Further, the orientations of the plurality of pyroelectric sensors may be changed by combining the above-described top and bottom and left and right. That is, it may be changeable such as top front, bottom front, top left, bottom left, top right, bottom right. Further, the orientations of the plurality of pyroelectric sensors of the human sensor unit 103 may be changed in a plurality of stages in each direction. In other words, the orientations of the plurality of pyroelectric sensors of the human sensor unit 103 may be changed by combining a plurality of stages of changes in the vertical direction and a plurality of changes in the left and right directions.

図4(F)は、設定変更画面D44の状態で、画像処理装置1の周囲の状況が図3(E)及び(F)に示した状況になったときの設定変更画面D44である。なお、図4(D)、図4(E)と同一のものには同一の符号を付してある。   FIG. 4F shows the setting change screen D44 when the surroundings of the image processing apparatus 1 are in the state shown in FIGS. 3E and 3F in the state of the setting change screen D44. In addition, the same code | symbol is attached | subjected to the same thing as FIG.4 (D) and FIG.4 (E).

図4(F)では、人感検知範囲ボタン441は、白い背景の台形に斜線が付いており、図3(E)及び(F)のユーザ3及びユーザ4が検知されている。白い背景の台形は、スリープ復帰有効設定の台形であるので、この状況において画像処理装置1がスリープモードにある場合には、スリープ復帰することを示している。つまり、現在の設定では、図3(E)の説明で述べた、ユーザ3のためにスリープ復帰動作を行う必要がないことと、ユーザ4のために操作部のみスリープ復帰動作を行うとよいということに一致したスリープ復帰動作は行えない。以下、図3(E)の説明で述べたスリープ復帰動作を実現するための設定操作を説明する。   In FIG. 4F, the human detection range button 441 has a trapezoid with a white background, and the user 3 and the user 4 in FIGS. 3E and 3F are detected. Since the trapezoid with the white background is a trapezoid with sleep recovery valid setting, it indicates that when the image processing apparatus 1 is in the sleep mode in this situation, the sleep recovery is performed. That is, in the current setting, it is not necessary to perform the sleep recovery operation for the user 3 described in the description of FIG. 3E, and it is preferable to perform the sleep recovery operation only for the operation unit for the user 4. Therefore, the sleep recovery operation that matches the above cannot be performed. Hereinafter, a setting operation for realizing the sleep return operation described in the description of FIG.

図5は、端末装置2で画像処理装置1をリモート操作するときに表示・操作部202に表示される画面の一例を示す図である。
図5(A)は、図4(F)における設定変更画面D44の状態で、図3(E)及び図3(F)におけるユーザ3が検知され得る焦電センサに対応する各台形ボタンを2回ずつクリックして、黒い背景の「検知無効設定」の台形に変更した設定変更画面D44である。
FIG. 5 is a diagram illustrating an example of a screen displayed on the display / operation unit 202 when the terminal device 2 remotely operates the image processing apparatus 1.
FIG. 5A shows the state of the setting change screen D44 in FIG. 4F, and shows two trapezoid buttons corresponding to pyroelectric sensors that can be detected by the user 3 in FIGS. 3E and 3F. This is a setting change screen D44 that is clicked repeatedly and changed to a trapezoid of “detection invalid setting” with a black background.

図5(B)は、図5(A)における設定変更画面D44の状態で、図3(E)及び図3(F)におけるユーザ4が検知され得る焦電センサに対応する各台形ボタンを1回ずつクリックして、網掛け背景の「操作部のみスリープ復帰設定」の台形に変更した設定変更画面D44である。   FIG. 5B shows the state of the setting change screen D44 in FIG. 5A, and shows each trapezoid button corresponding to the pyroelectric sensor that can be detected by the user 4 in FIGS. 3E and 3F. This is a setting change screen D44 that is clicked repeatedly and changed to a trapezoid of “Operation unit only sleep return setting” on the shaded background.

図5(C)は、図5(B)における設定変更画面D44の状態で、決定ボタン443をクリックして、各台形のスリープ復帰動作設定を確定させたときに遷移する人感センサ画面D43である。   FIG. 5C shows a human sensor screen D43 that transitions when the decision button 443 is clicked in the state of the setting change screen D44 in FIG. is there.

図5(C)の画面D43においては、背景が白の台形の他に、背景が黒の台形、背景が網掛けの台形が存在し、図3(E)及び(F)のユーザ3が検知される状況において、スリープモードから復帰しないことがわかる。また、図3(E)及び(F)のユーザ4が検知される状況において、スリープモードから操作部のみスリープ復帰することがわかる。   On the screen D43 in FIG. 5C, in addition to the trapezoid with the white background, the trapezoid with the black background and the shaded trapezoid with the background exists, and the user 3 in FIGS. 3E and 3F detects the trapezoid. It can be seen that the system does not return from the sleep mode in the situation where In addition, in the situation where the user 4 in FIGS. 3E and 3F is detected, it can be seen that only the operation unit returns from sleep mode to sleep.

なお、人感センサ部103の複数の焦電センサの向き設定と、各焦電センサのスリープ復帰動作設定の情報は、CPU105の制御により、HDD107に記録されるものとする。   It should be noted that information on the orientation settings of the plurality of pyroelectric sensors of the human sensor 103 and the sleep return operation setting of each pyroelectric sensor is recorded in the HDD 107 under the control of the CPU 105.

以下、図6を用いて、人感センサ画面のフローチャートについて説明する。
図6は、図4(C)及び図5(C)に示した人感センサ画面D43における画像処理装置1のフローチャートである。なお、このフローチャートは、人感センサ部103の各焦電センサの検知範囲を画像処理装置1からの相対的な位置で示す人感センサ画面を、画像処理装置1のCPU105が生成する手順を表している。図中、S601〜S609は各ステップを示す。このフローチャートの処理は、CPU105がHDD107にコンピュータ読み取り可能に記録されたプログラムを読み出して実行することにより実現されるものである。
Hereinafter, the flowchart of the human sensor screen will be described with reference to FIG.
FIG. 6 is a flowchart of the image processing apparatus 1 on the human sensor screen D43 shown in FIGS. 4 (C) and 5 (C). This flowchart represents a procedure in which the CPU 105 of the image processing apparatus 1 generates a human sensor screen indicating the detection range of each pyroelectric sensor of the human sensor unit 103 by a relative position from the image processing apparatus 1. ing. In the figure, S601 to S609 indicate each step. The processing of this flowchart is realized by the CPU 105 reading and executing a program recorded in the HDD 107 so as to be readable by a computer.

画像処理装置1のCPU105は、図4(B)に示した状態表示画面D42において、人感センサボタン423がクリック(指示)されたことを端末装置2から受信すると、図6のS601に処理を進める。   When the CPU 105 of the image processing apparatus 1 receives from the terminal device 2 that the human sensor button 423 is clicked (instructed) on the status display screen D42 shown in FIG. 4B, the CPU 105 performs the process in S601 of FIG. Proceed.

S601では、CPU105は、HDD107に記録されている焦電センサの向き設定の読み出しを行い、S602に処理を進める。
S602では、CPU105は、HDD107に記録されている各焦電センサのスリープ復帰動作設定の読み出しを行い、S603に処理を進める。
In step S601, the CPU 105 reads the pyroelectric sensor orientation setting recorded in the HDD 107, and advances the process to step S602.
In S602, the CPU 105 reads the sleep return operation setting of each pyroelectric sensor recorded in the HDD 107, and advances the process to S603.

S603では、CPU105は、人感センサ部103から各焦電センサの検知状態の読み出しを行い、S604に処理を進める。
S604では、CPU105は、HDD107に記録されている台形画像の中から、焦電センサの向き、スリープ復帰動作設定、及び検知状態に応じた台形画像の読み出しを行い、S605に処理を進める。
In S603, the CPU 105 reads out the detection state of each pyroelectric sensor from the human sensor unit 103, and advances the process to S604.
In step S604, the CPU 105 reads out the trapezoidal image according to the orientation of the pyroelectric sensor, the sleep return operation setting, and the detection state from the trapezoidal image recorded in the HDD 107, and the process proceeds to step S605.

S605では、CPU105は、HDD107に記録されている画像処理装置とボタン類を含む人感センサ画面基本画像の読み出しを行い、上記S604で読み出した台形画像と合成した画像を生成して、S606に処理を進める。なお、ここで生成した合成画像は、人感センサ部103の検知範囲を画像処理装置1からの相対位置で示す情報、人感センサ部103の領域毎に人を検知している領域と人を検知していない領域とを区別して示す情報、人感センサ部103の領域毎に、人の存在を検知した場合に実行する動作を設定する情報等を含む表示情報である。   In S605, the CPU 105 reads the human sensor screen basic image including the image processing apparatus and buttons recorded in the HDD 107, generates a composite image with the trapezoid image read in S604, and performs the process in S606. To proceed. Note that the composite image generated here includes information indicating the detection range of the human sensor unit 103 in a relative position from the image processing apparatus 1, and a region and a human being detected for each region of the human sensor unit 103. The display information includes information that distinguishes the area that is not detected, information that sets an operation to be performed when the presence of a person is detected for each area of the human sensor unit 103, and the like.

S606では、CPU105は、上記S605で生成した合成画像を、ネットワークインタフェース部102とLANを介して、端末装置2に対して送信し、S607に処理を進める。これを受信した端末装置2は、図4(C)に示したような人感センサ画面D43を表示・操作部202に表示し、ユーザからの操作を受け付ける。そして、ユーザからの操作があると、端末装置2は、操作情報を画像処理装置1に送信する。   In S606, the CPU 105 transmits the composite image generated in S605 to the terminal device 2 via the network interface unit 102 and the LAN, and the process proceeds to S607. Receiving this, the terminal device 2 displays the human sensor screen D43 as shown in FIG. 4C on the display / operation unit 202 and accepts an operation from the user. When there is an operation from the user, the terminal device 2 transmits operation information to the image processing device 1.

S607では、画像処理装置1のCPU105は、端末装置2から操作情報を受信したか判定する。
そして、端末装置2から操作情報を受信していないと判定した場合(S607でNoの間)、CPU105は、S603に処理を進める。
In step S <b> 607, the CPU 105 of the image processing apparatus 1 determines whether operation information has been received from the terminal device 2.
If it is determined that no operation information has been received from the terminal device 2 (No in S607), the CPU 105 advances the process to S603.

一方、端末装置2から操作情報を受信したと判定した場合(S607でYesの場合)、CPU105は、S608に処理を進める。
S608では、CPU105は、上記S607で受信した操作情報が、戻るボタン432のクリックであるか判定する。
そして、戻るボタン432のクリックであると判定した場合(S608でYesの場合)、CPU105は、図示しない状態表示画面のフローチャートへ処理を進める。
On the other hand, if it is determined that the operation information has been received from the terminal device 2 (Yes in S607), the CPU 105 advances the process to S608.
In step S <b> 608, the CPU 105 determines whether the operation information received in step S <b> 607 is a click on the return button 432.
If it is determined that the return button 432 is clicked (Yes in S608), the CPU 105 advances the process to a flowchart of a state display screen (not shown).

なお、図示しないが、状態表示画面のフローチャートでは、CPU105が、HDD107に記録されている状態表示画面基本画像(図4(b)のD42に示すような画像)の読み出しを行い、該状態表示画面基本画像を、ネットワークインタフェース部102とLANを介して、端末装置2に対して送信する。   Although not shown, in the flowchart of the status display screen, the CPU 105 reads out the status display screen basic image recorded in the HDD 107 (an image as indicated by D42 in FIG. 4B), and displays the status display screen. The basic image is transmitted to the terminal device 2 via the network interface unit 102 and the LAN.

以下、図6のフローチャートの説明に戻る。
また、上記S608において、戻るボタン432のクリックでないと判定した場合(S608でNoの場合)、CPU105は、S609に処理を進める。
S609では、CPU105は、上記S607で受信した操作情報が、設定変更ボタン433のクリックであるか判定する。
Returning to the flowchart of FIG.
If it is determined in S608 that the return button 432 is not clicked (No in S608), the CPU 105 advances the process to S609.
In step S609, the CPU 105 determines whether the operation information received in step S607 is a click on the setting change button 433.

そして、設定変更ボタン433のクリックでないと判定した場合(S609でNoの場合)、CPU105は、S603に処理を戻す。
一方、設定変更ボタン433のクリックであると判定した場合(S609でYesの場合)、CPU105は、図7に示す設定変更画面のフローチャートへ処理を進める。
When it is determined that the setting change button 433 is not clicked (No in S609), the CPU 105 returns the process to S603.
On the other hand, when it is determined that the setting change button 433 is clicked (Yes in S609), the CPU 105 advances the processing to the flowchart of the setting change screen shown in FIG.

以下、図7を用いて、設定変更画面のフローチャートについて説明する。
図7は、図4(D)〜(F)及び図5(A)〜(B)に示した設定変更画面D44における画像処理装置1のフローチャートである。このフローチャートは、設定変更画面D44を画像処理装置1のCPU105が生成する手順を表している。また、焦電センサの向きと各焦電センサのスリープ復帰動作の設定をCPU105が変更する手順を表している。図中、S701〜S717は各ステップを示す。このフローチャートの処理は、CPU105がHDD107にコンピュータ読み取り可能に記録されたプログラムを読み出して実行することにより実現されるものである。
Hereinafter, the flowchart of the setting change screen will be described with reference to FIG.
FIG. 7 is a flowchart of the image processing apparatus 1 on the setting change screen D44 shown in FIGS. 4 (D) to 4 (F) and FIGS. 5 (A) to 5 (B). This flowchart represents a procedure in which the CPU 105 of the image processing apparatus 1 generates the setting change screen D44. In addition, the CPU 105 changes the direction of the pyroelectric sensor and the setting of the sleep return operation of each pyroelectric sensor. In the figure, S701 to S717 indicate each step. The processing of this flowchart is realized by the CPU 105 reading and executing a program recorded in the HDD 107 so as to be readable by a computer.

画像処理装置1のCPU105は、まずS701において、HDD107に記録されている焦電センサの向き設定の読み出しを行い、S702に処理を進める。
S702では、CPU105は、HDD107に記録されている各焦電センサのスリープ復帰動作設定の読み出しを行い、S703に処理を進める。
First, in step S701, the CPU 105 of the image processing apparatus 1 reads the pyroelectric sensor orientation setting recorded in the HDD 107, and advances the process to step S702.
In step S <b> 702, the CPU 105 reads the sleep return operation setting of each pyroelectric sensor recorded in the HDD 107 and advances the process to step S <b> 703.

S703において、CPU105は、上記S701で読み出した焦電センサの向き設定と、上記S702で読み出した各焦電センサのスリープ復帰動作設定をHDD107の元の領域とは別の領域に記録して、S704に処理を進める。以下、上記元の領域を設定領域と呼び、上記別の領域をバックアップ領域と呼ぶ。   In step S <b> 703, the CPU 105 records the pyroelectric sensor orientation setting read in step S <b> 701 and the sleep return operation setting of each pyroelectric sensor read in step S <b> 702 in an area different from the original area of the HDD 107. Proceed with the process. Hereinafter, the original area is referred to as a setting area, and the other area is referred to as a backup area.

S704において、CPU105は、人感センサ部103から各焦電センサの検知状態の読み出しを行い、S705に処理を進める。
S705では、CPU105は、HDD107に記録されている台形画像の中から、焦電センサの向き、スリープ復帰動作設定、及び検知状態に応じた台形画像の読み出しを行い、S706に処理を進める。
In step S <b> 704, the CPU 105 reads out the detection state of each pyroelectric sensor from the human sensor unit 103 and advances the process to step S <b> 705.
In step S <b> 705, the CPU 105 reads out the trapezoidal image according to the orientation of the pyroelectric sensor, the sleep return operation setting, and the detection state from the trapezoidal image recorded in the HDD 107, and the process proceeds to step S <b> 706.

S706では、CPU105は、HDD107に記録されている画像処理装置とボタン類を含む設定変更画面基本画像の読み出しを行い、S705で読み出した台形画像と合成した画像を生成して、S707に処理を進める。   In S706, the CPU 105 reads the setting change screen basic image including the image processing apparatus and buttons recorded in the HDD 107, generates an image synthesized with the trapezoidal image read in S705, and advances the process to S707. .

S707では、CPU105は、上記S706で生成した合成画像を、ネットワークインタフェース部102とLANを介して、端末装置2に対して送信し、S708に処理を進める。これを受信した端末装置2は、図4(D)〜(F)及び図5(A)〜(B)に示したような設定変更画面D44を表示・操作部202に表示し、ユーザからの操作を受け付ける。そして、ユーザからの操作があると、端末装置2は、操作情報を画像処理装置1に送信する。なお、端末装置2は、前記操作情報として、人感センサ部103の特定の検知領域の設定を、人感センサ部103の検知領域を無効にする「検知無効設定」へ設定変更する指示、スリープモードから通常動作モードに遷移する「スリープ復帰有効設定」へ設定変更する指示、スリープモードから操作部のみ動作モードに遷移する「操作部のみスリープ復帰有効設定」へ設定変更する指示や、人感センサ部103の焦電センサの向きを変更する指示や、その他の指示などを送信可能である。   In S707, the CPU 105 transmits the composite image generated in S706 to the terminal device 2 via the network interface unit 102 and the LAN, and the process proceeds to S708. Upon receiving this, the terminal device 2 displays a setting change screen D44 as shown in FIGS. 4D to 4F and FIGS. Accept the operation. When there is an operation from the user, the terminal device 2 transmits operation information to the image processing device 1. Note that the terminal device 2 uses, as the operation information, an instruction to change the setting of a specific detection area of the human sensor unit 103 to “detection invalid setting” that invalidates the detection area of the human sensor unit 103, sleep Instruction to change the setting to “Sleep recovery enable setting” to transition from normal mode to normal operation mode, instruction to change the setting to “Sleep recovery enable setting only for operation unit” to change from sleep mode to operation mode only, and human sensor An instruction to change the orientation of the pyroelectric sensor of the unit 103, other instructions, and the like can be transmitted.

S708では、CPU105は、端末装置2から操作情報を受信したか否かを判定する。
そして、端末装置2から操作情報を受信していないと判定した場合(S708でNoの場合)、CPU105は、S704に処理を進める。
In step S <b> 708, the CPU 105 determines whether operation information has been received from the terminal device 2.
If it is determined that no operation information has been received from the terminal device 2 (No in S708), the CPU 105 advances the process to S704.

一方、端末装置2から操作情報を受信したと判定した場合(S708でYesの場合)、CPU105は、S709に処理を進める。
S709では、CPU105は、上記S708で受信した操作情報が台形ボタン(人感検知範囲ボタン441)のクリックであるかどうかを判定する。
そして、操作情報が台形ボタン(人感検知範囲ボタン441)のクリックであると判定した場合(S709でYesの場合)、CPU105は、S710に処理を進める。
On the other hand, if it is determined that the operation information has been received from the terminal device 2 (Yes in S708), the CPU 105 advances the process to S709.
In step S709, the CPU 105 determines whether the operation information received in step S708 is a click on a trapezoid button (human detection range button 441).
If it is determined that the operation information is a click on the trapezoid button (human detection range button 441) (Yes in S709), the CPU 105 advances the process to S710.

S710では、CPU105は、上記S708でクリックされた台形ボタン(人感検知範囲ボタン441)に対応する焦電センサのスリープ復帰動作設定を切り替え、その設定をHDD107の設定領域に記録して、S704に処理を進める。このとき、CPU105は、元のスリープ復帰動作設定の内容に応じて、切り替える内容を制御する。元が「スリープ復帰有効設定」の場合は、「操作部のみスリープ復帰有効設定」に切り替える。元が「操作部のみスリープ復帰有効設定」の場合は、「検知無効設定」に切り替える。元が「検知無効設定」の場合は、「スリープ復帰有効設定」に切り替える。   In S710, the CPU 105 switches the sleep recovery operation setting of the pyroelectric sensor corresponding to the trapezoid button (human detection range button 441) clicked in S708, records the setting in the setting area of the HDD 107, and proceeds to S704. Proceed with the process. At this time, the CPU 105 controls the content to be switched according to the content of the original sleep recovery operation setting. If the original is “sleep recovery enable setting”, switch to “operation unit only sleep recovery enable setting”. When the original is “only the operation unit sleep recovery enable setting”, switch to “detection disable setting”. If the original is “detection invalid setting”, switch to “sleep recovery valid setting”.

一方、操作情報が台形ボタン(人感検知範囲ボタン441)のクリックでないと判定した場合(S709でNoの場合)、CPU105は、S711に処理を進める。
S711では、CPU105は、上記S708で受信した操作情報が変更キャンセルボタン442のクリックであるか否かを判定する。
On the other hand, if it is determined that the operation information is not a click on the trapezoid button (human detection range button 441) (No in S709), the CPU 105 advances the process to S711.
In S711, the CPU 105 determines whether or not the operation information received in S708 is a click on the change cancel button 442.

そして、操作情報が変更キャンセルボタン442のクリックであると判定した場合(S711でYesの場合)、CPU105は、S712に処理を進める。
S712では、CPU105は、上記S702でHDD107のバックアップ領域に記録した焦電センサの向き設定と各焦電センサのスリープ復帰動作設定をHDD107から読み出して、S713に処理を進める。
When it is determined that the operation information is a click on the change cancel button 442 (Yes in S711), the CPU 105 advances the process to S712.
In S712, the CPU 105 reads the pyroelectric sensor orientation setting and the sleep return operation setting of each pyroelectric sensor recorded in the backup area of the HDD 107 in S702 from the HDD 107, and advances the process to S713.

S713では、CPU105は、上記S712で読み出した焦電センサの向き設定を、HDD107の設定領域に記録する。
さらに、S714において、CPU105は、上記S712で読み出した各焦電センサのスリープ復帰動作設定を、HDD107の設定領域に記録し、図6に示した人感センサ画面のフローチャートへ処理を進める。
In S713, the CPU 105 records the orientation setting of the pyroelectric sensor read out in S712 in the setting area of the HDD 107.
Further, in S714, the CPU 105 records the sleep return operation setting of each pyroelectric sensor read out in S712 in the setting area of the HDD 107, and advances the processing to the flowchart of the human sensor screen shown in FIG.

また、上記S711において、操作情報が変更キャンセルボタン442のクリックでないと判定した場合(S711でNoの場合)、CPU105は、S715に処理を進める。   If it is determined in S711 that the operation information is not a click on the change cancel button 442 (No in S711), the CPU 105 advances the process to S715.

S715では、CPU105は、上記S708で受信した操作情報が内向きに変更ボタン444または外向きに変更ボタン454のクリックであるか否かを判定する。
そして、操作情報が内向きに変更ボタン444または外向きに変更ボタン454のクリックであると判定した場合(S715でYesの場合)、CPU105は、S716に処理を進める。
In S715, the CPU 105 determines whether or not the operation information received in S708 is a click of the change button 444 inward or the change button 454 outward.
If it is determined that the operation information is a click of the change button 444 inward or the change button 454 outward (Yes in S715), the CPU 105 advances the process to S716.

S716では、CPU105は、人感センサ部103の焦電センサの向き設定を切り替えて、その設定をHDD107の設定領域に記録して、S704に処理を進める。このとき、CPU105は、元の焦電センサの向き設定の内容に応じて、切り替える内容を制御する。元が外向きの設定の場合は、内向きの設定に切り替える。元が内向きの設定の場合は、外向きの設定に切り替える。   In S716, the CPU 105 switches the orientation setting of the pyroelectric sensor of the human sensor unit 103, records the setting in the setting area of the HDD 107, and advances the process to S704. At this time, the CPU 105 controls the content to be switched according to the content of the orientation setting of the original pyroelectric sensor. If the original setting is outward, switch to inward setting. If the original setting is inward, switch to the outward setting.

また、上記S715において、操作情報が内向きに変更ボタン444のクリックでも外向きに変更ボタン454のクリックでもないと判定した場合(S715でNoの場合)、CPU105は、S717に処理を進める。   If it is determined in S <b> 715 that the operation information is neither an inward click of the change button 444 nor an outward click of the change button 454 (No in S <b> 715), the CPU 105 advances the process to S <b> 717.

S717では、CPU105は、上記S708で受信した操作情報が決定ボタン443のクリックであるか否かを判定する。
そして、操作情報が決定ボタン443のクリックでないと判定した場合(S717でNoの場合)、CPU105は、S704に処理を進める。
In S717, the CPU 105 determines whether or not the operation information received in S708 is a click on the determination button 443.
If it is determined that the operation information is not a click on the determination button 443 (No in S717), the CPU 105 advances the process to S704.

一方、操作情報が決定ボタン443のクリックであると判定した場合(S717でYesの場合)、CPU105は、そのまま図6に示した人感センサ画面のフローチャートへ処理を進める。   On the other hand, when it is determined that the operation information is a click on the determination button 443 (Yes in S717), the CPU 105 proceeds directly to the flowchart of the human sensor screen illustrated in FIG.

以上の構成において、本発明による画像処理装置1の動作の一例を以下に説明する。
この例は、画像処理装置1の近くの席で作業をするユーザ3が、画像処理装置1が自分のことを検知してもスリープ復帰動作を行わないように、また、印刷した紙を取りにきたユーザ4を検知した場合には操作部のみ動作モードに遷移するように設定する手順に対応する。
In the above configuration, an example of the operation of the image processing apparatus 1 according to the present invention will be described below.
In this example, the user 3 who works at a seat near the image processing apparatus 1 does not perform the sleep return operation even when the image processing apparatus 1 detects himself / herself. This corresponds to the procedure for setting only the operation unit to transition to the operation mode when the user 4 is detected.

まず、図3(A)の状況で、ユーザ3は、画像処理装置1のリモート操作を開始するため、端末装置2を起動する。端末装置2は前述の通り、CPU203の制御により、画像処理装置1とLANを介した通信を開始する。そして、画像処理装置1はCPU105の制御により、端末装置2に対してリモート操作用の画面情報を送信し、また、端末装置2からの操作情報を受信して内部の設定に反映させる動作を、以降のリモート操作が実行されている間に必要に応じ繰り返し行う。   First, in the situation of FIG. 3A, the user 3 activates the terminal device 2 in order to start remote operation of the image processing apparatus 1. As described above, the terminal apparatus 2 starts communication with the image processing apparatus 1 via the LAN under the control of the CPU 203. Then, under the control of the CPU 105, the image processing apparatus 1 transmits screen information for remote operation to the terminal apparatus 2, and receives the operation information from the terminal apparatus 2 and reflects it in the internal settings. Repeat as necessary while subsequent remote operations are performed.

画像処理装置1は、端末装置2に対してリモート操作用の画面(トップ画面D41)を送信する。端末装置2は、受信したトップ画面D41を表示・操作部202の表示装置に表示する。   The image processing device 1 transmits a screen for remote operation (top screen D41) to the terminal device 2. The terminal device 2 displays the received top screen D41 on the display device of the display / operation unit 202.

トップ画面D41において、ユーザ3は、人感センサ部103の状態を確認するために、状態表示ボタン413をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、端末装置2に状態表示画面D42を送信する。端末装置2は、受信した状態表示画面D42を表示・操作部202の表示装置に表示する。   On the top screen D41, the user 3 clicks the status display button 413 to check the status of the human sensor unit 103. The terminal device 2 transmits operation information of the user 3 to the image processing device 1. The image processing apparatus 1 that has received the operation information transmits a status display screen D42 to the terminal device 2. The terminal device 2 displays the received status display screen D42 on the display device of the display / operation unit 202.

状態表示画面D42において、ユーザ3は、人感センサの状態を確認するために、人感センサボタン423をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、端末装置2に人感センサ画面D43を送信する。このとき、画像処理装置1は、前述の通り、人感センサ部103の複数の焦電センサの位置が画像処理装置1からの相対位置でわかるように、各焦電センサに対応する台形(焦電センサの向きにも対応)を配置した模式図を生成する。さらに、画像処理装置1は、その模式図の台形に、焦電センサの現在の設定を台形の背景として付加し、また、焦電センサの現在の検知状態を斜線で付加して表す。端末装置2は、受信した人感センサ画面D43を表示・操作部202の表示装置に表示する。   On the status display screen D42, the user 3 clicks the human sensor button 423 in order to confirm the human sensor state. The terminal device 2 transmits operation information of the user 3 to the image processing device 1. The image processing apparatus 1 that has received the operation information transmits a human sensor screen D43 to the terminal device 2. At this time, as described above, the image processing apparatus 1 has a trapezoid (focal shape) corresponding to each pyroelectric sensor so that the positions of the plurality of pyroelectric sensors of the human sensor unit 103 can be known by relative positions from the image processing apparatus 1. A schematic diagram in which the orientation of the electric sensor is also generated is generated. Furthermore, the image processing apparatus 1 adds the current setting of the pyroelectric sensor as a trapezoid background to the trapezoid of the schematic diagram, and also indicates the current detection state of the pyroelectric sensor by adding diagonal lines. The terminal device 2 displays the received human sensor screen D43 on the display device of the display / operation unit 202.

人感センサ画面D43を見ることにより、ユーザ3は、人感センサ部103の人感検知範囲を画像処理装置1からの相対位置で把握することができ、また、自分が検知範囲内に入っていて焦電センサに検知されていることを理解することができる。なお、この人感センサ画面D43は、画像処理装置1のCPU105の制御により、定期的に更新される。   By looking at the human sensor screen D43, the user 3 can grasp the human sensor detection range of the human sensor unit 103 from the relative position from the image processing apparatus 1, and is within the detection range. It can be understood that it is detected by the pyroelectric sensor. The human sensor screen D43 is periodically updated under the control of the CPU 105 of the image processing apparatus 1.

人感センサ画面D43において、ユーザ3は、人感センサ部103の設定を変更するために、設定変更ボタン433をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、端末装置2に設定変更画面D44(図4(D))を送信する。このとき、ユーザ3は、自分が動いたときに検知され得る最大の範囲を調べるために、図3(C)に示すように手を広げる動作を行っており、画像処理装置1は焦電センサの現在の検知状態が変わったことを反映して設定変更画面D44(図4(D))を生成している。端末装置2は、受信した設定変更画面D44(図4(D))を表示・操作部202の表示装置に表示する。なお、この設定変更画面D44は、画像処理装置1のCPU105の制御により、定期的に更新される。   On the human sensor screen D43, the user 3 clicks a setting change button 433 in order to change the setting of the human sensor unit 103. The terminal device 2 transmits operation information of the user 3 to the image processing device 1. The image processing apparatus 1 that has received the operation information transmits a setting change screen D44 (FIG. 4D) to the terminal apparatus 2. At this time, the user 3 performs an operation of spreading his hand as shown in FIG. 3C in order to examine the maximum range that can be detected when he / she moves, and the image processing apparatus 1 has a pyroelectric sensor. The setting change screen D44 (FIG. 4D) is generated reflecting the change in the current detection state. The terminal device 2 displays the received setting change screen D44 (FIG. 4D) on the display device of the display / operation unit 202. The setting change screen D44 is periodically updated under the control of the CPU 105 of the image processing apparatus 1.

図4(D)の設定変更画面D44を見ることにより、ユーザ3は、自分が動いたときに検知され得る最大の範囲を知ることができる。ユーザ3は、人感センサ部103のセンサ向きを変えるために、内向きに変更ボタン444をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。   By looking at the setting change screen D44 in FIG. 4D, the user 3 can know the maximum range that can be detected when the user 3 moves. The user 3 clicks an inward change button 444 in order to change the sensor direction of the human sensor unit 103. The terminal device 2 transmits operation information of the user 3 to the image processing device 1.

操作情報を受信した画像処理装置1は、人感センサ部103の焦電センサの向きを、より下向きになるように変更し、その向きでの人感検知範囲と人感検知状態を反映した設定変更画面D44(図4(E))を生成し、端末装置2に送信する。端末装置2は、受信した設定変更画面D44(図4(E))を表示・操作部202の表示装置に表示する。即ち、設定変更画面D44は、人感センサ部103の焦電センサの向きが変更されると、画像処理装置1のCPU105の制御により、更新される。   The image processing apparatus 1 that has received the operation information changes the direction of the pyroelectric sensor of the human sensor unit 103 so as to face downward, and reflects the human detection range and human detection state in that direction. A change screen D44 (FIG. 4E) is generated and transmitted to the terminal device 2. The terminal device 2 displays the received setting change screen D44 (FIG. 4E) on the display device of the display / operation unit 202. That is, the setting change screen D44 is updated under the control of the CPU 105 of the image processing apparatus 1 when the orientation of the pyroelectric sensor of the human sensor 103 is changed.

図4(E)の設定変更画面D44を見ることにより、ユーザ3は、人感センサ部103の検知範囲が狭くなったことと、人感センサ部103のセンサ向きを変えても自分が検知され続けていることを把握することができる。ユーザ3は、人感センサの向きを元に戻すために、外向きに変更ボタン454をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。   By looking at the setting change screen D44 in FIG. 4E, the user 3 is detected even if the detection range of the human sensor unit 103 is narrowed and the sensor direction of the human sensor unit 103 is changed. You can see what is going on. The user 3 clicks the outward change button 454 in order to return the direction of the human sensor to the original direction. The terminal device 2 transmits operation information of the user 3 to the image processing device 1.

操作情報を受信した画像処理装置1は、人感センサ部103の焦電センサの向きを、より上向きになるように変更し、その向きでの人感検知範囲と人感検知状態を反映した設定変更画面D44を生成し、端末装置2に送信する。このとき、ユーザ3は拡げていた手を元に戻しており、また、図3(E)に示すように別のユーザ4が画像処理装置1に近づいてきており、画像処理装置1は焦電センサの現在の検知状態が変わったことを反映して設定変更画面D44(図4(F))を生成している。端末装置2は、受信した設定変更画面D44(図4(F))を表示・操作部202の表示装置に表示する。   The image processing apparatus 1 that has received the operation information changes the direction of the pyroelectric sensor of the human sensor unit 103 to be more upward, and the setting reflects the human detection range and human detection state in that direction. A change screen D44 is generated and transmitted to the terminal device 2. At this time, the user 3 has returned to the original position, and another user 4 is approaching the image processing apparatus 1 as shown in FIG. A setting change screen D44 (FIG. 4F) is generated reflecting the change in the current detection state of the sensor. The terminal device 2 displays the received setting change screen D44 (FIG. 4F) on the display device of the display / operation unit 202.

図4(F)の設定変更画面D44を見ることにより、ユーザ3は、印刷済みの用紙を取りにきたユーザ4が人感センサ部103によって検知されることを確認することができる。ユーザ3は、まず自分の周囲については、人感センサ部103による検知でスリープ復帰動作を行わせないように設定するために、これまでの手順で確認した自分の位置に対応する台形(人感検知範囲ボタン441)と、その周囲の台形(人感検知範囲ボタン441)を2回ずつクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、クリックされた台形のスリープ復帰動作に関する設定情報を変更して、新しい設定情報に応じた背景の台形で設定変更画面D44(図5(A))を生成する。端末装置2は、受信した設定変更画面D44(図5(A))を表示・操作部202の表示装置に表示する。即ち、設定変更画面D44は、人感センサ部103の焦電センサのスリープ復帰動作設定が変更されると、画像処理装置1のCPU105の制御により、更新される。   By viewing the setting change screen D44 in FIG. 4F, the user 3 can confirm that the human sensor unit 103 detects the user 4 who has picked up the printed paper. First, the user 3 sets the trapezoid (humanity) corresponding to his / her position confirmed in the previous procedure in order to set the surroundings of the user so that the sleep recovery operation is not performed by detection by the human sensor unit 103. Click the detection range button 441) and the surrounding trapezoid (human detection range button 441) twice. The terminal device 2 transmits operation information of the user 3 to the image processing device 1. The image processing apparatus 1 that has received the operation information changes the setting information related to the clicked trapezoid sleep recovery operation, and generates a setting change screen D44 (FIG. 5A) with a background trapezoid according to the new setting information. To do. The terminal device 2 displays the received setting change screen D44 (FIG. 5A) on the display device of the display / operation unit 202. That is, the setting change screen D44 is updated under the control of the CPU 105 of the image processing apparatus 1 when the sleep return operation setting of the pyroelectric sensor of the human sensor 103 is changed.

図5(A)の設定変更画面D44を見ることにより、ユーザ3は、自分の周囲が人感センサによる検知でスリープ復帰動作を行わない設定になったことを確認することができる。ユーザ3は、次に、印刷した紙を取りにきたユーザ4が人感センサによって検知されたときに操作部のみ動作モードに遷移するように設定を変更するために、ユーザ4の現在の位置に対応する台形(人感検知範囲ボタン441)と、そこにくるまでに通る位置に対応する台形(人感検知範囲ボタン441)を1回ずつクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、クリックされた台形のスリープ復帰動作に関する設定情報を変更して、新しい設定情報に応じた背景の台形で設定変更画面D44(図5(B))を生成し、端末装置2に送信する。端末装置2は、受信した設定変更画面D44(図5(B))を表示・操作部202の表示装置に表示する。   By looking at the setting change screen D44 in FIG. 5A, the user 3 can confirm that his / her surroundings are set to not perform the sleep recovery operation by detection by the human sensor. Next, the user 3 moves to the current position of the user 4 in order to change the setting so that only the operation unit transitions to the operation mode when the user 4 who picks up the printed paper is detected by the human sensor. Click the corresponding trapezoid (human detection range button 441) and the trapezoid (human detection range button 441) corresponding to the position to reach there. The terminal device 2 transmits operation information of the user 3 to the image processing device 1. The image processing apparatus 1 that has received the operation information changes the setting information related to the clicked trapezoid sleep recovery operation, and generates a setting change screen D44 (FIG. 5B) with a background trapezoid according to the new setting information. And transmitted to the terminal device 2. The terminal device 2 displays the received setting change screen D44 (FIG. 5B) on the display device of the display / operation unit 202.

図5(B)の設定変更画面D44を見ることにより、ユーザ3は、ユーザ4の位置が人感センサによる検知で操作部のみ動作モードに遷移する設定になったことを確認することができる。ユーザ3は、人感センサの設定が希望通りにできたことを確認して、この設定を確定させるために決定ボタン443をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、端末装置2に人感センサ画面D43(図5(C))を送信する。端末装置2は、受信した人感センサ画面D43(図5(C))を表示・操作部202の表示装置に表示する。   By looking at the setting change screen D44 in FIG. 5B, the user 3 can confirm that the position of the user 4 has been set to shift to the operation mode only in the operation unit by detection by the human sensor. The user 3 confirms that the setting of the human sensor has been performed as desired, and clicks the decision button 443 to confirm this setting. The terminal device 2 transmits operation information of the user 3 to the image processing device 1. The image processing apparatus 1 that has received the operation information transmits a human sensor screen D43 (FIG. 5C) to the terminal device 2. The terminal device 2 displays the received human sensor screen D43 (FIG. 5C) on the display device of the display / operation unit 202.

以上に示すように、ユーザ3は、端末22から、リモート操作を使って、人感センサ部103の検知範囲を画像処理装置1からの相対位置で確認しながら、人感センサ部103によるスリープ復帰動作がユーザの意図に合う状態であるかどうか確認することができる。   As described above, the user 3 uses the remote operation from the terminal 22 to check the detection range of the human sensor unit 103 at the relative position from the image processing apparatus 1 and return from sleep by the human sensor unit 103. It is possible to confirm whether or not the operation is in a state suitable for the user's intention.

また、ユーザ3は、検知したい場所と検知したくない場所に移動して、ここでは特に手を広げる動作を行うことによって、その場所が期待する検知範囲に含まれるかどうかを確認することができる。例えば、端末装置2としてノートPC、タブレットPC、スマートフォン等の携帯端末を用いた場合、ユーザは携帯端末を持って画像処理装置1の周りを移動しながら、人感センサ部103の向きの設定やスリープ復帰動作設定を行うことができる。このようにして設定することで、画像処理装置1がより確実にユーザの意図通りに動作するように、人感センサ部103の設定を行うことができる。なお、上記人感センサ部103の設定は、表示・操作部104からも行うことができるようにしてもよい。特に、表示・操作部104が、画像処理装置1本体から着脱可能な場合には、上記携帯端末による操作と同様の効果を奏する。   In addition, the user 3 can check whether the place is included in the expected detection range by moving to a place where the user wants to detect and a place where he / she does not want to detect, and performing an operation of spreading his / her hand here. . For example, when a portable terminal such as a notebook PC, tablet PC, or smartphone is used as the terminal device 2, the user moves around the image processing apparatus 1 while holding the portable terminal, and sets the orientation of the human sensor unit 103. Sleep return operation setting can be performed. By setting in this way, the human sensor unit 103 can be set so that the image processing apparatus 1 operates more reliably as intended by the user. The setting of the human sensor 103 may be performed from the display / operation unit 104. In particular, when the display / operation unit 104 is detachable from the main body of the image processing apparatus 1, the same effect as the operation by the portable terminal is obtained.

さらに、人感センサ部103の検知によるスリープ復帰動作の内容を設定することで、人感センサの有効と無効を指定でき、また、人感センサが人を検知した場合の動作を指定でき、ユーザは容易に期待する通りの検知範囲に調節することができる。なお、本実施例では、「操作部のみスリープ復帰有効設定」を設ける構成について説明したが、操作部のみに限定されるものではなく、特定の人感センサが人を検知した場合に画像処理装置1の特定部分を復帰させる他の設定を設けてもよい。例えば、特定の人感センサが人を検知した場合に、表示・操作部104及び画像読み取り部101を復帰させるような設定を設けてもよい。   Furthermore, by setting the content of the sleep return operation by detection of the human sensor unit 103, it is possible to specify whether the human sensor is valid or invalid, and also to specify the operation when the human sensor detects a person. Can easily be adjusted to the detection range as expected. In this embodiment, the configuration in which the “operation unit only sleep return effective setting” is provided has been described. However, the present invention is not limited to the operation unit, and the image processing apparatus is used when a specific human sensor detects a person. Other settings for returning one specific part may be provided. For example, a setting may be provided so that the display / operation unit 104 and the image reading unit 101 are returned when a specific human sensor detects a person.

なお、人感センサ部103の複数の人感センサの向きを変更すると、各人感センサのスリープ復帰動作設定をリセットするようにしてもよいし、そのまま保持するようにしてもよい。例えば、画像処理装置1において、人感センサの向き毎に、各人感センサのスリープ復帰動作設定を保持可能に構成し、人感センサの向きを変更すると、その向きに対応する各人感センサのスリープ復帰動作設定を有効にするように構成する。この設定の場合、人感センサの向きを元に戻すと、各人感センサのスリープ復帰動作設定も、変更後の向きで以前設定されていた設定に戻るように構成する。   When the direction of the plurality of human sensors of the human sensor unit 103 is changed, the sleep recovery operation setting of each human sensor may be reset or may be held as it is. For example, in the image processing apparatus 1, the sleep recovery operation setting of each human sensor is configured to be held for each human sensor direction, and each human sensor corresponding to the direction is changed when the human sensor is changed in direction. It is configured to enable the sleep recovery operation setting. In the case of this setting, when the direction of the human sensor is restored, the sleep return operation setting of each human sensor is also configured to return to the setting previously set in the changed direction.

また、画像処理装置1において、人感センサの向きの設定と、各人感センサのスリープ復帰動作設定をそれぞれ独立に保持する構成し、人感センサの向きが変更されても、各人感センサのスリープ復帰動作設定は向き変更前と同一とするように構成する。
さらに、人感センサ部103の各人感センサの感度も変更可能に構成してもよい。
Further, the image processing apparatus 1 is configured to hold the setting of the direction of the human sensor and the sleep return operation setting of each human sensor independently, and each human sensor even if the direction of the human sensor is changed. The sleep return operation setting is configured to be the same as before the direction change.
Furthermore, you may comprise so that the sensitivity of each human sensitive sensor of the human sensitive sensor part 103 can also be changed.

以上説明したように、本発明によれば、人感センサの検知範囲を画像処理装置からの相対位置で確認することができるため、人感センサを利用した制御動作がユーザの意図に合わない状態であることにユーザが気付くことができる。   As described above, according to the present invention, since the detection range of the human sensor can be confirmed at the relative position from the image processing apparatus, the control operation using the human sensor does not match the user's intention. The user can notice that

また、現在の人感センサの反応状態をリモート操作部で見ることができるため、検知したい場所や検知したくない場所に移動してリモート操作部を見ることで、その場所がユーザの期待する検知範囲の内か外かを確認することができる。   In addition, since the current human sensor response status can be viewed on the remote control unit, you can move to a location you want to detect or do not want to detect and look at the remote control unit to detect the location that the user expects. You can check whether it is within or outside the range.

さらに、ユーザはその場所でリモート操作部を操作して人感センサの有効、無効、操作部のみ復帰等のスリープ復帰動作設定を指定できるため、ユーザは容易に期待する通りの検知範囲に調節することができる。   Furthermore, since the user can specify the sleep recovery operation settings such as enabling / disabling the human sensor and returning only the operation unit by operating the remote operation unit at that location, the user can easily adjust the detection range as expected. be able to.

なお、人感センサの検知範囲の確認は、人感センサ部103で人を検知すると画像処理装置に設けられたLEDを点灯させる等して検知を認知させる方法も考えられる。しかし、この方法では、人感センサ部103のどの人感センサが検知したかが不明であったり、分かりにくかったりするため、あまり有効とは考えられない。これに対して、本発明では、リモート操作部において、どの人感センサが検知したかを明確に認知でき、ユーザは確実に、人感センサの設定を行うことができる。   Note that the detection range of the human sensor may be confirmed by detecting the human sensor by the human sensor unit 103, for example, by turning on an LED provided in the image processing apparatus. However, this method is not considered very effective because it is unclear or difficult to understand which human sensor of the human sensor unit 103 has detected. On the other hand, according to the present invention, it is possible to clearly recognize which human sensor is detected in the remote operation unit, and the user can surely set the human sensor.

よって、人感センサの検知範囲を、ユーザが目に見て容易に確認し、人感センサの向きや、検知した場合の動作設定を容易に変更することができる。このため、ユーザの期待通りに、より確実に、装置を利用したいユーザが装置に近づいた場合に検知して復帰し、逆に、装置の傍を通っただけの人の検知を抑えてスリープ維持する制御を行うことができる。   Therefore, the detection range of the human sensor can be easily confirmed visually by the user, and the direction of the human sensor and the operation setting when detected can be easily changed. For this reason, as expected by the user, the device detects and returns when the user who wants to use the device approaches the device, and conversely suppresses detection of a person who has just passed by the device and maintains sleep. Can be controlled.

以上示したように、本発明によれば、人感センサの検知範囲を画像処理装置からの相対位置で確認することで人感センサを利用した制御動作がユーザの意図に合わない状態となったことを認知でき、人感センサの検知範囲を適切な状態に調整し、人感センサを利用した制御動作をユーザの意図する状態に調整することができる。
このように、人感センサの検知範囲を本体との相対位置でわかるようにリモートUIに表示し、その場で設定できるようにすることにより、目に見えない人感センサの検知範囲の確認と調節を簡単に行うことができる。
As described above, according to the present invention, by confirming the detection range of the human sensor at the relative position from the image processing apparatus, the control operation using the human sensor is in a state that does not match the user's intention. This can be recognized, and the detection range of the human sensor can be adjusted to an appropriate state, and the control operation using the human sensor can be adjusted to the state intended by the user.
In this way, the detection range of the human sensor is displayed on the remote UI so that it can be recognized relative to the main body, and can be set on the spot, so that the detection range of the invisible human sensor can be confirmed. Adjustments can be made easily.

なお、本実施例では、本発明の技術を画像処理装置の電源制御に利用したが、他の電子機器の電源制御に用いてもよい。
例えば、来客者に応じてコンテンツを表示して来客者に情報を提示する情報処理装置(例えば、企業のロビー、観光地等に設置してある案内目的の情報処理装置)等に適用してもよい。このような情報処理装置では、来客者が検知された場合に、情報処理装置をスリープ状態から通常状態に復帰させて、所定のコンテンツ(案内や観光情報等)を表示する等の制御を行うことが考えられ、人感センサの検知範囲に関して上記実施例で示した画像処理装置と同様の課題を有するものと考えられる。このような情報処理装置に本発明を適用することにより、人感センサの検知範囲を情報処理装置からの相対位置で確認することで人感センサを利用した制御動作がユーザの意図に合わない状態となったことを認知でき、人感センサの検知範囲を適切な状態に調整し、人感センサを利用した制御動作をユーザの意図する状態に調整することが可能となる。また、このような情報処理装置において、特定の領域(装置正面等)で人が検知された場合には、スリープ復帰してコンテンツ表示まで行うが、他の領域(装置の側面等)で人が検知された場合には、スリープ復帰のみを行うようにすることも可能である。
In this embodiment, the technique of the present invention is used for power control of the image processing apparatus, but may be used for power control of other electronic devices.
For example, the present invention may be applied to an information processing device that displays content according to a visitor and presents information to the visitor (for example, an information processing device for guidance purposes installed in a corporate lobby, a sightseeing spot, etc.) Good. In such an information processing device, when a visitor is detected, the information processing device is returned from the sleep state to the normal state, and control such as displaying predetermined contents (guidance, sightseeing information, etc.) is performed. Therefore, it is considered that the detection range of the human sensor has the same problem as that of the image processing apparatus shown in the above embodiment. By applying the present invention to such an information processing apparatus, the control operation using the human sensor does not match the user's intention by checking the detection range of the human sensor at the relative position from the information processing apparatus. Therefore, the detection range of the human sensor can be adjusted to an appropriate state, and the control operation using the human sensor can be adjusted to the state intended by the user. Also, in such an information processing apparatus, when a person is detected in a specific area (such as the front of the apparatus), the content is displayed after returning from sleep, but in other areas (such as the side of the apparatus) If it is detected, it is possible to perform only sleep recovery.

また、本発明をカメラに適用してもよい。これにより、カメラに備えられたセンサにより特定の領域(例えば監視の必要性がある領域)で人が検知された場合には、カメラをスリープ復帰して撮影、録画まで行うが、他の領域で人が検知された場合には、カメラのスリープ復帰のみを行うようにすることも可能である。   Further, the present invention may be applied to a camera. Thus, when a person is detected in a specific area (for example, an area where monitoring is necessary) by a sensor provided in the camera, the camera returns to sleep and performs shooting and recording. When a person is detected, it is possible to perform only the camera return from sleep.

また、人を検知して各種動作を行う家電、例えば、エアコン、テレビ、照明器具等にも本発明を適用可能である。   The present invention is also applicable to home appliances that detect people and perform various operations, such as air conditioners, televisions, and lighting fixtures.

なお、上述した各種データの構成及びその内容はこれに限定されるものではなく、用途や目的に応じて、様々な構成や内容で構成されることは言うまでもない。
以上、一実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、上記各実施例を組み合わせた構成も全て本発明に含まれるものである。
It should be noted that the configuration and contents of the various data described above are not limited to this, and it goes without saying that the various data and configurations are configured according to the application and purpose.
Although one embodiment has been described above, the present invention can take an embodiment as, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
Moreover, all the structures which combined said each Example are also contained in this invention.

(他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。
本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device.
The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not. That is, the present invention includes all the combinations of the above-described embodiments and modifications thereof.

101 画像読み取り部
102 ネットワークインタフェース部
103 人感センサ部
104 表示・操作部
105 CPU
106 メモリ
107 HDD
108 画像印刷部
109 データバス
110 電源制御部
DESCRIPTION OF SYMBOLS 101 Image reading part 102 Network interface part 103 Human sensor part 104 Display / operation part 105 CPU
106 memory 107 HDD
108 Image Printing Unit 109 Data Bus 110 Power Supply Control Unit

Claims (15)

画像処理装置であって、
物体を検知する検知手段と、
前記検知手段の検知範囲を示す設定情報を記憶する記憶手段と、
前記記憶手段に記憶される設定情報に基づく前記検知手段の検知範囲を前記画像処理装置からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信手段と、
前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信手段と、
前記受信手段が受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新手段と、
前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記画像処理装置の動作を制御する制御手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus,
Detection means for detecting an object;
Storage means for storing setting information indicating a detection range of the detection means;
To generate display information including information indicating a detection range of the detection unit based on setting information stored in the storage unit by a relative position from the image processing device, and to display the generated display information on an external device Transmitting means for transmitting to the external device;
Receiving means for receiving from the external device an instruction to change the detection range of the detecting means;
Updating means for updating setting information stored in the storage means based on an instruction received by the receiving means;
Control means for controlling the operation of the image processing apparatus according to the detection state of the detection means in the detection range based on the setting information;
An image processing apparatus comprising:
前記検知手段は、物体を複数の領域毎に検知し該領域毎の検知結果を取得可能であり、
前記送信手段が送信する前記表示情報は、前記検知手段が物体を検知している領域と物体を検知していない領域とを領域毎に区別して示す情報も含むことを特徴とする請求項1に記載の画像処理装置。
The detection means is capable of detecting an object for each of a plurality of areas and acquiring a detection result for each of the areas,
2. The display information transmitted by the transmission unit includes information indicating a region in which the detection unit is detecting an object and a region in which no object is detected separately for each region. The image processing apparatus described.
前記検知手段を領域毎に有効又は無効に設定することで前記検知手段の検知範囲を変更することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the detection range of the detection unit is changed by setting the detection unit to be valid or invalid for each region. 前記検知手段の向きを変更することで前記検知手段の検知範囲を変更することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a detection range of the detection unit is changed by changing a direction of the detection unit. 前記制御手段は、前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記画像処理装置の電力状態を切り替えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The control unit according to claim 1, wherein the control unit switches a power state of the image processing apparatus in accordance with a detection state of the detection unit in a detection range based on the setting information. Image processing apparatus. 前記記憶手段に記憶される前記設定情報は、前記検知手段の領域毎に、前記検知状態に応じて実行する動作を設定する情報を含むものであり、
前記送信手段が送信する前記表示情報は、前記記憶手段に記憶される設定情報に基づいて領域毎に設定された前記動作の設定を領域毎に示す情報も含み、
前記受信手段は、前記検知手段の領域毎の前記動作の設定を変更する指示を前記外部装置から受信し、
前記制御手段は、前記設定情報に基づく検知範囲における検知状態が特定の状態となっている領域に設定された前記動作を行うことを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。
The setting information stored in the storage means includes information for setting an operation to be executed according to the detection state for each area of the detection means.
The display information transmitted by the transmission unit also includes information indicating the setting of the operation set for each region based on the setting information stored in the storage unit for each region,
The receiving unit receives an instruction to change the setting of the operation for each area of the detecting unit from the external device;
The said control means performs the said operation | movement set to the area | region where the detection state in the detection range based on the said setting information is a specific state, The one of Claim 2 thru | or 5 characterized by the above-mentioned. Image processing device.
前記制御手段は、前記検知手段が前記設定情報に基づく検知範囲で物体を検知した場合、前記画像処理装置の動作を制御することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   7. The control unit according to claim 1, wherein the control unit controls an operation of the image processing apparatus when the detection unit detects an object within a detection range based on the setting information. 8. Image processing device. 前記画像処理装置は、少なくとも第1電力状態、前記第1電力状態より消費電力の小さい第2電力状態、前記第2電力状態に加えて前記画像処理装置の特定部分に電力を供給し前記第1電力状態より消費電力の小さい第3電力状態を切り替え可能なものであり、
前記動作の設定として、前記第2電力状態から前記第1電力状態に切り替える第1動作を行う第1動作設定、又は、前記第2電力状態から前記第3電力状態に切り替える第2動作を行う第2動作設定の設定が可能であり、
前記制御手段は、前記設定情報に基づく検知範囲のうち前記第1動作設定が設定された領域で物体の存在を検知した場合には前記第1動作を実行し、前記設定情報に基づく検知範囲のうち前記第2動作設定が設定された領域で物体の存在を検知した場合には前記第2動作を実行することを特徴とする請求項6に記載の画像処理装置。
The image processing apparatus supplies power to a specific portion of the image processing apparatus in addition to at least a first power state, a second power state that consumes less power than the first power state, and the second power state. It is possible to switch the third power state that consumes less power than the power state,
As the operation setting, a first operation setting for performing a first operation for switching from the second power state to the first power state, or a second operation for performing a second operation for switching from the second power state to the third power state. 2 Operation settings can be set,
The control means executes the first operation when detecting the presence of an object in the region where the first operation setting is set in the detection range based on the setting information, and sets the detection range based on the setting information. The image processing apparatus according to claim 6, wherein the second operation is executed when the presence of an object is detected in an area in which the second operation setting is set.
前記第3電力状態は、前記第2電力状態に加えて前記画像処理装置の操作部に電力を供給する電力状態であることを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the third power state is a power state that supplies power to an operation unit of the image processing apparatus in addition to the second power state. 前記検知手段は、検知する領域の異なる複数のセンサにより構成されていることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit includes a plurality of sensors having different detection areas. 電子機器であって、
物体を検知する検知手段と、
前記検知手段の検知範囲を示す設定情報を記憶する記憶手段と、
前記記憶手段に記憶される設定情報に基づく前記検知手段の検知範囲を前記電子機器からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信手段と、
前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信手段と、
前記受信手段が受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新手段と、
前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記電子機器の動作を制御する制御手段と、
を有することを特徴とする電子機器。
Electronic equipment,
Detection means for detecting an object;
Storage means for storing setting information indicating a detection range of the detection means;
In order to generate display information including information indicating a detection range of the detection unit based on setting information stored in the storage unit by a relative position from the electronic device, and to display the generated display information on an external device Transmitting means for transmitting to the external device;
Receiving means for receiving from the external device an instruction to change the detection range of the detecting means;
Updating means for updating setting information stored in the storage means based on an instruction received by the receiving means;
Control means for controlling the operation of the electronic device according to the detection state of the detection means in the detection range based on the setting information;
An electronic device comprising:
物体を検知する検知手段を有する画像処理装置の制御方法であって、
送信手段が、前記検知手段の検知範囲を示す設定情報を記憶する記憶手段に記憶される前記設定情報に基づく前記検知手段の検知範囲を前記画像処理装置からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信ステップと、
受信手段が、前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信ステップと、
更新手段が、前記受信ステップで受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新ステップと、
制御手段が、前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記画像処理装置の動作を制御するステップと、
を有することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus having detection means for detecting an object,
Display information including information indicating a detection range of the detection unit based on the setting information stored in a storage unit that stores setting information indicating a detection range of the detection unit as a relative position from the image processing device And transmitting the generated display information to the external device in order to display the generated display information on the external device;
A receiving step for receiving from the external device an instruction to change a detection range of the detection unit;
An update step in which the update means updates the setting information stored in the storage means based on the instruction received in the reception step;
A step of controlling the operation of the image processing apparatus in accordance with a detection state of the detection means in a detection range based on the setting information;
A control method for an image processing apparatus, comprising:
物体を検知する検知手段を有する電子機器の制御方法であって、
送信手段が、前記検知手段の検知範囲を示す設定情報を記憶する記憶手段に記憶される前記設定情報に基づく前記検知手段の検知範囲を前記電子機器からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信ステップと、
受信手段が、前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信ステップと、
更新手段が、前記受信ステップで受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新ステップと、
制御手段が、前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記電子機器の動作を制御するステップと、
を有することを特徴とする電子機器の制御方法。
A method of controlling an electronic device having a detection means for detecting an object,
Display information including information indicating a detection range of the detection unit based on the setting information stored in a storage unit that stores setting information indicating a detection range of the detection unit as a relative position from the electronic device. Generating and transmitting the generated display information to the external device for display on the external device;
A receiving step for receiving from the external device an instruction to change a detection range of the detection unit;
An update step in which the update means updates the setting information stored in the storage means based on the instruction received in the reception step;
A step of controlling the operation of the electronic device according to a detection state of the detection unit in a detection range based on the setting information;
A method for controlling an electronic device, comprising:
コンピュータに、請求項12に記載された画像処理装置の制御方法を実行させるためのプログラム。   A program for causing a computer to execute the control method for an image processing apparatus according to claim 12. コンピュータに、請求項13に記載された電子機器の制御方法を実行させるためのプログラム。   A program for causing a computer to execute the electronic device control method according to claim 13.
JP2012264536A 2012-12-03 2012-12-03 Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program Pending JP2014109723A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012264536A JP2014109723A (en) 2012-12-03 2012-12-03 Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program
US14/092,186 US20140160505A1 (en) 2012-12-03 2013-11-27 Image processing apparatus, method of controlling image processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012264536A JP2014109723A (en) 2012-12-03 2012-12-03 Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program

Publications (1)

Publication Number Publication Date
JP2014109723A true JP2014109723A (en) 2014-06-12

Family

ID=51030376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012264536A Pending JP2014109723A (en) 2012-12-03 2012-12-03 Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program

Country Status (1)

Country Link
JP (1) JP2014109723A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017019137A (en) * 2015-07-08 2017-01-26 キヤノン株式会社 Image forming device
JP2017074785A (en) * 2016-11-17 2017-04-20 富士ゼロックス株式会社 Information processing apparatus and program
JP2017121753A (en) * 2016-01-07 2017-07-13 コニカミノルタ株式会社 Image formation device management system, information processing device and program
JP2017167756A (en) * 2016-03-15 2017-09-21 株式会社リコー Power receiving apparatus, power supplying apparatus, and power source management system
JP2019166673A (en) * 2018-03-22 2019-10-03 京セラドキュメントソリューションズ株式会社 Image forming device
JP2020027022A (en) * 2018-08-10 2020-02-20 清水建設株式会社 Method of filling with diffusion test sealing material, rock diffusion test device, and diffusion test method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017019137A (en) * 2015-07-08 2017-01-26 キヤノン株式会社 Image forming device
JP2017121753A (en) * 2016-01-07 2017-07-13 コニカミノルタ株式会社 Image formation device management system, information processing device and program
JP2017167756A (en) * 2016-03-15 2017-09-21 株式会社リコー Power receiving apparatus, power supplying apparatus, and power source management system
JP2017074785A (en) * 2016-11-17 2017-04-20 富士ゼロックス株式会社 Information processing apparatus and program
JP2019166673A (en) * 2018-03-22 2019-10-03 京セラドキュメントソリューションズ株式会社 Image forming device
JP2020027022A (en) * 2018-08-10 2020-02-20 清水建設株式会社 Method of filling with diffusion test sealing material, rock diffusion test device, and diffusion test method
JP7089984B2 (en) 2018-08-10 2022-06-23 清水建設株式会社 Diffusion test sealing material filling method, rock diffusion test equipment and diffusion test method

Similar Documents

Publication Publication Date Title
JP2014109723A (en) Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program
US20140160505A1 (en) Image processing apparatus, method of controlling image processing apparatus, and program
JP6406889B2 (en) Printing apparatus and printing apparatus control method
JP6239864B2 (en) COMMUNICATION DEVICE, ITS CONTROL METHOD, AND PROGRAM
WO2014087498A9 (en) Image forming apparatus, and method for controlling image forming apparatus
CN109462715B (en) Electronic device, printing apparatus, and communication system
US20080288879A1 (en) Image forming device, user-interface image creating method, and computer-readable recording medium
JP2016055550A (en) Image forming device, control method for the same and program
JP6376804B2 (en) Image forming apparatus, image forming apparatus control method, and program
JP6395378B2 (en) Printing apparatus and printing apparatus control method
JP2015164789A (en) Electronic apparatus
KR20110003030A (en) Sensing apparatus, event sensing method and photographing system
JP2014090397A (en) Image forming apparatus and image forming method
JP6499899B2 (en) Image forming apparatus
JP2016058911A (en) Information processing unit capable of controlling mechanical switch of power supply and control method thereof, and program
KR101802883B1 (en) Image forming apparatus, image forming method of image forming apparatus
JP6425600B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP6173963B2 (en) Image forming apparatus and image forming program
JP6366271B2 (en) Information processing apparatus and control method of information processing apparatus
JP2019160171A (en) Display device and display method
JP7135571B2 (en) Information processing device and program
JP2011059750A (en) Data processor, method for controlling the same, and program
JP6415178B2 (en) Printing apparatus and data updating method
WO2012073667A1 (en) Display control apparatus and control method thereof, and storage medium
JP6614831B2 (en) Information processing apparatus and method for controlling power state of information processing apparatus