JP2014109723A - Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program - Google Patents
Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program Download PDFInfo
- Publication number
- JP2014109723A JP2014109723A JP2012264536A JP2012264536A JP2014109723A JP 2014109723 A JP2014109723 A JP 2014109723A JP 2012264536 A JP2012264536 A JP 2012264536A JP 2012264536 A JP2012264536 A JP 2012264536A JP 2014109723 A JP2014109723 A JP 2014109723A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- detection
- processing apparatus
- unit
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、人感センサを利用した装置の制御に関するものである。 The present invention relates to control of an apparatus using a human sensor.
従来、画像処理装置等の電子機器には、装置に内蔵された人感センサからの情報を用いて近隣のユーザの存在を検知して、装置の制御を行うものがある。代表的な制御として、画像処理装置が通常の動作モードの他に消費電力を低減する省電力モードを持つ場合に、省電力モード中にユーザが人感センサの検知範囲に入ったときに、省電力モードから通常の動作モードに復帰するものがある(特許文献1参照)。 2. Description of the Related Art Conventionally, some electronic devices such as image processing apparatuses control an apparatus by detecting the presence of a nearby user using information from a human sensor incorporated in the apparatus. As a typical control, when the image processing apparatus has a power saving mode for reducing power consumption in addition to the normal operation mode, the user can save when the user enters the detection range of the human sensor during the power saving mode. Some return from the power mode to the normal operation mode (see Patent Document 1).
しかし、画像処理装置の設置場所や設置方向によって、画像処理装置に内蔵された人感センサの検知範囲が変わってしまう。そのため、その検知範囲によっては、人感センサを利用した制御動作が、ユーザの意図に合わなくなってしまう場合がある。例えば、装置を利用したいユーザが装置に近づいても検知されなかったり、逆に、装置の傍を通っただけの人を頻繁に検知してしまったりする場合がある。 However, the detection range of the human sensor built in the image processing apparatus changes depending on the installation location and installation direction of the image processing apparatus. Therefore, depending on the detection range, the control operation using the human sensor may not match the user's intention. For example, a user who wants to use the device may not be detected even if he approaches the device, or conversely, a person who has just passed by the device may be detected frequently.
さらに、人感センサの検知範囲は、目に見えないために、ユーザはそのような状態であることに気付くことが困難である。
もし仮に、そのような状態に気付き、人感センサを利用した制御動作がユーザの意図に合うものとなるように画像処理装置の設置場所や設置方向を調節しようとしても、人感センサの検知範囲は目に見えないため、調整は極めて困難である。
Furthermore, since the detection range of the human sensor is not visible, it is difficult for the user to notice that it is in such a state.
Even if the user notices such a situation and tries to adjust the installation location or orientation of the image processing device so that the control operation using the human sensor matches the user's intention, the detection range of the human sensor Is invisible, so adjustment is extremely difficult.
本発明は、上記の問題点を解決するためになされたものである。本発明の目的は、目視では直接確認できない人感センサの検知範囲の装置本体からの相対位置の確認と、調節を容易にできるようにし、人感センサを利用した装置の制御動作をユーザの意図する状態に調整可能にする仕組みを提供することである。 The present invention has been made to solve the above problems. An object of the present invention is to make it easy to confirm and adjust the relative position of the detection range of the human sensor that cannot be directly confirmed by visual observation from the apparatus body, and to control the operation of the apparatus using the human sensor. It is to provide a mechanism that can be adjusted to the state to be.
本発明は、画像処理装置であって、物体を検知する検知手段と、前記検知手段の検知範囲を示す設定情報を記憶する記憶手段と、前記記憶手段に記憶される設定情報に基づく前記検知手段の検知範囲を前記画像処理装置からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信手段と、前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信手段と、前記受信手段が受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新手段と、前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記画像処理装置の動作を制御する制御手段と、を有することを特徴とする。 The present invention is an image processing apparatus, wherein the detection unit detects an object, the storage unit stores setting information indicating a detection range of the detection unit, and the detection unit based on the setting information stored in the storage unit Generating display information including information indicating a detection range of the image in a relative position from the image processing apparatus, and transmitting the generated display information to the external apparatus to display the generated display information on the external apparatus, and the detection Receiving means for receiving an instruction to change the detection range of the means from the external device, updating means for updating setting information stored in the storage means based on the instruction received by the receiving means, and based on the setting information Control means for controlling the operation of the image processing apparatus in accordance with a detection state of the detection means in a detection range.
本発明によれば、目視では直接確認できない人感センサの検知範囲の装置本体からの相対位置の確認と、調節を容易にできるようにし、人感センサを利用した装置の制御動作をユーザの意図する状態に調整することができる。 According to the present invention, it is possible to easily confirm and adjust the relative position from the apparatus main body of the detection range of the human sensor that cannot be directly confirmed visually, and to control the operation of the apparatus using the human sensor. It can be adjusted to the state.
以下、本発明を実施するための形態について図面を用いて説明する。なお、本実施例では、本発明を適用可能な電子機器の一例として画像処理装置を用いて説明する。
図1は、本発明の電子機器の一実施例を示す画像処理装置の構成の一例を示すブロック図である。
図1に示すように、画像処理装置1は、画像読み取り部101、ネットワークインタフェース部102、人感センサ部103、表示・操作部104、CPU105、メモリ106、HDD107、画像印刷部108、データバス109、電源制御部110を有する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In this embodiment, an image processing apparatus will be described as an example of an electronic apparatus to which the present invention can be applied.
FIG. 1 is a block diagram showing an example of the configuration of an image processing apparatus showing an embodiment of an electronic apparatus of the present invention.
As shown in FIG. 1, the image processing apparatus 1 includes an
画像読み取り部101は、CPU105の制御により動作し、図示しない原稿台にユーザがセットされた原稿をスキャンして画像データを生成し、データバス109を介してメモリ106に送信する。
The
ネットワークインタフェース部102は、CPU105の制御により動作し、データバス109を介して、メモリ106に格納されているデータを読み出して画像処理装置1外部のLANに対して送信する。また、ネットワークインタフェース部102は、画像処理装置1外部のLANから受信したデータを、データバス109を介してメモリ106に格納する。例えば、画像処理装置1は、ネットワークインタフェース部102を介して、後述する図2に示す端末装置2と通信可能である。
The network interface unit 102 operates under the control of the
人感センサ部103は、画像処理装置1の周囲の物体を検知するための焦電センサなどに代表されるセンサ(人感センサ)を複数備えるものである。また、人感センサ部103が検知する物体は、静止体であっても移動体であってもよい。本実施例では、人感センサ部103が検知する物体を人体として説明するが、人感センサ部103が検知する物体は人体に限定されるものではない。本実施例では、人感センサ部103は、画像処理装置1の周囲のユーザを検知するための焦電センサなどに代表される人感センサを複数備えるものである。人感センサ部103は、CPU105の制御により各人感センサの検出情報をCPU105に対して送信する。即ち、CPU105は、人感センサ部103より、人感センサ部103が備える複数のセンサに対応する領域毎の検知結果を取得可能である。また、人感センサ部103は、CPU105からの制御により、不図示の駆動部を駆動して人感センサの向きを変えることでその検知範囲を変更することができる。
なお、焦電センサは、物体の存在を赤外線量等から検知可能なものである。焦電センサはパッシブ型の人感センサで、人体等の温度を持つ物体から自然に放射されている赤外線による温度変化を検知することで物体(例えば人体)の接近を検出するものである。焦電センサは、消費電力が小さく、検知領域は比較的広いのが特徴である。なお、本実施例では、人感センサ部103を構成する人感センサを焦電センサとして説明するが、人感センサは、焦電センサに限定されるものではなく、他の種類の人感センサであってもよい。なお、本実施例では、人感センサ部103は、人感センサ(焦電センサ)をN×Nアレイ状に並べた人感アレイセンサを用いるものとする。
The
The pyroelectric sensor can detect the presence of an object from the amount of infrared rays or the like. The pyroelectric sensor is a passive human sensor that detects an approach of an object (for example, a human body) by detecting a temperature change caused by infrared rays naturally emitted from an object having a temperature such as a human body. The pyroelectric sensor is characterized by low power consumption and a relatively wide detection area. In the present embodiment, the human sensor constituting the
表示・操作部104は、表示装置(不図示)と入力装置(不図示)を有する。表示・操作部104は、CPU105の制御により動作し、データバス109を介してCPU105から受信した情報を表示装置(不図示)に表示する。また、表示・操作部104は、入力装置(不図示)をユーザが操作した操作情報をCPU105に送信する。
The display /
CPU105は、HDD107に格納されたプログラムをメモリ106に読み出し、そのプログラムに従って画像処理装置1全体の制御を行う。メモリ106は、HDD107から読み出したCPU105のプログラムや、画像データを格納する一時メモリである。HDD107はハードディスクドライブであり、CPU105のプログラムが格納してある他、後述する各種設定値や各種画面のデータ、画像データ等を格納する。HDD107は、SSD(Solid State Drive)等のフラッシュメモリであってもよい。
The
画像印刷部108は、CPU105の制御により動作し、データバス109を介して受信した画像データを、図示しない印刷用紙に電子写真プロセスやインクジェット印刷方式等を用いて印刷出力する。データバス109は、画像データや情報の転送を行う。
The
電源制御部110は、外部の電源コンセントから供給される電力を画像処理装置1内部の各処理部に供給する。電源制御部110の内部には、電源スイッチ1101及び1102がある。電源スイッチ1101及び1102は、CPU105の制御でオンまたはオフが切り換えられる電源スイッチである。これら電源スイッチ1101及び1102を使用して、画像処理装置1は、CPU105の制御で消費電力の異なる複数の動作モードに移行することが可能である。
The power control unit 110 supplies power supplied from an external power outlet to each processing unit in the image processing apparatus 1. There are
動作モードには例えば3種類ある。1つめの動作モードは、画像処理装置1の全ての機能が動作する「通常動作モード」(第1電力状態)である。通常動作モードは、CPU105が電源制御部110を制御して電源スイッチ1101及び1102を両方オンにした動作モードである。
There are three types of operation modes, for example. The first operation mode is a “normal operation mode” (first power state) in which all the functions of the image processing apparatus 1 operate. The normal operation mode is an operation mode in which the
2つめの動作モードは、画像読み取り部101と表示・操作部104とHDD107と画像印刷部108への電力供給を停止する「スリープモード」(第2電力状態)である。スリープモードは、CPU105が電源制御部110を制御して電源スイッチ1101及び1102を両方オフにした動作モードである。
The second operation mode is a “sleep mode” (second power state) in which power supply to the
3つめの動作モードは、画像読み取り部101と画像印刷部108への電力供給を停止する「操作部のみ動作モード」(第3電力状態)である。操作部のみ動作モードは、CPU105が電源制御部110を制御して電源スイッチ1101をオンに、電源スイッチ1102をオフにした動作モードである。
The third operation mode is an “operation unit only operation mode” (third power state) in which power supply to the
CPU105、メモリ106、ネットワークインタフェース部102、人感センサ部103、及び電源制御部110は、常時電源が供給されている。上記消費電力の異なる3つの動作モード間の遷移は、CPU105が制御している。「スリープモード」から「操作部のみ動作モード」や「通常動作モード」への遷移は、CPU105が、人感センサ部103の各センサの検出情報を使用して、後述の設定内容に応じて行う。
The
基本的には、画像印刷部108などへの通電が制限されているスリープモード時にも人感センサ部103には通電されており、CPU105は、人感センサが人の存在を検知した場合に、通常動作モードに遷移して画像印刷部108などへの通電を開始するような制御する。なお、スリープモードから他の動作モードへの遷移をスリープ復帰動作と呼ぶ。
Basically, the
図2は、端末装置2の構成の一例を示すブロック図である。端末装置2は、例えば、パーソナルコンピュータ等の情報処理装置である。端末装置2は、ノート型パーソナルコンピュータ、タブレット型コンピュータ、スマートフォン等の携帯端末であってもよい。
FIG. 2 is a block diagram illustrating an example of the configuration of the
端末装置2は、図2に示すように、ネットワークインタフェース部201、表示・操作部202、CPU203、メモリ204、HDD205、データバス206を有する。
ネットワークインタフェース部201は、CPU203の制御により動作し、データバス206を介してメモリ204に格納されているデータを読み出して、端末装置2外部のLANに対して送信する。また、ネットワークインタフェース部201は、端末装置2外部のLANから受信したデータを、データバス206を介してメモリ204に格納する。例えば、端末装置2は、ネットワークインタフェース部201を介して、図1に示した画像処理装置1と通信可能である。
As illustrated in FIG. 2, the
The
表示・操作部202は、CPU203の制御により動作し、データバス206を介してCPU203から受信した情報を、図示しない表示装置(ディスプレイ)に表示する。また、表示・操作部202は、図示しない入力装置(例えば、キーボード、ポインティングデバイス、タッチパネル)をユーザが操作した操作情報を、CPU203に送信する。
The display /
CPU203は、HDD205に格納されたプログラムをメモリ204に読み出し、そのプログラムに従って端末装置2全体の制御を行う。メモリ204は、HDD205から読み出したCPU203のプログラムを格納したり、LANから受信したデータを格納する一時メモリである。HDD205はハードディスクドライブであり、CPU203のプログラムが格納してある他、各種データ等を格納する。HDD205は、SSD(Solid State Drive)等のフラッシュメモリであってもよい。206はデータバスであり、データの転送を行う。
The
端末装置2は、CPU203の制御によってLANを介して画像処理装置1と通信を行い、画像処理装置1のリモート操作を行うことができる。ここで、リモート操作とは、表示・操作部202に画像処理装置1から受信した情報を表示し、また、表示・操作部202に入力された操作内容を画像処理装置1に対して送信して、端末装置2から画像処理装置1を操作することを指している。
The
リモート操作の動作は、画像処理装置1のCPU105と端末装置2のCPU203それぞれの制御が連携することで実現しているが、その手順は以下である。
端末装置2において、CPU203は、ネットワークインタフェース部201を介してLANに接続された画像処理装置1へリモート操作接続要求信号を送信する。画像処理装置1のCPU105は、端末装置2から送信されたリモート操作接続要求信号を、ネットワークインタフェース部102を介して受信する。CPU105は、リモート操作の表示と操作に必要な情報を、ネットワークインタフェース部102を介してLANに接続された端末装置2へ送信する。端末装置2のCPU203は、リモート操作の表示と操作に必要な情報を、ネットワークインタフェース部201を介して受信する。端末装置2のCPU203は、リモート操作の表示と操作に必要な情報に基づいて、操作画面を表示・操作部202に表示し、ユーザからの操作を受け付ける。ユーザ操作がかると、端末装置2のCPU203は、表示・操作部202に対するユーザによる操作内容を示す信号を、ネットワークインタフェース部201を介してLANに接続された画像処理装置1へ送信する。画像処理装置1のCPU105は、端末装置2から送信された信号を、ネットワークインタフェース部102を介して受信する。端末装置2のCPU203と画像処理装置1のCPU105は、このようなLANを介した情報のやり取りを繰り返し行うことで、リモート操作を実現している。
The operation of the remote operation is realized by the cooperation of the control of the
In the
図3は、画像処理装置1と周囲のユーザとの位置関係、及び人感センサ部103の検知範囲を示した模式図であり、画像処理装置1とその周囲を上から見下ろした俯瞰図で表現してある。なお、図1、図2と同一のものには同一の符号を付してある。
FIG. 3 is a schematic diagram showing the positional relationship between the image processing apparatus 1 and surrounding users and the detection range of the
図3(A)は、画像処理装置1、及び端末装置2を使用しているユーザ3の位置関係を示す。
図3(B)は、図3(A)の状態において、人感センサ部103による人感検知範囲を複数の台形で表したものであり、各台形は人感センサ部103の複数の焦電センサそれぞれの検知範囲を示している。
人感センサ部103の複数の焦電センサは、この図に示すように、それぞれが近接した異なる範囲を検知できるように画像処理装置1の周囲に斜め下向きに取り付けられている。図中の斜線付の台形は、その台形に対応する焦電センサがユーザを検知していることを表している。
FIG. 3A shows the positional relationship between the image processing device 1 and the user 3 who is using the
FIG. 3B shows the human detection range by the
As shown in this figure, the plurality of pyroelectric sensors of the
図3(C)は、画像処理装置1、及び端末装置2を使用しているユーザ3の位置関係を示す。
図3(D)は、図3(C)の状態において、人感センサ部103による人感検知範囲を複数の台形で表したものである。
FIG. 3C shows the positional relationship between the image processing device 1 and the user 3 who is using the
FIG. 3D shows a human detection range by the
図3(E)は、画像処理装置1、端末装置2を使用しているユーザ3、及び、別のユーザ4の位置関係を示す。
図3(F)は、図3(E)の状態において、人感センサ部103による人感検知範囲を複数の台形で表したものである。
FIG. 3E shows the positional relationship between the image processing device 1, the user 3 using the
FIG. 3F shows the human detection range by the
なお、ユーザ3は、画像処理装置1を使用しようとしているユーザではないため、画像処理装置1がスリープモードにある場合には、人感センサ部103によりユーザ3が検知されても、スリープ復帰動作を行う必要はない。
また、ユーザ4は、印刷済みの用紙を取りに来ただけのユーザであるが、画像処理装置1がスリープモードにある場合には、表示・操作部104の表示装置に印刷状況を表示すると利便性が高まると考えられる。そのため、画像処理装置1は、人感センサ部103によりユーザ4が検知された場合、スリープモードから操作部のみスリープ復帰動作を行うとよい。
Since the user 3 is not a user who intends to use the image processing apparatus 1, when the image processing apparatus 1 is in the sleep mode, even if the user 3 is detected by the
Also, the user 4 is a user who has just picked up printed paper, but when the image processing apparatus 1 is in the sleep mode, it is convenient to display the print status on the display device of the display /
なお、本実施例では、人感センサ部103による人感検知範囲を複数の台形で表しているが、人感センサの検知範囲の形状と同等な形状であればよく、台形以外であってもよい。
In this embodiment, the human detection range by the
図4は、端末装置2で画像処理装置1をリモート操作する場合に表示・操作部202に表示される画面の一例を示す図である。
図4(A)は、端末装置2において、画像処理装置1のリモート操作アプリケーションを起動したときのトップ画面D41である。411はコピーボタン、412はスキャンボタン、413は状態表示ボタン、414はプリントボタン、415は設定ボタンである。ユーザは、これらのボタンをクリック(タッチ等の指示でもよいが、以下「クリック」という)することで、画像処理装置1に対して各種動作の指示を出すことができる。
FIG. 4 is a diagram illustrating an example of a screen displayed on the display /
FIG. 4A shows a top screen D41 when the remote operation application of the image processing apparatus 1 is activated in the
図4(B)は、トップ画面D41(図4(A))において、ユーザが状態表示ボタン413をクリックしたときに遷移する状態表示画面D42である。421はジョブ履歴ボタン、422は用紙残量:トナー残量ボタン、423は人感センサボタン、424は戻るボタンである。ユーザはこれらのボタンをクリックすることで、画像処理装置1に対して各種動作の指示を出すことができる。 FIG. 4B is a state display screen D42 that transitions when the user clicks the state display button 413 on the top screen D41 (FIG. 4A). 421 is a job history button, 422 is a remaining paper amount: toner remaining amount button, 423 is a human sensor button, and 424 is a return button. The user can issue instructions for various operations to the image processing apparatus 1 by clicking these buttons.
図4(C)は、状態表示画面D42(図4(B))において、ユーザが人感センサボタン423をクリックしたときに遷移する人感センサ画面D43である。431は人感センサ部103の人感検知範囲、432は戻るボタン、433は設定変更ボタンである。
FIG. 4C is a human sensor screen D43 that transitions when the user clicks the human sensor button 423 on the state display screen D42 (FIG. 4B). 431 is a human detection range of the
人感検知範囲431は、中心に表示されている画像処理装置1(図中438)を上面から見た模式図を基準にして、相対的な位置がわかるような表示になっている。また、人感検知範囲431は、複数の台形で表してあるが、各台形は人感センサ部103の複数の焦電センサそれぞれの検知範囲を示している。例えば、人感センサ部103の各焦電センサと各台形が1対1に対応している。各台形の位置と大きさは、対応する焦電センサの検知範囲の位置と大きさを、画像処理装置1からの相対的な位置関係で表現したものとなっている。なお、図中、434に示すような斜線が付された台形は、その台形に対応する焦電センサがユーザを検知していることを表している。
The
また、各台形は、その台形に対応する焦電センサがユーザを検知した場合にどのようなスリープ復帰動作を行うかの設定情報を持ち、その設定情報に応じた模様(435、436、437等)で台形の背景が表示される。 Each trapezoid has setting information indicating what sleep return operation is performed when the pyroelectric sensor corresponding to the trapezoid detects the user, and a pattern (435, 436, 437, etc.) corresponding to the setting information. ) Displays a trapezoidal background.
スリープモードから通常動作モードに遷移する動作(第1動作)を行う設定(第1動作設定)を持つ台形は背景が白(白背景435)である。また、スリープモードから操作部のみ動作モードに遷移する動作(第2動作)を行う設定(第2動作設定)を持つ台形は背景が網掛け(網掛け背景436)である。また、ユーザを検知してもスリープ復帰動作を行わない設定(無効設定)を持つ台形は背景が黒(黒背景437)である。これらの背景はフルカラーで区別可能なものでもよい。 A trapezoid having a setting (first operation setting) for performing an operation (first operation) for transition from the sleep mode to the normal operation mode has a white background (white background 435). In addition, the background of the trapezoid having the setting (second operation setting) for performing the operation (second operation) for shifting only the operation unit from the sleep mode to the operation mode is shaded (shaded background 436). A trapezoid having a setting (invalid setting) that does not perform the sleep recovery operation even when a user is detected has a black background (black background 437). These backgrounds may be full color and distinguishable.
白背景435の台形が持つ設定を、「スリープ復帰有効設定」と呼ぶ。また、網掛け背景436の台形が持つ設定を、「操作部のみスリープ復帰有効設定」と呼ぶ。さらに、黒背景437の台形が持つ設定を「検知無効設定」と呼ぶ。なお、画面D43(図4(C))は、全ての台形にスリープ復帰有効設定がなされている場合に対応する(全ての台形が白背景435)。 The setting of the trapezoid of the white background 435 is referred to as “sleep recovery effective setting”. Further, the setting of the trapezoid of the shaded background 436 is referred to as “only the operation unit sleep return effective setting”. Further, the setting of the trapezoid of the black background 437 is referred to as “detection invalid setting”. Note that the screen D43 (FIG. 4C) corresponds to the case where all trapezoids are set to enable sleep recovery (all trapezoids are white background 435).
図4(D)は、人感センサ画面D43(図4(C))において、ユーザが設定変更ボタン433をクリックしたときに遷移する設定変更画面D44である。
設定変更画面D44において、441は人感センサ部103の人感検知範囲ボタンである。442は変更キャンセルボタンである。443は決定ボタンである。444は内向きに変更ボタンである。
FIG. 4D is a setting change screen D44 that transitions when the user clicks the setting
In the setting change screen D44,
人感検知範囲ボタン441は、図4(C)における人感検知範囲431と同様に複数の台形で表してあり、斜線付きの意味と背景の意味も同じであるが、各台形はボタンになっている。各台形のボタンをクリックすることで、それに対応する焦電センサがユーザを検知したときの動作を、スリープ復帰有効設定、操作部のみスリープ復帰設定、検知無効設定の順番に切り替えることができる。なお、検知無効設定になっている台形をさらにクリックすることで、再度、スリープ復帰有効設定に切り替えることができる。
なお、図4(D)の画面D44は、図3(C)および(D)に示した状況での検知状態を表している。
The human
Note that a screen D44 in FIG. 4D represents a detection state in the situation illustrated in FIGS. 3C and 3D.
図4(E)は、設定変更画面D44において、ユーザが内向きに変更ボタン444をクリックしたときの設定変更画面D44である。なお、図4(D)と同一のものには同一の符号を付してある。
FIG. 4E shows the setting change screen D44 when the user clicks the
画像処理装置1のCPU105は、内向きに変更ボタン444(図4(D))がクリックされたときに、人感センサ部103の複数の焦電センサの向きを少し下向きに変更して検知範囲全体を内側に縮小する。CPU105はその動作と共に、図4(E)に示すように、人感検知範囲ボタン441の形状を縮小してリモート操作画面に表示させている。
When the change button 444 (FIG. 4D) is clicked inward, the
454は外向きに変更ボタンである。画像処理装置1のCPU105は、外向きに変更ボタン454(図4(E))がクリックされたときに、人感センサ部103の複数の焦電センサの向きを少し上向きに変更して検知範囲全体を外側に拡大する。CPU105はその動作と共に、人感検知範囲ボタン441の形状を拡大してリモート操作画面に表示させる。
Reference numeral 454 denotes an outward change button. When the change button 454 (FIG. 4 (E)) is clicked outward, the
なお、図4では、人感センサ部103の複数の焦電センサの向きを少し下(上)向きに変更して検知範囲全体を内(外)側に縮小(拡大)する構成を示したが、人感センサ部103の複数の焦電センサの向きを、左右にも変更可能に構成してもよい。そして、左向きに変更ボタン、右向きに変更ボタンを設け、左(右)向きに変更ボタンがクリックされたときに、人感センサ部103の複数の焦電センサの向きを少し左(右)向きに変更して検知範囲全体を左(右)側に移動するようにしてもよい。また、複数の焦電センサの向きを、上述した上下、左右で組み合わせて変更可能にしてもよい。即ち、正面上、正面下、左上、左下、右上、右下のように変更可能にしてもよい。さらに、人感センサ部103の複数の焦電センサの向きを各向きにそれぞれ複数の段階で変更可能にしてもよい。即ち、人感センサ部103の複数の焦電センサの向きを、上下に複数段階の変更と左右に複数段階の変更とを組み合わせて変更可能にしてもよい。
Note that FIG. 4 shows a configuration in which the direction of the plurality of pyroelectric sensors of the
図4(F)は、設定変更画面D44の状態で、画像処理装置1の周囲の状況が図3(E)及び(F)に示した状況になったときの設定変更画面D44である。なお、図4(D)、図4(E)と同一のものには同一の符号を付してある。 FIG. 4F shows the setting change screen D44 when the surroundings of the image processing apparatus 1 are in the state shown in FIGS. 3E and 3F in the state of the setting change screen D44. In addition, the same code | symbol is attached | subjected to the same thing as FIG.4 (D) and FIG.4 (E).
図4(F)では、人感検知範囲ボタン441は、白い背景の台形に斜線が付いており、図3(E)及び(F)のユーザ3及びユーザ4が検知されている。白い背景の台形は、スリープ復帰有効設定の台形であるので、この状況において画像処理装置1がスリープモードにある場合には、スリープ復帰することを示している。つまり、現在の設定では、図3(E)の説明で述べた、ユーザ3のためにスリープ復帰動作を行う必要がないことと、ユーザ4のために操作部のみスリープ復帰動作を行うとよいということに一致したスリープ復帰動作は行えない。以下、図3(E)の説明で述べたスリープ復帰動作を実現するための設定操作を説明する。
In FIG. 4F, the human
図5は、端末装置2で画像処理装置1をリモート操作するときに表示・操作部202に表示される画面の一例を示す図である。
図5(A)は、図4(F)における設定変更画面D44の状態で、図3(E)及び図3(F)におけるユーザ3が検知され得る焦電センサに対応する各台形ボタンを2回ずつクリックして、黒い背景の「検知無効設定」の台形に変更した設定変更画面D44である。
FIG. 5 is a diagram illustrating an example of a screen displayed on the display /
FIG. 5A shows the state of the setting change screen D44 in FIG. 4F, and shows two trapezoid buttons corresponding to pyroelectric sensors that can be detected by the user 3 in FIGS. 3E and 3F. This is a setting change screen D44 that is clicked repeatedly and changed to a trapezoid of “detection invalid setting” with a black background.
図5(B)は、図5(A)における設定変更画面D44の状態で、図3(E)及び図3(F)におけるユーザ4が検知され得る焦電センサに対応する各台形ボタンを1回ずつクリックして、網掛け背景の「操作部のみスリープ復帰設定」の台形に変更した設定変更画面D44である。 FIG. 5B shows the state of the setting change screen D44 in FIG. 5A, and shows each trapezoid button corresponding to the pyroelectric sensor that can be detected by the user 4 in FIGS. 3E and 3F. This is a setting change screen D44 that is clicked repeatedly and changed to a trapezoid of “Operation unit only sleep return setting” on the shaded background.
図5(C)は、図5(B)における設定変更画面D44の状態で、決定ボタン443をクリックして、各台形のスリープ復帰動作設定を確定させたときに遷移する人感センサ画面D43である。
FIG. 5C shows a human sensor screen D43 that transitions when the
図5(C)の画面D43においては、背景が白の台形の他に、背景が黒の台形、背景が網掛けの台形が存在し、図3(E)及び(F)のユーザ3が検知される状況において、スリープモードから復帰しないことがわかる。また、図3(E)及び(F)のユーザ4が検知される状況において、スリープモードから操作部のみスリープ復帰することがわかる。 On the screen D43 in FIG. 5C, in addition to the trapezoid with the white background, the trapezoid with the black background and the shaded trapezoid with the background exists, and the user 3 in FIGS. 3E and 3F detects the trapezoid. It can be seen that the system does not return from the sleep mode in the situation where In addition, in the situation where the user 4 in FIGS. 3E and 3F is detected, it can be seen that only the operation unit returns from sleep mode to sleep.
なお、人感センサ部103の複数の焦電センサの向き設定と、各焦電センサのスリープ復帰動作設定の情報は、CPU105の制御により、HDD107に記録されるものとする。
It should be noted that information on the orientation settings of the plurality of pyroelectric sensors of the
以下、図6を用いて、人感センサ画面のフローチャートについて説明する。
図6は、図4(C)及び図5(C)に示した人感センサ画面D43における画像処理装置1のフローチャートである。なお、このフローチャートは、人感センサ部103の各焦電センサの検知範囲を画像処理装置1からの相対的な位置で示す人感センサ画面を、画像処理装置1のCPU105が生成する手順を表している。図中、S601〜S609は各ステップを示す。このフローチャートの処理は、CPU105がHDD107にコンピュータ読み取り可能に記録されたプログラムを読み出して実行することにより実現されるものである。
Hereinafter, the flowchart of the human sensor screen will be described with reference to FIG.
FIG. 6 is a flowchart of the image processing apparatus 1 on the human sensor screen D43 shown in FIGS. 4 (C) and 5 (C). This flowchart represents a procedure in which the
画像処理装置1のCPU105は、図4(B)に示した状態表示画面D42において、人感センサボタン423がクリック(指示)されたことを端末装置2から受信すると、図6のS601に処理を進める。
When the
S601では、CPU105は、HDD107に記録されている焦電センサの向き設定の読み出しを行い、S602に処理を進める。
S602では、CPU105は、HDD107に記録されている各焦電センサのスリープ復帰動作設定の読み出しを行い、S603に処理を進める。
In step S601, the
In S602, the
S603では、CPU105は、人感センサ部103から各焦電センサの検知状態の読み出しを行い、S604に処理を進める。
S604では、CPU105は、HDD107に記録されている台形画像の中から、焦電センサの向き、スリープ復帰動作設定、及び検知状態に応じた台形画像の読み出しを行い、S605に処理を進める。
In S603, the
In step S604, the
S605では、CPU105は、HDD107に記録されている画像処理装置とボタン類を含む人感センサ画面基本画像の読み出しを行い、上記S604で読み出した台形画像と合成した画像を生成して、S606に処理を進める。なお、ここで生成した合成画像は、人感センサ部103の検知範囲を画像処理装置1からの相対位置で示す情報、人感センサ部103の領域毎に人を検知している領域と人を検知していない領域とを区別して示す情報、人感センサ部103の領域毎に、人の存在を検知した場合に実行する動作を設定する情報等を含む表示情報である。
In S605, the
S606では、CPU105は、上記S605で生成した合成画像を、ネットワークインタフェース部102とLANを介して、端末装置2に対して送信し、S607に処理を進める。これを受信した端末装置2は、図4(C)に示したような人感センサ画面D43を表示・操作部202に表示し、ユーザからの操作を受け付ける。そして、ユーザからの操作があると、端末装置2は、操作情報を画像処理装置1に送信する。
In S606, the
S607では、画像処理装置1のCPU105は、端末装置2から操作情報を受信したか判定する。
そして、端末装置2から操作情報を受信していないと判定した場合(S607でNoの間)、CPU105は、S603に処理を進める。
In step S <b> 607, the
If it is determined that no operation information has been received from the terminal device 2 (No in S607), the
一方、端末装置2から操作情報を受信したと判定した場合(S607でYesの場合)、CPU105は、S608に処理を進める。
S608では、CPU105は、上記S607で受信した操作情報が、戻るボタン432のクリックであるか判定する。
そして、戻るボタン432のクリックであると判定した場合(S608でYesの場合)、CPU105は、図示しない状態表示画面のフローチャートへ処理を進める。
On the other hand, if it is determined that the operation information has been received from the terminal device 2 (Yes in S607), the
In step S <b> 608, the
If it is determined that the
なお、図示しないが、状態表示画面のフローチャートでは、CPU105が、HDD107に記録されている状態表示画面基本画像(図4(b)のD42に示すような画像)の読み出しを行い、該状態表示画面基本画像を、ネットワークインタフェース部102とLANを介して、端末装置2に対して送信する。
Although not shown, in the flowchart of the status display screen, the
以下、図6のフローチャートの説明に戻る。
また、上記S608において、戻るボタン432のクリックでないと判定した場合(S608でNoの場合)、CPU105は、S609に処理を進める。
S609では、CPU105は、上記S607で受信した操作情報が、設定変更ボタン433のクリックであるか判定する。
Returning to the flowchart of FIG.
If it is determined in S608 that the
In step S609, the
そして、設定変更ボタン433のクリックでないと判定した場合(S609でNoの場合)、CPU105は、S603に処理を戻す。
一方、設定変更ボタン433のクリックであると判定した場合(S609でYesの場合)、CPU105は、図7に示す設定変更画面のフローチャートへ処理を進める。
When it is determined that the setting
On the other hand, when it is determined that the setting
以下、図7を用いて、設定変更画面のフローチャートについて説明する。
図7は、図4(D)〜(F)及び図5(A)〜(B)に示した設定変更画面D44における画像処理装置1のフローチャートである。このフローチャートは、設定変更画面D44を画像処理装置1のCPU105が生成する手順を表している。また、焦電センサの向きと各焦電センサのスリープ復帰動作の設定をCPU105が変更する手順を表している。図中、S701〜S717は各ステップを示す。このフローチャートの処理は、CPU105がHDD107にコンピュータ読み取り可能に記録されたプログラムを読み出して実行することにより実現されるものである。
Hereinafter, the flowchart of the setting change screen will be described with reference to FIG.
FIG. 7 is a flowchart of the image processing apparatus 1 on the setting change screen D44 shown in FIGS. 4 (D) to 4 (F) and FIGS. 5 (A) to 5 (B). This flowchart represents a procedure in which the
画像処理装置1のCPU105は、まずS701において、HDD107に記録されている焦電センサの向き設定の読み出しを行い、S702に処理を進める。
S702では、CPU105は、HDD107に記録されている各焦電センサのスリープ復帰動作設定の読み出しを行い、S703に処理を進める。
First, in step S701, the
In step S <b> 702, the
S703において、CPU105は、上記S701で読み出した焦電センサの向き設定と、上記S702で読み出した各焦電センサのスリープ復帰動作設定をHDD107の元の領域とは別の領域に記録して、S704に処理を進める。以下、上記元の領域を設定領域と呼び、上記別の領域をバックアップ領域と呼ぶ。
In step S <b> 703, the
S704において、CPU105は、人感センサ部103から各焦電センサの検知状態の読み出しを行い、S705に処理を進める。
S705では、CPU105は、HDD107に記録されている台形画像の中から、焦電センサの向き、スリープ復帰動作設定、及び検知状態に応じた台形画像の読み出しを行い、S706に処理を進める。
In step S <b> 704, the
In step S <b> 705, the
S706では、CPU105は、HDD107に記録されている画像処理装置とボタン類を含む設定変更画面基本画像の読み出しを行い、S705で読み出した台形画像と合成した画像を生成して、S707に処理を進める。
In S706, the
S707では、CPU105は、上記S706で生成した合成画像を、ネットワークインタフェース部102とLANを介して、端末装置2に対して送信し、S708に処理を進める。これを受信した端末装置2は、図4(D)〜(F)及び図5(A)〜(B)に示したような設定変更画面D44を表示・操作部202に表示し、ユーザからの操作を受け付ける。そして、ユーザからの操作があると、端末装置2は、操作情報を画像処理装置1に送信する。なお、端末装置2は、前記操作情報として、人感センサ部103の特定の検知領域の設定を、人感センサ部103の検知領域を無効にする「検知無効設定」へ設定変更する指示、スリープモードから通常動作モードに遷移する「スリープ復帰有効設定」へ設定変更する指示、スリープモードから操作部のみ動作モードに遷移する「操作部のみスリープ復帰有効設定」へ設定変更する指示や、人感センサ部103の焦電センサの向きを変更する指示や、その他の指示などを送信可能である。
In S707, the
S708では、CPU105は、端末装置2から操作情報を受信したか否かを判定する。
そして、端末装置2から操作情報を受信していないと判定した場合(S708でNoの場合)、CPU105は、S704に処理を進める。
In step S <b> 708, the
If it is determined that no operation information has been received from the terminal device 2 (No in S708), the
一方、端末装置2から操作情報を受信したと判定した場合(S708でYesの場合)、CPU105は、S709に処理を進める。
S709では、CPU105は、上記S708で受信した操作情報が台形ボタン(人感検知範囲ボタン441)のクリックであるかどうかを判定する。
そして、操作情報が台形ボタン(人感検知範囲ボタン441)のクリックであると判定した場合(S709でYesの場合)、CPU105は、S710に処理を進める。
On the other hand, if it is determined that the operation information has been received from the terminal device 2 (Yes in S708), the
In step S709, the
If it is determined that the operation information is a click on the trapezoid button (human detection range button 441) (Yes in S709), the
S710では、CPU105は、上記S708でクリックされた台形ボタン(人感検知範囲ボタン441)に対応する焦電センサのスリープ復帰動作設定を切り替え、その設定をHDD107の設定領域に記録して、S704に処理を進める。このとき、CPU105は、元のスリープ復帰動作設定の内容に応じて、切り替える内容を制御する。元が「スリープ復帰有効設定」の場合は、「操作部のみスリープ復帰有効設定」に切り替える。元が「操作部のみスリープ復帰有効設定」の場合は、「検知無効設定」に切り替える。元が「検知無効設定」の場合は、「スリープ復帰有効設定」に切り替える。
In S710, the
一方、操作情報が台形ボタン(人感検知範囲ボタン441)のクリックでないと判定した場合(S709でNoの場合)、CPU105は、S711に処理を進める。
S711では、CPU105は、上記S708で受信した操作情報が変更キャンセルボタン442のクリックであるか否かを判定する。
On the other hand, if it is determined that the operation information is not a click on the trapezoid button (human detection range button 441) (No in S709), the
In S711, the
そして、操作情報が変更キャンセルボタン442のクリックであると判定した場合(S711でYesの場合)、CPU105は、S712に処理を進める。
S712では、CPU105は、上記S702でHDD107のバックアップ領域に記録した焦電センサの向き設定と各焦電センサのスリープ復帰動作設定をHDD107から読み出して、S713に処理を進める。
When it is determined that the operation information is a click on the change cancel button 442 (Yes in S711), the
In S712, the
S713では、CPU105は、上記S712で読み出した焦電センサの向き設定を、HDD107の設定領域に記録する。
さらに、S714において、CPU105は、上記S712で読み出した各焦電センサのスリープ復帰動作設定を、HDD107の設定領域に記録し、図6に示した人感センサ画面のフローチャートへ処理を進める。
In S713, the
Further, in S714, the
また、上記S711において、操作情報が変更キャンセルボタン442のクリックでないと判定した場合(S711でNoの場合)、CPU105は、S715に処理を進める。
If it is determined in S711 that the operation information is not a click on the change cancel button 442 (No in S711), the
S715では、CPU105は、上記S708で受信した操作情報が内向きに変更ボタン444または外向きに変更ボタン454のクリックであるか否かを判定する。
そして、操作情報が内向きに変更ボタン444または外向きに変更ボタン454のクリックであると判定した場合(S715でYesの場合)、CPU105は、S716に処理を進める。
In S715, the
If it is determined that the operation information is a click of the
S716では、CPU105は、人感センサ部103の焦電センサの向き設定を切り替えて、その設定をHDD107の設定領域に記録して、S704に処理を進める。このとき、CPU105は、元の焦電センサの向き設定の内容に応じて、切り替える内容を制御する。元が外向きの設定の場合は、内向きの設定に切り替える。元が内向きの設定の場合は、外向きの設定に切り替える。
In S716, the
また、上記S715において、操作情報が内向きに変更ボタン444のクリックでも外向きに変更ボタン454のクリックでもないと判定した場合(S715でNoの場合)、CPU105は、S717に処理を進める。
If it is determined in S <b> 715 that the operation information is neither an inward click of the
S717では、CPU105は、上記S708で受信した操作情報が決定ボタン443のクリックであるか否かを判定する。
そして、操作情報が決定ボタン443のクリックでないと判定した場合(S717でNoの場合)、CPU105は、S704に処理を進める。
In S717, the
If it is determined that the operation information is not a click on the determination button 443 (No in S717), the
一方、操作情報が決定ボタン443のクリックであると判定した場合(S717でYesの場合)、CPU105は、そのまま図6に示した人感センサ画面のフローチャートへ処理を進める。
On the other hand, when it is determined that the operation information is a click on the determination button 443 (Yes in S717), the
以上の構成において、本発明による画像処理装置1の動作の一例を以下に説明する。
この例は、画像処理装置1の近くの席で作業をするユーザ3が、画像処理装置1が自分のことを検知してもスリープ復帰動作を行わないように、また、印刷した紙を取りにきたユーザ4を検知した場合には操作部のみ動作モードに遷移するように設定する手順に対応する。
In the above configuration, an example of the operation of the image processing apparatus 1 according to the present invention will be described below.
In this example, the user 3 who works at a seat near the image processing apparatus 1 does not perform the sleep return operation even when the image processing apparatus 1 detects himself / herself. This corresponds to the procedure for setting only the operation unit to transition to the operation mode when the user 4 is detected.
まず、図3(A)の状況で、ユーザ3は、画像処理装置1のリモート操作を開始するため、端末装置2を起動する。端末装置2は前述の通り、CPU203の制御により、画像処理装置1とLANを介した通信を開始する。そして、画像処理装置1はCPU105の制御により、端末装置2に対してリモート操作用の画面情報を送信し、また、端末装置2からの操作情報を受信して内部の設定に反映させる動作を、以降のリモート操作が実行されている間に必要に応じ繰り返し行う。
First, in the situation of FIG. 3A, the user 3 activates the
画像処理装置1は、端末装置2に対してリモート操作用の画面(トップ画面D41)を送信する。端末装置2は、受信したトップ画面D41を表示・操作部202の表示装置に表示する。
The image processing device 1 transmits a screen for remote operation (top screen D41) to the
トップ画面D41において、ユーザ3は、人感センサ部103の状態を確認するために、状態表示ボタン413をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、端末装置2に状態表示画面D42を送信する。端末装置2は、受信した状態表示画面D42を表示・操作部202の表示装置に表示する。
On the top screen D41, the user 3 clicks the status display button 413 to check the status of the
状態表示画面D42において、ユーザ3は、人感センサの状態を確認するために、人感センサボタン423をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、端末装置2に人感センサ画面D43を送信する。このとき、画像処理装置1は、前述の通り、人感センサ部103の複数の焦電センサの位置が画像処理装置1からの相対位置でわかるように、各焦電センサに対応する台形(焦電センサの向きにも対応)を配置した模式図を生成する。さらに、画像処理装置1は、その模式図の台形に、焦電センサの現在の設定を台形の背景として付加し、また、焦電センサの現在の検知状態を斜線で付加して表す。端末装置2は、受信した人感センサ画面D43を表示・操作部202の表示装置に表示する。
On the status display screen D42, the user 3 clicks the human sensor button 423 in order to confirm the human sensor state. The
人感センサ画面D43を見ることにより、ユーザ3は、人感センサ部103の人感検知範囲を画像処理装置1からの相対位置で把握することができ、また、自分が検知範囲内に入っていて焦電センサに検知されていることを理解することができる。なお、この人感センサ画面D43は、画像処理装置1のCPU105の制御により、定期的に更新される。
By looking at the human sensor screen D43, the user 3 can grasp the human sensor detection range of the
人感センサ画面D43において、ユーザ3は、人感センサ部103の設定を変更するために、設定変更ボタン433をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、端末装置2に設定変更画面D44(図4(D))を送信する。このとき、ユーザ3は、自分が動いたときに検知され得る最大の範囲を調べるために、図3(C)に示すように手を広げる動作を行っており、画像処理装置1は焦電センサの現在の検知状態が変わったことを反映して設定変更画面D44(図4(D))を生成している。端末装置2は、受信した設定変更画面D44(図4(D))を表示・操作部202の表示装置に表示する。なお、この設定変更画面D44は、画像処理装置1のCPU105の制御により、定期的に更新される。
On the human sensor screen D43, the user 3 clicks a setting
図4(D)の設定変更画面D44を見ることにより、ユーザ3は、自分が動いたときに検知され得る最大の範囲を知ることができる。ユーザ3は、人感センサ部103のセンサ向きを変えるために、内向きに変更ボタン444をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。
By looking at the setting change screen D44 in FIG. 4D, the user 3 can know the maximum range that can be detected when the user 3 moves. The user 3 clicks an
操作情報を受信した画像処理装置1は、人感センサ部103の焦電センサの向きを、より下向きになるように変更し、その向きでの人感検知範囲と人感検知状態を反映した設定変更画面D44(図4(E))を生成し、端末装置2に送信する。端末装置2は、受信した設定変更画面D44(図4(E))を表示・操作部202の表示装置に表示する。即ち、設定変更画面D44は、人感センサ部103の焦電センサの向きが変更されると、画像処理装置1のCPU105の制御により、更新される。
The image processing apparatus 1 that has received the operation information changes the direction of the pyroelectric sensor of the
図4(E)の設定変更画面D44を見ることにより、ユーザ3は、人感センサ部103の検知範囲が狭くなったことと、人感センサ部103のセンサ向きを変えても自分が検知され続けていることを把握することができる。ユーザ3は、人感センサの向きを元に戻すために、外向きに変更ボタン454をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。
By looking at the setting change screen D44 in FIG. 4E, the user 3 is detected even if the detection range of the
操作情報を受信した画像処理装置1は、人感センサ部103の焦電センサの向きを、より上向きになるように変更し、その向きでの人感検知範囲と人感検知状態を反映した設定変更画面D44を生成し、端末装置2に送信する。このとき、ユーザ3は拡げていた手を元に戻しており、また、図3(E)に示すように別のユーザ4が画像処理装置1に近づいてきており、画像処理装置1は焦電センサの現在の検知状態が変わったことを反映して設定変更画面D44(図4(F))を生成している。端末装置2は、受信した設定変更画面D44(図4(F))を表示・操作部202の表示装置に表示する。
The image processing apparatus 1 that has received the operation information changes the direction of the pyroelectric sensor of the
図4(F)の設定変更画面D44を見ることにより、ユーザ3は、印刷済みの用紙を取りにきたユーザ4が人感センサ部103によって検知されることを確認することができる。ユーザ3は、まず自分の周囲については、人感センサ部103による検知でスリープ復帰動作を行わせないように設定するために、これまでの手順で確認した自分の位置に対応する台形(人感検知範囲ボタン441)と、その周囲の台形(人感検知範囲ボタン441)を2回ずつクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、クリックされた台形のスリープ復帰動作に関する設定情報を変更して、新しい設定情報に応じた背景の台形で設定変更画面D44(図5(A))を生成する。端末装置2は、受信した設定変更画面D44(図5(A))を表示・操作部202の表示装置に表示する。即ち、設定変更画面D44は、人感センサ部103の焦電センサのスリープ復帰動作設定が変更されると、画像処理装置1のCPU105の制御により、更新される。
By viewing the setting change screen D44 in FIG. 4F, the user 3 can confirm that the
図5(A)の設定変更画面D44を見ることにより、ユーザ3は、自分の周囲が人感センサによる検知でスリープ復帰動作を行わない設定になったことを確認することができる。ユーザ3は、次に、印刷した紙を取りにきたユーザ4が人感センサによって検知されたときに操作部のみ動作モードに遷移するように設定を変更するために、ユーザ4の現在の位置に対応する台形(人感検知範囲ボタン441)と、そこにくるまでに通る位置に対応する台形(人感検知範囲ボタン441)を1回ずつクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、クリックされた台形のスリープ復帰動作に関する設定情報を変更して、新しい設定情報に応じた背景の台形で設定変更画面D44(図5(B))を生成し、端末装置2に送信する。端末装置2は、受信した設定変更画面D44(図5(B))を表示・操作部202の表示装置に表示する。
By looking at the setting change screen D44 in FIG. 5A, the user 3 can confirm that his / her surroundings are set to not perform the sleep recovery operation by detection by the human sensor. Next, the user 3 moves to the current position of the user 4 in order to change the setting so that only the operation unit transitions to the operation mode when the user 4 who picks up the printed paper is detected by the human sensor. Click the corresponding trapezoid (human detection range button 441) and the trapezoid (human detection range button 441) corresponding to the position to reach there. The
図5(B)の設定変更画面D44を見ることにより、ユーザ3は、ユーザ4の位置が人感センサによる検知で操作部のみ動作モードに遷移する設定になったことを確認することができる。ユーザ3は、人感センサの設定が希望通りにできたことを確認して、この設定を確定させるために決定ボタン443をクリックする。端末装置2は、ユーザ3の操作情報を画像処理装置1に対して送信する。操作情報を受信した画像処理装置1は、端末装置2に人感センサ画面D43(図5(C))を送信する。端末装置2は、受信した人感センサ画面D43(図5(C))を表示・操作部202の表示装置に表示する。
By looking at the setting change screen D44 in FIG. 5B, the user 3 can confirm that the position of the user 4 has been set to shift to the operation mode only in the operation unit by detection by the human sensor. The user 3 confirms that the setting of the human sensor has been performed as desired, and clicks the
以上に示すように、ユーザ3は、端末22から、リモート操作を使って、人感センサ部103の検知範囲を画像処理装置1からの相対位置で確認しながら、人感センサ部103によるスリープ復帰動作がユーザの意図に合う状態であるかどうか確認することができる。
As described above, the user 3 uses the remote operation from the terminal 22 to check the detection range of the
また、ユーザ3は、検知したい場所と検知したくない場所に移動して、ここでは特に手を広げる動作を行うことによって、その場所が期待する検知範囲に含まれるかどうかを確認することができる。例えば、端末装置2としてノートPC、タブレットPC、スマートフォン等の携帯端末を用いた場合、ユーザは携帯端末を持って画像処理装置1の周りを移動しながら、人感センサ部103の向きの設定やスリープ復帰動作設定を行うことができる。このようにして設定することで、画像処理装置1がより確実にユーザの意図通りに動作するように、人感センサ部103の設定を行うことができる。なお、上記人感センサ部103の設定は、表示・操作部104からも行うことができるようにしてもよい。特に、表示・操作部104が、画像処理装置1本体から着脱可能な場合には、上記携帯端末による操作と同様の効果を奏する。
In addition, the user 3 can check whether the place is included in the expected detection range by moving to a place where the user wants to detect and a place where he / she does not want to detect, and performing an operation of spreading his / her hand here. . For example, when a portable terminal such as a notebook PC, tablet PC, or smartphone is used as the
さらに、人感センサ部103の検知によるスリープ復帰動作の内容を設定することで、人感センサの有効と無効を指定でき、また、人感センサが人を検知した場合の動作を指定でき、ユーザは容易に期待する通りの検知範囲に調節することができる。なお、本実施例では、「操作部のみスリープ復帰有効設定」を設ける構成について説明したが、操作部のみに限定されるものではなく、特定の人感センサが人を検知した場合に画像処理装置1の特定部分を復帰させる他の設定を設けてもよい。例えば、特定の人感センサが人を検知した場合に、表示・操作部104及び画像読み取り部101を復帰させるような設定を設けてもよい。
Furthermore, by setting the content of the sleep return operation by detection of the
なお、人感センサ部103の複数の人感センサの向きを変更すると、各人感センサのスリープ復帰動作設定をリセットするようにしてもよいし、そのまま保持するようにしてもよい。例えば、画像処理装置1において、人感センサの向き毎に、各人感センサのスリープ復帰動作設定を保持可能に構成し、人感センサの向きを変更すると、その向きに対応する各人感センサのスリープ復帰動作設定を有効にするように構成する。この設定の場合、人感センサの向きを元に戻すと、各人感センサのスリープ復帰動作設定も、変更後の向きで以前設定されていた設定に戻るように構成する。
When the direction of the plurality of human sensors of the
また、画像処理装置1において、人感センサの向きの設定と、各人感センサのスリープ復帰動作設定をそれぞれ独立に保持する構成し、人感センサの向きが変更されても、各人感センサのスリープ復帰動作設定は向き変更前と同一とするように構成する。
さらに、人感センサ部103の各人感センサの感度も変更可能に構成してもよい。
Further, the image processing apparatus 1 is configured to hold the setting of the direction of the human sensor and the sleep return operation setting of each human sensor independently, and each human sensor even if the direction of the human sensor is changed. The sleep return operation setting is configured to be the same as before the direction change.
Furthermore, you may comprise so that the sensitivity of each human sensitive sensor of the human
以上説明したように、本発明によれば、人感センサの検知範囲を画像処理装置からの相対位置で確認することができるため、人感センサを利用した制御動作がユーザの意図に合わない状態であることにユーザが気付くことができる。 As described above, according to the present invention, since the detection range of the human sensor can be confirmed at the relative position from the image processing apparatus, the control operation using the human sensor does not match the user's intention. The user can notice that
また、現在の人感センサの反応状態をリモート操作部で見ることができるため、検知したい場所や検知したくない場所に移動してリモート操作部を見ることで、その場所がユーザの期待する検知範囲の内か外かを確認することができる。 In addition, since the current human sensor response status can be viewed on the remote control unit, you can move to a location you want to detect or do not want to detect and look at the remote control unit to detect the location that the user expects. You can check whether it is within or outside the range.
さらに、ユーザはその場所でリモート操作部を操作して人感センサの有効、無効、操作部のみ復帰等のスリープ復帰動作設定を指定できるため、ユーザは容易に期待する通りの検知範囲に調節することができる。 Furthermore, since the user can specify the sleep recovery operation settings such as enabling / disabling the human sensor and returning only the operation unit by operating the remote operation unit at that location, the user can easily adjust the detection range as expected. be able to.
なお、人感センサの検知範囲の確認は、人感センサ部103で人を検知すると画像処理装置に設けられたLEDを点灯させる等して検知を認知させる方法も考えられる。しかし、この方法では、人感センサ部103のどの人感センサが検知したかが不明であったり、分かりにくかったりするため、あまり有効とは考えられない。これに対して、本発明では、リモート操作部において、どの人感センサが検知したかを明確に認知でき、ユーザは確実に、人感センサの設定を行うことができる。
Note that the detection range of the human sensor may be confirmed by detecting the human sensor by the
よって、人感センサの検知範囲を、ユーザが目に見て容易に確認し、人感センサの向きや、検知した場合の動作設定を容易に変更することができる。このため、ユーザの期待通りに、より確実に、装置を利用したいユーザが装置に近づいた場合に検知して復帰し、逆に、装置の傍を通っただけの人の検知を抑えてスリープ維持する制御を行うことができる。 Therefore, the detection range of the human sensor can be easily confirmed visually by the user, and the direction of the human sensor and the operation setting when detected can be easily changed. For this reason, as expected by the user, the device detects and returns when the user who wants to use the device approaches the device, and conversely suppresses detection of a person who has just passed by the device and maintains sleep. Can be controlled.
以上示したように、本発明によれば、人感センサの検知範囲を画像処理装置からの相対位置で確認することで人感センサを利用した制御動作がユーザの意図に合わない状態となったことを認知でき、人感センサの検知範囲を適切な状態に調整し、人感センサを利用した制御動作をユーザの意図する状態に調整することができる。
このように、人感センサの検知範囲を本体との相対位置でわかるようにリモートUIに表示し、その場で設定できるようにすることにより、目に見えない人感センサの検知範囲の確認と調節を簡単に行うことができる。
As described above, according to the present invention, by confirming the detection range of the human sensor at the relative position from the image processing apparatus, the control operation using the human sensor is in a state that does not match the user's intention. This can be recognized, and the detection range of the human sensor can be adjusted to an appropriate state, and the control operation using the human sensor can be adjusted to the state intended by the user.
In this way, the detection range of the human sensor is displayed on the remote UI so that it can be recognized relative to the main body, and can be set on the spot, so that the detection range of the invisible human sensor can be confirmed. Adjustments can be made easily.
なお、本実施例では、本発明の技術を画像処理装置の電源制御に利用したが、他の電子機器の電源制御に用いてもよい。
例えば、来客者に応じてコンテンツを表示して来客者に情報を提示する情報処理装置(例えば、企業のロビー、観光地等に設置してある案内目的の情報処理装置)等に適用してもよい。このような情報処理装置では、来客者が検知された場合に、情報処理装置をスリープ状態から通常状態に復帰させて、所定のコンテンツ(案内や観光情報等)を表示する等の制御を行うことが考えられ、人感センサの検知範囲に関して上記実施例で示した画像処理装置と同様の課題を有するものと考えられる。このような情報処理装置に本発明を適用することにより、人感センサの検知範囲を情報処理装置からの相対位置で確認することで人感センサを利用した制御動作がユーザの意図に合わない状態となったことを認知でき、人感センサの検知範囲を適切な状態に調整し、人感センサを利用した制御動作をユーザの意図する状態に調整することが可能となる。また、このような情報処理装置において、特定の領域(装置正面等)で人が検知された場合には、スリープ復帰してコンテンツ表示まで行うが、他の領域(装置の側面等)で人が検知された場合には、スリープ復帰のみを行うようにすることも可能である。
In this embodiment, the technique of the present invention is used for power control of the image processing apparatus, but may be used for power control of other electronic devices.
For example, the present invention may be applied to an information processing device that displays content according to a visitor and presents information to the visitor (for example, an information processing device for guidance purposes installed in a corporate lobby, a sightseeing spot, etc.) Good. In such an information processing device, when a visitor is detected, the information processing device is returned from the sleep state to the normal state, and control such as displaying predetermined contents (guidance, sightseeing information, etc.) is performed. Therefore, it is considered that the detection range of the human sensor has the same problem as that of the image processing apparatus shown in the above embodiment. By applying the present invention to such an information processing apparatus, the control operation using the human sensor does not match the user's intention by checking the detection range of the human sensor at the relative position from the information processing apparatus. Therefore, the detection range of the human sensor can be adjusted to an appropriate state, and the control operation using the human sensor can be adjusted to the state intended by the user. Also, in such an information processing apparatus, when a person is detected in a specific area (such as the front of the apparatus), the content is displayed after returning from sleep, but in other areas (such as the side of the apparatus) If it is detected, it is possible to perform only sleep recovery.
また、本発明をカメラに適用してもよい。これにより、カメラに備えられたセンサにより特定の領域(例えば監視の必要性がある領域)で人が検知された場合には、カメラをスリープ復帰して撮影、録画まで行うが、他の領域で人が検知された場合には、カメラのスリープ復帰のみを行うようにすることも可能である。 Further, the present invention may be applied to a camera. Thus, when a person is detected in a specific area (for example, an area where monitoring is necessary) by a sensor provided in the camera, the camera returns to sleep and performs shooting and recording. When a person is detected, it is possible to perform only the camera return from sleep.
また、人を検知して各種動作を行う家電、例えば、エアコン、テレビ、照明器具等にも本発明を適用可能である。 The present invention is also applicable to home appliances that detect people and perform various operations, such as air conditioners, televisions, and lighting fixtures.
なお、上述した各種データの構成及びその内容はこれに限定されるものではなく、用途や目的に応じて、様々な構成や内容で構成されることは言うまでもない。
以上、一実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、上記各実施例を組み合わせた構成も全て本発明に含まれるものである。
It should be noted that the configuration and contents of the various data described above are not limited to this, and it goes without saying that the various data and configurations are configured according to the application and purpose.
Although one embodiment has been described above, the present invention can take an embodiment as, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
Moreover, all the structures which combined said each Example are also contained in this invention.
(他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。
本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device.
The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not. That is, the present invention includes all the combinations of the above-described embodiments and modifications thereof.
101 画像読み取り部
102 ネットワークインタフェース部
103 人感センサ部
104 表示・操作部
105 CPU
106 メモリ
107 HDD
108 画像印刷部
109 データバス
110 電源制御部
DESCRIPTION OF
106
108
Claims (15)
物体を検知する検知手段と、
前記検知手段の検知範囲を示す設定情報を記憶する記憶手段と、
前記記憶手段に記憶される設定情報に基づく前記検知手段の検知範囲を前記画像処理装置からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信手段と、
前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信手段と、
前記受信手段が受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新手段と、
前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記画像処理装置の動作を制御する制御手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus,
Detection means for detecting an object;
Storage means for storing setting information indicating a detection range of the detection means;
To generate display information including information indicating a detection range of the detection unit based on setting information stored in the storage unit by a relative position from the image processing device, and to display the generated display information on an external device Transmitting means for transmitting to the external device;
Receiving means for receiving from the external device an instruction to change the detection range of the detecting means;
Updating means for updating setting information stored in the storage means based on an instruction received by the receiving means;
Control means for controlling the operation of the image processing apparatus according to the detection state of the detection means in the detection range based on the setting information;
An image processing apparatus comprising:
前記送信手段が送信する前記表示情報は、前記検知手段が物体を検知している領域と物体を検知していない領域とを領域毎に区別して示す情報も含むことを特徴とする請求項1に記載の画像処理装置。 The detection means is capable of detecting an object for each of a plurality of areas and acquiring a detection result for each of the areas,
2. The display information transmitted by the transmission unit includes information indicating a region in which the detection unit is detecting an object and a region in which no object is detected separately for each region. The image processing apparatus described.
前記送信手段が送信する前記表示情報は、前記記憶手段に記憶される設定情報に基づいて領域毎に設定された前記動作の設定を領域毎に示す情報も含み、
前記受信手段は、前記検知手段の領域毎の前記動作の設定を変更する指示を前記外部装置から受信し、
前記制御手段は、前記設定情報に基づく検知範囲における検知状態が特定の状態となっている領域に設定された前記動作を行うことを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。 The setting information stored in the storage means includes information for setting an operation to be executed according to the detection state for each area of the detection means.
The display information transmitted by the transmission unit also includes information indicating the setting of the operation set for each region based on the setting information stored in the storage unit for each region,
The receiving unit receives an instruction to change the setting of the operation for each area of the detecting unit from the external device;
The said control means performs the said operation | movement set to the area | region where the detection state in the detection range based on the said setting information is a specific state, The one of Claim 2 thru | or 5 characterized by the above-mentioned. Image processing device.
前記動作の設定として、前記第2電力状態から前記第1電力状態に切り替える第1動作を行う第1動作設定、又は、前記第2電力状態から前記第3電力状態に切り替える第2動作を行う第2動作設定の設定が可能であり、
前記制御手段は、前記設定情報に基づく検知範囲のうち前記第1動作設定が設定された領域で物体の存在を検知した場合には前記第1動作を実行し、前記設定情報に基づく検知範囲のうち前記第2動作設定が設定された領域で物体の存在を検知した場合には前記第2動作を実行することを特徴とする請求項6に記載の画像処理装置。 The image processing apparatus supplies power to a specific portion of the image processing apparatus in addition to at least a first power state, a second power state that consumes less power than the first power state, and the second power state. It is possible to switch the third power state that consumes less power than the power state,
As the operation setting, a first operation setting for performing a first operation for switching from the second power state to the first power state, or a second operation for performing a second operation for switching from the second power state to the third power state. 2 Operation settings can be set,
The control means executes the first operation when detecting the presence of an object in the region where the first operation setting is set in the detection range based on the setting information, and sets the detection range based on the setting information. The image processing apparatus according to claim 6, wherein the second operation is executed when the presence of an object is detected in an area in which the second operation setting is set.
物体を検知する検知手段と、
前記検知手段の検知範囲を示す設定情報を記憶する記憶手段と、
前記記憶手段に記憶される設定情報に基づく前記検知手段の検知範囲を前記電子機器からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信手段と、
前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信手段と、
前記受信手段が受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新手段と、
前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記電子機器の動作を制御する制御手段と、
を有することを特徴とする電子機器。 Electronic equipment,
Detection means for detecting an object;
Storage means for storing setting information indicating a detection range of the detection means;
In order to generate display information including information indicating a detection range of the detection unit based on setting information stored in the storage unit by a relative position from the electronic device, and to display the generated display information on an external device Transmitting means for transmitting to the external device;
Receiving means for receiving from the external device an instruction to change the detection range of the detecting means;
Updating means for updating setting information stored in the storage means based on an instruction received by the receiving means;
Control means for controlling the operation of the electronic device according to the detection state of the detection means in the detection range based on the setting information;
An electronic device comprising:
送信手段が、前記検知手段の検知範囲を示す設定情報を記憶する記憶手段に記憶される前記設定情報に基づく前記検知手段の検知範囲を前記画像処理装置からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信ステップと、
受信手段が、前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信ステップと、
更新手段が、前記受信ステップで受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新ステップと、
制御手段が、前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記画像処理装置の動作を制御するステップと、
を有することを特徴とする画像処理装置の制御方法。 A control method for an image processing apparatus having detection means for detecting an object,
Display information including information indicating a detection range of the detection unit based on the setting information stored in a storage unit that stores setting information indicating a detection range of the detection unit as a relative position from the image processing device And transmitting the generated display information to the external device in order to display the generated display information on the external device;
A receiving step for receiving from the external device an instruction to change a detection range of the detection unit;
An update step in which the update means updates the setting information stored in the storage means based on the instruction received in the reception step;
A step of controlling the operation of the image processing apparatus in accordance with a detection state of the detection means in a detection range based on the setting information;
A control method for an image processing apparatus, comprising:
送信手段が、前記検知手段の検知範囲を示す設定情報を記憶する記憶手段に記憶される前記設定情報に基づく前記検知手段の検知範囲を前記電子機器からの相対位置で示す情報を含む表示情報を生成し、該生成した表示情報を、外部装置に表示させるために、前記外部装置に送信する送信ステップと、
受信手段が、前記検知手段の検知範囲を変更する指示を前記外部装置から受信する受信ステップと、
更新手段が、前記受信ステップで受信した指示に基づいて前記記憶手段に記憶される設定情報を更新する更新ステップと、
制御手段が、前記設定情報に基づく検知範囲での前記検知手段の検知状態に応じて、前記電子機器の動作を制御するステップと、
を有することを特徴とする電子機器の制御方法。 A method of controlling an electronic device having a detection means for detecting an object,
Display information including information indicating a detection range of the detection unit based on the setting information stored in a storage unit that stores setting information indicating a detection range of the detection unit as a relative position from the electronic device. Generating and transmitting the generated display information to the external device for display on the external device;
A receiving step for receiving from the external device an instruction to change a detection range of the detection unit;
An update step in which the update means updates the setting information stored in the storage means based on the instruction received in the reception step;
A step of controlling the operation of the electronic device according to a detection state of the detection unit in a detection range based on the setting information;
A method for controlling an electronic device, comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012264536A JP2014109723A (en) | 2012-12-03 | 2012-12-03 | Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program |
US14/092,186 US20140160505A1 (en) | 2012-12-03 | 2013-11-27 | Image processing apparatus, method of controlling image processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012264536A JP2014109723A (en) | 2012-12-03 | 2012-12-03 | Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014109723A true JP2014109723A (en) | 2014-06-12 |
Family
ID=51030376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012264536A Pending JP2014109723A (en) | 2012-12-03 | 2012-12-03 | Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014109723A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017019137A (en) * | 2015-07-08 | 2017-01-26 | キヤノン株式会社 | Image forming device |
JP2017074785A (en) * | 2016-11-17 | 2017-04-20 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP2017121753A (en) * | 2016-01-07 | 2017-07-13 | コニカミノルタ株式会社 | Image formation device management system, information processing device and program |
JP2017167756A (en) * | 2016-03-15 | 2017-09-21 | 株式会社リコー | Power receiving apparatus, power supplying apparatus, and power source management system |
JP2019166673A (en) * | 2018-03-22 | 2019-10-03 | 京セラドキュメントソリューションズ株式会社 | Image forming device |
JP2020027022A (en) * | 2018-08-10 | 2020-02-20 | 清水建設株式会社 | Method of filling with diffusion test sealing material, rock diffusion test device, and diffusion test method |
-
2012
- 2012-12-03 JP JP2012264536A patent/JP2014109723A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017019137A (en) * | 2015-07-08 | 2017-01-26 | キヤノン株式会社 | Image forming device |
JP2017121753A (en) * | 2016-01-07 | 2017-07-13 | コニカミノルタ株式会社 | Image formation device management system, information processing device and program |
JP2017167756A (en) * | 2016-03-15 | 2017-09-21 | 株式会社リコー | Power receiving apparatus, power supplying apparatus, and power source management system |
JP2017074785A (en) * | 2016-11-17 | 2017-04-20 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP2019166673A (en) * | 2018-03-22 | 2019-10-03 | 京セラドキュメントソリューションズ株式会社 | Image forming device |
JP2020027022A (en) * | 2018-08-10 | 2020-02-20 | 清水建設株式会社 | Method of filling with diffusion test sealing material, rock diffusion test device, and diffusion test method |
JP7089984B2 (en) | 2018-08-10 | 2022-06-23 | 清水建設株式会社 | Diffusion test sealing material filling method, rock diffusion test equipment and diffusion test method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014109723A (en) | Image processing apparatus, electronic apparatus, control method of image processing apparatus, control method of electronic apparatus, and program | |
US20140160505A1 (en) | Image processing apparatus, method of controlling image processing apparatus, and program | |
JP6406889B2 (en) | Printing apparatus and printing apparatus control method | |
JP6239864B2 (en) | COMMUNICATION DEVICE, ITS CONTROL METHOD, AND PROGRAM | |
WO2014087498A9 (en) | Image forming apparatus, and method for controlling image forming apparatus | |
CN109462715B (en) | Electronic device, printing apparatus, and communication system | |
US20080288879A1 (en) | Image forming device, user-interface image creating method, and computer-readable recording medium | |
JP2016055550A (en) | Image forming device, control method for the same and program | |
JP6376804B2 (en) | Image forming apparatus, image forming apparatus control method, and program | |
JP6395378B2 (en) | Printing apparatus and printing apparatus control method | |
JP2015164789A (en) | Electronic apparatus | |
KR20110003030A (en) | Sensing apparatus, event sensing method and photographing system | |
JP2014090397A (en) | Image forming apparatus and image forming method | |
JP6499899B2 (en) | Image forming apparatus | |
JP2016058911A (en) | Information processing unit capable of controlling mechanical switch of power supply and control method thereof, and program | |
KR101802883B1 (en) | Image forming apparatus, image forming method of image forming apparatus | |
JP6425600B2 (en) | INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
JP6173963B2 (en) | Image forming apparatus and image forming program | |
JP6366271B2 (en) | Information processing apparatus and control method of information processing apparatus | |
JP2019160171A (en) | Display device and display method | |
JP7135571B2 (en) | Information processing device and program | |
JP2011059750A (en) | Data processor, method for controlling the same, and program | |
JP6415178B2 (en) | Printing apparatus and data updating method | |
WO2012073667A1 (en) | Display control apparatus and control method thereof, and storage medium | |
JP6614831B2 (en) | Information processing apparatus and method for controlling power state of information processing apparatus |