JP2016100840A - 画像処理装置、画像処理装置の制御プログラム、画像処理システム - Google Patents

画像処理装置、画像処理装置の制御プログラム、画像処理システム Download PDF

Info

Publication number
JP2016100840A
JP2016100840A JP2014238125A JP2014238125A JP2016100840A JP 2016100840 A JP2016100840 A JP 2016100840A JP 2014238125 A JP2014238125 A JP 2014238125A JP 2014238125 A JP2014238125 A JP 2014238125A JP 2016100840 A JP2016100840 A JP 2016100840A
Authority
JP
Japan
Prior art keywords
image processing
identification information
processing apparatus
displayed
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014238125A
Other languages
English (en)
Other versions
JP6102895B2 (ja
Inventor
武典 出原
Takenori Izuhara
武典 出原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014238125A priority Critical patent/JP6102895B2/ja
Priority to EP15195049.0A priority patent/EP3026540B1/en
Priority to US14/947,975 priority patent/US9992372B2/en
Priority to CN201510828985.1A priority patent/CN105635515B/zh
Publication of JP2016100840A publication Critical patent/JP2016100840A/ja
Application granted granted Critical
Publication of JP6102895B2 publication Critical patent/JP6102895B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00381Input by recognition or interpretation of visible user gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00026Methods therefor
    • H04N1/00042Monitoring, i.e. observation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00209Transmitting or receiving image data, e.g. facsimile data, via a computer, e.g. using e-mail, a computer network, the internet, I-fax
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00347Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with another still picture apparatus, e.g. hybrid still picture apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/042Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Facsimiles In General (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】画像処理装置に対してユーザーが特別な操作をすることなく、画像処理装置の識別情報を容易に知ることができる画像処理装置を提供する。【解決手段】人を検知する人感センサー110と、ディスプレイパネル120と、人感センサー110が人を検知することにより、他の画像処理装置と識別するための識別情報をディスプレイパネル120に表示させる制御部205と、を有することを特徴とする画像処理装置101〜104。【選択図】図1

Description

本発明は、画像処理装置、画像処理装置の制御プログラム、画像処理システムに関する。
近年、複数のコンピューター(たとえばパソコン)と複数の画像処理装置がネットワークに接続された環境が普及している。
画像処理装置の一種である画像形成装置が複数台ネットワークに接続されているような場合に、ネットワークに接続されたパソコンなどから使用する際には、ユーザーは使用する画像形成装置が複数ある画像形成装置のなかのどれであるかを指定する必要がある。画像形成装置には、画像形成装置を識別するために、IP(Internet Protocol)アドレスや固有名などの識別情報が付与されている。
そこで、ユーザーは、パソコンなどから画像形成装置を使用する場合は、これらの識別情報により使用する画像形成装置を指定して印刷処理などを実行することになる。このとき、ユーザーは、使用したい画像形成装置の識別情報がわからない場合、それを入手しなければならない。ところが、そのような識別情報を入手するためには、何らかの操作が必要である。このため操作方法がわからない場合、識別情報が入手できないため、目的の画像形成装置を指定することさえできないという問題があった。
従来、これらの問題を解決するための技術として、画像形成装置上で特別な操作を行うことによりパソコンでその画像形成装置をわかり易く表示する技術がある(特許文献1)。この技術では、画像形成装置の操作パネルから印刷などの指定を受けるための操作を行う。その後、パソコンからマルチキャストによって画像形成装置の検索が行われると、操作した画像形成装置では、装置名を変更などの付加情報を付けて応答する。これにより、マルチキャストしたパソコン上では、操作された画像形成装置からの応答を受けて付加情報に応じた表示が行われる。その結果、付加情報により目的の画像形成装置を識別しやすくなる。
特開2014−32626号公報
しかしながら、従来の技術では、画像形成装置側で特別な操作が必要である。このため、それ以前の問題点である、操作方法を知らなければ識別情報を表示できないという問題が依然として残っている。
また、特別な操作を行ったユーザー以外の他のユーザーが、その画像形成装置を使用する場合、装置名が変更されるなどしていると、装置名が変更される前と後とで同一の装置かどうか不明となり、他のユーザーが適切に画像形成装置を選択できないなどの新たな問題が発生してしまう。このことは特別な操作を行ったユーザーにおいても、特別な操作を行った直後はわかり易くなっているものの、後日使用する場合、装置名が元に戻っているとまたその画像形成装置がどれであるかわからなくなってしまうことにもなる。
そこで、本発明の目的は、画像処理装置に対してユーザーが特別な操作をすることなく、その画像処理装置を識別するための識別情報を容易に知ることができる画像処理装置を提供することである。また、画像処理装置に対してユーザーが特別な操作をすることなく、画像処理装置の識別情報を容易に知ることができる画像処理装置の制御プログラムを提供することである。さらに、画像処理装置に対してユーザーが特別な操作をすることなく、使用する画像処理装置の識別情報を容易に知ることができる画像処理システムを提供することである。
本発明の上記目的は、下記の手段によって達成される。
(1)ユーザーによる指定操作に応じて画像処理を行う画像処理装置であって、
人を検知する人感センサーと、
情報を画面に表示する表示部と、
前記人感センサーが前記人を検知することにより、前記ユーザーによる指定操作に利用される識別情報であって他の画像処理装置と識別するための識別情報を含む画面を前記表示部に表示させる制御部と、
を有することを特徴とする画像処理装置。
(2)操作を受け付ける操作パネルをさらに有し、
前記制御部は前記操作パネルからの操作があった場合は前記表示部に表示されている前記識別情報を含む画面から操作画面の表示に切り替え、前記人感センサーが前記人を検知しなくなった場合は前記表示部に表示されている前記識別情報を含む画面を非表示にすることを特徴とする上記(1)に記載の画像処理装置。
(3)前記制御部は自身の画像処理装置の識別情報と前記他の画像処理装置の識別情報とを比較して、前記自身の画像処理装置の識別情報のなかの異なる部分を抽出し、
前記抽出した異なる部分を強調して前記識別情報を表示させることを特徴とする上記(1)または(2)に記載の画像処理装置。
(4)記憶部を有し、
前記制御部は前記識別情報を表示したことを示す情報を前記記憶部に記憶し、端末装置から画像処理装置の検索が第1所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答することを特徴とする上記(1)〜(3)のいずれか一つに記載の画像処理装置。
(5)記憶部を有し、
前記制御部は前記識別情報を表示したことを示す情報を前記記憶部に記憶し、前記人感センサーが前記人を検知しなくなったのち、端末装置から画像処理装置の検索が第2所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答することを特徴とする上記(1)〜(3)のいずれか一つに記載の画像処理装置。
(6)前記制御部は前記人感センサーが前記人を検知し続けている時間が第3所定時間未満の場合には、前記識別情報を表示したことを示す情報を前記端末装置へ応答しないことを特徴とする上記(4)または(5)に記載の画像処理装置。
(7)前記制御部は前記人感センサーが前記人を検知しなくなったのち、前記端末装置からの検索が第4所定時間内にあった場合には、前記識別情報を表示したことを示す情報を前記端末装置へ応答しないことを特徴とする上記(4)〜(6)のいずれか一つに記載の画像処理装置。
(8)記憶部を有し、
前記制御部は前記識別情報を表示した時刻を前記記憶部に記憶し、端末装置から画像処理装置の検索が第1所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示した時刻を前記端末装置へ応答することを特徴とする上記(1)〜(3)のいずれか一つに記載の画像処理装置。
(9)前記制御部は前記人感センサーが前記人を検知し続けている時間が第3所定時間未満の場合には、前記識別情報を表示した時刻を前記端末装置へ応答しないことを特徴とする上記(8)に記載の画像処理装置。
(10)前記制御部は前記人感センサーが前記人を検知しなくなったのち、前記端末装置からの検索が第4所定時間内にあった場合には、前記識別情報を表示した時刻を前記端末装置へ応答しないことを特徴とする上記(8)または(9)に記載の画像処理装置。
(11)記憶部を有し、
前記制御部は前記人感センサーが前記人を検知しなくなった時刻を前記記憶部に記憶し、端末装置から画像処理装置の検索が第2所定時間内に行われた場合に、前記記憶部に記憶した前記人を検知しなくなった時刻を前記端末装置へ応答することを特徴とする上記(1)〜(3)のいずれか一つに記載の画像処理装置。
(12)前記制御部は前記人感センサーが前記人を検知し続けている時間が第3所定時間未満の場合には、前記人感センサーが前記人を検知しなくなった時刻を前記端末装置へ応答しないことを特徴とする上記(11)に記載の画像処理装置。
(13)前記制御部は前記人感センサーが前記人を検知しなくなったのち、前記端末装置からの検索が第4所定時間内にあった場合には、前記人感センサーが前記人を検知しなくなった時刻を前記端末装置へ応答しないことを特徴とする上記(11)または(12)に記載の画像処理装置。
(14)前記人感センサーは、前記表示部に備えられている表示装置の大きさが大きいほど、前記人を検知する距離が遠くに設定されていることを特徴とする上記(1)〜(13)のいずれか一つに記載の画像処理装置。
(15)前記制御部は、
前記識別情報の情報量を多く表示させる場合は前記人感センサーが前記人を検知する距離を近くし、
前記識別情報の情報量を少なく表示させる場合は前記人感センサーが前記人を検知する距離を遠くすることを特徴とする上記(1)〜(13)のいずれか一つに記載の画像処理装置。
(16)前記制御部は、
前記人感センサーが前記人を検知している距離が近い場合は前記識別情報の情報量を多く表示させ、
前記人感センサーが前記人を検知している距離が遠い場合は前記識別情報の情報量を少なく表示させることを特徴とする上記(1)〜(14)のいずれか一つに記載の画像処理装置。
(17)人を検知する人感センサーと、情報を画面に表示する表示部とを有する画像処理装置の制御プログラムであって、
前記人感センサーが前記人を検知したか否かを判断する段階(a)と、
前記人感センサーが前記人を検知したことにより、他の画像処理装置と識別するための識別情報を前記表示部に表示させる段階(b)と、
を有することを特徴とする画像処理装置の制御プログラム。
(18)自身の画像処理装置の識別情報と前記他の画像処理装置の識別情報とを比較して、前記自身の画像処理装置の識別情報のなかの異なる部分を抽出する段階(c)をさらに有し、
段階(b)においては前記抽出した異なる部分を強調して前記識別情報を表示させることを特徴とする上記(17)に記載の画像処理装置の制御プログラム。
(19)前記識別情報を表示したことを示す情報を記憶部に記憶する段階(d)と、
複数の画像処理装置のなかから一つを選択して利用する端末装置から画像処理装置の検索が第1所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答する段階(e)と、をさらに有することを特徴とする上記(17)または(18)に記載の画像処理装置の制御プログラム。
(20)前記識別情報を表示したことを示す情報を記憶部に記憶する段階(f)と、
前記人感センサーが前記人を検知しなくなったのち、複数の画像処理装置のなかから一つを選択して利用する端末装置から画像処理装置の検索が第2所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答する段階(g)と、を有することを特徴とする上記(17)〜(19)のいずれか一つに記載の画像処理装置の制御プログラム。
(21)上記(17)〜(20)のいずれか一つに記載の画像処理装置の制御プログラムを記憶したコンピューター読み取り可能な記憶媒体。
(22)人を検知する人感センサーと、
複数の画像処理装置と、
プリンターサーバーと、を有する画像処理システムであって、
前記プリンターサーバーは、前記人感センサーが画像処理装置に近づいた前記人を検知することにより、前記人が近づいた画像処理装置に付与されている、他の画像処理装置と識別するための識別情報を前記画像処理装置に備えられている表示部に表示させることを特徴とする画像処理システム。
(23)プリンターサーバーは、一つの画像処理装置の識別情報と前記他の画像処理装置の識別情報とを比較して、前記一つの画像処理装置の識別情報のなかの異なる部分を抽出し、前記抽出した異なる部分を強調して前記識別情報を表示することを特徴とする上記(22)に記載の画像処理システム。
(24)前記プリンターサーバーおよび前記画像処理装置のうち少なくとも一方に記憶部を有し、
前記プリンターサーバーは、前記識別情報を表示したことを示す情報を前記記憶部に記憶して、複数の画像処理装置のなかから一つを選択して利用する端末装置から画像処理装置の検索が第1所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答することを特徴とする上記(22)に記載の画像処理システム。
(25)前記プリンターサーバーおよび前記画像処理装置のうち少なくとも一方に記憶部を有し、
前記プリンターサーバーは、前記識別情報を表示したことを示す情報を前記記憶部に記憶し、前記人感センサーが前記人を検知しなくなったのち、複数の画像処理装置のなかから一つを選択して利用する端末装置から画像処理装置の検索が第2所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報前記人感センサーが前記人を検知しなくなった時刻を前記端末装置へ応答することを特徴とする上記(22)に記載の画像処理システム。
(26)前記識別情報を表示したことを示す情報を受信した前記端末装置は、
画像処理装置の検索結果をリスト表示する際に、前記識別情報を表示したことを示す情報を応答してきた前記画像処理装置の前記識別情報を、前記リストの一番上位に表示することを特徴とする上記(24)または(25)に記載の画像処理システム。
(27)前記識別情報を表示したことを示す情報を受信した前記端末装置は、
前記識別情報を表示したことを示す情報を応答してきた前記画像処理装置の前記識別情報を前記他の画像処理装置の識別情報と比較して、前記識別情報を表示したことを示す情報を応答してきた前記画像処理装置の前記識別情報のなかの異なる部分を抽出して、
前記画像処理装置の検索結果を表示する際に、前記抽出した異なる部分を強調して前記識別情報を表示することを示す情報を応答してきた前記画像処理装置の前記識別情報を表示することを特徴とする上記(24)〜(26)のいずれか一つに記載の画像処理システム。
本発明によれば、人感センサーで画像処理装置に近づく人を検知して、画像処理装置に、他の画像処理装置と識別するための識別情報を表示することとしたので、ユーザーが特別な操作を必要とせずに識別情報を入手することができる。
実施形態1における画像形成のためのシステムの一例を示すブロック図である。 画像処理装置の各部の機能を説明するためのブロック図である。 画像処理装置のハードウェア構成を示すブロック図である。 実施形態1の処理手順を示すフローチャートである。 実施形態1におけるディスプレイパネルの表示例を示す図である。 実施形態2の処理手順を示すフローチャートである。 実施形態2におけるディスプレイパネルの表示例を示す図である。 画像処理装置の固有名のなかから異なる部分を抽出する処理手順を示すフローチャートである。 画像処理装置のIPアドレスのなかから異なる部分を抽出する処理手順を示すフローチャートである。 実施形態3におけるディスプレイパネルの表示例を示す図である。 実施形態4の処理手順を示すフローチャートである。 端末装置における画像処理装置の検索結果の表示例を示す図である。 実施形態5の処理手順を示すフローチャートである。 実施形態6の処理手順を示すフローチャートである。 端末装置における画像処理装置の検索結果の表示例を示す図である。 実施形態7の処理手順を示すフローチャートである。 実施形態8の処理手順を示すフローチャートである。 実施形態9の処理手順を示すフローチャートである。 大きさの異なるディスプレイパネルのそれぞれに表示される識別情報の文字の大きさと人との距離の例を説明する説明図である。 ディスプレイパネルのそれぞれに表示される識別情報の文字の大きさと人との距離の例を説明する説明図である。 実施形態12における画像形成のためのシステムの一例を示すブロック図である。
以下、図面を参照して本発明の実施形態を説明する。なお、図面において同一の機能を有する要素には同一の符号を付し、重複する説明を省略する。また、図面はあくまでも本発明の実施形態を説明するためのものであるので、各部材の寸法や比率は説明の都合上誇張または簡略化しており、実際の寸法や比率とは異なる。
[実施形態1]
実施形態1は、画像処理装置に人が近づいたことを検知して、その画像処理装置の識別情報を表示するものである。画像処理装置の識別情報とは他の画像処理装置との識別に用いられる。識別情報は、画像処理装置を使用する際に、ユーザーによる指定操作に利用される。識別情報は、たとえばIPアドレス、装置固有の番号、固有名などであり、複数の画像処理装置のそれぞれに付与されている。
図1は実施形態1における画像形成のためのシステムの一例を示すブロック図である。図2は画像処理装置の各部の機能を説明するためのブロック図である。図3は画像処理装置のハードウェア構成を示すブロック図である。
このシステムは、複数の画像処理装置101〜104がネットワーク100によって接続されている。画像処理装置101〜104には、MFP1、MFP2、MFP3、MFP4の固有名が付与されている。画像処理装置101〜104は、ここでは同じ構成であり、人感センサー110が備えられ、また、ディスプレイパネル120を備えた操作パネル130などが設けられている。この画像処理装置は、スキャナーやプリントエンジンなどを備えている。
このネットワーク100には、コンピューター(以下PC(Personal Computer)という)150、151が接続されている。PC150はたとえばケーブルによる接続である。PC151はたとえばアクセスポイント152を介した無線による接続である。
PC150および151は、ユーザーが操作することで複数の画像処理装置のなかから一つを選択して利用する端末装置である。たとえばPC150から印刷する場合、ユーザーはPC150において画像処理装置を指定する。PC151からの印刷の場合も同様である。
図2を参照して、画像処理装置の機能を説明する。ここでは一つの画像処理装置101を例に説明する。他の画像処理装置102〜104も同様の構成である。
画像処理装置101は、ネットワーク部201、表示部202、人感センサー110、記憶部203、機能部204、制御部205を有する。
ネットワーク部201は、画像処理装置101をネットワーク100に接続する。これにより画像処理装置101は外部の機器たとえばPC150とネットワーク100を介して通信する。
表示部202は、操作パネル130を備える。操作パネル130には表示装置であるディスプレイパネル120が備えられている。表示部202は、このディスプレイパネル120に識別情報や操作画面など様々な情報を表示する。ディスプレイパネル120は、たとえば液晶表示装置、有機EL表示装置などである。また、ディスプレイパネル120はタッチパネルであり、表示される画面に合わせてタッチすることで、人(ユーザー)からの各種操作の入力が行えるようになっている。また操作パネル130にはスタートボタン、ストップボタン等の入力ボタン(ハードウェアキー)なども備えられている。
人感センサー110は画像処理装置101に人が近づいたことを検知する。人感センサー110は、たとえば、人の温度を感知する焦電型センサー、超音波や赤外線などの反射を利用するアクティブセンサー、カメラによって撮影した画像から人を判断したり人との距離を測定したりできるものなど様々なものがある。本実施形態ではどのようなものであってもよく特に限定されない。
記憶部203は画像処理装置101の機能を実現するため手順である各種プログラムを記憶している。記憶部203は、IPアドレス、装置固有の番号、固有名などの識別情報を記憶している。記憶部203は、画像処理装置101としての画像形成時においてPC150から受信したデータやラスタライズデータの記憶、コピー時の画像データの記憶にも使用される。
機能部204は、画像読み取り、コピー、印刷など画像処理装置の機能を実行する。
制御部205は画像処理装置101としての機能である、コピー、印刷などの制御のほか、本実施形態においては、人感センサー110が人を検知することで識別情報を表示する制御も行っている。
図3を参照して画像処理装置のハードウェア構成を説明する。
画像処理装置101は、バス301に、ローカルバス310を介してCPU(Central Processing Unit)311および312が接続されている。ローカルバス310には、メモリーコントローラー313を介してメモリー314が接続されている。これらは制御部205となる。メモリー314はRAM(random access memory)が使用される。メモリー314は記憶部203にもなり得る。制御部205(記憶部203を含む)の構成は、いわゆるコンピューターである。したがって所定のプログラムをCPUが実行することにより所定の機能を実現する。本実施形態において制御部205は画像処理装置101としての機能である、印刷、コピーなどのほか、人を検知したときに識別情報を表示する手順を行うためのプログラムを実行する。なお、ここではマルチCPU構成(CPU311と312の2個)の例を示したが、CPUは一つであってもよし、または3個以上であってもよい。
バス301には、フラッシュROM(Read Only Memory)321、SATA(Serial Advanced Technology Attachment)インターフェース322を介してハードディスクドライブ(Hard Disk Drive:HDD)323が接続されている。フラッシュROM321、HDD323は記憶部203となる。なお、各部におけるインターフェースは図中I/Fと略記する。
またバス301には、PCI(Peripheral Components Interconnect bus)インターフェース330およびASIC(Application Specific Integrated Circuit)331を介して、スキャナー332、プリントエンジン333が接続されている。スキャナー332は画像読取部であり、プリントエンジン333は画像形成部である。なおこれらは総称して機能部204となる。
またバス301には、パネルインターフェース340を介して、ディスプレイパネル120を備えた操作パネル130が接続されている。これらは表示部202となる。
またバス301には、MAC/Phy(Media Access Controller/physical)層350が接続されている。このMAC/Phy層350を介して画像処理装置101がネットワーク100に接続される。MAC/Phy層350はネットワーク部201となる。
またバス301には、汎用バス360を介して人感センサー110が接続されている。またバス301には外部デバイスと接続するために、USBインターフェース370を介して、USBデバイス371やWifiデバイス372などが接続できるようになっている。
またバス301には、クロック380からクロック信号が入力されている。CPU311および312はクロック信号を用いて計時する(タイマー機能)。また、クロック信号により時刻の進行も行っている。
以上のように構成された画像処理装置101による実施形態1としての動作を行わせる手順を説明する。図4は実施形態1の処理手順を示すフローチャートである。制御部205がこの手順に従って作成されたプログラムを実行することで、実施形態1の動作が行われることになる。
まず、制御部205は人感センサー110が人を検知したか否かを判断する(S101)。ここで、人を検知していなければ(S101:NO)、待機状態となる。一方、人を検知したなら(S101:YES)、制御部205は記憶部203から識別情報を取り出して表示部202に送り識別情報を表示させる(S102)。これにより表示部202はディスプレイパネル120に識別情報を表示する。このとき表示する識別情報は、表示可能な識別情報すべてを表示してもよい。または、識別情報のなかのあらかじめ決められたもの一つまたはいくつかだけ表示するようにしてもよい。
図5は、実施形態1におけるディスプレイパネルの表示例を示す図である。図5に示した表示例は、画像処理装置102が上記処理手順を実行したときの表示である。
図示するように、ディスプレイパネル120に画像処理装置102の固有名501である「MFP2」とともにこの画像処理装置102に割り当てられているIPアドレス502(図示しているアドレスは架空のものである。以下同様)が表示される。
以上により、本実施形態1では、画像処理装置に人(たとえばその画像処理装置を使用するユーザー)が近づいたことを検知すると、ディスプレイパネルに、その画像処理装置を識別するための識別情報が表示される。したがって、ユーザーは特別な操作を行うことなく(これは当然に特別な操作方法を知らなくても)、画像処理装置の識別情報を知ることができるようになる。これにより、ユーザーは印刷させたい画像処理装置の識別情報を知ることができたので、PCへ戻って複数の画像処理装置のなかから、その画像処理装置を指定することができる。
[実施形態2]
実施形態2は、画像処理装置に人が近づいたことを検知して、その画像処理装置の識別情報を表示する。その後、ユーザーが何らかの操作を行った場合は操作画面を表示するものである。
本実施形態2においては、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。ここでは実施形態2の動作を行うための手順を説明する。実施形態2の動作は、制御部205が以下の手順に従って作成されたプログラムを実行することで行われることになる。
図6は実施形態2の処理手順を示すフローチャートである。
まず、制御部205は人感センサー110が人を検知したか否かを判断する(S201)。ここで、人を検知していなければ(S201:NO)、待機状態となる。一方、人を検知したなら(S201:YES)、制御部205は記憶部203から識別情報を取り出して表示部202に送り識別情報を表示させる(S202)。これにより表示部202はディスプレイパネル120に識別情報を表示する。このとき表示する識別情報は、表示可能な識別情報すべてを表示してもよい。または、識別情報のなかのあらかじめ決められたもの一つまたはいくつかだけ表示するようにしてもよい。
続いて、制御部205は操作パネル130から何らかの操作が行われたか否かを判断する(S203)。ここで何らかの操作が行われれば(S203:YES)、制御部205は表示部202により操作画面を表示させる(S204)。操作画面表示後、制御部205は処理を終了する。
S204により表示部202はディスプレイパネル120に操作画面を表示する。ここで操作画面とは、たとえば画像処理装置101で実行できる機能を選択するためのメニュー画面である。また、たとえば、識別情報を表示させるために画面を切り替えたような場合に、切り替える前の画面情報を記憶しておいて、S204の段階で表示させるようにしてもよい。なお、人感センサー110が人を検知した段階で、画像処理装置が省エネルギーモードに入っていた場合には、S204において、省エネルギーモードに入る前に表示されていた操作画面を表示するようにしてもよい。
一方、操作されない場合(S203:NO)、続いて、制御部205は人感センサー110が人を検知し続けているか否かを判断する(S205)。ここで、人を検知し続けていれば(S205:YES)、S203へ戻ることになる。これにより識別情報の表示が継続される。
一方、S205において、人感センサー110が人を検知しなくなれば(S205:NO)、制御部205は識別情報の表示を非表示にする(S206)。この段階で省エネルギーモードに入ってディスプレイの表示そのものを消すようにしてもよい。その後制御部205は処理を終了する。
図7は、実施形態2におけるディスプレイパネルの表示例を示す図である。まず、図7(a)に示すように、人感センサー110で人が検知された段階で、画像処理装置101の固有名501およびIPアドレス502が表示される。これは実施形態1と同様である。そして、人が操作を行うと、図7(b)に示すように、操作画面701が表示される。この例では、コピーと画像読取のいずれかの機能を選択するためのメニュー画面を表示している。
以上により、本実施形態2では、画像処理装置に人が近づいたことを検知すると、ディスプレイパネルに、その画像処理装置を識別するための識別情報が表示される。したがって、ユーザーは特別な操作を行うことなく、また特別な操作方法を知らなくても、画像処理装置の識別情報を知ることができるようになる。これにより、ユーザーは印刷させたい画像処理装置の識別情報を知ることができたので、PCへ戻って複数の画像処理装置のなかから、その画像処理装置を指定することができる。さらに本実施形態2では、人が操作を行った場合に操作画面が表示される。これにより、たとえばユーザーが何らかの操作を行う場合は、操作画面に対する操作をすぐに行うことができる。特に、識別情報表示前の画面を表示することとしたので、同一のユーザーが操作を継続して行う場合の操作性を高めることができる。
[実施形態3]
実施形態3は、ネットワーク上の他の画像処理装置の識別情報と比べて異なる部分を抽出し、その異なる部分を強調して表示するものである。ここで、異なる部分を強調して表示するとは、他の部分と比較して、より大きく表示したり、より太く表示したり、異なる色で表示したりすることを含み、また、異なる部分をハッチングして表示したり、点滅表示したりすることも含む。つまり、異なる部分を強調して表示するとは、ユーザーにとって、異なる部分を、他の部分と比較してより識別しやすい形態で表示することを意味する。
本実施形態3においても、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。ここでは実施形態3の動作を行うための手順を説明する。実施形態3の動作は、制御部が以下の手順に従って作成されたプログラムを実行することで行われることになる。
図8は、画像処理装置の識別情報としての画像処理装置の固有名のなかから、他の画像処理装置の固有名と異なる部分を抽出する処理手順を示すフローチャートである。なお、説明において、この動作を行う自身の画像処理装置を「自装置」、他の画像処理装置を「他装置」という。
まず、制御部205はネットワーク100内における他装置を検索して、他装置の固有名を取得する(S301)。このS301の処理は、通常PCなどから画像処理装置を検索するときに行われているマルチキャストと同じ処理でよい。これにより他装置の情報を取得することができる。
続いて、制御部205は取得した他装置の固有名をもとにリスト1とリスト2を作成する(S302)。
続いて、制御部205は自装置の固有名の先頭から数値を一つ検索する(S303)。ここで数値が存在すれば(S304:YES)、制御部205は続いてリスト1に同一数値があるか否かを判断する(S311)。ここで、同一数値がリスト1内にあれば(S311:YES)、その数値と一致した固有名以外の固有名をリスト1から削除する。(S312)。続いて、制御部205は自装置の固有名のなかから次の数値1つを検索する(S313)。そしてS304へ戻り処理を継続する。
S311において、制御部205はリスト1に同一数値がないと判断したなら(S311、当該数値を強調するために強調指定して記憶部203に記憶しておく(S314)。その後制御部205は処理を終了する。
このS303〜S314の処理は、固有名に数値がある場合において、他装置にも数値がある場合に、自装置の固有名に存在して、他装置にない数値が強調されるようになる。
一方、S304において、制御部205は数値がないと判断したなら(S304:NO)、リスト2に同一数値の組み合わせがないか否かを判断する(S305)。このS305においては、S303〜S314の処理を経過してきた場合には、複数の数値が検索されている。そこで、S305では、リスト2のなかから同一数値の組み合わせ(数値の順番まで同じであること)があるか否かを判断しているのである。ここで、同じ数値の組み合わせがリスト2になければ(S305:YES)、この段階まで検索されている数値部分を強調表示にする指定を記憶部203に記憶する(S314)。その後制御部205は処理を終了する。S305、S314の処理によって、固有名のなかに同じ数値がある場合であっても、順番が違う部分については強調表示されるようになる。
S305において、制御部205は同じ数値の組み合わせがリスト2にあると判断すれば、続いて自装置の固有名から数値以外の文字列を抽出しリスト2の固有名と比較する(S306)。文字列がなければ(S307:YES)、自装置の文字列を強調表示する指定を記憶部203に記憶する(S308)。その後制御部205は処理を終了する。S306〜S308の処理によって、固有名のなかの異なる文字列の部分が強調表示されるようになる。
S307において、制御部205は文字列があると判断したなら(S307:NO)、重複文字列とリスト1を比較し、重複数値が少ないものを強調表示する指定を記憶部203に記憶する(S309)。その後制御部205は処理を終了する。S307、S309の処理によって、自装置と他装置で固有名のなかの文字列も数値も同じ部分がある場合に、重複する数値が少ない部分が強調表示されるようになる。
次にIPアドレスの異なる部分を検索する処理手順を説明する。図9は画像処理装置のIPアドレスのなかから異なる部分を抽出する処理手順を示すフローチャートである。
まず、制御部205はネットワーク100内における他装置を検索して、他装置のIPアドレスを取得する(S321)。このS321の処理は、通常PCなどから画像処理装置101(プリンター)を検索するときに行われているマルチキャストと同じ処理でよい。これにより他装置の情報を取得することができる。
続いて、制御部205は取得した他装置のIPアドレスをもとにIPアドレスのリストを作成する(S322)。
続いて、制御部205は自装置のIPアドレスの末尾3桁を抽出する(S323)。そしてリストと比較して同一の数値が存在しなければ(S324:NO)、末尾3桁を強調するために強調指定して記憶部203に記憶する(S331)。その後制御部205は処理を終了する。
一方、リストに同一の数値が存在すれば(S324:YES)、その数値と一致したIPアドレス以外のIPアドレスをリストから削除する。(S325)。
続いて、制御部205は自装置のIPアドレスの末尾から次の3桁を抽出する(S326)。そしてリストと比較して同一の数値が存在しなければ(S327:NO)、S329へ移行する。
S327において、制御部205は抽出されている3桁がリストにあると判断したならば、その3桁を強調する桁として一時記憶する(S328)。この一時記憶はメモリー314でも記憶部203でもよい。
続いて、制御部205はすべての桁を抽出したか否か判断して(S329)、すべての桁を抽出していなければ、S326へ戻り、以降の処理を継続することになる。
一方、すべての桁の抽出が終了すれば、制御部205は末尾3桁と、S328で一時記憶した強調桁に対する強調指定を記憶部203に記憶する(S330)。その後制御部205は処理を終了する。
以上の処理により、自装置のIPアドレスのなかから他装置のIPアドレスと異なる部分が強調されて表示されるようになる。
固有名とIPアドレスのなかの異なる部分を抽出する処理手順を説明したが、識別情報の表示処理そのものは、本実施形態3においても、実施形態1または2のいずれかと同様の処理手順に従って行われる。すなわち、人感センサー110が人を検知することで識別情報を表示するのである。ただし、本実施形態3では、識別情報の表示の際(実施形態1のS102、実施形態2のS203)に、上述した手順に従って記憶部203に記憶された強調表示の指定を読み出して、異なる部分を強調した表示を行う。
図10は実施形態3におけるディスプレイパネルの表示例を示す図である。図10に示すように、人感センサー110で人が検知された段階で、画像処理装置1021の固有名「MFP2」1001およびIPアドレス1002が表示される。このとき異なる部分が強調されて表示される。
以上により、本実施形態3では、画像処理装置に人が近づいたことを検知すると、ディスプレイパネルに、その画像処理装置を識別するための識別情報が表示される。しかも、他の画像処理装置と異なる部分が強調されて表示されるため、その装置の固有名やIPアドレスなどのうち、他の装置と違う部分のみを認識しやすくなる。もちろん実施形態1および2と同様の効果も有する。したがって、ユーザーは特別な操作を行うことなく、また特別な操作方法を知らなくても、画像処理装置の識別情報を知ることができるようになる。
[実施形態4]
実施形態4は、識別情報を表示したことを記憶しておいて、PCから画像処理装置の検索(装置検索という)が第1所定時間内に行われた場合に、識別情報を表示したことを示す情報を画像処理装置の情報とともにPCへ応答するものである。
本実施形態4においても、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。ここでは実施形態4の動作を行うための手順を説明する。実施形態4の動作は、制御部が以下の手順に従って作成されたプログラムを実行することで行われることになる。
図11は実施形態4の処理手順を示すフローチャートである。
まず、制御部205は人感センサー110が人を検知したか否かを判断する(S401)。ここで、人を検知していなければ(S401:NO)、待機状態となる。一方、人を検知したなら(S401:YES)、制御部205は記憶部203から識別情報を取り出して表示部202に送り識別情報を表示させる(S402)。これにより表示部202はディスプレイパネル120に識別情報を表示する。このとき表示する識別情報は、表示可能な識別情報すべてを表示してもよい。または、識別情報のなかのあらかじめ決められたもの一つまたはいくつかだけ表示するようにしてもよい。
続いて、制御部205は識別情報を表示したことを記憶部203に記憶する(S403)。なお、この記憶は記憶部203を構成するフラッシュROM321やHDD323への記憶、またはメモリー314への記憶である。続いて、制御部205は計時を開始する(S404)。なお、計時の開始は、識別情報の表示が行われた後であれば識別情報を表示したことを記憶部203に記憶する段階の前でもよい。
続いて、制御部205はPC150から画像処理装置の検索があったか否かを判断する(S405)。ここで装置検索があれば(S405:YES)、制御部205は識別情報を表示したことを記憶部203から取り出して、検索を行ったPC150へ画像処理装置101の情報(装置情報という)とともに識別情報を表示したこと示す情報を応答する(S407)。ここで、装置情報とは、たとえば、画像処理装置101のIPアドレス、固有名、モデル名、モデルナンバー(型番)などを含む(他の実施形態においても同様である)。
その後制御部205は計時を終了させて(S407)、処理を終了する。
一方、装置検索がなければ(S405:NO)、制御部205は経過時間を確認して識別情報を表示してから第1所定時間経過したか否かを判断する(S408)。第1所定時間経過していなければS405へ戻る(S408:NO)。第1所定時間経過したなら(S408:YES)、制御部205は識別情報を表示したことの記憶を記憶部203から消去する(S409)。その後制御部205は計時を終了させて(S407)、処理を終了する。
識別情報を表示したことを示す情報を受信したPC150では、たとえば、画像処理装置の検索結果を一覧表示する際に、識別情報を表示したことを示す情報を応答した画像処理装置の識別情報を強調表示にしたり、検索結果リストの一番上位に表示したりすることができる。
図12は、端末装置であるPCにおける画像処理装置の検索結果の表示例を示す図である。図12の表示例は、PC150から検索を行って、画像処理装置102が識別情報を表示したことを示す情報を応答した場合である。
図示するように、PC150の画面1201に画像処理装置の検索結果としてプリンター選択画面1202が表示される。ここでは画像処理装置102が識別情報を表示したことを示す情報を応答してきたので、固有名「MFP2」がリストの一番上位に来るように表示され、さらに強調表示されている。強調表示の方法としては、その他に、たとえば文字色を他の装置と異なる色で表示するなどしてもよい。
また、本実施形態4においても実施形態3同様に、PC150では、識別情報を表示したことを応答してきた画像処理装置102の固有名やIPアドレスのなかの異なる部分を強調して表示するようにしてもよい。異なる部分を抽出する処理は実施形態3と同様に画像処理装置102において行ってもよい。また、PC150側で行ってもよい。PC150側で異なる部分を抽出する場合は、実施形態3で説明した手順(図8または図9)において、自装置として識別情報を表示したことを応答してきた画像処理装置102を設定し、他装置として検索で得られた他の画像処理装置101、103、104を設定して処理すればよい。
本実施形態4によれば、PCからの検索に対して装置情報とともに識別情報を表示したことを示す情報を応答することとした。これにより実施形態1と同様に、画像処理装置の識別情報を特別な操作を行わずに知ることができる。そしてPC側では識別情報を表示させた画像処理装置をユーザーにわかり易く表示することができるため、使用する画像処理装置を選択する際のユーザーの利便性を向上させることができる。
また、本実施形態4においては、識別情報を表示してから第1所定時間経過したのち、識別情報を表示したことを示す情報の記憶を消すこととしている。通常、画像処理装置の識別情報を確認したいのは、それから一定時間内に画像処理装置を使用するためである。いつまでも識別情報を表示したことを記憶していると、時間が経過してから他の人(たとえば識別情報を表示させた人以外のユーザー)が画像処理装置の検索を行った場合に、識別情報を表示したことが他のユーザーのPCへ送られてしまうことになる。そうすると他のユーザーにとっては使用予定とは異なる画像処理装置が検索結果のなかで強調されたり、リストの上位にきたりしてしまうことになる。本実施形態4では、このようなことがないように、第1所定時間経過後は識別情報の表示を行った記憶を消すこととしたのである。これにより第1所定時間経過後に検索された場合は、識別情報を表示したこと示す情報が応答されない。したがって、時間が経過した後は、他のユーザーにとって不要な強調表示やリストの変更などは行われないようになる。また、識別情報を表示させたユーザーにおいても、PCからの装置検索を行うことなく、時間が経過したということはその装置を使用しない可能性が高い。そのような場合にPCにおいて不用なリストの変更や強調表示がされなくなる。
第1所定時間は、上記のような理由から、人(ユーザー)が画像処理装置に近づいてから(すなわち人感センサーが人を検知してから)、識別情報を確認し、PCへ戻ってから検索を実行するために必要な時間とすることが好ましい。このような第1所定時間は、ユーザーが任意に設定可能としておき、たとえば識別情報を確認するための時間とPCからの検索実行を行うための操作にかかる時間をいずれも実験や経験などから求め、さらにPCと画像処理装置との距離が長い場合は第1所定時間を長く、PCと画像処理装置との距離が短ければ第1所定時間を短くするとよい。
[実施形態5]
実施形態5は、人感センサーが人を検知しなくなったのち、PCから画像処理装置の検索が第2所定時間内に行われた場合に、識別情報を表示したことを示す情報を装置情報とともにPCへ応答するものである。
本実施形態5においても、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。ここでは実施形態5の動作を行うための手順を説明する。実施形態5の動作は、制御部が以下の手順に従って作成されたプログラムを実行することで行われることになる。
図13は実施形態5の処理手順を示すフローチャートである。
まず、制御部205は人感センサー110が人を検知したか否かを判断する(S501)。ここで、人を検知していなければ(S501:NO)、待機状態となる。一方、人を検知したなら(S501:YES)、制御部205は記憶部203から識別情報を取り出して表示部202に送り識別情報を表示させる(S502)。これにより表示部202はディスプレイパネル120に識別情報を表示する。このとき表示する識別情報は、表示可能な識別情報すべてを表示してもよい。または、識別情報のなかのあらかじめ決められたもの一つまたはいくつかだけ表示するようにしてもよい。
続いて、制御部205は操作パネル130から何らかの操作が行われたか否かを判断する(S503)。ここで何らかの操作が行われれば(S503:YES)、制御部205は表示により操作画面を表示させる(S504)。これにより表示部202はディスプレイパネル120に操作画面を表示する。その後制御部205は処理を終了する。
一方、操作されない場合(S503:NO)、続いて、制御部205は人感センサー110が人を検知し続けているか否かを判断する(S505)。ここで、人を検知し続けていれば(S505:YES)、S503へ戻ることになる。これにより識別情報の表示が継続される。
一方、S505において、人感センサー110が人を検知しなくなれば(S505:NO)、制御部205は識別情報を表示したことを記憶部203に記憶する(S506)。なお、この記憶は記憶部203を構成するフラッシュROM321やHDD323への記憶、またはメモリー314への記憶である。また図示しないが、人が検知されなくなった段階(S505:NOのとき)で、省エネルギーモードなどによってディスプレイパネル120が消灯するなどとしてもよい。
続いて、制御部205は計時を開始する(S507)。計時を開始する段階は、人を検知しなくなった後、識別情報を表示したことを記憶部203に記憶する段階の前でもよい。
続いて、制御部205はPC150からの装置検索があったか否かを判断する(S508)。ここで装置検索があれば(S508:YES)、制御部205は識別情報を表示したことを記憶部203から取り出して、検索を行ったPC150へ装置情報とともに識別情報を表示したことを示す情報を応答する(S509)。その後制御部205は計時を終了させて(S510)、処理を終了する。
一方、装置検索がなければ(S508:NO)、制御部205は経過時間を確認して人感センサー110が人を検知しなくなってから第2所定時間経過したか否かを判断する(S511)。第2所定時間経過していなければS508へ戻る(S511:NO)。第2所定時間経過したなら(S511:YES)、制御部205は識別情報を表示したことを示す情報を記憶部203から消去する(S512)。その後制御部205は計時を終了させて(S510)、処理を終了する。
識別情報を表示したことを示す情報を受信したPCでは、識別情報を表示したことを示す情報を応答してきた画像処理装置の識別情報を検索結果リストの一番上位にしたり、強調表示にしたりすることができる。表示例は実施形態4において説明した図12と同様である。
本実施形態5においても、文字色を他の装置と異なる色で表示するなどしてもよい。また、実施形態3同様に、識別情報を表示したことを応答してきた画像処理装置における固有名やIPアドレスの異なる部分を強調して表示するようにしてもよい。異なる部分を抽出する処理は実施形態3と同様である。また、実施形態4において説明したようにPC側で行ってもよい。
本実施形態5によれば、人感センサーが人を検知しなくなったこと、すなわち画像処理装置の近くから人が立ち去ったのちに、第2所定時間内にPCから検索があった場合には装置情報とともに識別情報を表示したことを示す情報を応答することとした。これにより実施形態1と同様に、画像処理装置の識別情報を特別な操作を行わずに知ることができるとともに、PC側において識別情報を表示させた画像処理装置をユーザーにわかり易く表示することができるようになる。
また、本実施形態5では、人感センサーが人を検知しなくなってから第2所定時間経過したのち、識別情報を表示したことを示す情報の記憶を消すこととしている。これにより第2所定時間経過後にPCからの検索があっても識別情報を表示したことを示す情報が応答されなくなる。このため、実施形態4同様に他のユーザーや識別情報を表示させたユーザーにとっても、時間が経過した後は、強調表示やリストの変更などは行われないようになる。
第2所定時間は、上記のような理由から、人(ユーザー)が画像処理装置から離れてPCへ戻って、PCから検索を実行するために必要な時間とすることが好ましい。このような第2所定時間は、ユーザーが任意に設定可能としておき、たとえばPCからの検索実行を行うための操作にかかる時間を実験や経験などから求め、さらにPCと画像処理装置との距離が長いような場合は第2所定時間を長く、PCと画像処理装置との距離が短ければ第2所定時間を短くするとよい。
前述の実施形態における第1所定時間との関係で云えば、第2所定時間は識別情報を確認する時間を含まないから、第2所定時間は第1所定時間より短い時間とすることが好ましい。
[実施形態6]
実施形態6は、識別情報の表示を開始した時刻(識別情報表示開始時刻という)を記憶しておいて、PCから画像処理装置の検索が第1所定時間内に行われた場合に、識別情報表示開始時刻を装置情報とともにPCへ応答するものである。
本実施形態6においても、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。ここでは実施形態6の動作を行うための手順を説明する。実施形態6の動作は、制御部が以下の手順に従って作成されたプログラムを実行することで行われることになる。
図14は実施形態6の処理手順を示すフローチャートである。
まず、制御部205は人感センサー110が人を検知したか否かを判断する(S601)。ここで、人を検知していなければ(S601:NO)、待機状態となる。一方、人を検知したなら(S601:YES)、制御部205は記憶部203から識別情報を取り出して表示部202に送り識別情報を表示させる(S602)。これにより表示部202はディスプレイパネル120に識別情報を表示する。このとき表示する識別情報は、表示可能な識別情報すべてを表示してもよい。または、識別情報のなかのあらかじめ決められたもの一つまたはいくつかだけ表示するようにしてもよい。
続いて、制御部205は識別情報表示開始時刻を記憶部203に記憶する(S603)。なお、この記憶は記憶部203を構成するフラッシュROM321やHDD323への記憶、またはメモリー314への記憶である。
続いて、制御部205は計時を開始する(S604)。なお、計時の開始は、識別情報の表示が行われた後であれば識別情報を表示したことを記憶部203に記憶する段階の前でもよい。
続いて、制御部205はPC150からの装置検索があったか否かを判断する(S605)。ここで装置検索があれば(S605:YES)、制御部205は識別情報表示開始時刻を記憶部203から取り出して、検索を行ったPC150へ装置情報とともに識別情報表示開始時刻を応答する(S607)。その後制御部205は計時を終了させて(S607)、処理を終了する。
一方、装置検索がなければ(S605:NO)、制御部205は識別情報を表示してから第1所定時間経過したか否かを判断する(S608)。第1所定時間経過していなければS605へ戻る(S608:NO)。第1所定時間経過したなら(S608:YES)、制御部205は識別情報表示開始時刻の記憶を記憶部203から消去する(S609)。その後制御部205は計時を終了させて(S607)、処理を終了する。
識別情報表示開始時刻を受信したPC150では、たとえば、画像処理装置101の検索結果をリスト表示する際に、識別情報表示開始時刻の順(昇順または降順などユーザーの指定により変更可能とすることが好ましい)に表示することができる。
図15は、PCにおける画像処理装置の検索結果の表示例を示す図である。図15の表示例も、PC150から検索を行って、画像処理装置102が識別情報表示開始時刻を応答した場合である。
図示するように、PC150の画面1201に検索結果としてプリンター選択画面1502が表示されている。この例は固有名「MFP2」の画像処理装置102の識別情報表示開始時刻が一番新しい時刻の場合である。これにより、PC150は一番新しい識別情報表示開始時刻の「MFP2」をリストの一番上位に来るように表示している。
このような順番の変更とあわせてまたは単独で、一番新しい時刻の識別情報を強調表示したり、文字色を他の装置と異なる色で表示したりしてもよい。また、実施形態3同様に、一番新しい識別情報表示開始時刻の画像処理装置の固有名やIPアドレスの異なる部分を強調して表示するようにしてもよい。異なる部分を抽出する処理は実施形態3と同様である。また、実施形態4において説明したようにPC側で行ってもよい。
本実施形態6によれば、PCからの検索に対して装置情報とともに識別情報表示開始時刻を応答することとした。これにより実施形態1と同様に、画像処理装置の識別情報を特別な操作を行わずに知ることができる。また、PC側においては識別情報表示開始時刻を受信することで、識別情報を表示させた画像処理装置の識別情報表示開始時刻の順に並べて表示することができるようになる。これにより、ユーザーは自分が画像処理装置の近くへ行った直後の画像処理装置がリストの上位(または下位)に表示されているのでわかり易くなる。また、PCでは、識別情報表示開始時刻そのものも一緒に表示するようにしてもよい。これによりたとえば、自分が画像処理装置に近づいた時刻、あるいはPCまですぐに戻ったときには現在時刻などから自分が近づいた画像処理装置を判別することもできる。また、本実施形態6においても、識別情報を表示してから第1所定時間経過したのち、識別情報表示開示時刻の記憶を消すこととしている。これにより実施形態4同様に、他のユーザーや識別情報を表示させたユーザーにとっても、時間が経過した後は、強調表示やリストの変更などは行われないようになる。
なお、本実施形態6の第1所定時間は実施形態4の第1所定時間と同じである。なぜなら、両実施形態ともに識別情報を表示した後の時間を計時して、その間の時間が長い場合にそれぞれの記憶を消すこととしているためである。
[実施形態7]
実施形態7は、人感センサーが人を検知しなくなった時刻を記憶しておき、第2所定時間内にPCから画像処理装置の検索が行われた場合に、人が立ち去った時刻を装置情報とともにPCへ応答するものである。
本実施形態7においても、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。ここでは実施形態7の動作を行うための手順を説明する。実施形態7の動作は、制御部が以下の手順に従って作成されたプログラムを実行することで行われることになる。
図16は実施形態7の処理手順を示すフローチャートである。
まず、制御部205は人感センサー110が人を検知したか否かを判断する(S701)。ここで、人を検知していなければ(S701:NO)、待機状態となる。一方、人を検知したなら(S701:YES)、制御部205は記憶部203から識別情報を取り出して表示部202に送り識別情報を表示させる(S702)。これにより表示部202はディスプレイパネル120に識別情報を表示する。このとき表示する識別情報は、表示可能な識別情報すべてを表示してもよい。または、識別情報のなかのあらかじめ決められたもの一つまたはいくつかだけ表示するようにしてもよい。
続いて、制御部205は操作パネル130から何らかの操作が行われたか否かを判断する(S703)。ここで何らかの操作が行われれば(S703:YES)、制御部205は表示部202に操作画面を表示させる(S704)。これにより表示部202はディスプレイパネル120に操作画面を表示する。その後制御部205は処理を終了する。
一方、操作されない場合(S703:NO)、続いて、制御部205は人感センサー110が人を検知し続けているか否かを判断する(S705)。ここで、人を検知し続けていれば(S705:YES)、S703へ戻ることになる。これにより、識別情報の表示が継続される。
一方、S705において、人感センサー110が人を検知しなくなれば(S705:NO)、制御部205は人を検知しなくなった時刻を記憶部203に記憶する(S706)。なお、この記憶は記憶部203を構成するフラッシュROM321やHDD323への記憶、またはメモリー314への記憶である。
続いて、制御部205は計時を開始する(S707)。計時を開始する段階は、人を検知しなくなった後、人を検知しなくなった時刻を記憶部203に記憶する段階の前でもよい。
続いて、制御部205はPC150からの装置検索があったか否かを判断する(S708)。ここで装置検索があれば(S708:YES)、人を検知しなくなった時刻を記憶部203から取り出して、検索を行ったPC150へ装置情報とともに人を検知しなくなった時刻を応答する(S709)。その後制御部205は計時を終了させて(S710)、処理を終了する。
一方、装置検索がなければ(S708:NO)、制御部205は経過時間を確認して第2所定時間経過したか否かを判断する(S711)。第2所定時間経過していなければS708へ戻る(S711:NO)。第2所定時間経過したなら(S711:YES)、制御部205は人を検知しなくなった時刻を記憶部203から消去する(S712)。その後制御部205は計時を終了させて(S710)、処理を終了する。
人を検知しなくなった時刻を受信したPC150では、たとえば、画像処理装置の検索結果をリスト表示する際に、人を検知しなくなった時刻の順(昇順または降順などユーザーの指定により変更可能とすることが好ましい)に表示することができる。この場合のPCでの表示例は、たとえば実施形態6として示した図15と同様である。本実施形態7においても、人を検知しなくなった時刻の順に並べ替えるだけでなく、一番新しい時刻の画像処理装置の識別情報を強調表示したり、色を変えるなどとしてもよい。また、実施形態3同様に、人を検知しなくなった時刻が一番新しい画像処理装置の固有名やIPアドレスの異なる部分を強調して表示するようにしてもよい。異なる部分を抽出する処理は実施形態3と同様である。また、実施形態4において説明したようにPC側で行ってもよい。
本実施形態7によれば、人感センサーが人を検知しなくなった時刻、すなわち画像処理装置の近くから人が立ち去った時刻を記憶しておき、PCから検索があった場合には装置情報とともに、人感センサーが人を検知しなくなった時刻を応答することとした。これにより実施形態1と同様に、画像処理装置の識別情報を特別な操作を行わずに知ることができるだけでなく、PC側において画像処理装置をユーザーにわかり易く表示することができる。しかも、人が立ち去った時刻がPCへ応答されているので、PCへ戻ってきた直後に画像処理装置の検索を行えば、立ち去った直後の画像処理装置がリストの一番上位に来る表示がなされている。このためユーザーとってわかり易いものとなる。
また、本実施形態7でも、人を検知しなくなってから第2所定時間経過したのち、人を検知しなくなった時刻の記憶を消すこととしている。これにより、いつまでも人を検知しなくなった時刻を記憶していないので、実施形態4同様に他のユーザーや識別情報を表示させたユーザーにとっても、時間が経過した後は、強調表示やリストの変更などは行われないようになる。
なお、本実施形態7の第2所定時間は実施形態5の第2所定時間と同じである。なぜ、両実施形態ともに、人感センサーが人を検知しなくなったのちの時間を計時して、その間の時間が長い場合にそれぞれの記憶を消すこととしているためである。
[実施形態8]
実施形態8は、実施形態4と同様に識別情報を表示したことを示す情報を記憶しておいて、所定時間内にPCから画像処理装置の検索が行われた場合に、識別情報を表示したことを示す情報をPCへ応答する機能を備える。本実施形態8ではさらに人感センサーが人を検知し続けている時間があらかじめ決められた第3所定時間未満の場合には、PCからの検索に対して識別情報を表示したことを示す情報を応答しないようにしたものである。
本実施形態8においても、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。ここでは実施形態8の動作を行うための手順を説明する。実施形態8の動作は、制御部が以下の手順に従って作成されたプログラムを実行することで行われることになる。
図17は実施形態8の処理手順を示すフローチャートである。
まず、制御部205は人感センサー110が人を検知したか否かを判断する(S801)。ここで、人を検知していなければ(S801:NO)、待機状態となる。一方、人を検知したなら(S801:YES)、制御部205は記憶部203から識別情報を取り出して表示部202に送り識別情報を表示させる(S802)。これにより表示部202はディスプレイパネル120に識別情報を表示する。このとき表示する識別情報は、表示可能な識別情報すべてを表示してもよい。または、識別情報のなかのあらかじめ決められたもの一つまたはいくつかだけ表示するようにしてもよい。
続いて、制御部205は識別情報を表示したことを記憶部203に記憶する(S803)。なお、この記憶は記憶部203を構成するフラッシュROM321やHDD323への記憶、またはメモリー314への記憶である。
続いて、制御部205は計時を開始する(S804)。なお、計時の開始は、識別情報の表示が行われた後であれば識別情報を表示したことを記憶部203に記憶する段階の前でもよい。
続いて、制御部205は人感センサー110が人を検知し続けているか否かを判断する(S805)。ここで、人を検知中であれば(S805:YES)、そのまま待機する。
そして、制御部205は人を検知しなくなったと判断したなら(S805:NO)、その時点での経過時間を確認して第3所定時間未満か否かを判断する(S806)。
第3所定時間とは、人が画像処理装置101に近づいても識別情報を確認できないほど短い時間である。たとえば、画像処理装置101の近くを人が通り過ぎるなどした場合も識別情報の表示は即座に行われる(S801およびS802の処理)。しかし、人が通り過ぎる程度の時間では識別情報の確認は行われないのが普通である。そこで、この第3所定時間はユーザーが任意に設定可能としておき、たとえば実験や経験などから識別情報を確認するために必要な時間を割り出して設定する。
S806において、第3所定時間未満であれば(S806:YES)、制御部205は識別情報を表示したことの記憶を記憶部203から消去する(S811)。その後制御部205は計時を終了させて(S809)、処理を終了する。
一方、第3所定時間未満でなければ(S806:NO)、続いて、制御部205はPC150から装置検索があったか否かを判断する(S807)。ここで装置検索があれば(S807:YES)、制御部205は識別情報を表示したことを記憶部203から取り出して、検索を行ったPC150へ装置情報とともに識別情報を表示したことを示す情報を応答する(S808)。その後制御部205は計時を終了させて(S809)、処理を終了する。
一方、装置検索がなければ(S807:NO)、制御部205は識別情報を表示してから第1所定時間経過したか否かを判断する(S810)。所定時間経過していなければS807へ戻る(S810:NO)。第1所定時間経過したなら(S810:YES)、制御部205は識別情報を表示したことを示す情報を記憶部203から消去する(S811)。その後制御部205は計時を終了させて(S809)、処理を終了する。
識別情報を表示したことを示す情報を受信したPC150では、たとえば、画像処理装置102の検索結果を表示する際にその画像処理装置102の識別情報を強調表示にしたり、検索結果リストの一番上位に表示したりすることができる。表示例としては、図12に示した実施形態4と同様である。本実施形態8においても、リストの順番を変えるだけでなく、強調表示、文字色の変更などしてもよい。実施形態3同様に、識別情報を表示したことを応答してきた画像処理装置の固有名やIPアドレスの異なる部分を強調して表示するようにしてもよい。この処理は画像処理装置で行う場合は実施形態3と同じでよい。また、PC側で行う場合は、実施形態4において説明したとおりである。
本実施形態8によれば、画像処理装置に近づくだけで識別情報が表示されるので、実施形態1と同様に、画像処理装置の識別情報を特別な操作を行わずに知ることができる。そしてPCからの検索に対して装置情報とともに識別情報を表示したことを示す情報を応答することとしたので、PC側では識別情報を表示させた画像処理装置をユーザーにわかり易く表示することができるようになる。そして、本実施形態8では、人感センサーが人を検知している時間が第3所定時間未満の場合、たとえば、表示された識別情報を確認するには短いような場合、その後、PCからの検索があっても識別情報を表示したことを示す情報はPCへ応答しないこととしている。これにより、単に画像処理装置前を横切った人がいたタイミングで、PCから検索を行っても、PCにおいて検索結果リストの変更などが行われないようにすることができる。
また、本実施形態8においても、識別情報を表示してから第1所定時間経過したのち、識別情報を表示したことを示す情報の記憶を消すこととしているので、時間が経過してからの検索に対して、識別情報を表示したことを示す情報がPCへ応答されてしまうことはない。本実施形態8の第1所定時間も、実施形態4の第1所定時間と同じである。
なお、本実施形態8は、上述した実施形態5とともに実行することで、人感センサーが人を検知し続けている時間が所定時間未満の場合には、PCからの検索に対して識別情報を表示したことを示す情報を応答しないようにすることができる。
本実施形態8は、上述した実施形態6とともに実行することで、人感センサーが人を検知し続けている時間が所定時間未満の場合には、PCからの検索に対して識別情報表示開始時刻を応答しないようにすることができる。また本実施形態8は、上述した実施形態7とともに実行することで、人感センサーが人を検知し続けている時間があらかじめ決められた所定時間未満の場合には、PCからの検索に対して人を検知しなくなった時刻を応答しないようにすることができる。
第1所定時間および第2所定時間との関係で云えば、第3所定時間は、既に説明したように、人が画像処理装置に近づいても識別情報を確認できないほど短い時間であるから、第1所定時間および第2所定時間よりも短い時間ということになる。
[実施形態9]
実施形態9は、実施形態5と同様に、識別情報を表示したことを示す情報を記憶しておいて、人感センサーが人を検知しなくなったのち第2所定時間内にPCから画像処理装置の検索が行われた場合に、識別情報を表示したことを示す情報をPCへ応答する機能を備える。本実施形態9ではさらに人感センサーが人を検知しなくなったのち、PCからの検索が第4所定時間内にあった場合は、識別情報を表示したことを示す情報を応答しないようにしたものである。ここで第4所定時間は第2所定時間より短い。
本実施形態9においても、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。ここでは実施形態9の動作を行うための手順を説明する。実施形態9の動作は、制御部が以下の手順に従って作成されたプログラムを実行することで行われることになる。
図18は実施形態9の処理手順を示すフローチャートである。
まず、制御部205は人感センサー110が人を検知したか否かを判断する(S901)。ここで、人を検知していなければ(S901:NO)、待機状態となる。一方、人を検知したなら(S901:YES)、制御部205は記憶部203から識別情報を取り出して表示部202に送り識別情報を表示させる(S902)。これにより表示部202はディスプレイパネル120に識別情報を表示する。このとき表示する識別情報は、表示可能な識別情報すべてを表示してもよい。または、識別情報のなかのあらかじめ決められたもの一つまたはいくつかだけ表示するようにしてもよい。
続いて、制御部205は識別情報を表示したことを記憶部203に記憶する(S903)。なお、この記憶は記憶部203を構成するフラッシュROM321やHDD323への記憶、またはメモリー314への記憶である。
続いて、制御部205は人感センサー110が人を検知し続けているか否かを判断する(S904)。ここで、人を検知し続けていれば(S904:YES)、そのまま待機する。
一方、制御部205は人を検知しなくなったと判断したなら(S904:NO)、計時を開始する(S905)。
続いて、制御部205はPC150から装置検索があったか否かを判断する(S906)。ここで装置検索があれば(S906:YES)、制御部205はこの時点での経過時間を確認して人感センサー110が人を検知しなくなった後、経過した時間が第4所定時間未満か否かを判断する(S907)。
第4所定時間とは、たとえば人が画像処理装置101から離れてPC150に戻るために必要な時間である。この第4所定時間は、ユーザーが任意に設定可能にして、たとえば実験や経験などから画像処理装置101からPC150へ戻るために要した時間に合わせて設定するとよい。
S907において、第4所定時間未満であれば(S907:YES)、制御部205は画像処理装置101の装置情報のみその装置検索を行ったPC150へ応答する(S920)。なぜなら装置検索を行ったPCは、識別情報を表示させた人(ユーザー)のPC150ではない可能性が高いからである。その後、制御部205は、S906へ戻り以降の処理を継続することになる。
S907において第4所定時間未満でなければ(S907:NO)、制御部205は識別情報を表示したことを記憶部203から取り出して、装置検索を行ったPC150へ装置情報とともに識別情報を表示したことを示す情報を応答する(S908)。その後制御部205は計時を終了させて(S909)、処理を終了する。
S906において装置検索がなければ(S906:NO)、制御部205は識別情報を表示してから第2所定時間経過したか否かを判断する(S910)。第2所定時間経過していなければS906へ戻る(S910:NO)。第2所定時間経過したなら(S910:YES)、制御部205は識別情報を表示したことを示す情報を記憶部203から消去する(S911)。その後制御部205は計時を終了させて(S909)、処理を終了する。
識別情報を表示したことを示す情報を受信したPC150では、たとえば、画像処理装置102の検索結果を表示する際にその画像処理装置102の識別情報を強調表示にしたり、検索結果リストの一番上位に表示したりすることができる。表示例としては、図12に示した実施形態4と同様である。本実施形態9においても、リストの順番を変えるだけでなく、強調表示、文字色の変更などしてもよい。実施形態3同様に、識別情報を表示したことを応答してきた画像処理装置の固有名やIPアドレスの異なる部分を強調して表示するようにしてもよい。この処理は画像処理装置で行う場合は実施形態3と同じでよい。また、PC側で行う場合は、実施形態4において説明したとおりである。
本実施形態9によれば、画像処理装置に近づくだけで識別情報が表示されるので、実施形態1と同様に、画像処理装置の識別情報を特別な操作を行わずに知ることができる。またPCからの装置検索に対して装置情報とともに識別情報を表示したことを示す情報を応答することとしたので、PC側では識別情報を表示させた画像処理装置をユーザーにわかり易く表示することができるようになる。そして、本実施形態9では、人感センサーが人を検知しなくなってからの時間が第4所定時間未満の場合、その装置検索を行ったPCへは識別情報を表示したことを示す情報を応答しないこととした。これは、たとえば第4所定時間未満の場合、人がPCに戻っていない可能性が高いと判断するものである。つまり、第4所定時間の間にPCから装置検索が入ったとしても、その装置検索を行った人は画像処理装置に近づいた人ではない可能性が高い。本実施形態9ではこのような画像処理装置に近づいていない人が装置検索を行った場合に識別情報を表示したことを示す情報を応答しないようにしたので、画像処理装置に近づいた可能性のない人に対してはPCにおいて検索結果リストの変更などが行われないようにすることができる。
また、本実施形態9においても、識別情報を表示してから第2所定時間経過したのち、識別情報を表示したことを示す情報の記憶を消すこととしているので、時間が経過してからの装置検索に対して、識別情報を表示したことを示す情報がPCへ応答されてしまうことはない。本実施形態9の第2所定時間も第5実施形態の第2所定時間と同じである。
なお、本実施形態9は、上述した実施形態5とともに実行することで、人感センサーが人を検知しなくなってから第4所定時間内にPCからの装置検索があった場合には、PCからの装置検索に対して識別情報を表示したことを示す情報を応答しないようにすることができる。
本実施形態9は、上述した実施形態6とともに実行することで、人感センサーが人を検知しなくなってから第4所定時間内にPCからの装置検索があった場合には識別情報表示開始時刻を応答しないようにすることができる。また本実施形態9は、上述した実施形態7とともに実行することで、人感センサーが人を検知しなくなってから第4所定時間内にPCからの装置検索があった場合には、PCからの装置検索に対して人を検知しなくなった時刻を応答しないようにすることができる。さらに、本実施形態9は、上述した実施形態8と組み合わせることもできる。実施形態8と組み合わせることで、人が識別情報を確認することができる時間および人がPCまで戻るのに必要な時間の両方を加味して、識別情報を表示したことを示す情報(実施形態4、5)、識別情報表示開始時刻(実施形態6)、人を検知しなくなった時刻(実施形態7)などの各情報を応答することができる。
第1所定時間および第2所定時間との関係で云えば、第4所定時間は、既に説明したように、人が画像処理装置から離れてPCに戻るために必要な時間であるから、第1および第2所定時間よりも短い。第3所定時間との関係では、PCまでの距離によりどちらの時間が短いかは異なる。これは、画像処理装置とPC間の距離が短ければ識別情報を確認するための第3所定時間の方が長くなる場合もあるからである。
[実施形態10]
画像処理装置に設けられているディスプレイパネルは、画像処理装置の機種によって様々な大きさがある。本実施形態10は、ディスプレイパネルの大きさに応じて、人感センサーが人を検知する距離(画像処理装置と人との距離)を変えるようにして、ユーザーが識別情報を確認しやすいようにしたものである。つまり、実施形態10では、ディスプレイパネルの大きさが大きいものほど、画像処理装置と人との距離が遠い位置で人感センサーにより人を検知させる。これにより画像処理装置に識別情報を表示する際に、人が識別情報を認識しやすいようにする。なお、識別情報を表示する手順はこれまで説明した実施形態1〜9のいずれか、またはそれらの組み合わせなどであるので説明は省略する。ここではディスプレイパネルへの識別情報の表示についてのみ説明する。
図19は、大きさの異なるディスプレイパネルのそれぞれに表示される識別情報の文字の大きさと人との距離の例を説明する説明図である。本実施形態10においてはディスプレイパネルの大きさ以外の、ネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。なお、図19においては、ネットワーク100に接続されているPC150、151などは省略した。
図19に示すように、各画像処理装置101〜104は、それぞれのディスプレイパネルの大きさが異なる。画像処理装置101(固有名MFP1)のディスプレイパネル121は、5インチパネルである。画像処理装置102(固有名MFP2)のディスプレイパネル122は、7インチパネルである。画像処理装置103(固有名MFP3)のディスプレイパネル123は、9インチパネルである。画像処理装置104(固有名MFP4)のディスプレイパネル124は、キャラクタディスプレイパネルである。
ディスプレイパネル121〜124のように大きさが異なると、そこに表示できる最大の文字の大きさが異なる。このため最大の文字で識別情報を表示したとしても、人が表示されている文字を認識できる距離が異なることになる。
そこで本実施形態10では、ディスプレイパネル120の大きさによって、識別情報を表示するタイミングを人の接近した距離に応じて変更することとした。
5インチパネル(MFP1のディスプレイパネル121)の場合は、人190が1.0メートルまで接近したら表示を行う。
7インチパネル(MFP2のディスプレイパネル122)の場合は、人190が1.5メートルまで接近したら表示を行う。
9インチパネル(MFP3のディスプレイパネル123)の場合は、人190が2.0メートルまで接近したら表示を行う。
キャラクタディスプレイパネル(MFP4のディスプレイパネル124)の場合は、人190が0.5メートルまで接近したら表示を行う。
人感センサーが人を検知する距離(画像処理装置と人との距離)は、人感センサー110そのものが検知できる距離をディスプレイパネルの大きさに合わせて変更すればよい。また、人との距離がわかる人感センサーにおいては、ディスプレイパネルの大きさに応じて、人を検知したことを示す信号を制御部へ出力するトリガーとなる距離を変更すればよい。
本実施形態10によれば、ディスプレイパネルの大きさが大きいものほど、大きな文字を表示できるので、人感センサーが人を検知する距離を遠くに設定する。逆にディスプレイパネルの大きさが小さければ最大文字を表示したとしても、大きなディスプレイパネルよりは小さくなってしまうので、人感センサーが人を検知する距離を近くに設定する。これにより大きなディスプレイパネルでは、遠くからでも文字を認識できる距離であればいちはやく識別情報を確認することができるようになる。一方、ディスプレイパネルが小さい場合には、人が文字を認識できないほど遠くから識別情報を表示してしまうような無駄をなくすことができる。
[実施形態11]
ディスプレイパネルに表示する識別情報の量が多い場合、ディスプレイパネルの限られたスペースではどうしても文字を小さくしなければならない。一方で、文字を小さくすると遠くから識別しづらくなる。
そこで、本実施形態11は、画像処理装置のディスプレイパネルに識別情報を表示する際に、表示する情報量と人を検知する距離を最適化する。なお、識別情報を表示する手順はこれまで説明した実施形態1〜9のいずれか、またはそれらの組み合わせなどであるので説明は省略する。ここではディスプレイパネルへの識別情報の表示についてのみ説明する。
図20は、ディスプレイパネルのそれぞれに表示される識別情報の文字の大きさと人との距離の例を説明する説明図である。本実施形態11においてネットワークの構成や、画像処理装置の機能構成およびハードウェア構成は、実施形態1と同じであるので説明は省略する。なお、図20においては、ネットワーク100に接続されているPC150、151などは省略した。
本実施形態11では、たとえばディスプレイパネル120の大きさとしてMFP1〜3は、9インチパネルのディスプレイパネル123を用いているものとする。
MFP1においては表示内容が4項目である。このように表示内容が多い場合は、文字サイズを18ポイントとする。そして人190が1.0メートルにまで接近したら表示する。
MFP2においては表示内容が2項目である。このような場合は、文字サイズを36ポイントとする。そして人190が1.5メートルにまで接近したら表示する。
MFP3においては、表示内容が1項目である。このように表示内容が少ない場合は、文字サイズを72ポイントとする。そして人190が2.0メートルにまで接近したら表示する。
このように表示する内容(すなわち表示する情報量)に応じて、人が近接した距離によって表示するタイミングを変えることで、人が文字を認識できる位置により表示を行うことができる。このように、表示する情報量に応じて表示のタイミングを変えるためには、表示する情報量に応じて人感センサーの検出距離を変更すればよい。また、人との距離がわかる人感センサーにおいては、表示する情報量に応じて、人を検知したことを示す信号を制御部へ出力するトリガーとなる距離を変更すればよい。
このように表示する内容を決めておいて、人がそれにあった距離に来たときに表示するだけでなく、たとえば、画像処理装置と人との距離に合わせて表示内容(表示する情報量)を変えるようにしてもよい。以下の例のとおりである。
人が2.0メートルにまで接近したら72ポイントで1項目表示(図20のMFP3)する。
人が1.5メートルにまで接近したら36ポイントで2項目表示(図20のMFP2)する。
人が1.0メートル接近したら18ポイントで4項目表示(図20のMFP1)する。
このように画像処理装置に近づいてくる人との距離に応じた表示内容とすることができる。このようにするには、人との距離がわかる人感センサーを用いる。そして画像処理装置と人との距離に応じて表示内容を変更すればよい。
本実施形態11によれば、ディスプレイパネルに表示する情報量を、人との距離が遠いときには少なく、近いときには多くすることとしたので、人との距離に応じて確認しやすい文字の大きさで識別情報を表示することができるようになる。
[実施形態12]
実施形態12は、実施形態1とシステムの構成が異なる。
図21は実施形態12における画像形成のためのシステムの一例を示すブロック図である。
本実施形態12におけるシステムは、図21に示すように、ネットワーク100に接続された複数の画像処理装置101〜104を含む。またネットワーク100には、複数のPC150、151などが接続されている。PC150はたとえば有線接続である。接続PC151はたとえばアクセスポイント152を介した無線接続である。そして、このネットワーク100にはプリンターサーバー211が接続されている。
このシステムでは、PC150または151から印刷する場合、画像処理装置の選択は、ユーザーのよりPC150または151から行われる。
PC150または151からの装置選択指令および印刷ジョブが一端プリンターサーバー211に送信される。そしてプリンターサーバー211は、PC150または151からの装置選択指令により指定された画像処理装置に印刷ジョブを渡して印刷が行われる。
このような本実施形態12においても、既に説明した実施形態1〜11の手順による処理を行うことで、各実施形態で説明した動作を行うことができる。
プリンターサーバー211により実施形態1〜11の手順による処理を行う場合は、既に説明した各手順をプリンターサーバー211によって実行する。この場合、人感センサー110からの信号は各画像処理装置101〜104を介してプリンターサーバー211へ伝達する。そしてその伝達を受けたプリンターサーバー211は、人が近づいた画像処理装置に対して、識別情報を表示するように指令することになる。
識別情報は、たとえば個々の画像処理装置101〜104の記憶部203に記憶させておくことができる。この場合は、プリンターサーバー211が識別情報を表示させる画像処理装置(101〜104のいずれか)に対して記憶部203に記憶されている識別情報を取り出して表示させる。
また識別情報は、たとえばプリンターサーバー211内のメモリーやフラッシュROM、ハードディスクなどの記憶装置に各画像処理装置に対応させて記憶しておいてもよい。この場合は、プリンターサーバー211が識別情報を表示させる画像処理装置(101〜104のいずれか)に対して、その画像処理装置の識別情報を送信して表示させる。
その他の実施形態における情報、すなわち識別情報を表示したことを示す情報、識別情報表示開始時刻、人を検知しなくなった時刻なども、個々の画像処理装置101〜104の記憶部203、またはプリンターサーバー211の記憶装置のいずれを用いてもよい。
本実施形態12によれば、ネットワークに接続されている複数の画像処理装置を管理するプリンターサーバーが、実施形態1〜11の手順を実行することとしたので、各画像処理装置に、各実施形態の手順を実行するためのプログラムを導入しなくても、各実施形態と同じ効果を得ることができる。
以上本発明の実施形態を説明したが、本発明はこれら実施形態に限定されるものではない。特に、各実施形態において説明した手順を様々に組み合わせて実行することもできる。
また各実施形態では、複数の画像処理装置のそれぞれに人感センサーを設けて、各画像処理装置が近づく人を検知している。これに限らず、複数の画像処理装置が配置されている室内に少なくとも1つの人感センサーを設け、その人感センサーが各画像処理装置に近づいた人を検知するようにしてもよい。この場合、人感センサーからは人が近づいた画像処理装置またはプリンターサーバーに対してそのことを伝達する。
また実施形態では、画像処理装置を利用する端末装置としてPCを例示したが、たとえば、携帯電話、スマートフォン、タブレットなど様々な情報端末であってもよい。
また、人を検知する前のディスプレイパネルの表示は、どのようなものであってもよく、たとえば、識別情報が元々表示されているような場合、たとえば操作画面内に小さく表示されているような場合にも、本発明を適用することで人を検知したときに識別情報を大きく表示したり、また他の装置と区別しやすいように強調表示としたりしてもよい。
そのほか、本発明は、特許請求の範囲に記載された内容によって規定されるものであり、様々な変形形態が可能である。
100 ネットワーク、
101〜104 画像処理装置、
110 人感センサー、
120、121〜124 ディスプレイパネル、
130 操作パネル、
150、151 PC、
201 ネットワーク部、
202 表示部、
203 記憶部、
204 機能部、
205 制御部、
211 プリンターサーバー、
301 バス、
310 ローカルバス、
314 メモリー、
321 フラッシュROM、
323 HDD、
332 スキャナー、
333 プリントエンジン。

Claims (27)

  1. ユーザーによる指定操作に応じて画像処理を行う画像処理装置であって、
    人を検知する人感センサーと、
    情報を画面に表示する表示部と、
    前記人感センサーが前記人を検知することにより、前記ユーザーによる指定操作に利用される識別情報であって他の画像処理装置と識別するための識別情報を含む画面を前記表示部に表示させる制御部と、
    を有することを特徴とする画像処理装置。
  2. 操作を受け付ける操作パネルをさらに有し、
    前記制御部は前記操作パネルからの操作があった場合は前記表示部に表示されている前記識別情報を含む画面から操作画面の表示に切り替え、前記人感センサーが前記人を検知しなくなった場合は前記表示部に表示されている前記識別情報を含む画面を非表示にすることを特徴とする請求項1に記載の画像処理装置。
  3. 前記制御部は自身の画像処理装置の識別情報と前記他の画像処理装置の識別情報とを比較して、前記自身の画像処理装置の識別情報のなかの異なる部分を抽出し、
    前記抽出した異なる部分を強調して前記識別情報を表示させることを特徴とする請求項1または2に記載の画像処理装置。
  4. 記憶部を有し、
    前記制御部は前記識別情報を表示したことを示す情報を前記記憶部に記憶し、端末装置から画像処理装置の検索が第1所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
  5. 記憶部を有し、
    前記制御部は前記識別情報を表示したことを示す情報を前記記憶部に記憶し、前記人感センサーが前記人を検知しなくなったのち、端末装置から画像処理装置の検索が第2所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
  6. 前記制御部は前記人感センサーが前記人を検知し続けている時間が第3所定時間未満の場合には、前記識別情報を表示したことを示す情報を前記端末装置へ応答しないことを特徴とする請求項4または5に記載の画像処理装置。
  7. 前記制御部は前記人感センサーが前記人を検知しなくなったのち、前記端末装置からの検索が第4所定時間内にあった場合には、前記識別情報を表示したことを示す情報を前記端末装置へ応答しないことを特徴とする請求項4〜6のいずれか一つに記載の画像処理装置。
  8. 記憶部を有し、
    前記制御部は前記識別情報を表示した時刻を前記記憶部に記憶し、端末装置から画像処理装置の検索が第1所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示した時刻を前記端末装置へ応答することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
  9. 前記制御部は前記人感センサーが前記人を検知し続けている時間が第3所定時間未満の場合には、前記識別情報を表示した時刻を前記端末装置へ応答しないことを特徴とする請求項8に記載の画像処理装置。
  10. 前記制御部は前記人感センサーが前記人を検知しなくなったのち、前記端末装置からの検索が第4所定時間内にあった場合には、前記識別情報を表示した時刻を前記端末装置へ応答しないことを特徴とする請求項8または9に記載の画像処理装置。
  11. 記憶部を有し、
    前記制御部は前記人感センサーが前記人を検知しなくなった時刻を前記記憶部に記憶し、端末装置から画像処理装置の検索が第2所定時間内に行われた場合に、前記記憶部に記憶した前記人を検知しなくなった時刻を前記端末装置へ応答することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
  12. 前記制御部は前記人感センサーが前記人を検知し続けている時間が第3所定時間未満の場合には、前記人感センサーが前記人を検知しなくなった時刻を前記端末装置へ応答しないことを特徴とする請求項11に記載の画像処理装置。
  13. 前記制御部は前記人感センサーが前記人を検知しなくなったのち、前記端末装置からの検索が第4所定時間内にあった場合には、前記人感センサーが前記人を検知しなくなった時刻を前記端末装置へ応答しないことを特徴とする請求項11または12に記載の画像処理装置。
  14. 前記人感センサーは、前記表示部に備えられている表示装置の大きさが大きいほど、前記人を検知する距離が遠くに設定されていることを特徴とする請求項1〜13のいずれか一つに記載の画像処理装置。
  15. 前記制御部は、
    前記識別情報の情報量を多く表示させる場合は前記人感センサーが前記人を検知する距離を近くし、
    前記識別情報の情報量を少なく表示させる場合は前記人感センサーが前記人を検知する距離を遠くすることを特徴とする請求項1〜13のいずれか一つに記載の画像処理装置。
  16. 前記制御部は、
    前記人感センサーが前記人を検知している距離が近い場合は前記識別情報の情報量を多く表示させ、
    前記人感センサーが前記人を検知している距離が遠い場合は前記識別情報の情報量を少なく表示させることを特徴とする請求項1〜14のいずれか一つに記載の画像処理装置。
  17. 人を検知する人感センサーと、情報を画面に表示する表示部とを有する画像処理装置の制御プログラムであって、
    前記人感センサーが前記人を検知したか否かを判断する段階(a)と、
    前記人感センサーが前記人を検知したことにより、他の画像処理装置と識別するための識別情報を前記表示部に表示させる段階(b)と、
    を有することを特徴とする画像処理装置の制御プログラム。
  18. 自身の画像処理装置の識別情報と前記他の画像処理装置の識別情報とを比較して、前記自身の画像処理装置の識別情報のなかの異なる部分を抽出する段階(c)をさらに有し、
    段階(b)においては前記抽出した異なる部分を強調して前記識別情報を表示させることを特徴とする請求項17に記載の画像処理装置の制御プログラム。
  19. 前記識別情報を表示したことを示す情報を記憶部に記憶する段階(d)と、
    複数の画像処理装置のなかから一つを選択して利用する端末装置から画像処理装置の検索が第1所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答する段階(e)と、をさらに有することを特徴とする請求項17または18に記載の画像処理装置の制御プログラム。
  20. 前記識別情報を表示したことを示す情報を記憶部に記憶する段階(f)と、
    前記人感センサーが前記人を検知しなくなったのち、複数の画像処理装置のなかから一つを選択して利用する端末装置から画像処理装置の検索が第2所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答する段階(g)と、を有することを特徴とする請求項17〜19のいずれか一つに記載の画像処理装置の制御プログラム。
  21. 請求項17〜20のいずれか一つに記載の画像処理装置の制御プログラムを記憶したコンピューター読み取り可能な記憶媒体。
  22. 人を検知する人感センサーと、
    複数の画像処理装置と、
    プリンターサーバーと、を有する画像処理システムであって、
    前記プリンターサーバーは、前記人感センサーが画像処理装置に近づいた前記人を検知することにより、前記人が近づいた画像処理装置に付与されている、他の画像処理装置と識別するための識別情報を前記画像処理装置に備えられている表示部に表示させることを特徴とする画像処理システム。
  23. プリンターサーバーは、一つの画像処理装置の識別情報と前記他の画像処理装置の識別情報とを比較して、前記一つの画像処理装置の識別情報のなかの異なる部分を抽出し、前記抽出した異なる部分を強調して前記識別情報を表示することを特徴とする請求項22に記載の画像処理システム。
  24. 前記プリンターサーバーおよび前記画像処理装置のうち少なくとも一方に記憶部を有し、
    前記プリンターサーバーは、前記識別情報を表示したことを示す情報を前記記憶部に記憶して、複数の画像処理装置のなかから一つを選択して利用する端末装置から画像処理装置の検索が第1所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報を前記端末装置へ応答することを特徴とする請求項22に記載の画像処理システム。
  25. 前記プリンターサーバーおよび前記画像処理装置のうち少なくとも一方に記憶部を有し、
    前記プリンターサーバーは、前記識別情報を表示したことを示す情報を前記記憶部に記憶し、前記人感センサーが前記人を検知しなくなったのち、複数の画像処理装置のなかから一つを選択して利用する端末装置から画像処理装置の検索が第2所定時間内に行われた場合に、前記記憶部に記憶した前記識別情報を表示したことを示す情報前記人感センサーが前記人を検知しなくなった時刻を前記端末装置へ応答することを特徴とする請求項22に記載の画像処理システム。
  26. 前記識別情報を表示したことを示す情報を受信した前記端末装置は、
    画像処理装置の検索結果をリスト表示する際に、前記識別情報を表示したことを示す情報を応答してきた前記画像処理装置の前記識別情報を、前記リストの一番上位に表示することを特徴とする請求項24または25に記載の画像処理システム。
  27. 前記識別情報を表示したことを示す情報を受信した前記端末装置は、
    前記識別情報を表示したことを示す情報を応答してきた前記画像処理装置の前記識別情報を前記他の画像処理装置の識別情報と比較して、前記識別情報を表示したことを示す情報を応答してきた前記画像処理装置の前記識別情報のなかの異なる部分を抽出して、
    前記画像処理装置の検索結果を表示する際に、前記抽出した異なる部分を強調して前記識別情報を表示することを示す情報を応答してきた前記画像処理装置の前記識別情報を表示することを特徴とする請求項24〜26のいずれか一つに記載の画像処理システム。
JP2014238125A 2014-11-25 2014-11-25 画像処理装置、画像処理装置の制御プログラム、画像処理システム Active JP6102895B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014238125A JP6102895B2 (ja) 2014-11-25 2014-11-25 画像処理装置、画像処理装置の制御プログラム、画像処理システム
EP15195049.0A EP3026540B1 (en) 2014-11-25 2015-11-17 Image processing device, computer program for controlling image processing device and image processing system
US14/947,975 US9992372B2 (en) 2014-11-25 2015-11-20 Image processing device, computer program product for controlling image processing device and image processing system
CN201510828985.1A CN105635515B (zh) 2014-11-25 2015-11-25 图像处理装置、图像处理装置的控制方法、图像处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014238125A JP6102895B2 (ja) 2014-11-25 2014-11-25 画像処理装置、画像処理装置の制御プログラム、画像処理システム

Publications (2)

Publication Number Publication Date
JP2016100840A true JP2016100840A (ja) 2016-05-30
JP6102895B2 JP6102895B2 (ja) 2017-03-29

Family

ID=54782415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014238125A Active JP6102895B2 (ja) 2014-11-25 2014-11-25 画像処理装置、画像処理装置の制御プログラム、画像処理システム

Country Status (4)

Country Link
US (1) US9992372B2 (ja)
EP (1) EP3026540B1 (ja)
JP (1) JP6102895B2 (ja)
CN (1) CN105635515B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015203A (ja) * 2019-07-12 2021-02-12 富士ゼロックス株式会社 画像表示装置、画像形成装置及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10033898B2 (en) * 2016-03-17 2018-07-24 Ricoh Company, Ltd. Information processing system, image forming apparatus, and method of processing information
JP2019140458A (ja) * 2018-02-07 2019-08-22 シャープ株式会社 ファクシミリ装置、画像形成装置及びファクシミリ装置の表示制御方法
US10948965B2 (en) 2018-12-31 2021-03-16 Ecolink Intelligent Technology, Inc. User-configurable person detection system, method and apparatus
US11227476B2 (en) 2019-03-13 2022-01-18 Ecolink Intelligent Technology, Inc. Auto-configurable motion/occupancy sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006686A (ja) * 2000-06-20 2002-01-11 Canon Inc 情報処理装置
JP2010130263A (ja) * 2008-11-27 2010-06-10 Oki Data Corp 報知機能付電子装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130584B2 (en) * 2003-03-07 2006-10-31 Nokia Corporation Method and device for identifying and pairing Bluetooth devices
JP2005352584A (ja) * 2004-06-08 2005-12-22 Canon Inc 印刷装置
JP4733369B2 (ja) * 2004-07-23 2011-07-27 パイオニア株式会社 映像表示システム、及び映像表示方法
JP4148961B2 (ja) * 2005-07-04 2008-09-10 京セラミタ株式会社 情報表示装置
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US8035526B2 (en) * 2008-09-19 2011-10-11 Intel-GE Care Innovations, LLC. Remotely configurable assisted-living notification system with gradient proximity sensitivity
KR101651859B1 (ko) * 2009-06-05 2016-09-12 삼성전자주식회사 사용자별 ui 제공방법 및 이를 적용한 디바이스
EP2402860B1 (en) 2010-06-29 2020-10-07 Brother Kogyo Kabushiki Kaisha Data processing apparatus
JP2012079194A (ja) * 2010-10-05 2012-04-19 Jvc Kenwood Corp デジタルサイネージシステム
JP5652152B2 (ja) * 2010-11-19 2015-01-14 富士ゼロックス株式会社 電力供給制御装置、画像処理装置、電力供給制御プログラム
US9007635B2 (en) * 2012-06-18 2015-04-14 Canon Kabushiki Kaisha Image-forming apparatus communicating with an information-processing apparatus
JP6200136B2 (ja) * 2012-08-06 2017-09-20 キヤノン株式会社 画像形成装置、検索システム、画像形成装置の制御方法及びプログラム
JP6051691B2 (ja) * 2012-08-31 2016-12-27 株式会社リコー 機器連携プログラム、機器連携システム、機器連携方法、及び携帯端末
JP6089540B2 (ja) * 2012-09-27 2017-03-08 ブラザー工業株式会社 機能実行装置
JP5983261B2 (ja) * 2012-10-02 2016-08-31 富士ゼロックス株式会社 電力供給制御装置、画像処理装置、電力供給制御プログラム
JP5885645B2 (ja) 2012-12-05 2016-03-15 京セラドキュメントソリューションズ株式会社 情報処理装置、認証方法
JP6406797B2 (ja) * 2012-12-14 2018-10-17 キヤノン株式会社 省電力モードで動作可能な情報処理装置、およびその制御方法
US20140368029A1 (en) * 2013-06-13 2014-12-18 Hyundai Motor Company System for providing vehicle manipulation device information
US20150002768A1 (en) * 2013-06-26 2015-01-01 3M Innovative Properties Company Method and apparatus to control object visibility with switchable glass and photo-taking intention detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006686A (ja) * 2000-06-20 2002-01-11 Canon Inc 情報処理装置
JP2010130263A (ja) * 2008-11-27 2010-06-10 Oki Data Corp 報知機能付電子装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015203A (ja) * 2019-07-12 2021-02-12 富士ゼロックス株式会社 画像表示装置、画像形成装置及びプログラム

Also Published As

Publication number Publication date
CN105635515A (zh) 2016-06-01
JP6102895B2 (ja) 2017-03-29
EP3026540A1 (en) 2016-06-01
US20160150121A1 (en) 2016-05-26
US9992372B2 (en) 2018-06-05
EP3026540B1 (en) 2020-05-13
CN105635515B (zh) 2019-03-12

Similar Documents

Publication Publication Date Title
JP6102895B2 (ja) 画像処理装置、画像処理装置の制御プログラム、画像処理システム
KR102157327B1 (ko) 이미지 형식의 객체를 텍스트 형식으로 변환하는 전자 장치 및 방법
JP2012022576A (ja) 情報処理プログラム
JP2020166893A (ja) 情報処理装置及びプログラム
US20150149923A1 (en) Image processing apparatus, method of controlling the same, and storage medium
JP6405112B2 (ja) 情報処理装置及びその制御方法
WO2014041929A1 (ja) ユーザインタフェース装置、検索方法及びプログラム
JP2014119872A (ja) 情報処理装置、情報処理装置の制御方法およびコンピュータプログラム
JP5788605B2 (ja) ユーザインタフェース装置、検索方法及びプログラム
EP3438806A1 (en) Display device
US9235694B2 (en) Recording medium, authentication device, and authentication method
JP6311248B2 (ja) 情報処理システム、情報処理方法、情報処理プログラムおよび端末装置
US20150331728A1 (en) User terminal device for supporting data share function and methods thereof
JP6127489B2 (ja) 処理要求装置、処理要求装置の制御プログラム
JP6690412B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2017097221A1 (zh) 用于数据呈现以及辅助数据呈现的方法和装置
JP2015072564A (ja) 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム
JP6190775B2 (ja) 電子機器
JP2017151563A (ja) 情報処理装置およびその制御方法、並びにプログラム
JP6124678B2 (ja) 連携表示システム、表示方法、プログラム、及び、連携表示システムを構成する端末装置
JP7040947B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2009217653A (ja) 電子会議システム
JP2016033770A (ja) 印刷システム、情報処理装置およびその制御方法、プログラム
JP6229517B2 (ja) 画像形成システム、画像形成装置およびプログラム
JP6156800B2 (ja) 機器情報表示装置、機器サーバ、機器情報表示システム、機器情報表示方法、及び、プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6102895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150