JP6911730B2 - 表示装置、画像処理装置、処理実行方法、処理実行プログラム - Google Patents

表示装置、画像処理装置、処理実行方法、処理実行プログラム Download PDF

Info

Publication number
JP6911730B2
JP6911730B2 JP2017229089A JP2017229089A JP6911730B2 JP 6911730 B2 JP6911730 B2 JP 6911730B2 JP 2017229089 A JP2017229089 A JP 2017229089A JP 2017229089 A JP2017229089 A JP 2017229089A JP 6911730 B2 JP6911730 B2 JP 6911730B2
Authority
JP
Japan
Prior art keywords
display
unit
notification
icon
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017229089A
Other languages
English (en)
Other versions
JP2019101550A (ja
Inventor
隼人 南出
隼人 南出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2017229089A priority Critical patent/JP6911730B2/ja
Priority to CN201811424826.5A priority patent/CN109905556B/zh
Priority to US16/202,717 priority patent/US10715688B2/en
Publication of JP2019101550A publication Critical patent/JP2019101550A/ja
Application granted granted Critical
Publication of JP6911730B2 publication Critical patent/JP6911730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00403Voice input means, e.g. voice commands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00488Output means providing an audible output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00824Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity for displaying or indicating, e.g. a condition or state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置、表示装置を備える画像処理装置、並びに表示装置で実行される報知方法、報知プログラム、処理実行方法、及び処理実行プログラムに関する。
複合機のような画像処理装置には、液晶ディスプレーのような表示部が設けられることがある。また、この種の画像処理装置では、表示部の上に原稿のような遮蔽物が置かれて、表示部に表示される画面の一部が遮蔽されることがある。これに対し、表示部において遮蔽領域が検出された場合に、当該表示部に表示されている画面を当該表示部における遮蔽領域外に縮小表示させることが可能な表示装置が知られている(特許文献1参照)。
特開2002−229546号公報
しかしながら、遮蔽領域が検出された場合に表示部に表示されている画面が当該表示部における遮蔽領域外に縮小表示される場合には、遮蔽領域の検出前に遮蔽領域外に表示されていた表示内容の視認性が低下する。
本発明の目的は、遮蔽領域外の表示内容の視認性を低下させることなく、遮蔽領域の表示内容をユーザーに認識させることが可能な表示装置、画像処理装置、報知方法、報知プログラム、処理実行方法、及び処理実行プログラムを提供することにある。
本発明の一の局面に係る表示装置は、表示部と、表示処理部と、検出部と、報知処理部とを備える。前記表示処理部は、予め定められた表示対象を前記表示部に表示させる。前記検出部は、前記表示部における遮蔽物によって覆われた遮蔽領域を検出可能である。前記報知処理部は、前記検出部によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知可能である。
本発明の他の局面に係る画像処理装置は、前記表示装置と、原稿の画像データを読取可能な画像読取部、及び画像データに基づく画像を形成可能な画像形成部のいずれか一方又は両方と、を備える。
本発明の他の局面に係る報知方法は、表示部と、前記表示部における遮蔽物によって覆われた遮蔽領域を検出可能な検出部と、を備える表示装置で実行され、予め定められた表示対象を前記表示部に表示させることと、前記検出部によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知することと、を含む。
本発明の他の局面に係る報知プログラムは、表示部と、前記表示部における遮蔽物によって覆われた遮蔽領域を検出可能な検出部と、を備える表示装置で実行され、予め定められた表示対象を前記表示部に表示させる処理と、前記検出部によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知する処理と、を含む。
本発明の他の局面に係る処理実行方法は、表示部と、前記表示部における遮蔽物によって覆われた遮蔽領域を検出可能な検出部と、を備える表示装置で実行され、予め定められた処理に対応付けられた操作アイコンを含む表示対象を前記表示部に表示させることと、前記検出部によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知することと、前記操作アイコンへのタッチ操作に応じて、当該タッチ操作が行われた前記操作アイコンに対応する処理を実行することと、前記表示部へのタッチ操作とは異なる前記遮蔽領域と重なり合う前記操作アイコン各々を識別可能な識別操作に応じて、当該識別操作によって識別される前記操作アイコンに対応する処理を実行することと、を含む。
本発明の他の局面に係る処理実行プログラムは、表示部と、前記表示部における遮蔽物によって覆われた遮蔽領域を検出可能な検出部と、を備える表示装置で実行され、予め定められた処理に対応付けられた操作アイコンを含む表示対象を前記表示部に表示させる処理と、前記検出部によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知する処理と、前記操作アイコンへのタッチ操作に応じて、当該タッチ操作が行われた前記操作アイコンに対応する処理を実行する処理と、前記表示部へのタッチ操作とは異なる前記遮蔽領域と重なり合う前記操作アイコン各々を識別可能な識別操作に応じて、当該識別操作によって識別される前記操作アイコンに対応する処理を実行する処理と、を含む。
本発明によれば、遮蔽領域外の表示内容の視認性を低下させることなく、遮蔽領域の表示内容をユーザーに認識させることが可能な表示装置、画像処理装置、報知方法、報知プログラム、処理実行方法、及び処理実行プログラムが実現される。
図1は、本発明の実施形態に係る画像処理装置の構成を示す図である。 図2は、本発明の実施形態に係る画像処理装置のシステム構成を示すブロック図である。 図3は、本発明の実施形態に係る画像処理装置の操作表示部の構成を示す図である。 図4は、本発明の実施形態に係る画像処理装置において操作表示部に表示される画面の一例を示す図である。 図5は、本発明の実施形態に係る画像処理装置において画面の表示に用いられる画面データの一例を示す図である。 図6は、本発明の実施形態に係る画像処理装置において表示対象の読み上げに用いられる読み上げデータの一例を示す図である。 図7は、本発明の実施形態に係る画像処理装置で実行される報知処理の一例を示すフローチャートである。
以下、添付図面を参照しながら、本発明の実施形態について説明し、本発明の理解に供する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。
[画像処理装置10の概略構成]
まず、図1〜図3を参照しつつ、本発明の実施形態に係る画像処理装置10の概略構成について説明する。ここで、図1は画像処理装置10の構成を示す断面模式図である。また、図3は操作表示部6の構成を示す平面図である。なお、図3における二点鎖線は、遮蔽領域Z1を示すためのものである。
画像処理装置10は、原稿から画像データを読み取るスキャン機能、及び画像データに基づいて画像を形成するプリント機能と共に、ファクシミリ機能、及びコピー機能などの複数の機能を有する複合機である。なお、画像処理装置10は、スキャナー装置、プリンター装置、ファクシミリ装置、及びコピー機などであってもよい。
図1及び図2に示されるように、画像処理装置10は、ADF(自動原稿搬送装置)1、画像読取部2、画像形成部3、給紙部4、制御部5、操作表示部6、及び記憶部7を備える。
ADF1は、画像読取部2によって読み取られる原稿を搬送する。具体的に、ADF1は、原稿セット部、複数の搬送ローラー、原稿押さえ、及び排紙部を備える。
画像読取部2は、原稿から画像データを読み取ることが可能である。具体的に、画像読取部2は、原稿台、光源、複数のミラー、光学レンズ、及びCCDを備える。
画像形成部3は、画像読取部2で読み取られた画像データに基づいて、電子写真方式でカラー又はモノクロの画像を形成することが可能である。また、画像形成部3は、外部のパーソナルコンピューター等の情報処理装置から入力された画像データに基づいて、画像を形成することも可能である。具体的に、画像形成部3は、C(シアン)、M(マゼンタ)、Y(イエロー)、及びK(ブラック)に対応する複数の画像形成ユニット、光走査装置(LSU)、中間転写ベルト、二次転写ローラー、定着装置、及び排紙トレイを備える。なお、画像形成部3は、インクジェット方式などの他の画像形成方式により画像を形成するものであってもよい。
給紙部4は、画像形成部3にシートを供給する。具体的に、給紙部4は、給紙カセット、及び複数の搬送ローラーを備える。画像処理装置10では、給紙部4から供給されるシートにカラー又はモノクロの画像が形成されて、画像形成後の前記シートが前記排紙トレイに排出される。
制御部5は、不図示のCPU、ROM、RAM、及びEEPROM(登録商標)などの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶装置である。前記RAMは揮発性の記憶装置であり、前記EEPROMは不揮発性の記憶装置である。前記RAM及び前記EEPROMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。制御部5では、前記CPUにより前記ROMに予め記憶された各種の制御プログラムが実行される。これにより、画像処理装置10が制御部5により統括的に制御される。なお、制御部5は、集積回路(ASIC)などの電子回路で構成されたものであってもよく、画像処理装置10を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。
操作表示部6は、画像処理装置10におけるユーザーインターフェイスである。図2及び図3に示されるように、操作表示部6は、操作キー部61、表示部62、操作検出部63、スピーカー64、マイク65、及び遮蔽検出部66を備える。
操作キー部61は、ユーザーの操作に応じて制御部5に各種の情報を入力する複数のハードキーを含む。例えば、操作キー部61は、画像処理装置10の各部への給電制御に用いられる電源キー、各種ジョブの実行指示に用いられるスタートキー、及び数字情報の入力に用いられるテンキーなどを含む(図3参照)。
表示部62は、制御部5からの制御指示に応じて各種の情報を表示する。例えば、表示部62は液晶ディスプレーである。例えば、表示部62には、画像処理装置10で実行されるコピージョブの設定操作に用いられる画面G10(図4参照)などが表示される。
操作検出部63は、ユーザーによる表示部62への操作を検出することが可能なタッチパネルである。例えば、操作検出部63は、抵抗膜方式によりユーザーの指などの物体が表示部62に接触した場合に表示部62における前記物体との接触位置(タッチ位置)を検出する。なお、操作検出部63は、静電容量方式など、他の検出方式を用いて前記物体と表示部62との接触を検出してもよい。
スピーカー64は、警告音の鳴動、及び音声データの出力などに用いられる。
マイク65は、画像処理装置10への音声入力に用いられる。
遮蔽検出部66は、表示部62における遮蔽物によって覆われた遮蔽領域を検出可能である。ここに、遮蔽検出部66が、本発明における検出部の一例である。
例えば、遮蔽検出部66は、図3に示されるように、表示部62の縁部に隣接しており、当該縁部に沿って並んで設けられた複数のセンサー66Aを含む。例えば、センサー66Aは、発光部及び受光部を有する反射型の光センサーである。
例えば、遮蔽検出部66は、いずれかのセンサー66Aの前記受光部において予め定められた閾値を超える光量の光が受光された場合に、前記閾値を超える光量の光が受光された前記受光部を有するセンサー66A各々の位置に基づいて、前記遮蔽領域を検出する。
例えば、図3において、位置P1と位置P2とを結ぶ直線上のセンサー66A各々、位置P2と位置P3とを結ぶ直線上のセンサー66A各々、及び位置P3と位置P4とを結ぶ直線上のセンサー66A各々の前記受光部において前記閾値を超える光量の光が受光されたと仮定する。この場合、遮蔽検出部66は、位置P1と位置P2とを結ぶ直線、位置P2と位置P3とを結ぶ直線、位置P3と位置P4とを結ぶ直線、及び位置P4と位置P1とを結ぶ直線によって囲まれた四角形の領域を遮蔽領域Z1(図3参照)として検出する。なお、遮蔽検出部66は、位置P1、位置P2、及び位置P3各々を角部とする長方形の領域を前記遮蔽領域として検出してもよい。また、遮蔽検出部66は、位置P2、位置P3、及び位置P4各々を角部とする長方形の領域を前記遮蔽領域として検出してもよい。
また、図3において、位置P1と位置P2とを結ぶ直線上のセンサー66A各々、及び位置P2と位置P5とを結ぶ直線上のセンサー66A各々の前記受光部において前記閾値を超える光量の光が受光されたと仮定する。この場合、遮蔽検出部66は、位置P1と位置P2とを結ぶ直線、位置P2と位置P5とを結ぶ直線、及び位置P5と位置P1とを結ぶ直線によって囲まれた三角形の領域を前記遮蔽領域として検出する。なお、遮蔽検出部66は、位置P1、位置P2、及び位置P5各々を角部とする長方形の領域を前記遮蔽領域として検出してもよい。
また、図3において、位置P1と位置P6とを結ぶ直線上のセンサー66A各々の前記受光部において前記閾値を超える光量の光が受光されたと仮定する。この場合、遮蔽検出部66は、位置P1と位置P6とを結ぶ直線を一辺とし、表示部62の表示領域と重なる正方形の領域を前記遮蔽領域として検出する。なお、遮蔽検出部66は、位置P1と位置P6とを結ぶ直線を一辺とし、表示部62の表示領域と重なる長方形の領域を前記遮蔽領域として検出してもよい。
なお、センサー66Aは、前記受光部のみを有する光センサーであってもよい。また、センサー66Aは、感圧式のセンサーであってもよい。また、操作検出部63が、遮蔽検出部66を兼ねていてもよい。また、遮蔽検出部66は、以上に説明した手法とは異なる手法で前記遮蔽領域を検出してもよい。
記憶部7は、不揮発性の記憶装置である。例えば、記憶部7は、フラッシュメモリー、SSD(ソリッドステートドライブ)、又はHDD(ハードディスクドライブ)などの記憶装置である。記憶部7には、画像読取部2で読み取られた画像データなどが記憶される。なお、記憶部7は、制御部5の前記EEPROMであってもよい。
ところで、画像処理装置10では、表示部62の上に原稿のような前記遮蔽物が置かれて、表示部62に表示される画面の一部が遮蔽されることがある。これに対し、表示部62において前記遮蔽領域が検出された場合に、表示部62に表示されている画面を表示部62における前記遮蔽領域外に縮小表示させることが可能な表示装置が知られている。
しかしながら、前記遮蔽領域が検出された場合に表示部62に表示されている画面が表示部62における前記遮蔽領域外に縮小表示される場合には、前記遮蔽領域の検出前に前記遮蔽領域外に表示されていた表示内容の視認性が低下する。これに対し、本発明の実施形態に係る画像処理装置10では、以下に説明するように、前記遮蔽領域外の表示内容の視認性を低下させることなく、前記遮蔽領域の表示内容をユーザーに認識させることが可能である。
具体的に、制御部5の前記ROMには、制御部5の前記CPUに後述の報知処理(図7のフローチャート参照)を実行させるための報知プログラムが予め記憶されている。なお、前記報知プログラムは、CD、DVD、フラッシュメモリーなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から記憶部7などの記憶装置にインストールされてもよい。
そして、制御部5は、図2に示されるように、表示処理部51、第1処理実行部52、報知処理部53、及び第2処理実行部54を含む。具体的に、制御部5の前記CPUは、前記ROMに記憶された前記報知プログラムを実行する。これにより、制御部5は、表示処理部51、第1処理実行部52、報知処理部53、及び第2処理実行部54として機能する。ここに、制御部5、及び操作表示部6を備える構成が、本発明における表示装置の一例である。
表示処理部51は、予め定められた表示対象を表示部62に表示させる。例えば、前記表示対象は、予め定められた処理に対応付けられた操作アイコンを含む。また、前記表示対象は、ユーザーへのメッセージを示すメッセージ画像を含む。なお、前記表示対象は、現在の時刻を示すデジタル時計などを含んでいてもよい。
例えば、表示処理部51は、予め定められた表示条件を充足する場合に、当該表示条件に予め対応付けられており、前記表示対象を含む画面を表示部62に表示させる。例えば、画像処理装置10では、前記表示条件各々に対応付けられた画面データが予め制御部5の前記ROMに記憶されている。表示処理部51は、前記表示条件を充足する場合に、当該表示条件に対応する前記画面データに基づいて、前記画面を表示させる。
ここで、図4には、表示処理部51によって表示部62に表示される前記画面の一例である画面G10が示されている。図4に示されるように、画面G10は、表示対象T11〜T16を含む。表示対象T11、及び表示対象T13〜T16は操作アイコンである。また、表示対象T12はメッセージ画像である。なお、画面G10は、画像処理装置10の電源投入時等に表示部62に表示されるジョブ選択画面においてコピージョブが選択された場合に表示される。
また、図5には、表示処理部51による画面G10の表示に用いられる前記画面データの一例である画面データD10が示されている。図5に示されるように、画面データD10は、表示対象T11〜T16各々の種類情報、アドレス情報、及び座標情報を含む。前記種類情報は、表示対象T11〜T16各々の種類を示す情報である。また、前記アドレス情報は、予め制御部5の前記ROMに記憶されている表示対象T11〜T16各々の画像データのアドレスを示す情報である。また、前記座標情報は、表示部62における表示対象T11〜T16各々の表示位置を示す情報である。
例えば、表示処理部51は、表示部62に画面G10を表示する場合に、まず制御部5の前記ROMから画面データD10を読み出す。次に、表示処理部51は、画面データD10に含まれる前記アドレス情報各々に基づいて、表示対象T11〜T16各々の画像データを取得する。そして、表示処理部51は、取得された画像データ各々を表示部62における画面データD10に含まれる前記座標情報に基づいて特定される位置各々に表示させる。
第1処理実行部52は、前記操作アイコンへのタッチ操作に応じて、当該タッチ操作が行われた前記操作アイコンに対応する処理を実行する。
具体的に、第1処理実行部52は、操作検出部63によって表示部62への前記タッチ操作が検出された場合に、前記画面データに含まれる前記種類情報及び前記座標情報に基づいて、検出された前記タッチ操作の位置に前記操作アイコンが存在するか否かを判断する。そして、第1処理実行部52は、検出された前記タッチ操作の位置に前記操作アイコンが存在すると判断した場合に、操作が検出された前記操作アイコンに対応する処理を実行する。
例えば、第1処理実行部52は、図4に示される画面G10において表示対象T11への前記タッチ操作が検出された場合に、前記コピージョブを実行する。また、第1処理実行部52は、画面G10において表示対象T14への前記タッチ操作が検出された場合に、印刷濃度の設定に用いられる濃度設定画面を表示部62に表示させる。
報知処理部53は、遮蔽検出部66によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知可能である。
例えば、報知処理部53は、前記遮蔽領域と重なり合う領域の占める割合が予め定められた閾値以上の前記表示対象を音声によって報知する。例えば、前記閾値は30パーセントである。なお、前記閾値は任意に設定される値であってよい。
例えば、報知処理部53は、遮蔽検出部66によって前記遮蔽領域が検出された場合に、前記表示対象各々の前記座標情報及び画像データに基づいて、前記表示対象各々が前記遮蔽領域と重なり合うか否かを判断する。また、報知処理部53は、前記遮蔽領域と重なり合うと判断された前記表示対象について、前記遮蔽領域と重なり合う領域の占める割合が前記閾値以上であるか否かを判断する。そして、報知処理部53は、前記遮蔽領域と重なり合う領域の占める割合が前記閾値以上であると判断された前記表示対象を、音声によって報知する。なお、報知処理部53は、音声報知される前記表示対象が複数存在する場合には、当該表示対象各々を順次報知する。
例えば、画像処理装置10では、前記表示対象各々に予め対応付けられた音声による報知内容を示す報知情報を含む読み上げデータが予め記憶部7に記憶されている。報知処理部53は、前記表示対象を音声によって報知する場合に、前記読み上げデータに含まれている報知される前記表示対象に対応する前記報知情報を取得する。そして、報知処理部53は、取得された前記報知情報を音声信号に変換した後、スピーカー64に出力する。
例えば、報知処理部53は、図4に示される画面G10において図3及び図4に示される遮蔽領域Z1が検出された場合に、表示対象T11、表示対象T12、表示対象T14、及び表示対象T16を遮蔽領域Z1と重なり合う前記表示対象として特定する。また、報知処理部53は、表示対象T12、表示対象T14、及び表示対象T16を、遮蔽領域Z1と重なり合う領域の占める割合が前記閾値以上である前記表示対象であると判断する。そして、報知処理部53は、前記読み上げデータに含まれている表示対象T12、表示対象T14、及び表示対象T16各々に対応する前記報知情報を取得して、取得された前記報知情報に基づく音声報知を行う。
図6に、前記読み上げデータの一例である読み上げデータD20を示す。例えば、前記報知情報は、図6に示されるように、前記表示対象の種類、及び前記表示対象の画像データに含まれる文字情報を含む情報である(図4参照)。
なお、報知処理部53は、前記遮蔽領域と重なり合う全ての前記表示対象を音声によって報知してもよい。
第2処理実行部54は、表示部62への前記タッチ操作とは異なる前記遮蔽領域と重なり合う前記操作アイコン各々を識別可能な識別操作に応じて、当該識別操作によって識別される前記操作アイコンに対応する処理を実行する。
例えば、第2処理実行部54は、遮蔽検出部66によって前記遮蔽領域が検出された場合に、前記識別操作に応じて当該識別操作によって識別される前記操作アイコンに対応する処理を実行する。なお、第2処理実行部54は、遮蔽検出部66によって前記遮蔽領域が検出されていない場合に、前記識別操作に応じて当該識別操作によって識別される前記操作アイコンに対応する処理を実行してもよい。
例えば、前記識別操作は、画像処理装置10に対する音声入力による操作を含む。例えば、前記識別操作は、操作される前記操作アイコンの報知処理部53による読み上げ終了時から予め定められた待機時間が経過するまでの間に、「ハイ」又は「イエス」のような予め定められた単語を音声入力することである。
なお、前記識別操作は、操作される前記操作アイコンに対応する前記文字情報の一部又は全部を音声入力することであってもよい。
また、前記識別操作は、予め定められた操作キーに対する操作であってもよい。例えば、前記識別操作は、操作される前記操作アイコンの報知処理部53による読み上げ終了時から前記待機時間が経過するまでの間に、操作キー部61の予め定められた操作キーを操作することであってもよい。また、前記識別操作は、操作される前記操作アイコンの報知処理部53による読み上げ順序を示す番号のテンキーを操作することであってもよい。また、前記識別操作は、画像処理装置10に対する音声入力による操作、及び予め定められた操作キーに対する操作の両方を含んでいてもよい。
ここで、報知処理部53は、前記表示対象を音声によって報知すると共に、前記識別操作の方法を音声によって報知する。なお、報知処理部53は、前記識別操作の方法を音声によって報知しなくてもよい。
なお、制御部5は、第1処理実行部52、及び第2処理実行部54を含んでいなくてもよい。
[報知処理]
以下、図7を参照しつつ、画像処理装置10において制御部5により実行される報知処理の手順の一例について説明する。ここで、ステップS11、S12・・・は、制御部5により実行される処理手順(ステップ)の番号を表している。なお、前記報知処理は、制御部5により前記表示条件を充足したと判断された場合に実行される。
<ステップS11>
まず、ステップS11において、制御部5は、表示部62に前記表示対象を表示させる。ここで、ステップS11の処理は、制御部5の表示処理部51により実行される。
具体的に、制御部5は、前記報知処理の実行直前に充足したと判断された前記表示条件に対応する前記画面データに基づいて、前記画面を表示部62に表示させる。
<ステップS12>
ステップS12において、制御部5は、操作検出部63によって、ステップS11で表示された前記画面に含まれる前記操作アイコンに対する前記タッチ操作が行われたか否かを判断する。
具体的に、制御部5は、操作検出部63によって表示部62への前記タッチ操作が検出された場合に、前記画面データに含まれる前記種類情報及び前記座標情報に基づいて、検出された前記タッチ操作の位置に前記操作アイコンが存在するか否かを判断する。そして、制御部5は、検出された前記タッチ操作の位置に前記操作アイコンが存在すると判断した場合に、前記操作アイコンに対する前記タッチ操作が行われたと判断する。
ここで、制御部5は、前記操作アイコンに対する前記タッチ操作が行われたと判断すると(S12のYes側)、処理をステップS121に移行させる。また、前記操作アイコンに対する前記タッチ操作が行われていなければ(S12のNo側)、制御部5は、処理をステップS13に移行させる。
<ステップS121>
ステップS121において、制御部5は、ステップS12で前記タッチ操作が行われたと判断された前記操作アイコンに対応する処理を実行する。そして、制御部5は、前記報知処理を終了させる。ここで、ステップS12及びステップS121の処理は、制御部5の第1処理実行部52により実行される。なお、当該操作アイコンに対応する処理の実行に伴い表示部62に前記表示対象を含む新たな画面が表示される場合、制御部5は、前記表示条件を充足したと判断して、当該新たな画面に対応する前記報知処理を実行する。一方、当該操作アイコンに対応する処理の実行に伴い表示部62に前記表示対象を含まない新たな画面が表示される場合には、前記表示条件を充足しないため、前記報知処理は実行されない。
<ステップS13>
ステップS13において、制御部5は、遮蔽検出部66によって前記遮蔽領域が検出されたか否かを判断する。
ここで、制御部5は、遮蔽検出部66によって前記遮蔽領域が検出されたと判断すると(S13のYes側)、処理をステップS14に移行させる。また、遮蔽検出部66によって前記遮蔽領域が検出されていなければ(S13のNo側)、制御部5は、処理をステップS12に移行させて、前記操作アイコンに対する前記タッチ操作の検出及び前記遮蔽領域の検出を待ち受ける。
<ステップS14>
ステップS14において、制御部5は、報知される前記表示対象を特定する対象特定処理を実行する。
例えば、前記対象特定処理では、前記表示対象各々の前記座標情報及び画像データに基づいて、前記表示対象各々がステップS13で検出された前記遮蔽領域と重なり合うか否かが判断される。また、前記対象特定処理では、前記遮蔽領域と重なり合うと判断された前記表示対象について、前記遮蔽領域と重なり合う領域の占める割合が前記閾値以上であるか否かが判断される。そして、前記対象特定処理では、前記遮蔽領域と重なり合う領域の占める割合が前記閾値以上であると判断された前記表示対象が、報知される前記表示対象として特定される。
ここで、前記報知処理では、前記遮蔽領域と重なり合う領域の占める割合が前記閾値以上である前記表示対象についてのみ音声による報知が行われる。これにより、前記遮蔽物によって遮蔽されている領域が少ない前記表示対象についてまで音声報知が行われることを回避可能である。
<ステップS15>
ステップS15において、制御部5は、ステップS14で実行された前記対象特定処理によって報知される前記表示対象が特定されたか否かを判断する。
ここで、制御部5は、前記対象特定処理によって報知される前記表示対象が特定されたと判断すると(S15のYes側)、処理をステップS16に移行させる。また、前記対象特定処理によって報知される前記表示対象が特定されていなければ(S15のNo側)、制御部5は、処理をステップS12に移行させる。
<ステップS16>
ステップS16において、制御部5は、ステップS14で実行された前記対象特定処理において報知される前記表示対象として特定された一つの前記表示対象を報知する。ここで、ステップS14〜ステップS16の処理は、制御部5の報知処理部53により実行される。
例えば、制御部5は、前記読み上げデータに含まれている報知される前記表示対象に対応する前記報知情報を取得する。そして、制御部5は、取得された前記報知情報を音声信号に変換した後、スピーカー64に出力する。
なお、制御部5は、最初の前記表示対象の報知の前に、前記識別操作の方法を報知してもよい。これにより、ユーザーは前記識別操作の方法を認識することが可能である。
<ステップS17>
ステップS17において、制御部5は、前記識別操作が行われたか否かを判断する。
例えば、制御部5は、「ハイ」又は「イエス」のような予め定められた単語の音声入力がマイク65によって検出された場合に、前記識別操作が行われたと判断する。
ここで、制御部5は、前記識別操作が行われたと判断すると(S17のYes側)、処理をステップS121に移行させる。この場合、ステップS121では、直前に報知された前記表示対象に対応する処理が実行される。ここで、ステップS16の処理が実行された後のステップS17及びステップS121の処理は、制御部5の第2処理実行部54により実行される。また、前記識別操作が行われていなければ(S17のNo側)、制御部5は、処理をステップS18に移行させる。
<ステップS18>
ステップS18において、制御部5は、前記待機時間が経過したか否かを判断する。
ここで、制御部5は、前記待機時間が経過したと判断すると(S18のYes側)、処理をステップS19に移行させる。また、前記待機時間が経過していなければ(S18のNo側)、制御部5は、処理をステップS17に移行させて、前記識別操作及び前記待機時間の経過を待ち受ける。
<ステップS19>
ステップS19において、制御部5は、ステップS14で実行された前記対象特定処理において特定された全ての前記表示対象についてステップS16の処理が実行されたか否かを判断する。
ここで、制御部5は、全ての前記表示対象についてステップS16の処理が実行されたと判断すると(S19のYes側)、処理をステップS12に移行させる。また、全ての前記表示対象についてステップS16の処理が実行されていなければ(S19のNo側)、制御部5は、処理をステップS16に移行させる。この場合、ステップS16では、未だ報知が行われていない前記表示対象について報知が行われる。
このように、画像処理装置10では、遮蔽検出部66によって前記遮蔽領域が検出された場合に、当該遮蔽領域と一部又は全部が重なり合う前記表示対象が音声によって報知される。これにより、前記遮蔽領域外の表示内容の視認性を低下させることなく、前記遮蔽領域の表示内容をユーザーに認識させることが可能である。
また、画像処理装置10では、前記タッチ操作とは異なる前記識別操作に応じて、当該識別操作によって識別される前記操作アイコンに対応する処理が実行される。これにより、ユーザーは、前記遮蔽物を除去することなく、前記遮蔽領域と重なり合う前記操作アイコンを操作することが可能である。
1 ADF
2 画像読取部
3 画像形成部
4 給紙部
5 制御部
6 操作表示部
7 記憶部
10 画像処理装置
51 表示処理部
52 第1処理実行部
53 報知処理部
54 第2処理実行部
61 操作キー部
62 表示部
63 操作検出部
64 スピーカー
65 マイク
66 遮蔽検出部

Claims (10)

  1. 表示部と、
    予め定められた処理に対応付けられた操作アイコンを含む複数の表示対象を前記表示部に表示させる表示処理部と、
    前記表示部における遮蔽物によって覆われた遮蔽領域を検出可能な検出部と、
    前記検出部によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知可能な報知処理部と、
    前記操作アイコンへのタッチ操作に応じて、当該タッチ操作が行われた前記操作アイコンに対応する処理を実行する第1処理実行部と、
    前記表示部へのタッチ操作とは異なる前記遮蔽領域と重なり合う前記操作アイコン各々を識別可能な識別操作に応じて、当該識別操作によって識別される前記操作アイコンに対応する処理を実行する第2処理実行部と、
    を備え
    前記報知処理部は、音声報知される前記表示対象が複数存在する場合に、当該表示対象各々を順次報知し、
    前記識別操作は、前記報知処理部による前記操作アイコンの報知終了時から予め定められた待機時間が経過するまでに行われる操作であって、
    前記第2処理実行部は、前記報知処理部による前記操作アイコンの報知終了時から前記待機時間が経過するまでに前記識別操作が行われた場合に、当該操作アイコンに対応する処理を実行し、
    前記報知処理部は、報知対象が前記操作アイコンである場合は当該報知対象の報知時から前記待機時間が経過するまでに前記識別操作が行われない場合に次の報知対象を報知し、報知対象が前記操作アイコンではない場合は当該報知対象の報知時から前記待機時間が経過するのを待たずに次の報知対象を報知する表示装置。
  2. 前記識別操作は、前記表示装置に対する音声入力による操作を含む、
    請求項に記載の表示装置。
  3. 前記識別操作は、予め定められた操作キーに対する操作である、
    請求項に記載の表示装置。
  4. 前記報知処理部は、前記識別操作の方法を音声によって報知する、
    請求項1〜3のいずれかに記載の表示装置。
  5. 前記報知処理部は、前記遮蔽領域と重なり合う領域の占める割合が予め定められた閾値以上の前記表示対象を音声によって報知する、
    請求項1〜のいずれかに記載の表示装置。
  6. 請求項1〜のいずれかに記載の表示装置と、
    原稿の画像データを読取可能な画像読取部、及び画像データに基づく画像を形成可能な画像形成部のいずれか一方又は両方と、
    を備える画像処理装置。
  7. 表示部と、前記表示部における遮蔽物によって覆われた遮蔽領域を検出可能な検出部と、を備える表示装置で実行される処理実行方法であって、
    予め定められた処理に対応付けられた操作アイコンを含む複数の表示対象を前記表示部に表示させることと、
    前記検出部によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知することと、
    前記操作アイコンへのタッチ操作に応じて、当該タッチ操作が行われた前記操作アイコンに対応する処理を実行することと、
    前記表示部へのタッチ操作とは異なる前記遮蔽領域と重なり合う前記操作アイコン各々を識別可能な識別操作に応じて、当該識別操作によって識別される前記操作アイコンに対応する処理を実行することと、
    を含み、
    音声報知される前記表示対象が複数存在する場合に、当該表示対象各々が順次報知され、
    前記識別操作は、前記操作アイコンの報知終了時から予め定められた待機時間が経過するまでに行われる操作であって、
    前記操作アイコンの報知終了時から前記待機時間が経過するまでに前記識別操作が行われた場合に、当該操作アイコンに対応する処理が実行され、
    報知対象が前記操作アイコンである場合は当該報知対象の報知時から前記待機時間が経過するまでに前記識別操作が行われない場合に次の報知対象が報知され、報知対象が前記操作アイコンではない場合は当該報知対象の報知時から前記待機時間が経過するのを待たずに次の報知対象が報知される処理実行方法。
  8. 前記識別操作は、前記表示装置に対する音声入力による操作及び予め定められた操作キーに対する操作のいずれか一方又は両方を含む、
    請求項に記載の処理実行方法。
  9. 表示部と、前記表示部における遮蔽物によって覆われた遮蔽領域を検出可能な検出部と、を備える表示装置で実行される処理実行プログラムであって、
    予め定められた処理に対応付けられた操作アイコンを含む複数の表示対象を前記表示部に表示させる第1処理と、
    前記検出部によって検出される前記遮蔽領域と一部又は全部が重なり合う前記表示対象を音声によって報知する第2処理と、
    前記操作アイコンへのタッチ操作に応じて、当該タッチ操作が行われた前記操作アイコンに対応する処理を実行する第3処理と、
    前記表示部へのタッチ操作とは異なる前記遮蔽領域と重なり合う前記操作アイコン各々を識別可能な識別操作に応じて、当該識別操作によって識別される前記操作アイコンに対応する処理を実行する第4処理と、
    を含み、
    前記第2処理では、音声報知される前記表示対象が複数存在する場合に、当該表示対象各々が順次報知され、
    前記識別操作は、前記第2処理による前記操作アイコンの報知終了時から予め定められた待機時間が経過するまでに行われる操作であって、
    前記第4処理では、前記第2処理による前記操作アイコンの報知終了時から前記待機時間が経過するまでに前記識別操作が行われた場合に、当該操作アイコンに対応する処理が実行され、
    前記第2処理では、報知対象が前記操作アイコンである場合は当該報知対象の報知時から前記待機時間が経過するまでに前記識別操作が行われない場合に次の報知対象が報知され、報知対象が前記操作アイコンではない場合は当該報知対象の報知時から前記待機時間が経過するのを待たずに次の報知対象が報知される処理実行プログラム。
  10. 前記識別操作は、前記表示装置に対する音声入力による操作及び予め定められた操作キーに対する操作のいずれか一方又は両方を含む、
    請求項に記載の処理実行プログラム。
JP2017229089A 2017-11-29 2017-11-29 表示装置、画像処理装置、処理実行方法、処理実行プログラム Active JP6911730B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017229089A JP6911730B2 (ja) 2017-11-29 2017-11-29 表示装置、画像処理装置、処理実行方法、処理実行プログラム
CN201811424826.5A CN109905556B (zh) 2017-11-29 2018-11-27 显示装置、图像处理装置、通知方法和处理执行方法
US16/202,717 US10715688B2 (en) 2017-11-29 2018-11-28 Display device capable of notifying display object by voice, image processing apparatus, notifying method, process executing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017229089A JP6911730B2 (ja) 2017-11-29 2017-11-29 表示装置、画像処理装置、処理実行方法、処理実行プログラム

Publications (2)

Publication Number Publication Date
JP2019101550A JP2019101550A (ja) 2019-06-24
JP6911730B2 true JP6911730B2 (ja) 2021-07-28

Family

ID=66633778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017229089A Active JP6911730B2 (ja) 2017-11-29 2017-11-29 表示装置、画像処理装置、処理実行方法、処理実行プログラム

Country Status (3)

Country Link
US (1) US10715688B2 (ja)
JP (1) JP6911730B2 (ja)
CN (1) CN109905556B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021078001A (ja) * 2019-11-08 2021-05-20 京セラドキュメントソリューションズ株式会社 画像処理装置、画像処理方法
CN110968326B (zh) * 2019-11-22 2024-01-30 连尚(新昌)网络科技有限公司 一种功能处理方法、设备和计算机存储介质
JP2023165289A (ja) * 2022-05-02 2023-11-15 東芝テック株式会社 画像形成装置及び入力装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028383A (ja) * 1999-07-15 2001-01-30 Matsushita Electric Ind Co Ltd 表面異物検査方法および表面異物検査装置
JP2001255999A (ja) * 2000-03-10 2001-09-21 Oki Electric Ind Co Ltd タッチパネル入力装置
JP4776083B2 (ja) * 2001-02-05 2011-09-21 シャープ株式会社 表示装置、及びコンピュータに実行させる表示方法
KR20120063982A (ko) * 2010-12-08 2012-06-18 한국전자통신연구원 시각장애 사용자를 위한 인터페이스 장치 및 방법
JP5573793B2 (ja) * 2011-07-26 2014-08-20 コニカミノルタ株式会社 画像処理装置、制御方法、および制御プログラム
CN104903846B (zh) * 2013-01-08 2017-07-28 歌乐株式会社 语音识别装置和语音识别方法
JP6237034B2 (ja) * 2013-09-20 2017-11-29 カシオ計算機株式会社 音声学習支援装置、文字列登録方法および音声学習支援プログラム
KR20150110283A (ko) * 2014-03-21 2015-10-02 삼성전자주식회사 객체들 사이의 충돌을 방지하는 방법 및 장치.
US10130873B2 (en) * 2014-03-21 2018-11-20 Samsung Electronics Co., Ltd. Method and apparatus for preventing a collision between subjects
JP6321507B2 (ja) * 2014-09-24 2018-05-09 東芝テック株式会社 定着装置および画像形成装置
CN108140356A (zh) * 2015-09-17 2018-06-08 富士胶片株式会社 投影型显示装置及投影控制方法
WO2017072894A1 (ja) * 2015-10-29 2017-05-04 三菱電機株式会社 運転支援装置
CN112631488B (zh) * 2015-12-31 2022-11-11 北京三星通信技术研究有限公司 一种基于智能桌面的内容显示方法和智能桌面终端
US9794443B2 (en) * 2016-01-29 2017-10-17 Kabushiki Kaisha Toshiba Proximity-based user interface system and method for multifunction devices

Also Published As

Publication number Publication date
US10715688B2 (en) 2020-07-14
CN109905556B (zh) 2020-10-27
JP2019101550A (ja) 2019-06-24
US20190166267A1 (en) 2019-05-30
CN109905556A (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
US9516182B2 (en) Image forming apparatus that enhances operability on screen displayed as split screens
JP6911730B2 (ja) 表示装置、画像処理装置、処理実行方法、処理実行プログラム
US9749488B2 (en) Image reading apparatus that reads by intended read size and image processing apparatus
JP5009632B2 (ja) 画像形成装置
EP2579562A1 (en) Image Forming Apparatus, Image Forming Method and Computer-Readable Recording Medium
US10708455B2 (en) Operation input device capable of notifying operation icon by voice, image processing apparatus, notifying method, process executing method
EP3648107A1 (en) Image processing apparatus
JP2006094023A (ja) 画像処理装置およびその制御方法および制御プログラム
US20190332338A1 (en) Image forming apparatus executing print job
US10209860B2 (en) Display input device capable of detecting operation performed on display portion, image processing apparatus, display input method
CN109541908B (zh) 原稿处理装置及方法以及数据处理装置及方法
JP5766078B2 (ja) 画像読取装置、画像読取方法及び画像読取プログラム
JP6575437B2 (ja) 画像形成装置
JP6269298B2 (ja) 画像形成装置
JP6669130B2 (ja) 画像読取装置及び画像読取方法
JP6665823B2 (ja) 画像形成装置
JP2010146500A (ja) 電子機器
JP2013168023A (ja) 画像形成装置、及び画像形成装置の制御プログラム
JP6508121B2 (ja) 画像処理装置、画像処理装置の機能設定方法
JP6638690B2 (ja) 画像形成装置、表示制御方法
JP6493329B2 (ja) 電子機器及び画像形成装置
JP6572852B2 (ja) 画像形成装置及び画像形成方法
JP2015205435A (ja) 画像形成装置、情報通知プログラム、情報通知方法および画像読取装置
JP2021040181A (ja) 画像読取装置及び画像形成装置
JP2017157118A (ja) 画像処理装置、表示入力装置、処理実行方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R150 Certificate of patent or registration of utility model

Ref document number: 6911730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150