JP2016081140A - 画像処理装置、画像処理装置の制御方法、及びプログラム - Google Patents
画像処理装置、画像処理装置の制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2016081140A JP2016081140A JP2014209396A JP2014209396A JP2016081140A JP 2016081140 A JP2016081140 A JP 2016081140A JP 2014209396 A JP2014209396 A JP 2014209396A JP 2014209396 A JP2014209396 A JP 2014209396A JP 2016081140 A JP2016081140 A JP 2016081140A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- processing apparatus
- focus
- data
- audio output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00488—Output means providing an audible output to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00204—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
- H04N1/00244—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00408—Display of information to the user, e.g. menus
- H04N1/00413—Display of information to the user, e.g. menus using menus, i.e. presenting the user with a plurality of selectable options
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/0077—Types of the still picture apparatus
- H04N2201/0094—Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Facsimiles In General (AREA)
Abstract
【課題】 サーバから取得した操作画面に係る音声出力を実現するための技術を提供すること。
【解決手段】 複数のコンポーネントを含む操作画面のデータをサーバから受信し、該受信したデータに基づいて該操作画面を表示する。ユーザによる操作に応じて、複数のコンポーネントのうち何れか1つにフォーカスを移動させる。フォーカスが移動した先のコンポーネントと関連づけて上記データで定義されている音声出力内容を取得し、該取得した音声出力内容に基づいて音声出力を行う。
【選択図】 図1
【解決手段】 複数のコンポーネントを含む操作画面のデータをサーバから受信し、該受信したデータに基づいて該操作画面を表示する。ユーザによる操作に応じて、複数のコンポーネントのうち何れか1つにフォーカスを移動させる。フォーカスが移動した先のコンポーネントと関連づけて上記データで定義されている音声出力内容を取得し、該取得した音声出力内容に基づいて音声出力を行う。
【選択図】 図1
Description
本発明は、サーバから取得した操作画面を表示可能な画像処理装置、画像処理装置の制御方法、及びプログラムに関するものである。
近年、パーソナルコンピュータ(PC)での文字入力や、カーナビゲーションシステムやスマートフォンでの情報検索、ファクシミリでの音声ガイダンス等のあらゆる場面において、音声合成を利用して操作をサポートするシステムが検討されている。それらは、目の不自由なユーザや年配のユーザを含むあらゆるユーザを対象とするものである。
MFP(Multi Function Peripheral)に対してもその操作をサポートするために、音声合成を用いた操作説明を行う装置も検討されている。具体的には、MFPの操作部にあるテンキーを操作することで、操作画面内にある各種ボタンへのフォーカスを移動させ、フォーカスが当たった部分の読み上げを行う、というものである(特許文献1)。
一方、PCなどの情報処理装置がネットワーク上のWebサーバに接続され、Webサーバにより提供される操作画面を、情報処理装置が備えるWebブラウザ上に表示することが知られている。
この場合、まず情報処理装置のWebブラウザが、Webサーバに対して操作画面を要求(リクエスト)する。そして、Webサーバ上のWebアプリケーションが情報処理装置からの要求に応えて、Webブラウザに操作画面を表示させるためのHTML(HyperText Markup Language)データを情報処理装置に応答(レスポンス)する。情報処理装置のWebブラウザは、受信したHTMLデータを解析し、HTMLデータの記述に基づいた操作画面を表示する。
更に、Webブラウザに表示された操作画面を介してユーザが指示を入力すると、入力された指示をWebブラウザがWebサーバに対して通知する。そして、この通知を受けたWebサーバ上のWebアプリケーションは、入力された指示に従って処理を実行する。
MFPの中にも、上述したようなWebブラウザを備えているものがある。このようなMFPは、上述した手順を用いてWebサーバにより提供される操作画面をMFPのWebブラウザに表示し、ユーザからの各種指示を受け付ける。そして、MFPが備える各機能を利用するための指示を入力する操作画面をWebサーバが提供し、ユーザがWebブラウザ上に表示された操作画面を介して、MFPに対する指示を入力するシステムも考えられている。
ところで、PC上でのWebブラウザにおいては、目の不自由なユーザのアクセシビリティを向上させるためのツールとして、スクリーンリーダと呼ばれるソフトウェアが提供されている(特許文献2)。スクリーンリーダは、表示文書の内容を音声によって出力する(すなわち、表示内容を読み上げる)。したがって、目の不自由なユーザは、スクリーンリーダによって読み上げられた音声に基づいて、独力でアプリケーション等の操作が可能であるとされている。
MFP上のWebブラウザで表示される表示文書においては、スクリーンリーダによって読み上げられる内容は、表示文書に含まれるHTMLタグ等もそのまま読み上げるため煩雑となり、ユーザが該表示文書の内容を把握するのが困難である場合もあった。そのため特許文献3のような技術では、説明文章を別途用意し、それを読み上げることで、Webページの表示内容の音声出力による理解を容易化できるようにしている。
特許文献1のように、MFPでは、テンキーを利用した操作が実現されている。一方、PC上のWebブラウザでは、スクリーンリーダのように音声による読み上げは実現されているが、MFP上でのアプリケーションの操作を伴うWebブラウザに対しては適していない。また、MFP上のWebブラウザでテンキーなどの操作に対応した音声読み上げは実現されていない。このため、MFPのユーザにとっては、音声読み上げに対応したアプリケーションと、Webブラウザを経由して操作するアプリケーションの操作に差があり、使い勝手の面で課題がある。またユーザにとっては、操作の差によって混乱を招くことになっていた。
本発明はこのような課題に鑑みてなされたものであり、サーバから取得した操作画面に係る音声出力を実現するための技術を提供する。
本発明の一様態は、複数のコンポーネントを含む操作画面のデータをサーバから受信し、該受信したデータに基づいて該操作画面を表示する画像処理装置であって、ユーザによる操作に応じて、前記複数のコンポーネントのうち何れか1つにフォーカスを移動させる移動手段と、前記移動手段によりフォーカスが移動した先のコンポーネントと関連づけて前記データで定義されている音声出力内容を取得し、該取得した音声出力内容に基づいて音声出力を行う音声出力手段とを備えることを特徴とする。
本発明の構成によれば、サーバから取得した操作画面に係る音声出力を実現することができる。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、MFP(Multi Function Peripheral)に適用した画像処理装置について説明する。先ず、本実施形態に係る画像処理装置のハードウェア構成例について、図1のブロック図を用いて説明する。なお、図1に示したハードウェア構成は、画像処理装置が行うものとして後述する各処理を実現可能な構成の一例に過ぎず、画像処理装置が行うものとして後述する各処理と同等以上の処理を実現可能な構成であれば、如何なる構成を採用しても構わない。
本実施形態では、MFP(Multi Function Peripheral)に適用した画像処理装置について説明する。先ず、本実施形態に係る画像処理装置のハードウェア構成例について、図1のブロック図を用いて説明する。なお、図1に示したハードウェア構成は、画像処理装置が行うものとして後述する各処理を実現可能な構成の一例に過ぎず、画像処理装置が行うものとして後述する各処理と同等以上の処理を実現可能な構成であれば、如何なる構成を採用しても構わない。
CPU101は、RAM103やROM102に格納されているコンピュータプログラムやデータを用いて処理を実行することで、画像処理装置を構成する各部の動作制御を行うと共に、画像処理装置が行うものとして後述する各処理を実行する。
ROM102には、画像処理装置の設定データや、起動プログラム、そして、画像処理装置が行うものとして後述する各処理をCPU101に実行若しくは制御させるためのコンピュータプログラムやデータ等が格納されている。ROM102に格納されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM103にロードされ、CPU101による処理対象となる。
RAM103は、スキャナ106から送出された読み取り画像のデータ、HDD(ハードディスクドライブ)110からロードされたコンピュータプログラムやデータ、ネットワーク装置119が外部装置から受信したデータ等を格納するためのエリアを有する。また、RAM103は、CPU101が各種の処理を実行する際に用いるワークエリアを有する。このように、RAM103は、各種のエリアを適宜提供することができる。
スキャナコントローラ105は、ユーザが操作部120を操作することで設定したスキャン設定などに従って、スキャナ106の動作制御を行うためのものである。スキャナ106は周知の通り、紙などの記録媒体に記録されている情報を画像(読み取り画像)として読み取る装置であり、スキャナ106が読み取った画像のデータは、スキャナコントローラ105を介してRAM103やHDD110に対して送出される。
プリンタコントローラ107は、ユーザが操作部120を操作することで設定した印刷設定などに従って、プリンタ108の動作制御を行うためのものである。プリンタ108は周知の通り、プリンタコントローラ107を介して受けた印刷データに基づいて紙などの記録媒体に画像や文字を記録するための装置である。プリンタ108による印刷の方式については特定の方式に限るものではない。例えば、印刷の方式は、感光体ドラムや感光体ベルトなどを用いた電子写真方式や、微小ノズルアレイからインクを吐出して用紙上に直接画像を印字するインクジェット方式など、如何なる方式を採用しても構わない。
ハードディスクコントローラ109は、HDD110の動作制御を行うためのものであり、HDD110に対する情報の読み書きを制御する。HDD110には、OS(オペレーティングシステム)や、様々なコンピュータプログラムやデータが保存されている。HDD110に保存されているデータには、画像処理装置が保持するものとして後述する様々なデータが含まれている。また、HDD110には、ROM102やRAM103に格納するものとして上述したコンピュータプログラムやデータの一部若しくは全部を保存しても良い。HDD110に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM103にロードされ、CPU101による処理対象となる。
タッチパネルコントローラ111は、タッチパネル112の動作制御を行うためのもので、タッチパネル112に対するユーザ操作を検知して、該検知した結果をCPU101に通知する。
LCDコントローラ114は、LCD115の動作制御を行うためのもので、CPU101による処理結果を画像や文字などでもってLCD115に表示させる。
操作部120は、タッチパネル112、ハードキー113、LCD115を有し、ユーザからの操作入力を受け付けると共に、ユーザに対する情報表示を行うためのものである。
タッチパネル112は周知の通り、LCD115の表示面上に配置されるもので、ユーザからのタッチ操作を受け付け、LCD115上におけるタッチ位置(座標)を検出してCPU101に通知する。
ハードキー113は周知の通り、ユーザが押下可能なボタン群であり、例えば、図2に示す如く、ボタン201〜212として提供されるものである。ボタン201〜209,210は数値入力を行うためのボタン(テンキー)で、ユーザが押下することでそれぞれ「0」〜「9」、「0」を入力することができるボタンである。また、テンキー群のほぼ中央に位置するボタン205の表面には物理的な突起物が配置され、この突起物と一般的なボタンの配列により、触感を頼りに目の不自由なユーザ等でもテンキーを扱うことが可能になっている。また、テンキーを、LCD115に表示されているボタン(ソフトウェアキー)の何れかにフォーカスを移動させるためのキーとして使用しても構わない。例えば、ボタン204をフォーカスを逆方向に移動させる(戻る)ためのボタン、ボタン206をフォーカスを順方向に移動させる(進む)ためのボタン、として使用しても構わない。
ボタン211はユーザIDを入力するためにユーザが押下するボタンであり、ボタン212は、入力した数値をクリアするためにユーザが押下するボタンである。なお、ハードキー113の構成やハードキー113に含まれるボタンについては図2に示したものに限らず、様々な変形例が考え得る。
D/A変換器116は、ディジタル音声データに基づくディジタル音声信号をアナログ音声信号に変換する。AMP117は、D/A変換器116により変換されたアナログ音声信号を増幅させてスピーカ118に対して送出する。スピーカ118は、AMP117からのアナログ音声信号に基づく音声を出力する。
ネットワーク装置119は、外部装置とのデータ通信を行うためのものである。CPU101、ROM102、RAM103、スキャナコントローラ105、プリンタコントローラ107、ハードディスクコントローラ109は何れも、バス104に接続されている。また、タッチパネルコントローラ111、LCDコントローラ114、D/A変換器116、ネットワーク装置119も、バス104に接続されている。
次に、本実施形態に係る画像処理装置の機能構成例について、図3のブロック図を用いて説明する。なお、図3において、図1に示した機能部以外の機能部はハードウェアで構成しても良いし、ソフトウェアで構成しても構わない。また、2以上の機能部を1つの機能部にまとめても構わない。本実施形態では、図3において、図1に示した機能部以外の機能部をソフトウェアで実装した場合について説明する。この場合、CPU101が該ソフトウェアを実行することで対応する機能部の機能が実現される。
入力制御部301は、タッチパネル112やハードキー113に対する操作入力を検知する。例えば、ユーザがタッチパネル112上をタッチした場合、入力制御部301は、該タッチした位置が、LCD115に表示されているどのソフトウェアキーの表示領域内であるのかを判断する。また例えば、入力制御部301は、ユーザがハードキー113に含まれている上記のテンキーを操作してフォーカスを移動させた場合、移動先のフォーカスに該当するソフトウェアキーを判断する。
Webブラウザ部310については後述する。
フォーカス制御部302は、LCD115に表示されているソフトウェアキーのうちフォーカス対象を管理しており、現在フォーカス対象としているソフトウェアキーを強調表示するように画面表示制御部304に対して通知する。例えば、ユーザがLCD115に表示されているソフトウェアキー群のうち着目ソフトウェアキーの表示領域内をタッチしたと入力制御部301が判断した場合、フォーカス制御部302は、次のように制御する。すなわち、フォーカス制御部302は、着目ソフトウェアキーをフォーカス対象として管理すると共に、該着目ソフトウェアキーを強調表示するように画面表示制御部304に対して通知する。また、若しくはユーザが上記のテンキーを操作してフォーカスを着目ソフトウェアキーに移動させたと入力制御部301が判断した場合も、フォーカス制御部302は、同様に制御する。
画面遷移制御部303は、現在LCD115に表示されている画面が、タッチパネル112やハードキー113に対する操作入力に応じた画面に遷移するように、画面表示制御部304に対して通知する。
また、画面遷移制御部303は、フォーカスモード、非フォーカスモードの何れが設定されているのかを管理している。フォーカスモード、非フォーカスモードの設定方法については特定の設定方法に限るものではないが、本実施形態では、ユーザがボタン212を規定時間以上押下した場合に、現在設定されているモードからもう一方のモードに切り替わるものとする。例えば現在フォーカスモードが設定されている状態でユーザがボタン212を規定時間以上押下した場合には、非フォーカスモードに移行する。一方、現在非フォーカスモードが設定されている状態でユーザがボタン212を規定時間以上押下した場合には、フォーカスモードに移行する。このようなモードの移行に係る操作は、専用のキーを使用して行うなど、どのような方法を利用するものであってもかまわないが、ソフトウェアキーではなく、ハードウェアキーや物理的なスイッチを利用した操作が望ましい。フォーカスモード、非フォーカスモードの詳細については後述する。
画面表示制御部304は、画面遷移制御部303から画面遷移の通知を受けた場合には、LCD115に表示されている画面を、タッチパネル112やハードキー113に対する操作入力に応じた画面に遷移させる。また、画面表示制御部304は、フォーカス制御部302からの通知に応じて、LCD115に表示されているソフトウェアキー群のうちフォーカス対象のソフトウェアキーを強調表示する。強調表示の方法には様々な方法があり、何れの方法を採用しても構わない。例えば、フォーカス対象のソフトウェアキーに枠を付けても良いし、フォーカス対象のソフトウェアキーの近傍に何らかのマークを付けても良いし、フォーカス対象のソフトウェアキーの色を変えたり点滅させても構わない。
音声テキストデータ制御部307は、フォーカス対象のソフトウェアキーの説明としてふさわしい音声読み上げ用のテキストデータを音声テキストデータ312から取得する。音声テキストデータ312は、LCD115に表示されうるそれぞれのソフトウェアキーのうち幾つかについて予め作成された、その説明を音声にて読み上げるためのテキストデータ、を含むものである。なお、音声テキストデータ制御部307は、フォーカス対象のソフトウェアキーの説明としてふさわしい音声読み上げ用のテキストデータを、音声テキストデータ312からではなく、Webブラウザ部310から取得しても構わない。そして音声テキストデータ制御部307は、取得したテキストデータを、音声合成発声データ制御部308に対して送出する。
音声合成発声データ制御部308は、音素毎の発声データを含む発声データ313を用いて、音声テキストデータ制御部307から受けたテキストデータに基づく説明を読み上げるための音声波形データを音声合成により生成する。そして音声合成発声データ制御部308は、生成した音声波形データを、音声出力制御部309に対して送出する。音声出力制御部309は、音声合成発声データ制御部308から受けた音声波形データを、D/A変換器116に対して送出する。
D/A変換器116は、音声出力制御部309から受けた音声波形データに基づくディジタル音声信号をアナログ音声信号に変換し、該変換したアナログ音声信号をAMP117に対して送出する。AMP117は、D/A変換器116から受けたアナログ音声信号を増幅させてスピーカ118に対して送出する。
ここで、フォーカスモードが設定されている場合における、LCD115に表示されている画面の一例を図4に示す。図4では、「カラーモード」を指定する為のソフトウェアキーがフォーカス対象となっている。そのため、このソフトウェアキーがフォーカス対象であることを示すために該ソフトウェアキーには枠401を付けて表示しており、これにより該ソフトウェアキーを強調表示している。この枠401は上記の通り、テンキーによって移動させることができる。また、ボタン205を押下することで、現在フォーカス対象となっているソフトウェアキーを指示する(確定指示)ようにしても構わない。
ここで、フォーカスモードにおいては、フォーカス対象のソフトウェアキーを強調表示するだけでなく、フォーカス対象のソフトウェアキーについてその説明を音声で読み上げることが望ましい。音声で読み上げる説明文の例は次のようなものである。
「等倍キーにフォーカスがあります。」
「コピーの倍率を100%に設定するキーです。」
このような音声出力を行う場合、「等倍キー」の表示領域と、「等倍キーにフォーカスがあります。」との音声読み上げを行うために使用するテキストデータと、が関連づけられて音声テキストデータ312に含まれていることになる。また、「コピーの倍率を100%に設定するキー」の表示領域と、「コピーの倍率を100%に設定するキーです。」との音声読み上げを行うために使用するテキストデータと、が関連づけられて音声テキストデータ312に含まれていることになる。
「コピーの倍率を100%に設定するキーです。」
このような音声出力を行う場合、「等倍キー」の表示領域と、「等倍キーにフォーカスがあります。」との音声読み上げを行うために使用するテキストデータと、が関連づけられて音声テキストデータ312に含まれていることになる。また、「コピーの倍率を100%に設定するキー」の表示領域と、「コピーの倍率を100%に設定するキーです。」との音声読み上げを行うために使用するテキストデータと、が関連づけられて音声テキストデータ312に含まれていることになる。
次に、本実施形態に係る画像処理装置を含むシステムの一例を図5に示す。本実施形態では、画像処理装置501(ネットワーク装置119)は図5に示す如く、ネットワーク500を介してサーバ502に接続されており、ネットワーク500を介して互いにデータ通信が可能な構成となっている。ネットワーク500は、イントラネット、インターネット、その他のネットワークシステム、の何れであっても構わないし、無線、有線の何れであっても構わない。また、これらの組み合わせてあっても構わない。
画像処理装置501は、ローカルなIPアドレスで管理されていても良い。その場合、ネットワーク500と画像処理装置501との間にゲートウェイ(不図示)が存在し、ゲートウェイはアドレス変換を行う。例えばゲートウェイにはルータが含まれる。またゲートウェイや画像処理装置501がファイアウォール機能を備えていても良い。
このような構成において、画像処理装置501は、LCD115に表示する操作画面の送信要求を、ネットワーク500を介してサーバ502に対して送信することができる。サーバ502はこの送信要求を受けると、該送信要求に応じた操作画面のデータ(レスポンスデータ)をネットワーク500を介して画像処理装置501に対して送信する。画像処理装置501は、サーバ502から送信されたレスポンスデータに基づく画面、すなわちサーバ502に要求した操作画面を生成し、該生成した操作画面をLCD115に表示する。すなわち、画像処理装置501は、サーバ502に操作画面を要求し、該要求に応じてサーバ502から送信されたレスポンスデータに基づく操作画面を表示する、所謂ブラウザ機能を有する。このブラウザ機能は、Webブラウザ部310によって提供される。
次に、サーバ502のハードウェア構成例について、図6のブロック図を用いて説明する。なお、サーバ502のハードウェア構成については、図6に示した構成に限るものではなく、サーバ502が行うものとして後述する処理と同等以上の処理を実現可能な構成であれば、如何なる構成を採用しても構わない。
CPU601は、RAM602に格納されているコンピュータプログラムやデータを用いて処理を実行することで、サーバ502全体の動作制御を行うと共に、サーバ502が行うものとして後述する各処理を実行する。
RAM602は、記憶装置603からロードされたコンピュータプログラムやデータを格納するためのエリア、ネットワーク装置604を介して画像処理装置501から送信されたデータを格納するためのエリア、を有する。更にRAM602は、CPU601が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM602は、各種のエリアを適宜提供することができる。
記憶装置603には、OSやサーバ502が行うものとして後述する各処理をCPU601に実行させるためのコンピュータプログラムやデータが保存されている。記憶装置603に保存されているデータには、画像処理装置501に提供可能な様々な操作画面のレスポンスデータが含まれている。記憶装置603に保存されているコンピュータプログラムやデータは、CPU601による制御に従って適宜RAM602にロードされ、CPU601による処理対象となる。
ネットワーク装置604は、サーバ502をネットワーク500に接続するためのもので、サーバ502はこのネットワーク装置604を介して、ネットワーク500に接続されている画像処理装置501とのデータ通信を行う。上記の各部は何れもメインバス600に接続されている。
次に、サーバ502の機能構成例について、図7のブロック図を用いて説明する。Webアプリケーション部710は、プレゼンテーション部711及びロジック部712を有する。
プレゼンテーション部711は通信部720を制御して、ネットワーク500を介して画像処理装置501から送信された送信要求を受信し、該送信要求に応じた操作画面のレスポンスデータを画像処理装置501に対して送信する。
ロジック部712は、プレゼンテーション部711が送信したレスポンスデータに応じた操作画面がLCD115に表示されている状態でユーザが該操作画面に対して操作した内容が画像処理装置501から送信されると、次のように制御する。すなわち、ロジック部712は、通信部720を制御して該内容を受信し、該受信した内容に応じて操作画面の変更指示を作成し、通信部720を制御して該変更指示を画像処理装置501に対して送信する。
通信部720は、ネットワーク装置604を制御してHTTPプロトコルでもって画像処理装置501との間のデータ通信を行う。
次に、画像処理装置501が有する上記のWebブラウザ部310の機能構成例を、図8のブロック図を用いて説明する。Webブラウザ部310は、通信部801、解析部802、画面表示部803、を有する。Webブラウザ部310は、サーバ502に対して操作画面を要求し、該要求に応じてサーバ502から送信されたレスポンスデータに基づく操作画面を生成してLCD115に表示する。なお、Webブラウザ部310は、サーバ502に限らず、外部から受信したレスポンスデータに基づく画面を表示するものである。
通信部801は、HTTPプロトコルに従って、サーバ502の通信部720を介して、Webアプリケーション部710のプレゼンテーション部711と通信する。より具体的には、通信部801は、LCD115に表示する操作画面の送信要求を、ネットワーク500を介してサーバ502に対して送信し、該送信要求に応じてサーバ502から送信されたレスポンスデータを受信する。
解析部802は、通信部801がサーバ502から受信したレスポンスデータを解析する。レスポンスデータは、操作画面の内容を示す記述であるHTMLデータと、HTMLデータの各要素をどのように表示するかを指示するためのCSS(Cascading Style Sheet)データと、を含むものである。
HTMLデータの一例を図9(A)に示す。CSS指定部901は、対応するCSSデータを指定する部分であり、ここでは、「voice.css」を指定している。ボタン生成タグ902は、操作画面に表示するボタンを生成するタグの例である。ここでは「画像選択」と表示されるボタンを生成する例になっているが、ボタンに限らずHTMLで既定のあるタグであれば種類は問わない。またid指定部903では、ボタン生成タグ902で生成するボタンに対するID(識別情報)を指定している。
CSS指定部901で指定したCSSデータ911(voice.css)の一例を図9(B)に示す。ここでは、音声文字列指定部912において、id指定部903で指定した「EcecuteButton」というIDに対して「画像選択」という音声読み上げ文字列を指定している。
解析部802は、レスポンスデータ中のHTMLデータ中のCSS指定部901によって指定されているCSSデータ911(voice.css)を参照する。そして、解析部802は、フォーカス対象となっているソフトウェアキーについてid指定部903で指定されているIDについて音声文字列指定部912が存在すれば、該音声文字列指定部912中のvoiceで指定されている文字列「画像選択」を抽出する。そして解析部802は、この抽出した文字列「画像選択」を、上記のテキストデータとして音声テキストデータ制御部307に対して送出する。
また、解析部802は、HTMLデータを画面表示部803に対して送出する(必要に応じてCSSデータも送出する)。なお、解析部802は、音声文字列指定のあったソフトウェアキーについては、フォーカス対象と成りうることを示す記述を追加してから画面表示部803に対して送出する。具体的には、HTMLデータにおいて、音声文字列指定のあったソフトウェアキーに係る記述にSTYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述を追加する。
画面表示部803は、解析部802から受けたHTMLデータに基づく操作画面を生成し、該生成した操作画面をLCD115に表示する。
次に、サーバ502から提供されたレスポンスデータに基づく操作画面をLCD115に表示した後で該操作画面に対するユーザからの操作入力があった場合に画像処理装置501が行う処理について、同処理のフローチャートを示す図10を用いて説明する。
<ステップS1001>
CPU101は、ハードキー113に含まれている何れかのボタンが押下されたか否かを監視している。そして、何れかのボタンが押下された場合には、処理はステップS1002を介してステップS1003に進み、何れのボタンも押下されていない場合には、処理はステップS1001で待機する。
CPU101は、ハードキー113に含まれている何れかのボタンが押下されたか否かを監視している。そして、何れかのボタンが押下された場合には、処理はステップS1002を介してステップS1003に進み、何れのボタンも押下されていない場合には、処理はステップS1001で待機する。
<ステップS1003>
CPU101は、現在のモードがフォーカスモード(フォーカス表示モード)、非フォーカスモード(通常モード)の何れであるのかを判断する。この判断の結果、現在のモードがフォーカスモードである場合には、処理はステップS1004に進み、非フォーカスモードである場合には、処理はステップS1009に進む。
CPU101は、現在のモードがフォーカスモード(フォーカス表示モード)、非フォーカスモード(通常モード)の何れであるのかを判断する。この判断の結果、現在のモードがフォーカスモードである場合には、処理はステップS1004に進み、非フォーカスモードである場合には、処理はステップS1009に進む。
<ステップS1004>
CPU101は、押下されたボタンが、フォーカスを移動させるボタンであるのか否かを判断する。例えば、ボタン204をフォーカスを逆方向に移動させるためのボタン、ボタン206をフォーカスを順方向に移動させるためのボタン、とする場合、押下されたボタンが、ボタン204,206の何れかであるのか否かを判断する。
CPU101は、押下されたボタンが、フォーカスを移動させるボタンであるのか否かを判断する。例えば、ボタン204をフォーカスを逆方向に移動させるためのボタン、ボタン206をフォーカスを順方向に移動させるためのボタン、とする場合、押下されたボタンが、ボタン204,206の何れかであるのか否かを判断する。
この判断の結果、押下されたボタンが、フォーカスを移動させるボタンである場合には、処理はステップS1008に進む。一方、押下されたボタンが、フォーカスを移動させるボタンではない場合には、処理はステップS1005に進む。
<ステップS1005>
CPU101は、押下されたボタンが、現在フォーカス対象となっているソフトウェアキーを指示するボタンであるのか否かを判断する。例えば、ボタン205を、現在フォーカス対象となっているソフトウェアキーを指示するボタン、とする場合、押下されたボタンがボタン205であるのか否かを判断する。
CPU101は、押下されたボタンが、現在フォーカス対象となっているソフトウェアキーを指示するボタンであるのか否かを判断する。例えば、ボタン205を、現在フォーカス対象となっているソフトウェアキーを指示するボタン、とする場合、押下されたボタンがボタン205であるのか否かを判断する。
この判断の結果、押下されたボタンが、現在フォーカス対象となっているソフトウェアキーを指示するボタンである場合には、処理はステップS1006に進む。一方、押下されたボタンが、現在フォーカス対象となっているソフトウェアキーを指示するボタンではない場合には、処理はステップS1009に進む。
<ステップS1006>
CPU101は、現在フォーカス対象となっているソフトウェアキーに割り当てられている処理を実行する。この実行する処理は、ユーザがタッチパネル112上で該ソフトウェアキーを直接タッチした場合に行われる処理と同じである。
CPU101は、現在フォーカス対象となっているソフトウェアキーに割り当てられている処理を実行する。この実行する処理は、ユーザがタッチパネル112上で該ソフトウェアキーを直接タッチした場合に行われる処理と同じである。
<ステップS1007>
CPU101は、LCD115の表示画面の更新を行うための処理を行う。これは、タッチパネル112の上のタッチ操作やハードキー113に対する操作によって、設定値の変更操作や画面表示の変更操作がなされた場合に、それをLCD115の表示画面に反映させるための処理である。
CPU101は、LCD115の表示画面の更新を行うための処理を行う。これは、タッチパネル112の上のタッチ操作やハードキー113に対する操作によって、設定値の変更操作や画面表示の変更操作がなされた場合に、それをLCD115の表示画面に反映させるための処理である。
<ステップS1008>
CPU101は、押下されたボタンに応じた方向にフォーカスを移動させるための処理を行う。ステップS1008における処理の詳細については、図11のフローチャートを用いて後述する。
CPU101は、押下されたボタンに応じた方向にフォーカスを移動させるための処理を行う。ステップS1008における処理の詳細については、図11のフローチャートを用いて後述する。
<ステップS1009>
CPU101は、押下されたボタンに応じた処理を実行する。例えば、現在のモードが通常モードである場合には、テンキーが押下されると、該テンキーに割り当てられている数値の入力処理を実行する。
CPU101は、押下されたボタンに応じた処理を実行する。例えば、現在のモードが通常モードである場合には、テンキーが押下されると、該テンキーに割り当てられている数値の入力処理を実行する。
<ステップS1010>
CPU101は、現在LCD115に表示中の操作画面に対応するHTMLデータ中のCSS指定部901によって指定されているCSSデータ911を参照する。次に、CPU101は、ステップS1008における処理によって移動した先のフォーカス対象のソフトウェアキーのIDに対応する音声文字列指定部912中のvoiceで指定されている文字列を抽出する。そして、CPU101は、該抽出した文字列に基づく音声をスピーカ118から出力させるための処理を行う。
CPU101は、現在LCD115に表示中の操作画面に対応するHTMLデータ中のCSS指定部901によって指定されているCSSデータ911を参照する。次に、CPU101は、ステップS1008における処理によって移動した先のフォーカス対象のソフトウェアキーのIDに対応する音声文字列指定部912中のvoiceで指定されている文字列を抽出する。そして、CPU101は、該抽出した文字列に基づく音声をスピーカ118から出力させるための処理を行う。
次に、上記のステップS1008における処理の詳細について、同処理のフローチャートを示す図11を用いて説明する。
<ステップS1101>
CPU101は、フォーカスを順方向に移動させるためのボタンが押下されたのか、それともフォーカスを逆方向に移動させるためのボタンが押下されたのか、を判断する。この判断の結果、フォーカスを順方向に移動させるためのボタンが押下された場合には、処理はステップS1102に進み、フォーカスを逆方向に移動させるためのボタンが押下された場合には、処理はステップS1105に進む。
CPU101は、フォーカスを順方向に移動させるためのボタンが押下されたのか、それともフォーカスを逆方向に移動させるためのボタンが押下されたのか、を判断する。この判断の結果、フォーカスを順方向に移動させるためのボタンが押下された場合には、処理はステップS1102に進み、フォーカスを逆方向に移動させるためのボタンが押下された場合には、処理はステップS1105に進む。
<ステップS1102>
CPU101は、LCD115に表示中の操作画面に対応するHTMLデータを参照する。そして、CPU101は、順方向において現在フォーカス対象となっているソフトウェアキーの次に、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が付加されたソフトウェアキーが存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS1103に進み、存在しない場合には、処理はステップS1104に進む。
CPU101は、LCD115に表示中の操作画面に対応するHTMLデータを参照する。そして、CPU101は、順方向において現在フォーカス対象となっているソフトウェアキーの次に、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が付加されたソフトウェアキーが存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS1103に進み、存在しない場合には、処理はステップS1104に進む。
<ステップS1103>
CPU101は、順方向において現在フォーカス対象となっているソフトウェアキーの次に、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が付加されたソフトウェアキーにフォーカスを移動させる。
CPU101は、順方向において現在フォーカス対象となっているソフトウェアキーの次に、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が付加されたソフトウェアキーにフォーカスを移動させる。
<ステップS1104>
CPU101は、HTMLデータで定義されているそれぞれのソフトウェアキーのうち、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が存在するソフトウェアキーを特定する。そして、CPU101は、該特定したソフトウェアキーのうちHTMLデータの先頭により近くで定義されているソフトウェアキーを対象として特定する。そして対象として特定したソフトウェアキーにフォーカスを移動させる。
CPU101は、HTMLデータで定義されているそれぞれのソフトウェアキーのうち、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が存在するソフトウェアキーを特定する。そして、CPU101は、該特定したソフトウェアキーのうちHTMLデータの先頭により近くで定義されているソフトウェアキーを対象として特定する。そして対象として特定したソフトウェアキーにフォーカスを移動させる。
<ステップS1105>
CPU101は、LCD115に表示中の操作画面に対応するHTMLデータを参照する。そして、CPU101は、逆方向において現在フォーカス対象となっているソフトウェアキーの次に、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が付加されたソフトウェアキーが存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS1106に進み、存在しない場合には、処理はステップS1107に進む。
CPU101は、LCD115に表示中の操作画面に対応するHTMLデータを参照する。そして、CPU101は、逆方向において現在フォーカス対象となっているソフトウェアキーの次に、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が付加されたソフトウェアキーが存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS1106に進み、存在しない場合には、処理はステップS1107に進む。
<ステップS1106>
CPU101は、逆方向において現在フォーカス対象となっているソフトウェアキーの次に、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が付加されたソフトウェアキーにフォーカスを移動させる。
CPU101は、逆方向において現在フォーカス対象となっているソフトウェアキーの次に、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が付加されたソフトウェアキーにフォーカスを移動させる。
<ステップS1107>
CPU101は、HTMLデータで定義されているそれぞれのソフトウェアキーのうち、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が存在するソフトウェアキーを特定する。そして、CPU101は、該特定したソフトウェアキーのうちHTMLデータの後端により近くで定義されているソフトウェアキーを対象として特定する。そして対象として特定したソフトウェアキーにフォーカスを移動させる。
CPU101は、HTMLデータで定義されているそれぞれのソフトウェアキーのうち、STYLE=”border: 5px #ff0000 solid”のような、枠線をつけるための記述が存在するソフトウェアキーを特定する。そして、CPU101は、該特定したソフトウェアキーのうちHTMLデータの後端により近くで定義されているソフトウェアキーを対象として特定する。そして対象として特定したソフトウェアキーにフォーカスを移動させる。
なお、ステップS1103,S1104,S1106,S1107の何れでも、フォーカスが移動すれば、強調表示対象も切り替わることになる。
このように、本実施形態によれば、MFP上で動作するWebブラウザに表示されるWebアプリケーションに対して音声読み上げを実現することができるだけでなく、MFP上で動作する他のアプリケーションと操作性を統一している。よって、MFP上の操作部に対する操作に連動してWebブラウザ上に表示されている表示画面を操作し、音声の読み上げを実現することで、MFP上で動作する他のアプリケーションとの振る舞いと統一することが可能になる。また、ユーザにアプリケーションの形態の違いを意識させることなく、スムーズな音声読み上げ機能を実現することができる。
なお、上記の説明では、ソフトウェアキーに係る説明を音声出力する例について説明したが、音声出力する対象はソフトウェアキーだけに限るものではなく、他の対象であっても良い。例えば、LCD115に表示する画面が切り替わるたびに、切り替わった画面に係る説明を音声出力しても良い(例えば、「現在の画面はコピー設定画面です」のように音声出力する)。また、上記の通り、音声出力は、フォーカスモードが設定された場合に実行されるものであるので、現在のモードがフォーカスモードに切り替わった際に、「フォーカス表示モードに移行しました。音声ガイドを開始します。」のように、現在のモードがフォーカスモードであるから音声出力を開始する旨のメッセージを音声出力しても良い。また、これに加えて「数字の4と6でフォーカスを移動します。数字の5で確定します。」のように、フォーカスモードにおけるキー操作説明を音声出力しても良い。
また、本実施形態では、サーバ502はHTTPプロトコルに従ってリクエスト/レスポンスを送受信するWebサーバであるものとして説明した。しかしながら、上記のようにして画像処理装置501に操作画面及び該操作画面に含まれている1以上のソフトウェアキーに係る音声出力用の情報を提供可能な装置であれば、Webサーバ以外の装置であっても構わない。
すなわち、以上説明した画像処理装置は、複数のコンポーネントを含む操作画面のデータをサーバから受信し、該受信したデータに基づいて該操作画面を表示する画像処理装置である。そして、画像処理装置は、ユーザによる操作に応じて上記複数のコンポーネントのうち何れか1つにフォーカスを移動させ、フォーカスが移動した先のコンポーネントと関連づけて上記データで定義されている音声出力内容を取得する。さらに、画像処理装置は、該取得した音声出力内容に基づいて音声出力を行う装置、の一例である。
[第2の実施形態]
本実施形態では、画像処理装置が実行可能な様々なアプリケーションのアイコンが一覧表示されたメインメニューをLCD115に表示する場合に、次のように制御する。すなわち、音声対応しているアプリケーション、音声対応していないアプリケーション、のそれぞれで対応するアイコンの表示形態を異ならせる。
本実施形態では、画像処理装置が実行可能な様々なアプリケーションのアイコンが一覧表示されたメインメニューをLCD115に表示する場合に、次のように制御する。すなわち、音声対応しているアプリケーション、音声対応していないアプリケーション、のそれぞれで対応するアイコンの表示形態を異ならせる。
LCD115に表示されるメインメニューの一例を図12に示す。メインメニューは、例えば、ユーザが不図示のボタン(例えばメインメニューキー)を押下した場合に表示される。図12に示す如く、メインメニュー1201には、画像処理装置が実行可能なアプリケーションごとに対応するアイコンが一覧表示されている。ユーザが何れか1つのアイコンをタッチするか、ハードキー113を用いて何れか1つのアイコンにフォーカスを移動させてそこで確定指示を入力すると、対応するアプリケーションが実行される。すなわち、それぞれのアイコンは、対応するアプリケーションにアクセスするためのショートカットボタン(Webブラウザーのショートカットボタン)である。
本実施形態では、このようにアイコンを一覧表示する場合に、それぞれのアイコンに対応するアプリケーションが音声対応しているか否かをチェックする。そして、音声対応しているアプリケーションに対応するアイコンについては有効(指示可能)にし、音声対応していないアプリケーションに対応するアイコンについては無効(指示不可能)にする。そして、有効にしたアイコンと無効にしたアイコンとで表示方法を異ならせる。図12の例では、「コピー」アプリケーションに対応するアイコン(左上のアイコン)については、「コピー」アプリケーションが音声対応していることから、有効にし、更に該アイコンに実線の枠1202が付されている。一方、「スキャンして送信」アプリケーションに対応するアイコン(「コピー」アプリケーションに対応するアイコンの1つ右隣のアイコン)については、「スキャンして送信」アプリケーションが音声対応していない。その理由で、無効にし、更に該アイコンに点線の枠1203が付されている。
もちろん、音声対応しているアプリケーションに対応するアイコンと、音声対応していないアプリケーションに対応するアイコンと、で表示方法を異ならせれば良いのである。そのため、例えば、音声対応していないアプリケーションに対応するアイコンを明度を落として表示するなど、それぞれのアイコンの表示方法は図12に示した表示方法に限るものではない。また、音声対応していないアプリケーションに対応するアイコン、については非表示としても構わない。
画像処理装置がメインメニューを表示するために行う処理について、同処理のフローチャートを示す図13を用いて説明する。図13のフローチャートに従った処理は、メインメニューを表示する指示が入力されたことに応じて開始される。
<ステップS1301>
CPU101は、メインメニューのデータに、画像処理装置で実行可能な様々なアプリケーションのアイコンのデータが含まれているか否かを判断する。この判断の結果、含まれている場合には、処理はステップS1302に進み、含まれていない場合には、図13のフローチャートに従った処理は完了し、通常通り、メインメニューのデータに基づいて該メインメニューをLCD115に表示する。
CPU101は、メインメニューのデータに、画像処理装置で実行可能な様々なアプリケーションのアイコンのデータが含まれているか否かを判断する。この判断の結果、含まれている場合には、処理はステップS1302に進み、含まれていない場合には、図13のフローチャートに従った処理は完了し、通常通り、メインメニューのデータに基づいて該メインメニューをLCD115に表示する。
<ステップS1302>
CPU101は、メインメニューのデータに含まれているアイコンのデータのうち未選択のアイコンのデータを1つ選択する。そして、CPU101は、該選択したアイコンのデータに含まれているURLにアクセスして、対応するアプリケーションを規定するデータ(HTMLコンテンツ)を取得する。
CPU101は、メインメニューのデータに含まれているアイコンのデータのうち未選択のアイコンのデータを1つ選択する。そして、CPU101は、該選択したアイコンのデータに含まれているURLにアクセスして、対応するアプリケーションを規定するデータ(HTMLコンテンツ)を取得する。
<ステップS1303>
CPU101は、ステップS1302で取得したHTMLコンテンツ内に、音声文字列指定部912が存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS1304に進み、存在しない場合には、処理はステップS1305に進む。
CPU101は、ステップS1302で取得したHTMLコンテンツ内に、音声文字列指定部912が存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS1304に進み、存在しない場合には、処理はステップS1305に進む。
<ステップS1304>
CPU101は、ステップS1302で選択したアイコンを有効にし、該アイコンへのタッチ操作やハードキー113による指示操作を受け付けるようにする。
CPU101は、ステップS1302で選択したアイコンを有効にし、該アイコンへのタッチ操作やハードキー113による指示操作を受け付けるようにする。
<ステップS1305>
CPU101は、ステップS1302で選択したアイコンを無効にし、該アイコンへのタッチ操作やハードキー113による指示操作を受け付けないようにする。
CPU101は、ステップS1302で選択したアイコンを無効にし、該アイコンへのタッチ操作やハードキー113による指示操作を受け付けないようにする。
<ステップS1306>
CPU101は、メインメニューのデータに含まれている全てのアイコンのデータをステップS1302で選択したか否かを判断する。この判断の結果、全てのアイコンのデータを選択した場合には、図13のフローチャートに従った処理は完了する。そして、メインメニューのデータに基づいて該メインメニューをLCD115に表示するのであるが、有効となったアイコンを、指示可能な表示形態でもって表示すると共に、無効となったアイコンを、指示不可能な表示形態でもって表示する。指示可能な表示形態では、通常通りにアイコンを表示しても良いし、枠などを付してアイコンを表示しても良い。一方、指示不可能な表示形態では、アイコンを通常の輝度よりも低い輝度でもって表示しても構わないし、「×」等の指示禁止を通知するような画像をアイコンに重ねて表示しても構わない。もちろん、上記の通り、無効となったアイコンを非表示にしても構わない。
CPU101は、メインメニューのデータに含まれている全てのアイコンのデータをステップS1302で選択したか否かを判断する。この判断の結果、全てのアイコンのデータを選択した場合には、図13のフローチャートに従った処理は完了する。そして、メインメニューのデータに基づいて該メインメニューをLCD115に表示するのであるが、有効となったアイコンを、指示可能な表示形態でもって表示すると共に、無効となったアイコンを、指示不可能な表示形態でもって表示する。指示可能な表示形態では、通常通りにアイコンを表示しても良いし、枠などを付してアイコンを表示しても良い。一方、指示不可能な表示形態では、アイコンを通常の輝度よりも低い輝度でもって表示しても構わないし、「×」等の指示禁止を通知するような画像をアイコンに重ねて表示しても構わない。もちろん、上記の通り、無効となったアイコンを非表示にしても構わない。
一方、メインメニューのデータに含まれているアイコンのデータのうち未だステップS1302で未選択のアイコンのデータが残っている場合には、処理はステップS1302に戻る。
このように、本実施形態によれば、WebブラウザからWebアプリケーションにアクセスする前に、対象となるWebアプリケーションが音声読み上げに対応しているかどうかの確認を行うことを実現している。よって、ユーザは、Webアプリケーションにアクセスする前に、そのWebアプリケーションが音声読み上げに対応しているかどうかを確認することができ、音声読み上げに対応していないアプリにアクセスして操作に迷うことを未然に防ぐことが可能となる。
[第3の実施形態]
第1の実施形態及び第2の実施形態ではHTTPプロトコルによる通信を例にして説明したが、それに限定するものではなく、例えばHTTPSプロトコルによる通信でも構わない。また、HTMLデータに限らず、例えばXMLデータでも構わない。
第1の実施形態及び第2の実施形態ではHTTPプロトコルによる通信を例にして説明したが、それに限定するものではなく、例えばHTTPSプロトコルによる通信でも構わない。また、HTMLデータに限らず、例えばXMLデータでも構わない。
また、第1の実施形態及び第2の実施形態では、サーバ502を画像処理装置501とは別個の装置として取り扱ったが、サーバ502を画像処理装置501内の装置として取り扱っても構わない。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101:CPU 120:操作部 118:スピーカ
Claims (10)
- 複数のコンポーネントを含む操作画面のデータをサーバから受信し、該受信したデータに基づいて該操作画面を表示する画像処理装置であって、
ユーザによる操作に応じて、前記複数のコンポーネントのうち何れか1つにフォーカスを移動させる移動手段と、
前記移動手段によりフォーカスが移動した先のコンポーネントと関連づけて前記データで定義されている音声出力内容を取得し、該取得した音声出力内容に基づいて音声出力を行う音声出力手段と
を備えることを特徴とする画像処理装置。 - 更に、
前記データを受信すると、該データにて、音声出力内容を定義したコンポーネントを定義した記述に、フォーカス対象となりうることを示す記述を追加する手段を備え、
前記移動手段は、ユーザによる操作に応じて、フォーカス対象となりうることを示す記述が追加されているコンポーネントのうち何れか1つにフォーカスを移動させる
ことを特徴とする請求項1に記載の画像処理装置。 - 更に、
フォーカスされているコンポーネントを強調表示するフォーカスモード、フォーカスされているコンポーネントを強調表示しない非フォーカスモードの何れかを設定する手段を備え、
前記音声出力手段は、
前記フォーカスモードが設定された場合には、前記フォーカスモードが設定されたことを示す音声出力、及び/又はフォーカスを移動させるための操作方法の説明を示す音声出力、を行うことを特徴とする請求項1又は2に記載の画像処理装置。 - 更に、
前記複数のコンポーネントのそれぞれについて、該コンポーネントに対応するURLにアクセスして、該コンポーネントに対応するコンテンツを取得する手段と、
前記複数のコンポーネントのうち、音声出力内容が定義されているコンテンツに対応するコンポーネントを指示可能にし、音声出力内容が定義されていないコンテンツに対応するコンポーネントを指示不可能にする手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 - 更に、
音声出力内容が定義されているコンテンツに対応するコンポーネントを、指示可能であることを示す表示形態でもって表示する表示手段を備えることを特徴とする請求項4に記載の画像処理装置。 - 前記表示手段は、
音声出力内容が定義されていないコンテンツに対応するコンポーネントを、指示不可能であることを示す表示形態でもって表示することを特徴とする請求項5に記載の画像処理装置。 - 前記表示手段は、
音声出力内容が定義されていないコンテンツに対応するコンポーネントを非表示にすることを特徴とする請求項5に記載の画像処理装置。 - 前記画像処理装置は、MFP(Multi Function Peripheral)であることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
- 複数のコンポーネントを含む操作画面のデータをサーバから受信し、該受信したデータに基づいて該操作画面を表示する画像処理装置の制御方法であって、
前記画像処理装置の移動手段が、ユーザによる操作に応じて、前記複数のコンポーネントのうち何れか1つにフォーカスを移動させる移動工程と、
前記画像処理装置の音声出力手段が、前記移動工程でフォーカスが移動した先のコンポーネントと関連づけて前記データで定義されている音声出力内容を取得し、該取得した音声出力内容に基づいて音声出力を行う音声出力工程と
を備えることを特徴とする画像処理装置の制御方法。 - 請求項9に記載された画像処理装置の制御方法を、コンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014209396A JP2016081140A (ja) | 2014-10-10 | 2014-10-10 | 画像処理装置、画像処理装置の制御方法、及びプログラム |
US14/873,443 US9538028B2 (en) | 2014-10-10 | 2015-10-02 | Image processing apparatus configured to provide voice guided operation, method of controlling an image processing apparatus, and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014209396A JP2016081140A (ja) | 2014-10-10 | 2014-10-10 | 画像処理装置、画像処理装置の制御方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016081140A true JP2016081140A (ja) | 2016-05-16 |
Family
ID=55656322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014209396A Pending JP2016081140A (ja) | 2014-10-10 | 2014-10-10 | 画像処理装置、画像処理装置の制御方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9538028B2 (ja) |
JP (1) | JP2016081140A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018008433A (ja) * | 2016-07-14 | 2018-01-18 | コニカミノルタ株式会社 | 情報処理装置、周辺機器使用方法、およびコンピュータプログラム |
JP2019128846A (ja) * | 2018-01-25 | 2019-08-01 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
JP2022116343A (ja) * | 2016-05-19 | 2022-08-09 | パロ アルト リサーチ センター インコーポレイテッド | 自然言語ウェブブラウザ |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10116814B2 (en) * | 2014-10-10 | 2018-10-30 | Seiko Epson Corporation | Electronic apparatus and display control method for electronic apparatus |
US10600337B2 (en) | 2017-01-31 | 2020-03-24 | Bank Of America Corporation | Intelligent content parsing with synthetic speech and tangible braille production |
JP6971606B2 (ja) * | 2017-03-31 | 2021-11-24 | キヤノン株式会社 | ジョブ処理装置、ジョブ処理装置の制御方法、プログラム |
US20190273831A1 (en) * | 2018-03-01 | 2019-09-05 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method and non-temporary recording medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003069977A (ja) * | 2001-08-28 | 2003-03-07 | Sony Corp | ネット配信によるデータ送出方法、及びネット配信の受信方法、及びネット配信によるデータ送出システム、及びネット配信の受信システム |
JP2005010992A (ja) | 2003-06-18 | 2005-01-13 | Kddi Corp | 合成音声によるウェブページの説明および広告の方法及びサーバ |
JP2006031273A (ja) | 2004-07-14 | 2006-02-02 | Canon Inc | 情報入力装置およびその制御方法 |
JP5052058B2 (ja) | 2006-07-12 | 2012-10-17 | 株式会社リコー | 情報処理装置、情報処理方法及び情報処理プログラム |
JP4811507B2 (ja) * | 2009-08-25 | 2011-11-09 | コニカミノルタビジネステクノロジーズ株式会社 | 画像処理システム、画像処理装置及び情報処理装置 |
-
2014
- 2014-10-10 JP JP2014209396A patent/JP2016081140A/ja active Pending
-
2015
- 2015-10-02 US US14/873,443 patent/US9538028B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022116343A (ja) * | 2016-05-19 | 2022-08-09 | パロ アルト リサーチ センター インコーポレイテッド | 自然言語ウェブブラウザ |
JP7485485B2 (ja) | 2016-05-19 | 2024-05-16 | パロ アルト リサーチ センター,エルエルシー | 自然言語ウェブブラウザ |
JP2018008433A (ja) * | 2016-07-14 | 2018-01-18 | コニカミノルタ株式会社 | 情報処理装置、周辺機器使用方法、およびコンピュータプログラム |
JP2019128846A (ja) * | 2018-01-25 | 2019-08-01 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
JP7047401B2 (ja) | 2018-01-25 | 2022-04-05 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20160105576A1 (en) | 2016-04-14 |
US9538028B2 (en) | 2017-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016081140A (ja) | 画像処理装置、画像処理装置の制御方法、及びプログラム | |
CN100384202C (zh) | 图像处理系统、图像处理设备和服务器 | |
JP2008090416A (ja) | 情報処理装置およびプログラム | |
JP2016110511A (ja) | 画像処理装置、画像処理装置の制御方法、並びにプログラム | |
JP2011059958A (ja) | 情報処理装置、情報処理システム、画像形成装置及びプログラム | |
JP2008107979A (ja) | データ処理装置およびプログラム | |
JP2013175036A (ja) | 情報処理装置、制御方法、プログラム | |
JP5256712B2 (ja) | インストールプログラムおよび情報処理装置 | |
JP2014219867A (ja) | 画像形成装置、画像形成装置が操作方法を案内する方法、プログラム、および、システム | |
JP5316835B2 (ja) | 情報処理装置、情報処理装置の操作指導システムおよび情報処理装置の操作指導プログラム | |
JP6834256B2 (ja) | 情報処理装置、情報処理システム、及びプログラム | |
JP5853999B2 (ja) | 画像形成システム、画像形成装置、遠隔操作装置およびプログラム | |
JP2006190088A (ja) | 情報処理装置およびその制御方法 | |
JP7067201B2 (ja) | 画面作成プログラム、情報処理装置及び画面作成方法 | |
JP5303198B2 (ja) | 表示画面生成プログラム、表示画面生成装置、及び画像形成装置 | |
JP6261265B2 (ja) | 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム | |
JP5269181B2 (ja) | 情報入力装置およびその制御方法 | |
JP2010191973A (ja) | 情報入力装置およびその制御方法 | |
JP5361399B2 (ja) | 画像処理装置、画像処理装置の制御方法、及び制御プログラム | |
JP2006333365A (ja) | 情報処理装置およびプログラム | |
JP5765364B2 (ja) | 画像処理装置、プレビュー画像を表示する方法、およびプログラム | |
JP6992332B2 (ja) | 画像処理システム、画像処理装置、端末装置及びプログラム | |
JP5269182B2 (ja) | 情報入力装置およびその制御方法 | |
JP2016148886A (ja) | 処理装置、表示方法、およびコンピュータプログラム | |
JP2007013905A (ja) | 情報処理装置およびプログラム |