JP6531427B2 - 処理システム、端末装置、処理装置、処理装置制御方法、およびコンピュータプログラム - Google Patents

処理システム、端末装置、処理装置、処理装置制御方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP6531427B2
JP6531427B2 JP2015037573A JP2015037573A JP6531427B2 JP 6531427 B2 JP6531427 B2 JP 6531427B2 JP 2015037573 A JP2015037573 A JP 2015037573A JP 2015037573 A JP2015037573 A JP 2015037573A JP 6531427 B2 JP6531427 B2 JP 6531427B2
Authority
JP
Japan
Prior art keywords
screen
text
terminal device
processing
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015037573A
Other languages
English (en)
Other versions
JP2016162010A (ja
Inventor
洋一 来正
洋一 来正
勇司 川村
勇司 川村
美絵 川端
美絵 川端
健太郎 永谷
健太郎 永谷
潤 國岡
潤 國岡
博 杉浦
博 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015037573A priority Critical patent/JP6531427B2/ja
Publication of JP2016162010A publication Critical patent/JP2016162010A/ja
Application granted granted Critical
Publication of JP6531427B2 publication Critical patent/JP6531427B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、端末装置と画像形成装置などとのリモートアクセスの際の表示の技術に関する。
コピー、スキャン、ファックス、またはドキュメントサーバなど様々な機能が備わった画像形成装置が普及している。このような画像形成装置は、「複合機」または「MFP(Multi-functional Peripheral)」と呼ばれることもある。
画像形成装置には、通常、タッチパネルディスプレイが備わっている。タッチパネルディスプレイには、画像形成装置を操作するための様々な画面が表示される。
また、タブレットコンピュータおよびスマートフォンなどの可搬型の端末装置から画像形成装置へリモートアクセスし、画像形成装置の画面を端末装置に表示させ、端末装置からの操作に基づいて画像形成装置が処理を実行する技術が、提案されている(特許文献1)。
さらに、近年、端末装置には、音声によってテキストを入力する機能が備えられるようになった。この機能は、「音声IME」などと呼ばれることがある。
特開平5−122424号公報
端末装置から画像形成装置へリモートアクセスしている際にも、音声IMEによって画像形成装置へテキストを入力することができる。
端末装置に備えられる従来の音声IMEによってテキストを入力する際に、端末装置のディスプレイの表示面のほぼ全域に、音声IMEの操作用の画面が表示される。
しかし、上述の通り、画像形成装置には、様々な画面が用意されている。したがって、リモートアクセスの最中に音声IMEの操作用の画面が表示されると、画像形成装置に対してどのような操作を行っているのかがユーザにとって分かりにくくなってしまう。つまり、視認性が悪くなってしまう。
本発明は、このような問題点に鑑み、端末装置から画像形成装置へのリモートアクセスの最中に、いわゆる音声IMEを用いて画像形成装置へテキストを入力する場合の視認性を従来よりも向上させることを、目的とする。
本発明の一形態に係る処理システムは、特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、前記処理装置に、当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面の画面データとともに、前記操作用画面における前記第一のテキスト領域の位置を示す位置データを前記端末装置へ送信する画面データ送信手段、が設けられ、前記端末装置に、前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、音声を集音する集音手段と、集音された前記音声が表わす第二のテキストを示すための第二のテキスト領域を有する確認画面を、前記位置データに基づいて前記第一のテキスト領域の上に重ねて表示する確認画面表示手段と、前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、が設けられる。
好ましくは、前記第二のテキストは、前記第一のテキスト領域にも示され、前記確認画面表示手段は、前記第一のテキスト領域の全体を隠すように前記確認画面を表示する。
または、前記確認画面表示手段は、前記操作用画面が表示される際に、前記確認画面を表示する。
または、前記確認画面表示手段は、前記第一のテキスト領域に示される文字よりも大きサイズで前記第二のテキストを示す。
または、前記確認画面表示手段は、前記操作用画面の中の、前記確認画面が重なっていない部分が操作されたら、前記確認画面を表示するのを止める。
本発明の他の一形態に係る処理システムは、特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、前記処理装置に、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信する画面データ送信手段、が設けられ、前記端末装置に、前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、音声を集音する集音手段と、前記操作用画面が表示された後に前記集音手段によって前記音声が集音され始めた場合に、集音され始めた旨の通知を前記処理装置へ送信する、通知手段と、集音された前記音声が表わす第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、が設けられ、前記画面データ送信手段は、前記通知があった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直し、前記操作用画面表示手段は、新たに送信されてきた前記画面データに基づいて前記操作用画面を表示し直す。
本発明によると、端末装置から画像形成装置へのリモートアクセスの最中に、いわゆる音声IMEを用いて画像形成装置へテキストを入力する場合の視認性を従来よりも向上させることができる。
処理システムの全体的な構成の例を示す図である。 画像形成装置のハードウェア構成の例を示す図である。 端末装置のハードウェア構成の例を示す図である。 キーボード画面の例を示す図である。 音声入力画面の例を示す図である。 端末装置における画面の遷移の例を示す図である。 端末装置における画面の遷移の例を示す図である。 画像形成装置および端末装置のそれぞれの機能的構成の例を示す図である。 画像形成装置の全体的な処理の流れの例を示すフローチャートである。 端末装置の全体的な処理の流れの例を示すフローチャートである。 端末装置における画面の遷移の例を示す図である。 端末装置における画面の遷移の例を示す図である。 画像形成装置および端末装置のそれぞれの機能的構成の例を示す図である。 画像形成装置の全体的な処理の流れの例を示すフローチャートである。 端末装置の全体的な処理の流れの例を示すフローチャートである。
〔第一の実施形態〕
図1は、処理システム100の全体的な構成の例を示す図である。図2は、画像形成装置1のハードウェア構成の例を示す図である。図3は、端末装置のハードウェア構成の例を示す図である。
処理システム100は、図1に示すように、画像形成装置1、端末装置2、および通信回線4などによって構成される。
画像形成装置1と端末装置2とは、通信回線4を介して通信することができる。通信回線4として、有線LAN(Local Area Network)回線、無線LAN回線、インターネット、または専用回線などが用いられる。
画像形成装置1は、一般に複合機またはMFP(Multi Function Peripherals)などと呼ばれる画像処理装置であって、コピー、PCプリント、ファックス、スキャナ、ボックスおよび電子メールの送信などの機能を集約した装置である。
PCプリント機能は、他の装置から受信した画像データに基づいて画像をシートに印刷する機能である。ボックス機能は、ユーザごとに「ボックス」または「パーソナルボックス」などと呼ばれる記憶領域を与えておき、各ユーザが自分の記憶領域によって画像ファイルなどのドキュメントデータを保存し管理するための機能である。
画像形成装置1は、図2に示すように、CPU(Central Processing Unit)10a、RAM(Random Access Memory)10b、ROM(Read Only Memory)10c、補助記憶装置10d、タッチパネルディスプレイ10e、操作キーパネル10f、NIC(Network Interface Card)10g、モデム10h、スキャンユニット10j、プリントユニット10k、および近距離通信ユニット10mなどによって構成される。
タッチパネルディスプレイ10eは、ユーザに対するメッセージを示す画面、ユーザがコマンドまたは情報を入力するための画面、およびCPU10aなどが実行した処理の結果を示す画面などを表示する。また、タッチパネルディスプレイ10eは、ユーザがタッチした位置を検知し、その位置をCPU10aへ通知する。
操作キーパネル10fは、いわゆるハードウェアキーボードであって、スタートキーおよび他の複数のキーによって構成される。
NIC10gは、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルによって端末装置2または他の装置と通信を行う。
モデム10hは、ファックス端末との間でG3などのプロトコルで画像データをやり取りする。
スキャンユニット10jは、プラテンガラスの上にセットされたシートに記されている画像を読み取って画像データを生成する。
プリントユニット10kは、通信回線4を介して他の装置から受信した画像またはスキャンユニット10jによって読み取られた画像などをシートに印刷する。
近距離通信ユニット10mは、例えばBluetooth(登録商標)によって端末装置2などの装置と通信を行う。
ROM10cまたは補助記憶装置10dには、上述のコピーおよびボックスなどの機能を実現するためのプログラムおよびデータが記憶されている。さらに、被リモートアクセス用プログラム10P(図8参照)が記憶されている。
これらのプログラムは、必要に応じてRAM10bにロードされ、CPU10aによって実行される。補助記憶装置10dとして、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などが用いられる。
端末装置2は、画像形成装置1を遠隔的に操作する、いわゆるリモートアクセスに使用される。端末装置2として、パーソナルコンピュータ、タブレットコンピュータ、またはスマートフォンなどが用いられる。以下、端末装置2として、タブレットコンピュータが用いられる場合を例に説明する。
端末装置2は、図3に示すように、CPU20a、RAM20b、ROM20c、フラッシュメモリ20d、タッチパネルディスプレイ20e、操作ボタン群20f、デジタルカメラ20g、無線通信装置20h、近距離通信ユニット20k、スピーカ20i、およびマイクロフォン20jなどによって構成される。
タッチパネルディスプレイ20eは、ユーザに対するメッセージを示す画面、およびユーザがコマンドまたは情報を入力するための画面などを表示する。特に、画像形成装置1のリモートアクセスでは、画像形成装置1から提供される画面を表示する。また、タッチパネルディスプレイ20eは、ユーザがタッチした位置を検知し、その位置をCPU20aへ通知する。
操作ボタン群20fは、ホーム画面に戻るためのボタン、入力した内容を確定するためのボタン、音量を調整するためのボタン、および電源のオン/オフを切り換えるためのボタンなどによって構成される。
デジタルカメラ20gは、種々の被写体を撮影する。スピーカ20iは、音声データに基づいて音声を出力する。
マイクロフォン20jは、集音し音声データを生成する。特に、ユーザがいわゆる音声入力によってコマンドまたは情報を入力する場合に、ユーザの発した声に応じた音声データを生成する。
無線通信装置20hは、無線基地局を介してTCP/IPなどのプロトコルによって画像形成装置1などの装置と通信を行う。
近距離通信ユニット20kは、例えばBluetoothによって画像形成装置1などの装置と通信を行う。
ROM20cまたはフラッシュメモリ20dには、リモートアクセス用プログラム20P(図8参照)が記憶されている。リモートアクセス用プログラム10Pは、RAM20bにロードされ、CPU20aによって実行される。
被リモートアクセス用プログラム10Pおよびリモートアクセス用プログラム20Pによると、ユーザは、タッチパネルディスプレイ10eの代わりに端末装置2を使用して画像形成装置1のリモートアクセスをすることができる。しかも、その際に、音声入力によって文字を入力する場合に、ユーザは、行いたい一連の操作のどの段階で文字を入力しているかを従来よりも理解し易く、かつ自己の話した言葉を文字列へ変換する処理の結果を従来よりも確認し易い、という特徴を有する画面を見ながら文字の入力をすることができる。
以下、この仕組みについて、関連する画面の例、画面の遷移の例、プログラムによって実現される機能的な構成の例、ならびに画像形成装置1および端末装置2のそれぞれの全体的な処理の流れの例を順に説明する。
図4は、キーボード画面17の例を示す図である。図5は、音声入力画面26の例を示す図である。
キーボード画面17は、図4に示すように、キーボード171、文字表示エリア172、およびOKボタン173を有する。
キーボード171は、いわゆるソフトウェアキーボードである。
文字表示エリア172は、ユーザがキーボード171によってタイピングをするごとに、タッチされたキーに対応する文字または数字などを表示し、タイピングされた文字または文字列がIME(Input Method Editor)によって漢字またはかななどに変換されるごとに、変換の結果を表示するためのエリアである。文字表示エリア172は、細長い帯状である。
OKボタン173は、ユーザがキーボード画面17の表示の終了を指示するためのボタンである。
キーボード画面17は、画像形成装置1が文字の入力を受け付ける状態であるときに、画像形成装置1のタッチパネルディスプレイ10eによって、表示面のほぼ全域にわたるサイズで表示される。また、リモートアクセスでは、端末装置2のタッチパネルディスプレイ20eによって、表示面のほぼ全域にわたるサイズで表示される。
ユーザは、例えばファックスまたは電子メールの宛先を登録したり、ボックスに保存するドキュメントのドキュメント名を指定したりする際、宛先またはドキュメント名などの文字列の入力欄(テキストボックス)にタッチすることによってキーボード画面17を表示させる。
リモートアクセスによって文字を入力する場合、ユーザは、端末装置2と画像形成装置1との接続が確立した直後に端末装置2のタッチパネルディスプレイ20eに表示される画面から適宜に画面を遷移させる操作を行うことによって、図4のように端末装置2のタッチパネルディスプレイ20eにキーボード画面17を表示させる。
音声入力画面26は、図5に示すように、帯状の文字表示エリア261およびアイコン262から構成される。文字表示エリア261は、音声入力用のIMEである音声IME210(図8参照)によって得られた文字列52を表示するためのエリアである。
アイコン262は、端末装置2が音声による文字の入力を受け付ける状態であること、すなわち音声IME210が音声をそれに応じた文字コードに変換することが可能なオンの状態(以下、これを「アクティブ」と記載することがある)であることを表わすアイコンである。
図4と図5とを見比べて分かる通り、音声入力画面26の文字表示エリア261は、キーボード画面17の文字表示エリア172よりも太い。また、文字表示エリア261の長さは、文字表示エリア172の長さ以上である。つまり、端末装置2によって表示されている状態において、文字表示エリア261は、文字表示エリア172よりも大きい。文字表示エリア261では、文字表示エリア172によって表示するのと比べて、文字列52を大きく表示することができる。
端末装置2は、文字表示エリア261を用いて、文字列52を、文字表示エリア172に収まるサイズよりも大きいサイズで表示する。つまり、ユーザにとって見易く、自己の話した言葉が意図した通りの文字列52に変換されたかどうかを確認し易いように、文字列52を表示する。
注目すべき点は、文字表示エリア261が文字表示エリア172と比べて大きいけれども、タッチパネルディスプレイ20eの表示面の全域を占めるものではない、という点である。文字表示エリア261は、キーボード画面17よりも小さい。
また、アイコン262もキーボード画面17よりも小さい。
さらに、文字表示エリア261のサイズにアイコン262のサイズを加えた合計サイズも、キーボード画面17よりも小さい。例えば合計サイズは、キーボード画面17のサイズの50%以下のサイズである。つまり、音声入力画面26は、キーボード画面17よりも小さい。
音声入力画面26は、音声IME210がアクティブであるときに、端末装置2のタッチパネルディスプレイ20eに、キーボード画面17の上に重ねるように表示される。このとき、キーボード画面17の方が音声入力画面26よりも大きいので、キーボード画面17の一部分は隠れない。ユーザは、キーボード画面17のうちの隠されていない部分を見ることができる。そして、自己がキーボード画面17を表示させる操作をしたことを認識することができる。よって、音声入力画面26は、ユーザからみて、自己が行いたい一連の操作のどの段階で文字を入力しているかを、キーボード画面17が全く見えない場合と比べて理解し易い画面である。
なお、音声入力画面26は、文字表示エリア261と、アイコン262と、これらを囲む背景263とで構成されてもよい。背景263は、タッチパネルディスプレイ20eの表示面と同じサイズの画像であってよい。だたし、背景263は、透過性を有する画像(好ましくは透過率が100%の画像)である。
また、音声入力の進行の状況をユーザに伝えるメッセージ51を、文字列52と並べて文字表示エリア261に表示してもよい。
図6および図7は、端末装置2における画面の遷移の例を示す図である。図6および図7において、右半部にリモートアクセス中の端末装置2によって表示される画面を示し、左半部に画像形成装置1よって生成される画面を示す。
端末装置2による画像形成装置1のリモートアクセスが開始された後、ユーザが適宜に画面を遷移させる操作を行うと、画像形成装置1は、操作に応じた画面の画像データを端末装置2へ送信する。端末装置2は、画面データに基づいて画面を表示する。以下、図6に示す文字入力画面16が表示された後の流れを説明する。文字入力画面16は、入力された文字を表示する文字入力欄161を有する。
端末装置2は、ユーザが文字入力欄161にタップすると、タッチパネルディスプレイ20eのタップされた位置の座標値および「タップ」というジェスチャの種類を示すデータであるイベントデータ5を画像形成装置1に送る。
画像形成装置1は、イベントデータ5を受け取ると、文字入力欄161がタップされたことをイベントデータ5に基づいて認識し、ユーザが文字入力欄161に文字を入力しようといていると判断する。画像形成装置1は、端末装置2に次に与えるべきリモートアクセス用の画面(リモートパネル)としてキーボード画面17を生成する。予めキーボード画面17がその画像データを記憶することによって用意されている場合には、キーボード画面17を生成する代わりに画像データを記憶装置から読み出す。
そして、画像形成装置1は、キーボード画面17の画像データである画面データ6を端末装置2に送る。このとき、画像形成装置1は、予めキーボード画面17の構成に関する情報として記憶しているエリア情報7を、端末装置2に送る。エリア情報7は、キーボード画面17内の文字表示エリア172の位置の範囲を示す。
端末装置2は、キーボード画面17の画面データ6およびエリア情報7を受け取ると、文字入力画面16に代えてキーボード画面17を表示し、音声IME210をアクティブにするとともに、キーボード画面17に重ねて音声入力画面26を表示する。端末装置2は、音声入力画面26の表示に際して、エリア情報7に基づいて、文字表示エリア261をキーボード画面17の文字表示エリア172に重ねて表示する。つまり、キーボード画面17の文字表示エリア172を音声入力画面26の文字表示エリア261によって隠す。これにより、1つの画面に同じ内容を表示する2つの文字表示エリア172,261が在るという無駄を無くすとともに、2つの文字表示エリア172,261の間に表示のタイムラグが生じてもユーザがそのタイムラグに気付かないようにすることができる。
端末装置2は、ユーザが音声を発すると、その音声に基づいて音声IME210によって得られた文字列52を、音声入力画面26内の文字表示エリア261に表示する。つまり、音声IME210による処理の結果を音声入力画面26に反映させる。さらに、端末装置2は、得られた文字列52の各文字の文字コード8を画像形成装置1に送る。
画像形成装置1は、文字コード8を受け取ると、文字コード8の示す文字列52を文字表示エリア172に埋め込んだキーボード画面17を生成し、そのキーボード画面17の画面データ6を端末装置2に送る。
端末装置2は、画面データ6を受け取ると、改めてキーボード画面17および音声入力画面26を表示する。このとき、キーボード画面17の文字表示エリア172には文字列52が埋め込まれているが、文字表示エリア172は音声入力画面26の文字表示エリア261によって隠されている。
端末装置2は、図7に示すように音声入力画面26のうちの文字表示エリア261でもアイコン262でもない部分をユーザがタッチすると、このタッチに応じたイベントデータ5を画像形成装置1に送る。
画像形成装置1は、イベントデータ5を受け取ると、音声入力画面26のうちのキーボード画面17の現れた部分がタッチされたことをイベントデータ5に基づいて認識し、ユーザがキーボード画面17による操作をしようといていると判断する。画像形成装置1は、音声IME210のノンアクティブ化を端末装置2に指令する。
端末装置2は、この指令を受け取ると、指令に従って音声IME210のノンアクティブ化するとともに、音声入力画面26の表示を終了する。これによって、キーボード画面17の全体が表示される。
端末装置2は、ユーザがキーボード画面17のOKボタン173にタッチすると、それに応じたイベントデータ5を画像形成装置1に送る。
画像形成装置1は、イベントデータ5を受け取ると、OKボタン173がタッチされたことをイベントデータ5に基づいて認識し、ユーザが文字入力欄161への文字の入力を終えたと判断する。画像形成装置1は、文字入力欄161に文字列52を埋め込んだ文字入力画面16を生成し、その画面データ6を端末装置2に送る。
端末装置2は、画面データ6を受け取ると、キーボード画面17に代えて文字入力画面16を表示する。この文字入力画面16では、音声入力によって入力された文字列52が表示される。
次に、以上のようにキーボード画面17および音声入力画面26を表示するための機能について説明する。
図8は、画像形成装置1および端末装置2のそれぞれの機能的構成の例を示す図である。
被リモートアクセス用プログラム10Pによると、画面データ等送信部101、画面データ生成部102、次処理判別部103、音声IME呼出指令部104、および音声IME呼出解除部105などの機能が画像形成装置1に実現される。
リモートアクセス用プログラム20Pによると、画面表示部201、タッチ検知部202、イベントデータ送信部203、音声IME呼出部204、音声入力画面表示部205、入力文字列表示部206、入力文字列送信部207、および音声IME解除部208などの機能が端末装置2に実現される。
画像形成装置1の画面データ生成部102は、各種の画面(リモートパネル)を構成するためのパーツ(部品)のライブラリを有している。画面データ生成部102は、次処理判別部103から生成の指令を受けると、指令に応じた画面を構成するパーツをライブラリから取り込んで組み合わせることにより、当該画面のビットマップデータを生成する。そして、端末装置2への転送の所要時間を短縮するため、ビットマップデータを例えばJPEG(Joint Photographic Experts Group)のフォーマットの画像データに圧縮する。そして、圧縮後の画像データを画面データ6として画面データ等送信部101に引き渡す。
画面データ生成部102は、上述のキーボード画面17の画面データ6を生成した場合には、文字表示エリア172の位置の範囲を示すエリア情報7を画面データ6にバインドして画面データ等送信部101に引き渡す。
画面データ等送信部101は、画面データ生成部102から画面データ6を受け取ると、画面データ6を端末装置2へ送信する。エリア情報7がバインドされている場合は、画面データ6とエリア情報7とを送信する。
端末装置2の画面表示部201は、画像形成装置1から送られてきた画面データ6に基づいて、画像形成装置1によって生成された画面をタッチパネルディスプレイ20eに表示させる。この際に、バックグラウンドで、画面データ6の伸張およびビットマップメモリ(ビデオRAM)への描画などが行われる。
タッチ検知部202は、タッチパネルディスプレイ20eからタッチの位置の情報を取得してジェスチャの種類を判別する。タッチ検知部202は、タッチイベントに応じた上述のイベントデータ5を生成してイベントデータ送信部203に引き渡す。なお、タッチ検知部202は、音声入力画面26の範囲内の位置がタッチされた場合には、それを示すタッチイベントを生成しない。
イベントデータ送信部203は、タッチ検知部202からイベントデータ5を受け取ると、そのイベントデータ5を画像形成装置1に送信する。
画像形成装置1の次処理判別部103は、端末装置2からイベントデータ5を受信すると、画面データ生成部102に対して最後に生成を指令した際に生成の対象として指定した画面内のどの位置がタッチされたかをイベントデータ5に基づいて認識する。
次処理判別部103は、認識した位置が画面を切り替えるべき操作に対応する位置であるかどうかを、画面内の位置と行うべき処理とを対応づける制御用データを参照することによって判別する。
次処理判別部103は、イベントデータ5に基づいて認識した位置が画面を切り替えるべき操作に対応する位置であると判別した場合、新たに表示すべき画面の生成を画面データ生成部102に指令する。例えば、次処理判別部103は、文字入力画面16の文字入力欄161のタップに応じたイベントデータ5を受け取った場合には、キーボード画面17の生成を、キーボード画面17のOKボタン173のタップに応じたイベントデータ5を受け取った場合には、文字入力画面16の生成を、画面データ生成部102に指令する。
また、次処理判別部103は、キーボード画面17の生成を画面データ生成部102に指令する際に、呼出指令の送信を、音声IME呼出指令部104に要求する。
音声IME呼出指令部104は、この要求を受けると、音声IME210のアクティブ化を端末装置2に指令する。
さらに、次処理判別部103は、音声入力画面26のキーボード画面17の部分のタップに応じたイベントデータ5を受け取った場合には、音声IME210のノンアクティブ化を音声IME呼出解除部105に要求する。
音声IME呼出解除部105は、この要求を受けると、音声IME210のノンアクティブ化を端末装置2に指令する。
端末装置2の音声IME呼出部204は、画像形成装置1から音声IME210のアクティブ化の指令を受けると、音声IME210をアクティブ化する。
また、音声IME呼出部204は、画像形成装置1から音声IME210のアクティブ化の指令を受けると、音声入力画面表示部205に音声入力画面26の表示を指令する。
音声入力画面表示部205は、この指令を受けると、タッチパネルディスプレイ20eに音声入力画面26をキーボード画面17に重ねるように表示させる。
入力文字列表示部206は、音声IME210からユーザの発した音声に応じた文字コード8を受け取る。入力文字列表示部206は、文字コード8を受け取ると、図6に示すように、文字コード8に応じた文字列52を音声入力画面26の文字表示エリア261に表示する。また、入力文字列表示部206は、文字コード8を入力文字列送信部207に送る。
入力文字列送信部207は、入力文字列表示部206から文字コード8を受け取って画像形成装置1へ送信する。
画像形成装置1の次処理判別部103は、端末装置2から送信された文字コード8を受信する。次処理判別部103は、文字コード8を受信すると、図6に示したように文字表示エリア172に文字コード8に応じた文字列52を埋め込んだキーボード画面17の生成を、画面データ生成部102に指令する。これにより、画面データ生成部102によって文字列52を埋め込んだキーボード画面17が生成され、画面データ等送信部101によって端末装置2へ送信される。
音声IME解除部208は、画像形成装置1から音声IME210のノンアクティブ化の指令を受けると、音声IME210をノンアクティブ化する。すると、音声入力画面表示部205が音声入力画面26の表示を終了する。
図9は、画像形成装置1の全体的な処理の流れの例を示すフローチャートである。図10は、端末装置2の全体的な処理の流れの例を示すフローチャートである。
次に、画像形成装置1の全体的な処理の流れ、および端末装置2の全体的な処理の流れを、図9または図10のフローチャートを参照しながら説明する。
画像形成装置1は、端末装置2によるリモートアクセスが始まると、図9に示すように、デフォルトの画面の画面データ6を端末装置2に送信する(#101)。デフォルトの画面は、画像形成装置1の電源がオンにされてウォームアップが完了した後に最初に表示するトップ画面でもよいし、リモートアクセスが始まる直前にタッチパネルディスプレイ10eに表示していた画面でもよい。
画像形成装置1は、端末装置2からイベントデータ5を受信すると(#102でYES)、イベントデータ5の示す座標値に基づいて、タッチの位置が文字入力欄161内の位置かどうかを判別する(#103)。
画像形成装置1は、タッチの位置が文字入力欄161内の位置であると判別した場合(#103でYES)、キーボード画面17の画面データ6を送信するとともに、音声IME210の呼出(アクティブ化)を端末装置2に指令する(#104)。音声IME210がアクティブになると、図6に示した音声入力画面26が表示される。
画像形成装置1は、端末装置2によって音声入力画面26が表示されているときに、音声入力画面26のうちのキーボード画面17の現れた部分がタッチされた場合(#105でYES)、音声IME210の解除(ノンアクティブ化)を端末装置2に指令する(#106)。音声IME210がノンアクティブになると、音声入力画面26の表示が終了する。
画像形成装置1は、端末装置2から受信したイベントデータ5が、その他のタッチに応じたデータであった場合(#107でYES)、イベントデータ5に応じて、画面を遷移させたり動作の設定値を変更したりするといったその他の処理をする(#108)。
画像形成装置1は、端末装置2から文字コード8を受信すると(#109でYES)、文字コード8に応じた文字列52を文字表示エリア172に埋め込むことによって音声入力の結果を反映させたキーボード画面17を生成する(#110)。そして、そのキーボード画面17の画面データ6を端末装置2に送信する(#111)。
画像形成装置1は、リモートアクセスが続いている間(#112でNO)、ステップ#102ないしステップ#111の処理を適宜、実行する。
端末装置2は、画像形成装置1のリモートアクセスが始まると、次の処理をする。
端末装置2は、図10に示すように、画像形成装置1から画面データ6を受信すると(#201でYES)、画面データ6に応じた画面をタッチパネルディスプレイ20eに表示させる。
端末装置2は、ユーザがタッチパネルディスプレイ20eにタッチすると(#203でYES)、ユーザがタッチした位置およびジェスチャの種類を判別し(#204)、判別の結果を示すイベントデータ5を画像形成装置1に送信する(#205)。
端末装置2は、音声IME210のアクティブ化が画像形成装置1から指令されると(#206でYES)、音声IME210をアクティブ化するとともに、音声入力画面26をキーボード画面17に重ねて表示する(#207、#208)。
端末装置2は、ユーザの発した音声に応じた文字列52(入力文字列)を音声IME210によって取得すると(#209でYES)、取得した文字列52を文字表示エリア261に表示するとともに、文字コード8を送信することによって文字列52を画像形成装置1に通知する(#210、#211)。
端末装置2は、音声IME210のノンアクティブ化が画像形成装置1から指令されると(#212でYES)、音声IME210をノンアクティブ化する(#213)。これによって、音声入力画面26の表示が終了する。
端末装置2は、リモートアクセスが続いている間(#214でNO)、ステップ#201ないしステップ#213の処理を適宜、実行する。
〔第二の実施形態〕
第一の実施形態では、端末装置2が画像形成装置1からリモートパネルとして与えられたキーボード画面17に重ねて文字表示エリア261を表示した。これに対して、第二の実施形態では、第一の実施形態の文字表示エリア261と同程度の大きさの文字表示エリア172Bを有したキーボード画面17B(図11参照)を、画像形成装置1B(図13参照)が端末装置2Bに与える。以下、この仕組みについて、説明する。第一の実施形態と重複する点は、説明を省略する。
第二の実施形態に係る画像形成装置1Bとして、図2に示した画像形成装置1と同様のハードウェア構成をもつ装置を用いることができる。端末装置2Bについても、図3に示した端末装置2と同様のハードウェア構成をもつ装置を用いることができる。
ただし、第二の実施形態の画像形成装置1Bでは、ROM10cまたは補助記憶装置10dには、被リモートアクセス用プログラム10Pの代わりに被リモートアクセス用プログラム12P(図13参照)が記憶されている。また、第二の実施形態の端末装置2Bでは、ROM20cまたはフラッシュメモリ20dには、リモートアクセス用プログラム20Pの代わりにリモートアクセス用プログラム22P(図13参照)が記憶されている。
画像形成装置1Bと端末装置2Bとは、図1に示した通信回線4を介して通信することができる。
図11は、端末装置における画面の遷移の例を示す図である。図12は、端末装置における画面の遷移の例を示す図である。
端末装置2Bは、リモートアクセスが開始された後、ユーザが適宜に画面を遷移させる操作を行うと、画像形成装置1Bは、操作に応じた画面の画像データ6を端末装置2Bへ送信する。端末装置2Bは、画面データ6に基づいて画面を表示する。以下、図11に示す文字入力画面16が表示された後の流れを説明する。
端末装置2Bは、ユーザが文字入力欄161にタップすると、イベントデータ5を画像形成装置1Bに送る。画像形成装置1は、イベントデータ5を受け取ると、キーボード画面17を生成し、生成したキーボード画面17の画面データ6を端末装置2Bに送る。ここまでは、第一の実施形態と同様である。
第一実施形態ではキーボード画面17の画面データ6を端末装置2に送る際に、文字表示エリア172の位置の範囲を示すエリア情報7を、端末装置2に送った。第二の実施形態では、文字表示エリア172を拡大することを見込んで、拡大後の文字表示エリア172Bの位置の範囲を示すエリア情報7Bを端末装置2Bに送る。
端末装置2Bは、画面データ6およびエリア情報7を受け取ると、文字入力画面16に代えてキーボード画面17を表示するとともに、キーボード画面17に重ねてアイコン262を表示する。
端末装置2Bは、アイコン262の表示に際して、エリア情報7Bに基づいて、拡大後の文字表示エリア172Bが表示される場合にその文字表示エリア172Bと重ならにように、キーボード画面17のうちの文字表示エリア172Bが配置される予定の位置以外と重なるようにアイコン262を表示する。
端末装置2Bは、アイコン262を表示した後、マイクロフォン20jが音声を感知すると、ユーザが話し始めたと判断して、音声IME210による処理が開始されたことを画像形成装置1Bに通知する。この通知は、音声の文字コードへの変換が確定する前に、文字表示エリア172を文字表示エリア172Bに拡げておくための通知である。
画像形成装置1Bは、ユーザが音声入力の正否を確認し易いキーボード画面17Bの生成を開始する。キーボード画面17Bは、キーボード画面17の文字表示エリア172を文字表示エリア172Bに置き換えた画面である。文字表示エリア172Bは、文字表示エリア172を図の上下方向に拡大したものに相当し、そのサイズは第一の実施形態の文字表示エリア261のサイズと同程度である。
端末装置2から文字コード8が送られてくる以前にキーボード画面17Bの生成を開始することにより、文字コード8が送られてきたときに、キーボード画面17Bを端末装置2に早く提供することができる。なお、予めキーボード画面17Bを用意しておくことによって、より早くキーボード画面17Bを端末装置2に提供するようにしてもよい。
画像形成装置1Bは、端末装置2から文字コード8が送られてくると、文字コード8に応じた文字列52を文字表示エリア172Bに埋め込んだキーボード画面17B、すなわち音声入力の結果を反映させたキーボード画面17Bを生成する。
文字表示エリア172Bは文字表示エリア172よりも大きいので、文字表示エリア172に埋め込む場合と比べて大きいサイズで文字列52を文字表示エリア172Bに埋め込むことができる。つまり、文字列52を見易くすることができる。
画像形成装置1Bは、生成したキーボード画面17Bの画面データ6を端末装置2Bへ送信する。
端末装置2Bは、キーボード画面17Bの画面データ6を受け取ると、キーボード画面17Bを表示し、キーボード画面17Bに重ねてアイコン262を表示する。
端末装置2Bは、図12に示すようにキーボード画面17Bのうちの文字表示エリア172Bでもアイコン262でもない部分をユーザがタッチすると、このタッチに応じたイベントデータ5を画像形成装置1Bに送る。
画像形成装置1Bは、イベントデータ5を受け取ると、ユーザがキーボード画面17による操作をしようといていると判断する。画像形成装置1Bは、文字表示エリア172Bに文字列52を埋め込んだキーボード画面17Bを生成してその画面データ6を端末装置2Bに送信する。このとき、音声IME210のノンアクティブ化を端末装置2Bに指令する。
端末装置2Bは、画面データ6およびノンアクティブ化の指令を受け取ると、キーボード画面17Bに代えてキーボード画面17を表示するとともに、音声IME210をノンアクティブ化する。音声IME210のノンアクティブ化によってアイコン262の表示が終了する。
次に、以上のようにキーボード画面17Bおよびアイコン262を表示するための機能について説明する。
図13は、画像形成装置1Bおよび端末装置2Bのそれぞれの機能的構成の例を示す図である。
被リモートアクセス用プログラム12Pによると、画面データ等送信部121、画面データ生成部122、次処理判別部123、音声IME呼出指令部124、および音声IME呼出解除部125などの機能が画像形成装置1Bに実現される。
リモートアクセス用プログラム22Pによると、画面表示部221、タッチ検知部222、イベントデータ送信部223、音声IME呼出部224、音声入力画面表示部225、入力文字列送信部227、および入力開始通知部229などの機能が端末装置2に実現される。
画面データ等送信部121、画面データ生成部122、音声IME呼出指令部124、および音声IME呼出解除部125は、それぞれ、第一の実施形態の画面データ等送信部101、画面データ生成部102、音声IME呼出指令部104、および音声IME呼出解除部105(図8参照)と同様の機能を有する。また、画面表示部221、タッチ検知部222、イベントデータ送信部223、音声IME呼出部224、音声入力画面表示部225、および入力文字列送信部227は、それぞれ、第一の実施形態の画面表示部201、タッチ検知部202、イベントデータ送信部203、音声IME呼出部204、音声入力画面表示部205、および入力文字列送信部207(図8参照)と同様の機能を有する。つまり、これらによって、キーボード画面17Bの一部とアイコン262とが表示される。
画像形成装置1Bの次処理判別部123は、第一の実施形態の次処理判別部103と同様に、タッチイベントに応じて次に行うべき処理を判別する。タッチイベントが画面の遷移を指示する操作を示す場合には、画面データ生成部122に新たに表示すべき画面の生成を指令する。
端末装置2の入力開始通知部229は、音声入力に際して音声が発せられたときにその旨を通知する機能を有する。
画像形成装置1Bの次処理判別部123は、端末装置2の入力開始通知部229からの通知を受け取る。次処理判別部123は、入力開始通知部229からの通知を受け取ると、キーボード画面17Bの生成を、画面データ生成部122に指令する。画面データ等送信部121は、画面データ生成部122によってキーボード画面17Bが生成されると、直ちにキーボード画面17Bの画面データ6を端末装置2Bに送信する。
図14は、画像形成装置1Bの全体的な処理の流れの例を示すフローチャートである。図15は、端末装置2Bの全体的な処理の流れの例を示すフローチャートである。
画像形成装置1Bは、リモートアクセスが始まると、第一の実施形態の場合と同様に、デフォルトの画面の画面データ6を送信し(図14の#121)、その後、リモートアクセスが終了するまでの間、端末装置2Bからのデータの入力または通知などに応じて次のように処理をする。
画像形成装置1Bは、文字入力欄161内の位置のタッチが通知されると(#122でYES、#123でYES)、キーボード画面17の画面データ6を送信するとともに、音声IME210のアクティブ化を端末装置2Bに指令する(#124)。
画像形成装置1Bは、端末装置2によってアイコン262が表示されているときに、キーボード画面17Bの現れた部分のタッチが通知されると(#125でYES)、第一の実施形態の場合と同様に、音声IME210のノンアクティブ化を端末装置2に指令する(#126)。
さらに第二の実施形態では、文字表示エリア172Bをそれより細い文字表示エリア172に戻したキーボード画面17を生成して、その画面データ6を端末装置2Bへ送信する(#127、#128)。
画像形成装置1Bは、その他のタッチが通知されると(#129でYES)、第一の実施形態の場合と同様に、その他の処理をする(#130)。
画像形成装置1Bは、第二の実施形態では、音声が発せられたことが通知されると(#131でYES)、文字表示エリア172をそれよりも太い文字表示エリア172Bに置き換えたキーボード画面17Bを生成して、それの画面データ6を端末装置2Bへ送信する(#132、#133)。
画像形成装置1Bは、文字コード8を受信すると(#134でYES)、音声入力の結果を反映させたキーボード画面17Bを生成して、それの画面データ6を端末装置2に送信する(#135、#136)。
端末装置2Bは、第一の実施形態の場合とほぼ同様の処理をする。すなわち、図15に示すステップ#221〜#233の処理は、それぞれ図10に示した第一の実施形態の場合のステップ#221〜#209、およびステップ#211〜#214の処理と同様である。
第二の実施形態では、第一の実施形態の場合にステップ#210で行われていた文字列52を表示する処理を、端末装置2Bは行わない。それは、文字列52が、画像形成装置1Bによって文字表示領域172Bに埋め込まれるからである。
以上の第一の実施形態によると、音声入力に際して入力の結果を示す文字列52が画像形成装置1Bによって文字表示エリア172Bに大きいサイズで埋め込まれる。そして、文字列52の埋め込まれたキーボード画面17Bが端末装置2Bによって表示され、キーボード画面17Bの一部のみを隠すアイコン262がキーボード画面17Bに重ねて表示される。キーボード画面17Bの一部が見えることにより、全く見えない場合と比べて、ユーザが何のために音声入力をしているかまたは次にどのようなアクションをすべきかといったことなどを理解し易い。
第一および第二の実施形態では、音声入力画面26またはアイコン262が表示されているときに、キーボード画面17,17Bが表れている部分にユーザがタッチした場合に、音声IME210をノンアクティブ化した。これの変形例として、キーボード画面17,17Bに、音声IME210をアクティブとノンアクティブとに切替えるための切替えボタンを配置しておくことができる。その場合、切替えボタンを隠さないように文字表示エリア261およびアイコン262などを表示する。ユーザは、キーボード画面17,17Bが表示されているときには、随時に音声IME210をアクティブにまたはノンアクティブに切り替えることができる。
音声IME210の機能は、端末装置2内で実現されてもよいし、いわゆるクラウドサーバなどの外部の装置に実現されてもよい。
端末装置2,2Bに、音声IME210の他に手書き入力用といった音声以外による文字の入力用のIMEが備わる場合、これらIMEの使用の優先順位に応じて、大きさの異なる文字表示エリアを使い分けるように画面の表示を制御することができる。詳しくは、次のようにする。
第一の実施形態のように画像形成装置1が端末装置2に文字表示エリアの表示を指令して、端末装置2が文字表示エリア261の位置を決めて表示する形態では、最優先のIMEが音声IME210である場合に、画像形成装置1が表示を指令する際に、例えば30ポイント以上の大きさで文字を表示することのできるサイズ(これを「大型サイズ」という)を文字表示エリア261のサイズとして指定する。最優先のIMEが音声IME210以外である場合には、そのIMEの仕様の通りのサイズ(これを「通常サイズ」という)を文字表示エリアのサイズとして指定する。画像形成装置1は、例えばリモートアクセスの接続を確立するときなどに、端末装置2からIMEの使用の優先順位を示すデータを取得しておく。
また、第二の実施形態のように画像形成装置1Bが文字表示エリア172Bをキーボード画面17Bに配置する形態では、最優先のIMEが音声IME210である場合に、画像形成装置1が大型サイズを文字表示エリア172Bのサイズとし、最優先のIMEが音声IME210以外である場合には、通常サイズを文字表示エリアのサイズとする。
なお、上述のように切替えボタンを設けることによって、通常サイズを文字表示エリアが表示されているときに、ユーザによる指示に従って大型サイズに切り替えるようにすることができる。
その他、処理システム100の全体または各部の構成、画像形成装置1,1Bおよび端末装置2,2Bのそれぞれが行う処理の内容、処理の順序などは、本発明の趣旨に沿って適宜変更することができる。
100 処理システム
1,1B 画像形成装置(処理装置)
2,2B 端末装置
6 画面データ
101,121 画面データ等送信部(画面データ送信手段)
201,221 画面表示部(操作用画面表示手段)
20j マイクロフォン(集音手段)
26 音声入力画面(確認画面)を前記操作用画面の一部分の上に重ねて表示する確認 205,225 音声入力画面表示部(画面表示手段)
8 文字コード(テキスト)
207,227 入力文字列送信部(テキスト送信手段)
171 キーボード(ソフトウェアキーボード)
172 文字表示エリア(第二のテキスト領域)
7 エリア情報(位置データ)

Claims (15)

  1. 特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、
    前記処理装置に、
    当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面の画面データとともに、前記操作用画面における前記第一のテキスト領域の位置を示す位置データを前記端末装置へ送信する画面データ送信手段、
    が設けられ、
    前記端末装置に、
    前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、
    音声を集音する集音手段と、
    集音された前記音声が表わす第二のテキストを示すための第二のテキスト領域を有する確認画面を、前記位置データに基づいて前記第一のテキスト領域の上に重ねて表示する確認画面表示手段と、
    前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、
    が設けられる、
    ことを特徴とする処理システム。
  2. 前記第二のテキストは、前記第一のテキスト領域にも示され、
    前記確認画面表示手段は、前記第一のテキスト領域の全体を隠すように前記確認画面を表示する、
    請求項1記載の処理システム。
  3. 特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、
    前記処理装置に、
    当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面の画面データを前記端末装置へ送信する画面データ送信手段、
    が設けられ、
    前記端末装置に、
    前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、
    音声を集音する集音手段と、
    集音された前記音声が表わす第二のテキストを前記第一のテキスト領域に示される文字よりも大きいサイズで示すための第二のテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する確認画面表示手段と、
    前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、
    が設けられる、
    ことを特徴とする処理システム。
  4. 前記確認画面表示手段は、前記操作用画面が表示される際に、前記確認画面を表示する、
    請求項1ないし請求項3のいずれかに記載の処理システム。
  5. 前記確認画面表示手段は、前記操作用画面の中の、前記確認画面が重なっていない部分が操作されたら、前記確認画面を表示するのを止める、
    請求項1ないし請求項4のいずれかに記載の処理システム。
  6. 特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、
    前記処理装置に、
    ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信する画面データ送信手段、
    が設けられ、
    前記端末装置に、
    前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、
    音声を集音する集音手段と、
    前記操作用画面が表示された後に前記集音手段によって前記音声が集音され始めた場合に、集音され始めた旨の通知を前記処理装置へ送信する、通知手段と、
    集音された前記音声が表わす第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、
    が設けられ、
    前記画面データ送信手段は、前記通知があった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直し、
    前記操作用画面表示手段は、新たに送信されてきた前記画面データに基づいて前記操作用画面を表示し直す、
    ことを特徴とする処理システム。
  7. 特定の処理を行う処理装置をリモートアクセスによって制御する端末装置であって、
    前記処理装置から送信されてきた画面データに基づいて、当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面を表示する操作用画面表示手段と、
    音声を集音する集音手段と、
    集音された前記音声が表わす第二のテキストを示すための第二のテキスト領域を有する確認画面を、前記処理装置から前記画面データとともに送信されてきた前記操作用画面における前記第一のテキスト領域の位置を示す位置データに基づいて前記第一のテキスト領域の上に重ねて表示する確認画面表示手段と、
    前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、
    を有することを特徴とする端末装置。
  8. 特定の処理を行う処理装置をリモートアクセスによって制御する端末装置であって、
    前記処理装置から送信されてきた画面データに基づいて、当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面を表示する操作用画面表示手段と、
    音声を集音する集音手段と、
    集音された前記音声が表わす第二のテキストを前記第一のテキスト領域に示される文字よりも大きいサイズで示すための第二のテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する確認画面表示手段と、
    前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、
    を有することを特徴とする端末装置。
  9. 端末装置からリモートアクセスによって制御される、特定の処理を行う処理装置であって、
    ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信し、その後、音声の集音が開始された旨の通知が前記端末装置からあった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直す、画面データ送信手段、
    を有することを特徴とする処理装置。
  10. 特定の処理を行う処理装置を端末装置からのリモートアクセスによって制御する処理装置制御方法であって、
    前記処理装置に、
    当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面の画面データとともに、前記操作用画面における前記第一のテキスト領域の位置を示す位置データを前記端末装置へ送信する処理を実行させ、
    前記端末装置に、
    前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する処理を実行させ、
    音声を集音する処理を実行させ、
    集音された前記音声が表わす第二のテキストを示すための第二のテキスト領域を有する確認画面を、前記位置データに基づいて前記第一のテキスト領域の上に重ねて表示する処理を実行させ、
    前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信する処理を実行させる、
    ことを特徴とする処理装置制御方法。
  11. 特定の処理を行う処理装置を端末装置からのリモートアクセスによって制御する処理装置制御方法であって、
    前記処理装置に、
    当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面の画面データを前記端末装置へ送信する処理を実行させ、
    前記端末装置に、
    前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する処理を実行させ、
    音声を集音する処理を実行させ、
    集音された前記音声が表わす第二のテキストを前記第一のテキスト領域に示される文字よりも大きいサイズで示すための第二のテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する処理を実行させ、
    前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信する処理を実行させる、
    ことを特徴とする処理装置制御方法。
  12. 特定の処理を行う処理装置を端末装置からのリモートアクセスによって制御する処理装置制御方法であって、
    前記処理装置に、
    ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信する処理を実行させ、
    前記端末装置に、
    前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する処理を実行させ、
    音声を集音する処理を実行させ、
    前記操作用画面が表示された後に前記音声が集音され始めた場合に、集音され始めた旨の通知を前記処理装置へ送信する処理を実行させ、
    集音された前記音声が表わす第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信する処理を実行させ、
    前記処理装置に、
    前記通知があった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直す処理を実行させ、
    前記端末装置に
    は、新たに送信されてきた前記画面データに基づいて前記操作用画面を表示し直す処理を実行させる、
    ことを特徴とする処理装置制御方法。
  13. 特定の処理を行う処理装置をリモートアクセスによって制御するコンピュータに用いられるコンピュータプログラムであって、
    前記コンピュータに、
    前記処理装置から送信されてきた画面データに基づいて、当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面を表示する処理を実行させ、
    音声を集音する処理を実行させ、
    集音された前記音声が表わす第二のテキストを示すための第二のテキスト領域を有する確認画面を、前記処理装置から前記画面データとともに送信されてきた前記操作用画面における前記第一のテキスト領域の位置を示す位置データに基づいて前記第一のテキスト領域の上に重ねて表示する処理を実行させ、
    前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信する処理を実行させる、
    ことを特徴とするコンピュータプログラム。
  14. 特定の処理を行う処理装置をリモートアクセスによって制御するコンピュータに用いられるコンピュータプログラムであって、
    前記コンピュータに、
    前記処理装置から送信されてきた画面データに基づいて、当該処理装置をユーザが操作するための、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第一のテキストを示すための第一のテキスト領域を有する操作用画面を表示する処理を実行させ、
    音声を集音する処理を実行させ、
    集音された前記音声が表わす第二のテキストを前記第一のテキスト領域に示される文字よりも大きいサイズで示すための第二のテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する処理を実行させ、
    前記第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信する処理を実行させる、
    ことを特徴とするコンピュータプログラム。
  15. 端末装置からリモートアクセスによって制御される、特定の処理を行うコンピュータに用いられるコンピュータプログラムであって、
    前記コンピュータに、
    ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該コンピュータに対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信する処理を実行させ、
    その後、音声の集音が開始された旨の通知が前記端末装置からあった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直す処理を実行させる、
    ことを特徴とするコンピュータプログラム。
JP2015037573A 2015-02-27 2015-02-27 処理システム、端末装置、処理装置、処理装置制御方法、およびコンピュータプログラム Active JP6531427B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015037573A JP6531427B2 (ja) 2015-02-27 2015-02-27 処理システム、端末装置、処理装置、処理装置制御方法、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037573A JP6531427B2 (ja) 2015-02-27 2015-02-27 処理システム、端末装置、処理装置、処理装置制御方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2016162010A JP2016162010A (ja) 2016-09-05
JP6531427B2 true JP6531427B2 (ja) 2019-06-19

Family

ID=56847034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037573A Active JP6531427B2 (ja) 2015-02-27 2015-02-27 処理システム、端末装置、処理装置、処理装置制御方法、およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6531427B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10126945B2 (en) * 2016-06-10 2018-11-13 Apple Inc. Providing a remote keyboard service

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5736880B2 (ja) * 2011-03-22 2015-06-17 コニカミノルタ株式会社 画像形成装置、設定方法および設定プログラム
JP2013251623A (ja) * 2012-05-30 2013-12-12 Kyocera Document Solutions Inc 画像処理装置、携帯端末、画像処理システム
JP5853999B2 (ja) * 2013-06-17 2016-02-09 コニカミノルタ株式会社 画像形成システム、画像形成装置、遠隔操作装置およびプログラム

Also Published As

Publication number Publication date
JP2016162010A (ja) 2016-09-05

Similar Documents

Publication Publication Date Title
US9606755B2 (en) Portable terminal apparatus, cooperative image processing system, method for displaying screen data, and recording medium
JP6035985B2 (ja) 画像処理装置、画像処理装置の制御プログラム、および画像処理システム
US20130111238A1 (en) Image Processing System, Image Processing Apparatus, Portable Information Apparatus, Image Processing Apparatus Coordination Method, Portable Information Apparatus Coordination Method, Non-Transitory Computer-Readable Recording Medium Encoded with Image Processing Apparatus Coordination Program, and Non-Transitory Computer-Readable Recording Medium Encoded with Portable Information Apparatus Coordination Program
US9560224B2 (en) Remote control device, remote operation device, screen transmission control method, and non-transitory computer-readable recording medium encoded with screen display control program
JP6170452B2 (ja) 画像処理装置及びそれを含むシステム
US20140340706A1 (en) Cooperative image processing system, portable terminal apparatus, cooperative image processing method, and recording medium
JP2008225707A (ja) 画像データ処理装置
JP2013121053A (ja) 携帯端末、画像処理装置、画像処理システム、制御方法及びプログラム
JP6003939B2 (ja) 画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム
EP2750029B1 (en) Display processing apparatus, image forming apparatus, display processing system of a remote screen, and display processing method
US9667831B2 (en) Information processing apparatus, printing method, and non-transitory computer-readable recording medium for generating print data corresponding to a display image
JP2013251623A (ja) 画像処理装置、携帯端末、画像処理システム
JP6915285B2 (ja) 画像処理装置、画像処理装置のプログラムおよび画像処理システム
JP2012073859A (ja) 画像形成装置、表示方法、および表示プログラム
JP5853999B2 (ja) 画像形成システム、画像形成装置、遠隔操作装置およびプログラム
JP6252028B2 (ja) 画像処理システム、画像処理装置及びリモート画面の表示制御プログラム
JP2005197876A (ja) 画像形成システム
JP5768637B2 (ja) 情報処理プログラム、情報処理装置、および情報処理方法
JP6531427B2 (ja) 処理システム、端末装置、処理装置、処理装置制御方法、およびコンピュータプログラム
JP2009217842A (ja) 画像データ処理装置
JP6213297B2 (ja) 画像形成システム、画像形成装置、遠隔操作装置およびプログラム
JP6314499B2 (ja) 操作支援プログラムおよび端末装置
JP6519223B2 (ja) 画像データ送信システム、端末装置、画像データ送信方法、およびコンピュータプログラム
JP6641901B2 (ja) 画像処理装置、遠隔制御方法、および遠隔制御プログラム
JP2019089336A (ja) 画像形成装置、端末装置、エラー画面提供方法、およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181130

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190506

R150 Certificate of patent or registration of utility model

Ref document number: 6531427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150