JP2015069420A - Operation support program, terminal device, processing execution device, and processing execution program - Google Patents
Operation support program, terminal device, processing execution device, and processing execution program Download PDFInfo
- Publication number
- JP2015069420A JP2015069420A JP2013203204A JP2013203204A JP2015069420A JP 2015069420 A JP2015069420 A JP 2015069420A JP 2013203204 A JP2013203204 A JP 2013203204A JP 2013203204 A JP2013203204 A JP 2013203204A JP 2015069420 A JP2015069420 A JP 2015069420A
- Authority
- JP
- Japan
- Prior art keywords
- image
- screen
- displayed
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Accessory Devices And Overall Control Thereof (AREA)
Abstract
Description
本発明は、操作支援プログラム、端末装置、処理実行装置、および処理実行プログラムに関する。 The present invention relates to an operation support program, a terminal device, a process execution device, and a process execution program.
特許文献1には、LCDに重ねられたタッチパネルを備える携帯端末から、複合機を遠隔操作する技術が提案されている。具体的には、撮影した複合機の操作部の画像を、携帯端末のLCDに表示させ、表示された操作部を、タッチパネルを介してユーザに操作させ、操作された操作部に応じた指示を複合機に行う。
しかしながら、特許文献1の技術では、携帯端末が撮影した画像に含まれる操作子のみが対象となる。複合機は、操作部としてのソフトキーを含む画面を複合機の表示部に表示する場合がある。ユーザは、その表示された画面が所望のソフトキーを含む画面でない場合、当該所望のソフトキーを含む画面に切り替えた後、その画面を携帯端末のLCDに表示させるために撮影する必要があり、煩雑であった。
However, in the technique of
本発明は、上述した事情を鑑みてなされたものであり、処理実行装置を好適に遠隔操作させ得る操作支援プログラム、端末装置、処理実行装置、および処理実行プログラムを提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an operation support program, a terminal device, a process execution device, and a process execution program that can suitably operate a process execution device remotely.
この目的を達成するために、本発明の操作支援プログラムは、第1表示部と、前記第1表示部に対する入力操作を検出する入力部と、処理実行装置と通信する通信部と、制御部と、を備えた端末装置の、前記制御部が実行可能であり、かつ、前記入力部が検出した入力操作に基づいて処理実行装置を操作するためのプログラムであって、一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、前記処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を前記第1表示部に表示するための画像データを、前記通信部を介して処理実行装置から受信する画像受信手段と、前記画像受信手段により受信した画像データに基づく前記表示対象画像を表示する画像表示手段と、前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された前記表示対象画像上の位置に応じた操作位置情報を、前記通信部を介して、前記画像データの送信元である処理実行装置に送信する情報送信手段として、前記制御部を機能させる。 In order to achieve this object, an operation support program according to the present invention includes a first display unit, an input unit that detects an input operation on the first display unit, a communication unit that communicates with a process execution device, a control unit, Is a program that can be executed by the control unit and that operates the processing execution device based on an input operation detected by the input unit, and constitutes a series of screen groups. A display target image, which is image data for a plurality of screens and includes at least images of a plurality of indicators each assigned a process performed by the processing execution device and included in the series of screen groups, is displayed on the first display unit. Image receiving means for receiving image data for processing from the processing execution device via the communication unit, image display means for displaying the display target image based on the image data received by the image receiving means, Operation position information corresponding to the position on the display target image designated by the designation operation for designating the position on the display target image displayed on the first display unit, which is the input operation detected by the input unit. The control unit is caused to function as information transmission means that transmits to the processing execution apparatus that is the transmission source of the image data via the communication unit.
また、本発明の処理実行装置は、第1表示部と、前記第1表示部に対する入力操作を検出する入力部と、処理実行装置と通信する通信部と、制御部と、を備え、前記制御部は、一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、前記処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を前記第1表示部に表示するための画像データを、前記通信部を介して処理実行装置から受信する画像受信手段と、前記画像受信手段により受信した画像データに基づく前記表示対象画像を表示する画像表示手段と、前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された前記表示対象画像上の位置に応じた操作位置情報を、前記通信部を介して、前記画像データの送信元である処理実行装置に送信する情報送信手段と、を備えている。 In addition, the process execution device of the present invention includes a first display unit, an input unit that detects an input operation on the first display unit, a communication unit that communicates with the process execution device, and a control unit. The unit is image data for a plurality of screens that form a series of screen groups, and includes at least a plurality of indicators that are included in the series of screen groups and each assigned with a process performed by the processing execution device Image receiving means for receiving image data for displaying the target image on the first display section from the processing execution device via the communication section, and the display target image based on the image data received by the image receiving means. An image display means to display and a position on the display target image designated by a designation operation for designating a position on the display target image displayed on the first display unit, which is an input operation detected by the input unit. The operation position information corresponding to, via said communication unit, and a, and information transmitting means for transmitting to the processing execution unit that is the sender of the image data.
なお、本発明の操作支援プログラムは、端末装置、端末装置を制御する制御装置、操作支援システム、操作支援方法、操作支援プログラムを記録する記録媒体等の種々の態様で構成することができる。また、本発明の処理実行装置は、処理実行装置を制御する制御装置、処理実行システム、処理実行方法、処理実行プログラム、処理実行プログラムを記録する記録媒体等の種々の態様で構成することができる。 The operation support program of the present invention can be configured in various modes such as a terminal device, a control device that controls the terminal device, an operation support system, an operation support method, and a recording medium that records the operation support program. The process execution apparatus of the present invention can be configured in various modes such as a control apparatus that controls the process execution apparatus, a process execution system, a process execution method, a process execution program, and a recording medium that records the process execution program. .
請求項1記載の操作支援プログラムによれば、処理実行装置から受信した画像データに基づく表示対象画像が第1表示部に表示される。指定操作により指定された表示対象画像上の位置に応じた操作位置情報が、表示対象画像データに対応する画像データの送信元である処理実行装置に送信される。これにより、処理実行装置は、表示対象画像上のどの位置が指示されたかを把握できる。表示対象画像は、一連の画面群を構成する複数画面分の画像であるので、処理実行装置において表示されていない画面に含まれる操作子も操作対象とし得る。よって、端末装置からの処理実行装置の遠隔操作を好適に行い得る。 According to the operation support program of the first aspect, the display target image based on the image data received from the process execution device is displayed on the first display unit. The operation position information corresponding to the position on the display target image specified by the specifying operation is transmitted to the processing execution apparatus that is the transmission source of the image data corresponding to the display target image data. Thereby, the process execution apparatus can grasp which position on the display target image is designated. Since the display target image is an image for a plurality of screens constituting a series of screen groups, an operator included in a screen that is not displayed in the processing execution apparatus can be an operation target. Therefore, remote operation of the processing execution device from the terminal device can be suitably performed.
請求項2記載の操作支援プログラムによれば、請求項1が奏する効果に加え、次の効果を奏する。端末装置は、複数の指示子の画像各々である要素画像または複数の要素画像を含む集合画像と、それらの画像の配置を特定する要素画像位置情報とに基づいて、表示対象画像を生成し、表示させることができる。
According to the operation support program of
請求項3記載の操作支援プログラムによれば、請求項2が奏する効果に加え、次の効果を奏する。要素画像位置情報に応じて配置された複数の指示子の画像のうち、処理実行装置の第2表示部に表示される指示子の画像の背景として背景画像が配置されるので、ユーザは、処理実行装置の第2表示部に表示中の指示子を把握できる。
According to the operation support program of
請求項4記載の操作支援プログラムによれば、請求項1から3のいずれかが奏する効果に加え、次の効果を奏する。指定操作により指定された表示対象画像上の位置が、当該一連の画面群におけるどの画面のどの位置を指定するかを特定し、特定された画面および位置を示す情報が、処理実行装置に送信される。よって、処理実行装置は、第2表示部に表示されていない画面であっても、端末装置において指示された位置を把握できる。 According to the operation support program of the fourth aspect, in addition to the effect produced by any one of the first to third aspects, the following effect is produced. The position on the display target image specified by the specifying operation specifies which position of which screen in the series of screen groups is specified, and information indicating the specified screen and position is transmitted to the processing execution device. The Therefore, the process execution device can grasp the position instructed on the terminal device even if the screen is not displayed on the second display unit.
請求項5記載の操作支援プログラムによれば、請求項1から4のいずれかが奏する効果に加え、次の効果を奏する。表示対象画像が拡大または縮小された場合であっても、指示された位置を等倍の表示対象画像上の位置として処理実行装置に送信できるので、処理実行装置は、端末装置にて指示された位置を適切に把握できる。 According to the operation support program of the fifth aspect, in addition to the effect produced by any one of the first to fourth aspects, the following effect is obtained. Even when the display target image is enlarged or reduced, the designated position can be transmitted to the process execution device as a position on the display target image at the same magnification. Therefore, the process execution device is instructed by the terminal device. You can grasp the position appropriately.
請求項6記載の操作支援プログラムによれば、請求項1から5のいずれかが奏する効果に加え、入力操作が表示対象画像外にて行われたものである場合には、当該入力操作に応じた処理を実行することができる。 According to the operation support program of the sixth aspect, in addition to the effect of any one of the first to fifth aspects, when the input operation is performed outside the display target image, the input operation is performed according to the input operation. Can be executed.
請求項8記載の処理実行装置によれば、複数画面から構成される一連の画面群に含まれる、本処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を端末装置の表示部に表示させるための画像データが、端末装置に送信される。そして、当該端末装置から、送信した画像データに対応する表示対象画像上の位置を示す操作位置情報が、指示子の画像上の位置を示す場合には、当該指示子の画像に割り当てられた処理が行われる。よって、処理実行装置において表示されていない画面に含まれる操作子も操作対象として、端末装置に操作させることができる。これにより、処理実行装置を端末装置から好適に遠隔操作させ得る。 According to the process execution device of claim 8, a display target image including at least a plurality of indicator images each assigned a process performed by the process execution device, included in a series of screen groups including a plurality of screens. Image data to be displayed on the display unit of the terminal device is transmitted to the terminal device. When the operation position information indicating the position on the display target image corresponding to the image data transmitted from the terminal device indicates the position on the indicator image, the process assigned to the indicator image Is done. Therefore, an operator included in a screen that is not displayed on the process execution device can be operated by the terminal device as an operation target. Thereby, the process execution apparatus can be suitably remotely operated from the terminal apparatus.
請求項9記載の処理実行装置によれば、請求項8が奏する効果に加え、次の効果を奏する。端末装置から操作位置情報を受信した場合、当該操作位置情報により指定される表示対象画像上の位置が、当該一連の画面群におけるどの画面のどの位置を指定するかを特定する。よって、表示部に表示されていない画面であっても、端末装置において指示された位置を把握できる。 According to the process execution device of claim 9, in addition to the effect of claim 8, the following effect is obtained. When the operation position information is received from the terminal device, the position on the display target image specified by the operation position information specifies which position of which screen in the series of screen groups is specified. Therefore, even if the screen is not displayed on the display unit, the position instructed on the terminal device can be grasped.
請求項10記載の処理実行装置によれば、請求項8または9が奏する効果に加え、表示部に表示される画面が切り替えられた場合に、端末装置に表示する背景画像を、複数の指示子の画像のうち、本処理実行装置の表示部に表示される指示子の画像の背景に表示できる。端末装置を操作するユーザは、処理実行装置に表示中の指示子を把握できる。
According to the process execution device of
請求項11記載の処理実行装置によれば、請求項8から10のいずれかが奏する効果に加え、次の効果を奏する。端末装置から受信した操作位置情報と、そのタイミングで処理実行装置に表示されている画面群との間に不整合がある場合には、操作位置情報が示す操作子に割り当てられた処理が実行されないので、処理実行装置に表示されている画面と、端末装置からの遠隔操作との整合性を取ることができる。 According to the process execution device of the eleventh aspect, in addition to the effect produced by any one of the eighth to tenth aspects, the following effect is produced. If there is a mismatch between the operation position information received from the terminal device and the screen group displayed on the process execution device at that timing, the process assigned to the operator indicated by the operation position information is not executed. Therefore, it is possible to maintain consistency between the screen displayed on the process execution device and the remote operation from the terminal device.
請求項7記載の端末装置によれば、請求項1記載の操作支援プログラムと同様の効果を奏する。また、請求項12記載の処理実行プログラムによれば、請求項1記載の処理実行装置と同様の効果を奏する。 According to the terminal device of the seventh aspect, the same effect as the operation support program according to the first aspect is obtained. Further, according to the process execution program of the twelfth aspect, the same effect as the process execution apparatus of the first aspect is obtained.
以下、本発明の好ましい実施形態について、添付図面を参照して説明する。まず、図1〜図4を参照して、本発明の第1実施形態を説明する。図1は、多機能周辺装置(以下「MFP」と称す)10、および、MFP10と通信可能な端末200の電気的構成を示すブロック図である。なお、図1に示すMFP10および端末200は、それぞれ、本発明の処理実行装置および端末装置の一実施形態である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. First, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing an electrical configuration of a multifunction peripheral device (hereinafter referred to as “MFP”) 10 and a
MFP10は、印刷機能、スキャン機能、コピー機能、ファクシミリ機能などの各種機能を有している。詳細は後述するが、MFP10は、操作支援アプリケーション(以下「操作支援アプリ」と称す)212bを搭載する端末200からの遠隔操作によって、MFP10にて行われる各種の処理を実行可能に構成される。
The MFP 10 has various functions such as a print function, a scan function, a copy function, and a facsimile function. Although details will be described later, the
MFP10には、CPU11、フラッシュメモリ12、RAM13、操作キー15、LCD16、タッチパネル17、スキャナ部18、プリンタ部19、NCU20、モデム21、無線通信部23が主に設けられている。これらの各部は、入出力ポート24を介して互いに接続されている。CPU11は、フラッシュメモリ12に記憶される固定値やプログラム、RAM13に記憶されているデータ、或いは、NCU20を介して送受信される各種信号に従って、MFP10が有している各機能の制御や、入出力ポート24と接続された各部を制御する。
The
フラッシュメモリ12は、不揮発性のメモリであり、MFP10の動作を制御する制御プログラム12aなどが格納される。後述する図3のフローチャートに示す各処理は、CPU11が制御プログラム12aに従い実行する処理である。また、フラッシュメモリ12には、LCD16に表示する各画面を構成するための部品画像および背景画像の画像データが、表示可能な全画面分、準備される。RAM13は、CPU11が制御プログラム12aを実行するにあたり、各種データを一時的に記憶するためのテンポラリエリアを有する書換可能な揮発性のメモリである。
The flash memory 12 is a nonvolatile memory, and stores a
操作キー15は、MFP10の筐体に設けられるメカニカルキーであり、各種の設定値や指示などをユーザから受け付ける。LCD16は、液晶表示装置であり、各種画面を表示する。LCD16の画面には、タッチパネル17がLCD16に重ねて設けられる。タッチパネル17は、例えば、指や棒などの指示体がLCD16の画面に対してタッチ又は近づいた場合に、タッチ又は近づいた位置を検知し、検知した位置をMFP10に入力する。スキャナ部18は、原稿を読み取って画像データに変換する。プリンタ部19は、画像データに基づく画像を記録用紙に印刷する。モデム21は、FAX送信時には送信すべき画像データを、電話回線網(図示せず)に伝送可能な信号に変調してNCU20を介して送信し、または、電話回線網からNCU20を介して入力された信号を画像データに復調する。NCU20は、図示されない電話回線網とMFP10との間を接続するものであり、モデム21からの指示に従って、回線を閉結または切断することにより、電話回線網との間の接続状態を制御する。
The
無線通信部23は、無線LANによる無線通信を行うためのインタフェースである。本実施形態では、無線通信部23が行う通信は、IEEE802.11b/g/nの規格に準拠した無線LANによる無線通信である。本実施形態において、無線通信部23は、中継装置であるアクセスポイント(AP)50を介するインフラストラクチャーモードによって、端末200との間でWi−Fi(登録商標)規格に基づいた無線通信(以下、この通信を「Wi−Fi通信」と称す)により接続される。
The
本実施形態の端末200は、タブレット端末である。端末200には、CPU211、フラッシュメモリ212、RAM213、操作キー215、LCD216、タッチパネル217、メモリカードインタフェース(メモリカードI/F)218、無線通信部223が主に設けられる。これらの各部は、入出力ポート224を介して互いに接続されている。CPU211は、ROM212等に記憶される固定値やプログラム等に従って、バスライン224と接続された各部を制御する。
The
フラッシュメモリ212は、書換可能な不揮発性のメモリである。フラッシュメモリ212には、オペレーティングシステム212a、操作支援アプリ212bが格納される。なお、以下では「オペレーティングシステム」を「OS」と称することがある。また、以下では、アプリケーションやオペレーティングシステムなどのプログラムを実行するCPU211のことを、単にプログラム名で記載する場合もある。例えば「アプリケーション」という記載が「アプリケーションを実行するCPU211」を意味する場合もある。OS212aは、端末200の標準機能を実現するための基本ソフトウェアである。本実施形態では、OS212aの一例として、アンドロイド(登録商標)OSを採用する。
The
操作支援アプリ212bは、MFP10などのデバイスを遠隔操作するためのアプリケーションプログラムである。操作支援アプリ212bは、ユーザによって端末200にインストールされ、端末200から、対応するデバイスの遠隔操作を可能にする。なお、後述する図4のフローチャートに示す各処理は、CPU211が操作支援アプリ212bに従い実行する処理である。
The
操作キー215は、端末200の筐体に設けられるメカニカルキーであり、各種の設定値や指示などをユーザから受け付ける。LCD216、タッチパネル217、メモリカードI/F218、および無線通信部223は、それぞれ、上述したLCD16、タッチパネル17、メモリカードI/F18、および無線通信部23と同様のものである。
The
図2を参照して、本発明の概略を説明する。図2(a)には、MFP10のLCD16に表示される画面の一例として、機能メニュー画面70を示す。機能メニュー画面70は、2ページ分の画面、すなわち、1ページ目の画面70aと2ページ目の画面70bとの2画面から構成される。ユーザは、機能メニュー画面70に表示されるボタン画像91c,91dに対する押下操作(所謂「タップ操作」)を適宜行うことにより、LCD16に表示する画面を、画面70aまたは画面70bに適宜切り替えることができる。
The outline of the present invention will be described with reference to FIG. FIG. 2A shows a
LCD16に表示される画面は、背景画像と、当該背景画像上に配置される部品画像とから構成される。図2(a)に示す機能メニュー画面70は、背景画像91と、当該背景画像91に配置される部品画像としてのボタン画像81とから構成される。ボタン画像81は、MFP10に実行させる機能を選択するための操作子である。本実施形態では、ボタン画像81は、5つのボタン画像81a〜81eから構成される。ユーザが、ボタン画像81a〜81eのいずれかに対する押下操作を行った場合、MFP10は、押下操作されたボタン画像81に応じた処理、具体的には、押下操作されたボタン画像81に対応する機能の実行に関わる画面(図示せず)の表示処理を実行する。
The screen displayed on the
5つのボタン画像81a〜81eは、1画面に集約されず、2画面に分けて表示される。具体的に、ボタン画像81a〜81cは、1ページ目の画面70aに表示され、ボタン画像81d,81eは、2ページ目の画面70bに表示される。よって、ユーザは、ボタン画像81a〜81eのうち、操作したいボタン画像に応じて、画面70aまたは画面70bを適宜切り替えて表示する必要がある。
The five
背景画像91は、テキストであるページ番号91aおよび日時情報91bを含む。また、背景画像91は、LCD16に表示する画面を、前ページまたは次ページに切り替えるための操作子であるボタン画像91c,91dを含む。
The
機能メニュー画面70など、LCD16に表示される各画面は、背景画像91などの背景画像の画層と、ボタン画像81などの部品画像の画層とを重ねて構成される。MFP10は、ある画面をLCD16に表示させる場合、背景画像の画層と、部品画像を予め決められた配置に配置させた画層とを生成し、各画層を重ねてLCD16に表示する。
Each screen displayed on the
なお、表示対象の画面が、機能メニュー画面70のような、複数画面から構成される一連の画面群である場合、MFP10は、一連の画面群を構成する全ての画面について、それぞれ、ボタン画像81などの部品画像を配置させた画層を生成し、RAM13に記憶させる。つまり、機能メニュー画面70が表示対象となる場合、MFP10は、背景画像91の画層と、画面70a用の部品画像の画層と、画面70b用の部品画像の画層とを予め生成する。MFP10は、画面70aをLCD16に表示する場合には、画面70a用の部品画像の画層と、背景画像91の画層とを重ねて、LCD16に表示する。一方、MFP10は、画面70bをLCD16に表示する場合には、画面70b用の部品画像の画層と、背景画像91の画層とを重ねて、LCD16に表示する。なお、ボタン画像81および背景画像91に対応する画像データは、フラッシュメモリ12に予め準備される。
When the display target screen is a series of screen groups including a plurality of screens, such as the
詳細は後述するが、MFP10が、操作支援アプリ212bを搭載する端末200から遠隔操作される場合、MFP10は、LCD16に表示中の画面を構成する背景画像および部品画像の画像データなどを端末200に送信する。これにより、端末200のLCD216には、MFP10のLCD16に表示中の画面と同じ画像が、遠隔操作用の画像として表示される。ユーザは、かかる遠隔操作用の画像に基づいて、MFP10の遠隔操作を行うことができる。特に、LCD16に表示中の画面が、機能メニュー画面70など、複数画面から構成される一連の画面群である場合には、表示中の1画面だけでなく、複数画面分の画像が、遠隔操作用の画像としてLCD216に表示される。
Although details will be described later, when the
図2(b)および(c)に、遠隔操作用の画像の1つである画像170を示す。画像170は、機能メニュー画面70に対応する遠隔操作用の画像である。画像170は、機能メニュー画面70を構成する2画面分の画像、より詳細には、画面70a,70bに表示されるボタン画像81(81a〜81e)と、背景画像91とから構成される。背景画像91は、ページ番号91aと、日時情報91bと、ボタン画像91c,91dとを含む。端末200は、ボタン画像81(81a〜81e)および背景画像91にそれぞれ対応する画像データとともに、各画像81,91の位置情報をMFP10から受信する。端末200は、受信した位置情報に基づいて、各画像81,91を配置し、それにより、図2(b)および(c)に示すような画像170が、LCD216に表示される。
2B and 2C show an
ボタン画像81の位置情報は、各ボタン画像81a〜81eのビットマップの情報と、各ボタン画像81a〜81eの位置を示す座標とから構成される。一方、背景画像91の位置情報は、背景画像91のビットマップの情報と、背景画像91の位置を示す座標とから構成される。本実施形態では、位置情報に含まれる座標は、各画像の左上の位置を示す座標である。よって、各ボタン画像81a〜81eの左上の位置を示す座標P1〜P5と、背景画像91の左上の位置を示す座標Q1とが、ボタン画像81または背景画像91の位置情報として含まれている。
The position information of the
画像170は、MFP10のLCD16に表示されている画面が、画面70aであるか画面70bであるかにより、表示内容が相違する。つまり、図2(b)には、MFP10のLCD16に表示中の画面が、画面70aであるときの場合の画像170aを示す。一方、図2(c)には、MFP10のLCD16に表示中の画面が、画面70bであるときの場合の画像170bを示す。画像170aと画像170bとでは、背景画像91の表示位置が相違する。これは、MFP10から受信する座標Q1の値が異なることに基づく。
The display content of the
画像170aでは、ボタン画像81a〜81cの背景として、背景画像91が表示される。一方、画像170bでは、ボタン画像81d,81eの背景として、背景画像91が表示される。つまり、機能メニュー画面70に含まれるボタン画像81のうち、MFP10のLCD16に表示中のボタン画像の背景として、背景画像91が表示される。よって、ユーザは、そのときにMFP10側で表示されている画面を、LCD216に表示される遠隔操作用の画像における背景画像の位置から把握できる。
In the
ユーザは、画像170のうち、操作子であるボタン画像81a〜81eのいずれかに対する押下操作を行うことにより、MFP10に、押下操作されたボタン画像81に応じた処理を実行させることができる。このとき、操作対象にするボタン画像81a〜81eが、MFP10のLCD16に表示されているか否かは問わない。つまり、操作支援アプリ212bによれば、ボタン画像81a〜81のうち、LCD16に表示されていない画面に含まれるボタン画像であっても、操作対象とすることができる。
The user can cause the
また、操作支援アプリ212bによれば、画像170など、LCD216に表示される遠隔操作用の画像上でドラッグ操作などの操作が行われた場合には、その操作をMFP10で行ったかのように、MFP10に処理を実行させることができる。その一方で、LCD216上における、遠隔操作用の画像が表示されていない領域216a上で各種操作が行われた場合には、端末200に対し当該操作に応じた処理を実行させることができる。例えば、領域216a上でピンチアウト操作が行われた場合には、表示されている遠隔操作用の画像を、そのときの表示サイズから拡大できる。
Further, according to the
なお、上記図2では、部品画像であるボタン画像81が、LCD16およびLCD216の長手方向、すなわち、X軸方向に並ぶ例を例示したが、部品画像の並び方向は、LCD16およびLCD216の短手方向、すなわち、Y軸方向であってもよい。つまり、部品画像がLCD16の短手方向に並ぶ場合に、LCD216に表示される遠隔操作用の画像は、部品画像がLCD216の短手方向に並ぶ画像となる。
2 illustrates an example in which the
図3は、MFP10のCPU11が実行する、遠隔操作時のMFP側処理を示すフローチャートである。本処理は、MFP10を端末200から遠隔操作させるための処理である。本処理は、MFP10と端末200との間で、遠隔操作を行うための事前処理が完了したことを条件として開始される。
FIG. 3 is a flowchart showing MFP-side processing during remote operation, which is executed by the
図3の説明に先立って、上記事前処理について説明する。事前処理は、まず、ユーザは、MFP10を操作し、遠隔操作を有効に設定することから始まる。次に、ユーザは、端末200を操作して操作支援アプリ212bを起動し、操作支援アプリ212bが起動された端末200に、遠隔操作が有効に設定されたMFP10を検索させる。端末200は、検索されたMFP10を遠隔操作の対象として端末200に登録し、登録されたMFP10に、登録したことを示す登録情報や、端末200のIPアドレスなどをWi−Fi通信で送信する。これらを受信したMFP10は、端末200との通信リンクを確立する。通信リンクが確立したことにより、事前処理は完了する。MFP10は、端末200からの遠隔操作が可能な状態となる。
Prior to the description of FIG. 3, the pre-processing will be described. The pre-processing starts when the user operates the
図3に示すように、CPU11は、背景画像、表示中の部品画像、および画面遷移用に隠れている部品画像の画像データと、各画像の位置情報と、表示中の画面の画面IDとを、Wi−Fi通信により、端末200に送信する(S301)。S301においてCPU11が送信する画面IDは、LCD16に表示される画面を特定する識別情報であり、フッシュメモリ12に予め準備されている。
As shown in FIG. 3, the
各画像の位置情報は、各画像のビットマップの情報と、各画像の座標情報とから構成される。S301の処理が実行されたことにより、MFP10から送信した画像データおよび位置情報に応じた遠隔操作用の画像、例えば、図2(b)に示す画像170が、端末200のLCD216に表示される。
The position information of each image is composed of bitmap information of each image and coordinate information of each image. By executing the processing of S301, the image data transmitted from the
本実施形態では、各画像の座標情報は、各画像の左上の座標である。機能メニュー画面70のような、複数画面から構成される一連の画面群である場合、画面70aのような1ページ目の画面に含まれる部品画像の座標Pは、その部品画像の、当該部品画像を含む画面における実際の座標をそのまま用いる。一方、画面70bのような2ページ目以降の画面に含まれる部品画像の座標Pは、一連の画面群を構成する各画面を仮想的に並べたことによる通算の座標を用いる。
In the present embodiment, the coordinate information of each image is the upper left coordinate of each image. In the case of a series of screen groups composed of a plurality of screens such as the
具体的に、通算座標のうち、一連の画面群における仮想的な画面の並び方向(以下、単に「画面の並び方向」と称することがある)の値は、対象となる部品画像を含む画面における当該部品画像の実際の座標のうち、画面の並び方向の値A1と、当該部品画像を含む画面のページ番号Nと、LCD16の、画面の並び方向の長さLとから算出される。一方、通算座標のうち、画面の並び方向の値は、対象となる部品画像を含む画面における当該部品画像の実際の座標のうち、画面の並び方向の値A2をそのまま用いる。すなわち、画面の並び方向がX方向である場合には、2ページ目以降の画面に含まれる部品画像の通算座標は(A1+(N×L+1),A2)である。一方、画面の並び方向がY方向である場合には、2ページ目以降の画面に含まれる部品画像の通算座標は(A2,A1+(N×L+1))である。
Specifically, among the total coordinates, the value of the virtual screen alignment direction (hereinafter, simply referred to as “screen alignment direction”) in the series of screen groups is the value on the screen including the target component image. Of the actual coordinates of the component image, the value is calculated from the value A1 of the screen alignment direction, the page number N of the screen including the component image, and the length L of the
なお、「一連の画面群における仮想的な画面の並び方向」は、一連の画面群に含まれる部品画像の並び方向に等しい。つまり、ボタン画像81がLCD16の長手方向に並ぶ機能メニュー画面70は、一連の画面群における仮想的な画面の並び方向は、LCD16の長手方向となる。よって、例えば、LCD16の長手方向の長さが480dotである場合、上記長さLは480である。一方、部品画像がLCD16の短手方向に並ぶ画面は、一連の画面群における仮想的な画面の並び方向は、LCD16の短手方向となる。よって、例えば、LCD16の短手方向の長さが320dotである場合、上記長さLは320である。
The “virtual screen arrangement direction in a series of screen groups” is equal to the arrangement direction of component images included in the series of screen groups. That is, in the
次に、背景画像の座標について説明する。機能メニュー画面70のような、複数画面から構成される一連の画面群である場合、背景画像91のような背景画像の座標Qは、LCD16に表示中の画面がどのページの画面であるかに応じた座標となる。具体的に、LCD16に表示中の画面が1ページ目の画面である場合には、背景画像の左上の座標Qは(0,0)である。LCD16に表示中の画面が2ページ目以降の画面である場合、背景画像の左上の座標のうち、画面の並び方向の値Eは、E=(画面の並び方向の長さL+1)の式に基づき算出する。よって、例えば、画面の並び方向がX方向である場合、背景画像の座標Qは(E,0)である。一方、画面の並び方向がY方向である場合、背景画像の座標Qは(0,E)である。
Next, the coordinates of the background image will be described. In the case of a series of screen groups composed of a plurality of screens, such as the
CPU11は、S301の処理後、端末200から操作情報を受信したかを判断する(S302)。端末200から操作情報を受信していないとCPU11が判断した場合(S302:No)、CPU11は、端末200への画像データおよび位置情報などを定期的に送信する送信タイミングであるかを判断する(S313)。本実施形態では、当該送信タイミングは、50msec毎とする。送信タイミングであるとCPU11が判断した場合(S313:Yes)、CPU11は、処理をS301に移行する。
After the process of S301, the
S313において、送信タイミングでないとCPU11が判断した場合(S313:No)、CPU11は、MFP10において、ボタン画像81などの操作子が操作されたなどに基づく各種イベントが発生したかを判断する(S314)。イベントが発生していないとCPU11が判断した場合(S314:No)、CPU11は、処理をS302に移行する。一方、イベントが発生したとCPU11が判断した場合(S314:Yes)、CPU11は、発生したイベントに応じた処理を実行し(S315)、処理をS301に移行する。なお、このイベントには、MPF10において、ボタン画像91cまたは91dが押下され、LCD16の表示が画面70aから画面70bに切り替わることや、画面70bから画面70aに切り替わることも含む。
When the
S302において、端末200から操作情報を受信したとCPU11が判断した場合(S302:Yes)。CPU11は、操作情報とともに端末200から受信した画面IDが適切であるか否かを判断する(S303)。具体的に、受信した画面IDが、LCD16に表示中の画面に対応する画面IDであるか、または、表示中の画面ともに一連の画面群を構成する他の画面に対応する画面IDである場合、CPU11は、S303において、受信した画面IDが適切であると判断する。
In S302, when the
S303において、受信した画面IDが不適切であるとCPU11が判断した場合(S303:No)、CPU11は、処理をS302に移行する。かかる場合、CPU11は、後述するS304〜S312の処理、すなわち、MFP10が端末200から受信した操作情報に応じた処理を行わない。受信した画面IDが不適切であることは、端末200側にて操作が行われた遠隔操作用の画像が、LCD16に表示中の画面または当該画面を含む一連の画面群に対応しないことを示す。よって、S303の処理によれば、LCD16に表示中の画面と、端末200からの遠隔操作との整合性を取ることできる。
If the
一方、S303において、受信した画面IDが適切であるとCPU11が判断した場合(S303:Yes)、CPU11は、受信した操作情報が何であるかを判断する(S304)。受信した操作情報が、端末200に表示された遠隔操作用の画像に対し、ドラッグ操作が行われたことを示すドラッグ情報であると、CPU11が判断した場合(S304:ドラッグ情報)、CPU11は、受信したドラッグ情報に従ってドラッグ処理、より詳細には、遠隔操作用の画像に対するドラッグ操作に応じたドラッグ処理を実行する(S310)。また、受信した操作情報が、端末200に表示された遠隔操作用の画像に対し、フリック操作が行われたことを示すフリック情報であると、CPU11が判断した場合(S304:フリック情報)、CPU11は、受信したフリック情報に従ってフリック処理、より詳細には、遠隔操作用の画像に対するフリック操作に応じたフリック処理を実行する(S311)。
On the other hand, when the
受信した操作情報が、端末200に表示された遠隔操作用の画像に対し、押下操作が行われたことを示す押下情報であると、CPU11が判断した場合(S304:押下情報)、CPU11は、受信した押下情報に含まれる押下座標が、LCD16の画面内に収まるかを判断する(S305)。具体的に、例えば、LCD16の画面サイズが、480×320dotの大きさである場合に、受信した押下座標が、(0,0)から(480,320)までの矩形領域内に位置する座標であれば、CPU11は、当該押下座標が、LCD16内に収まると判断する。
When the
受信した押下座標がLCD16の画面内に収まるとCPU11が判断した場合(S305:Yes)、CPU11は、1ページ目の画面における押下座標が示す位置を押下位置に決定する(S306)。一方、受信した押下座標がLCD16の画面内に収まらないとCPU11が判断した場合(S305:No)、CPU11は、受信した押下座標が、どのページの画面におけるどの座標を押下位置とするかを決定する(S312)。
When the
具体的に、S312において、CPU11は、まず、受信した押下座標(X,Y)のXおよびYを、それぞれ、LCD16のX方向の長さLxと、Y方向の長さLyで割った商を算出する。次に、CPU11は、商(X/Lx)または商(Y/Ly)のうち、1以上である商の整数部分の値Naから、Naページ目の画面が押下されたかを決定する。CPU11は、商(X/Lx)または商(Y/Ly)のうち、商が1以上である方の余りMaに基づいて、Naページ目の画面における押下座標を決定する。つまり、商(X/Lx)が1以上である場合には、Naページ目の画面における座標(Ma,Y)を押下位置として決定する。一方、商(Y/Ly)が1以上である場合には、Naページ目の画面における座標(X,Ma)を押下位置として決定する。
Specifically, in S312, the
CPU11は、S306またはS312により決定された押下位置が、ボタン画像81など、MFP10に対する指示を入力するための各種操作子上に位置するかを判断する(S307)。決定された押下位置が操作子上に位置しないとCPU11が判断した場合(S307:No)、端末200に表示された遠隔操作用の画像に対して行われた押下操作は、操作子上で行われていないことを示す。よって、かかる場合、CPU11は、処理をS302に移行する。一方、決定された押下位置が操作子上に位置するとCPU11が判断した場合(S307:Yes)、CPU11は、押下対象の操作子に対する押下処理を実行する(S308)。
The
例えば、端末200に表示された遠隔操作用の画像に対して行われた押下操作が、ボタン画像81a〜81eのいずれかに対する押下操作であると、CPU11が判断した場合、CPU11は、押下処理として、押下操作されたボタン画像81に応じた処理を実行する。具体的に、CPU11は、押下操作されたボタン画像81a〜81eに対応する機能の実行に関わる画面(図示せず)を表示する処理を実行する。その結果、LCD16に表示される画面は、機能メニュー画面79から、押下操作されたボタン画像81a〜81eに対応する機能の実行に関わる画面に切り替わる。
For example, when the
あるいは、端末200に表示された遠隔操作用の画像に対して行われた押下操作が、ボタン画像91cまたはボタン画像91dに対する押下操作であると、CPU11が判断した場合、CPU11は、押下処理として、LCD16に表示されている画面を、当該表示中の画面に対する前ページまたは次ページの画面に切り替える処理を実行する。また、端末200に表示された遠隔操作用の画像に対して行われた押下操作が、コピー機能など、各種機能の実行を指示する操作子に対する押下操作であると、CPU11が判断した場合、CPU11は、押下処理として、指示の対象となる機能を用いた処理を実行する。
Alternatively, when the
S308,S310,S311の処理によれば、MFP10は、操作支援アプリ212bを搭載する端末200から遠隔操作される。そして、S308,S310,S311の処理後、CPU11は、各処理の実行結果を示す実行結果情報を、Wi−Fi通信により、端末200に送信する(S309)。実行結果情報には、処理が行われた結果としてLCD16の表示画面に変化があったかを示す情報を含む。S309の処理後、CPU11は、処理をS301に移行する。
According to the processing of S308, S310, and S311, the
図4は、端末200のCPU211が実行する、遠隔操作時の端末側処理を示すフローチャートである。本処理は、MFP10を遠隔操作するための処理である。本処理は、図3と同様、上述した事前処理が完了したことを条件として開始される。
FIG. 4 is a flowchart showing terminal-side processing at the time of remote operation, which is executed by the
CPU211は、MFP10がS301において送信した画像データなどの受信、または、タッチパネル217に対する操作の受け付けを待機する(S401:No,S404:No)。CPU211は、MFP10から画像データなどを受信した場合(S401:Yes)、画像データとともに受信した画面IDをRAM213に記憶する(S402)。次に、CPU211は、画像データとともに受信した各画像の位置情報に基づいて、遠隔操作用の画像を構成し、LCD216に表示する(S403)。S403の処理の結果、例えば、図2(b)の画像170aまたは図2(c)の画像170bが、LCD216に表示される。CPU211は、S403の処理後、処理をS404に移行する。
The
タッチパネル217に対する操作をCPU211が受け付けた場合(S404:Yes)、CPU211は、受け付けた操作の種類を判断する(S405)。押下操作を受け付けたとCPU211が判断した場合(S405:押下)、CPU211は、LCD216に表示されている遠隔操作用の画像の、等倍画像に対する拡縮倍率Zを取得する(S406)。拡縮倍率Zは、等倍画像に対する現在の画像のサイズ比である。等倍画像の場合、拡縮倍率Zは1である。拡縮倍率Zが1より小さい値である場合には、現在の画像が、等倍画像から縮小されていることを示す。一方、拡縮倍率Zが1より大きい値である場合には、現在の画像が、等倍画像から拡大されていることを示す。拡縮倍率Zは、RAM216に記憶されており、LCD216に表示される画像が拡大または縮小される毎に随時更新される。なお、等倍画像は、拡大も縮小もしていない画像である。本実施形態では、S401においてMFP10から受信した画像データに基づく画像を、等倍画像とする。
When the
CPU211は、S406で取得した拡縮倍率Zに基づいて、押下操作として受け付けた押下座標を、等倍画像に対する押下座標に換算する(S407)。具体的に、受け付けた押下座標が(X1,Y1)である場合、CPU211は、X1およびY1をそれぞれ拡縮倍率Zで割る。つまり、換算後の押下座標は(X1/Z,Y1/Z)である。次に、CPU211は、押下情報と、RAM213に記憶される画面IDとを、Wi−Fi通信により、MFP10に送信する(S408)。押下情報は、押下操作が行われたことを示す情報と、S407による換算後の押下座標とを含む。S408の処理の結果、MFP10のCPU11は、画像IDが適切であることを条件として、上述したS305〜S308,S312の処理を実行する。
Based on the enlargement / reduction ratio Z acquired in S406, the
このように、LCD216に表示される遠隔操作用の画像が拡大または縮小されたとしても、ユーザが押下した座標が、等倍画像の押下座標としてMFP10に送信されるので、MFP10では、ユーザが意図した操作子に応じた処理を適確に実行させることができる。また、このように、遠隔操作用の画像が拡大または縮小されても、ユーザの意図に応じた処理をMFP10に実行させることができるので、ユーザは、遠隔操作用の画像を自身が所望するサイズに拡大または縮小して利用することができ、利便性がよい。なお、拡縮倍率Zが1である場合、すなわち、現在の画像が等倍画像である場合には、S407による換算を行うことなく、受け付けた押下座標を送信する構成としてもよい。
As described above, even if the image for remote operation displayed on the
一方、ドラッグ操作を受け付けたとCPU211が判断した場合(S405:ドラッグ)、CPU211は、ドラッグ情報と、RAM213に記憶される画面IDとを、Wi−Fi通信により、MFP10に送信する(S410)。ドラッグ情報は、ドラッグ操作が行われたことを示す情報と、受け付けたドラッグ操作の始点座標および終点座標と、を含む。一方、フリック操作を受け付けたとCPU211が判断した場合(S405:フリック)、CPU211は、フリック情報と、RAM213に記憶される画面IDとを、Wi−Fi通信により、MFP10に送信する(S411)。フリック情報は、フリック操作が行われたことを示す情報と、受け付けたフリック操作の加速方向および加速度と、を含む。S410またはS411の処理の結果、MFP10のCPU11は、画像IDが適切であることを条件として、上述したS310またはS311の処理を実行する。
On the other hand, when the
CPU211は、S408,S410,S411の処理後、MFP10から実行結果情報を受信することを待機する(S409:No,413:No)。実行結果情報は、MFP10のCPU11が、上述したS309において送信する情報である。CPU211は、MFP10から実行結果情報を受信した場合(S409:Yes)、CPU211は、処理をS401に移行する。S408,S410,S411において、CPU211が、タッチパネル217に対する操作に応じた情報をMFP10に送信した結果、MFP10にてLCD16に表示される画面に変化があった場合、MFP10から受信する実行結果情報にはその旨を示す情報が含まれる。よって、MFP10から、変更後の画面に応じた画像データなどが送信されるので、CPU211は、S403の処理を実行することになり、その結果、端末200のLCD216には、変更後の画面に応じた遠隔操作用の画像が表示される。
After the processing of S408, S410, and S411, the
CPU211が、MFP10から実行結果情報を受信することなく、所定時間、例えば、5秒が経過した場合(S413:Yes)、CPU211は、操作された遠隔操作用の画像が、MFP10に表示されている画面と相違する旨をLCD216に表示し(S414)、処理をS401に移行する。S414の処理による表示は、MFP10のCPU11が、S408において送信した画面IDを不適切であると判断し、実行結果情報が送信されなかった場合に表示される。よって、ユーザは、当該表示に基づき、MFP10の画面が、遠隔操作用の画像から変更されており、操作できなかったことを把握できる。
When the
一方、S405において、LCD216上における遠隔操作用の画像以外の領域、すなわち、領域216aに対する操作を受け付けたと、CPU211が判断した場合(S405:画像外操作)、CPU211は、受け付けた操作に応じた処理を実行し(S412)、処理をS401に移行する。例えば、領域216a上でのピンチアウト操作をCPU211が受け付けた場合、CPU211は、表示されている遠隔操作用の画像を、ピンチアウトの操作量に応じて拡大する。これに対し、領域216a上でのピンチイン操作をCPU211が受け付けた場合、CPU211は、表示されている遠隔操作用の画像を、ピンチインの操作量に応じて縮小する。また、領域216上でのドラッグ操作やフリック操作をCPU211が受け付けた場合、CPU211は、表示されている遠隔操作用の画像を、ドラッグ操作やフリック操作に応じてスクロールする。このように、操作支援アプリ212bによれば、遠隔操作用の画像が表示されていない領域216を有効活用できる。また、遠隔操作用の画像のサイズや表示部位をユーザの所望に応じて変化できるので、遠隔操作用の画像の操作性や利便性がよい。
On the other hand, when the
上記第1実施形態によれば、MFP10を、操作支援アプリ212bを搭載する端末200から遠隔操作することができる。特に、機能メニュー画面70のように、複数画面から構成される一連の画面群の場合、MFP10のLCD16に表示されていない画面に含まれる操作子であっても、端末200からの遠隔操作の対象にすることができるので、操作性および利便性に優れる。
According to the first embodiment, the
次に、図5を参照して、本発明の第2実施形態について説明する。上述した第1実施形態では、MFP10側で、端末200のタッチパネル217に対する押下操作の押下座標が、複数画面から構成される一連の画像群のうち、どのページの画面におけるどの位置を押下したものであるかを決定する構成とした。これに対し、第2実施形態では、当該決定を端末200側で行う。第2実施形態において、上述した第1実施形態と同一の部分については、同一の符号を付し、その説明は省略する。
Next, a second embodiment of the present invention will be described with reference to FIG. In the first embodiment described above, on the
以下、第1実施形態との相違点を中心に説明する。第2実施形態の、遠隔操作時のMFP側処理は、CPU11が、第2実施形態の制御プログラム12aに従って実行する。本実施形態では、MFP10側にて上記決定を行わないので、MFP10のCPU11が実行する、本実施形態において、遠隔操作時のMFP側処理は、上述した第1実施形態での同処理(図3)から、S305,S306,S312の各処理が省略された処理となる。
Hereinafter, the difference from the first embodiment will be mainly described. The
図5は、第2実施形態の、遠隔操作時の端末側処理を示すフローチャートである。本処理は、CPU211が、第2実施形態の操作支援アプリ212bに従って実行する。本処理は、CPU211が受け付けた操作が押下操作である場合が、第1実施形態と相違する。具体的に、CPU11は、S407の処理後、MFP10の画面サイズを取得する(S501)。画面サイズの取得方法としては、LCD16の画面サイズをMFP10に問い合わせ、その返信として取得する方法や、LCD16の画面サイズをフラッシュメモリ212に記憶しておき、読み出す方法などがある。フラッシュメモリ212に画面サイズを記憶させる方法としては、例えば、MFP10に対する問い合わせの結果として受信した画面サイズを記憶させる方法や、事前処理においてMFP10から取得した画面サイズを記憶させる方法や、MFP10のモデル毎に画面サイズが格納されたテーブルを予め記憶させる方法などがある。
FIG. 5 is a flowchart illustrating terminal-side processing during remote operation according to the second embodiment. This process is executed by the
次に、CPU211は、S305の処理と同様に、換算後の押下座標が、MFP10のLCD16の画面内に収まるかを判断する(S502)。換算後の押下座標がLCD16の画面内に収まるとCPU211が判断した場合(S502:Yes)、CPU211は、換算後の押下座標を、1ページ目の画面における押下座標として決定する(S503)。一方、換算後の押下座標がLCD16の画面内に収まらないとCPU211が判断した場合(S502:No)、CPU211は、換算後の押下座標が、どのページの画面におけるどの座標が押下されたかを決定する(S504)。S504の決定は、S312と同様に行うことができる。
Next, the
CPU211は、S503またはS504の処理後、S408の処理を実行する。第2実施形態では、S408において、CPU211は、押下情報として、押下操作が行われたことを示す情報と、どのページの画面におけるどの座標が押下されたかを示す情報を、MFP10に送信する。MFP10は、S305,S306,S312の各処理を行うことなく、端末200から受信した押下情報に基づいて、複数画面から構成される一連の画像群のうち、どのページにおけるどの位置を押下したものであるかを認識できる。
The
上記第2実施形態によれば、端末200側で、タッチパネル217に対する押下操作の押下座標が、複数画面から構成される一連の画像群のうち、どのページの画面におけるどの位置を押下したものであるかを決定できる。つまり、端末200側で、MFP10のLCD16に表示されていない画面であっても、押下操作の位置を特定できる。
According to the second embodiment, on the terminal 200 side, the pressing coordinate of the pressing operation on the
上記実施形態において、操作支援アプリ212bが、操作支援プログラムの一例である。端末200が、端末装置の一例である。MFP10が、処理実行装置の一例である。
制御プログラム12aが、処理実行プログラムの一例である。LCD216が、第1表示部の一例である。タッチパネル217が、入力部の一例である。無線通信部223が、端末装置の通信部の一例である。CPU211が、端末装置の制御部の一例である。LCD16が、第2表示部、表示部の一例である。無線通信部23が、処理実行装置の通信部の一例である。CPU11が、処理実行装置の制御部の一例である。フラッシュメモリ12が、記憶部の一例である。機能メニュー画面70が、一連の画面群の一例である。ボタン画像81,91c,91dが、操作子の画像の一例である。各ボタン画像81a〜81eが、要素画像の一例である。遠隔操作用の画像170が、表示対象画像の一例である。
In the above embodiment, the
The
S401の処理を実行するCPU211が、画像受信手段の一例である。S403の処理を実行するCPU211が、画像表示手段の一例である。S408の処理を実行するCPU211が、情報送信手段の一例である。S501の処理を実行するCPU211が、取得手段の一例である。S502〜S504の処理を実行するCPU211が、請求項4の特定手段の一例である。S407の処理を実行するCPU211が、変換手段の一例である。S412の処理を実行するCPU211が、処理実行手段の一例である。S301の処理を実行するCPU11が、画像送信手段の一例である。S308の処理を実行するCPU11が、処理実行手段の一例である。S305,S306,S312の処理を実行するCPU11が、請求項9の特定手段の一例である。S303の処理を実行するCPU11が、判断手段の一例である。
The
以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。 Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.
例えば、上記実施形態では、本発明の端末装置として、タブレット端末である端末200を例示したが、MFP10などの処理実行装置と通信可能であり、かつ、LCDなどの画面を有する装置であれば、パーソナルコンピュータや、スマートフォンや、携帯端末や、デジタルカメラや、携帯音楽再生装置などであっても、本発明の端末装置の一例となり得る。上記実施形態では、OS12aとして、アンドロイドOSを例示したが、他のOSを採用してもよい。上記実施形態では、遠隔操作用の画像に対する押下操作をタッチパネル217が検出する構成としたが、マウスなどのポインティングデバイスを用いて、遠隔操作用の画像に対する操作を行う構成であっても、本発明を適用できる。
For example, in the above-described embodiment, the terminal 200 that is a tablet terminal is illustrated as the terminal device of the present invention. However, as long as it is a device that can communicate with a processing execution device such as the
上記実施形態では、本発明の処理実行装置として、多機能周辺装置であるMFP10を例示したが、スキャナ装置や、プリンタ装置などの単機能を有する装置や、画像や音楽を再生するための装置などであっても、本発明の処理実行装置の一例となり得る。
In the above embodiment, the
上記実施形態では、MFP10は、ボタン画像81a〜81eの各々について、画像データと位置情報とを、端末200に送信する構成としたが、複数のボタン画像が予め連なって配列された集合画像の画像データと、当該集合画像の位置情報とを、端末200に送信する構成としてもよい。集合画像は、MFP10に予め準備されていても、S301の送信の前に、例えば、画面毎に各画面に含まれる部品画像から集合画像を生成してもよい。なお、本変形例の「集合画像」が、特許請求の範囲の「集合画像」の一例である。
In the above embodiment, the
上記実施形態では、遠隔操作用の画像を、ボタン画像81などの部品画像と、背景画像91などの背景画像とから構成される画像としたが、部品画像のみから遠隔操作用の画像を構成してもよい。つまり、MFP10は、部品画像の画像データおよび位置情報だけを送信する構成としてもよい。また、LCDに表示中の画面だけでなく、表示されていない画面の背景画像も遠隔操作用の画像に含めてもよい。また、上記実施形態では、MFP10が、背景画像および部品画像の各画像データと各画像の位置情報とを、端末200に送信することに代えて、MFP10が、遠隔操作用の画像を生成して、端末200に送信する構成としてもよい。
In the above embodiment, the image for remote operation is an image composed of a component image such as the
上記実施形態では、一連の画面群として、2画面から構成される機能メニュー画面70を例示したが、3画面以上から構成される画面群であっても、本発明を適用できる。また、上記実施形態では、一連の画面群のうち、1ページ目の画面の左上の座標を(0,0)としたが、位置の基準にする画面は、1ページ目に限らず、適宜設定できる。また、LCD16に表示中の画面の左上の座標を(0,0)としてもよい。
In the above embodiment, the
上記実施携帯では、MFP10と端末200との間の通信を、AP50を介するインフラストラクチャーモードでのWi−Fi通信を例示したが、直接接続であるアドホックモードでのWi−Fi通信であっても、本発明を適用できる。あるいは、Bluetooth(登録商標)などの他の通信方法であっても、本発明を適用できる。
In the embodiment, the communication between the
10:MFP.200:端末,212b:操作支援アプリ
10: MFP. 200: terminal, 212b: operation support application
Claims (12)
一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、前記処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を前記第1表示部に表示するための画像データを、前記通信部を介して処理実行装置から受信する画像受信手段と、
前記画像受信手段により受信した画像データに基づく前記表示対象画像を前記第1表示部に表示する画像表示手段と、
前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された前記表示対象画像上の位置に応じた操作位置情報を、前記通信部を介して、前記画像データの送信元である処理実行装置に送信する情報送信手段として、
前記制御部を機能させることを特徴とする操作支援プログラム。 The control unit of the terminal device including the first display unit, the input unit that detects an input operation on the first display unit, the communication unit that communicates with the processing execution device, and the control unit is executable. And an operation support program for operating the processing execution device based on the input operation detected by the input unit,
A display target image, which is image data for a plurality of screens constituting a series of screen groups and includes at least a plurality of indicator images each assigned a process performed by the processing execution device, included in the series of screen groups. Image receiving means for receiving image data to be displayed on the first display unit from the processing execution device via the communication unit;
Image display means for displaying the display target image based on the image data received by the image receiving means on the first display section;
Operation position information corresponding to the position on the display target image designated by the designation operation for designating the position on the display target image displayed on the first display unit, which is the input operation detected by the input unit. As an information transmission means for transmitting to the processing execution apparatus that is the transmission source of the image data via the communication unit,
An operation support program for causing the control unit to function.
前記画像表示手段は、前記画像受信手段により受信した画像データと要素画像位置情報とに基づいて、前記複数の指示子の画像各々が配置された前記表示対象画像を表示することを特徴とする請求項1記載の操作支援プログラム。 The image receiving means receives each of the plurality of indicator images as element images, receives image data for each element image or for each group image including a plurality of element images, and for each element image or each group image. Receiving element image position information specifying the arrangement of the element image or the group image,
The image display means displays the display target image in which images of the plurality of indicators are arranged based on image data and element image position information received by the image receiving means. Item 1. The operation support program according to Item 1.
前記画像受信手段は、前記処理実行装置が、前記一連の画面群のうち、1の画面が前記第2表示部に表示されていることを条件として送信した前記要素画像毎または前記集合画像毎の画像データと、前記第2表示部に表示される背景画像の画像データと、前記要素画像位置情報と、前記背景画像の位置を示す背景画像位置情報とを受信し、
前記画像表示手段は、前記画像受信手段により受信した画像データと要素画像位置情報と背景画像位置情報とに基づいて、複数の指示子の画像各々が配置されるとともに、前記複数の指示子の画像のうち、前記第2表示部に表示される指示子の画像の背景として前記背景画像が配置された、前記表示対象画像を表示することを特徴とする請求項2記載の操作支援プログラム。 The process execution device includes a second display unit,
The image receiving means is provided for each element image or each group image transmitted by the process execution device on condition that one screen of the series of screen groups is displayed on the second display unit. Receiving image data, image data of a background image displayed on the second display unit, the element image position information, and background image position information indicating the position of the background image;
The image display means arranges each of the images of the plurality of indicators based on the image data, the element image position information, and the background image position information received by the image receiving means, and the images of the plurality of indicators. The operation support program according to claim 2, wherein the display target image in which the background image is arranged as a background of an indicator image displayed on the second display unit is displayed.
前記第2表示部の表示領域の、前記一連の画面群の配列方向に沿った長さを取得する取得手段と、
前記取得手段により取得された長さに基づいて、前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された位置が、前記一連の画面群におけるどの画面のどの位置を指定するものであるかを特定する特定手段として、
前記制御部を機能させ、
前記情報送信手段は、前記特定手段により特定された画面および位置を示す情報を、前記操作位置情報として、前記処理実行装置に送信することを特徴とする請求項1から3のいずれかに記載の操作支援プログラム。 The process execution device includes a second display unit,
Obtaining means for obtaining a length of the display area of the second display unit along an arrangement direction of the series of screen groups;
A position specified by a specifying operation for specifying a position on a display target image displayed on the first display unit, which is an input operation detected by the input unit based on the length acquired by the acquiring unit As a specifying means for specifying which position of which screen in the series of screen groups is specified,
Make the control function,
4. The information transmission unit according to claim 1, wherein the information transmission unit transmits information indicating the screen and the position specified by the specifying unit as the operation position information to the processing execution device. 5. Operation support program.
して前記制御部を機能させ、
前記情報送信手段は、前記表示対象画像が等倍より拡大または縮小されて表示されている場合、前記変換手段による変換により得られた位置を示す情報を、前記操作位置情報として、前記処理実行装置に送信することを特徴とする請求項1から4のいずれかに記載の操作支援プログラム。 When the display target image displayed on the first display unit is displayed enlarged or reduced at the same magnification, a position on the display target image that is an input operation detected by the input unit is specified. Conversion means for converting the position designated by the designation operation into a position in the display target image of the same magnification, based on a scaling factor of display with respect to the same magnification;
And let the control unit function,
In the case where the display target image is displayed enlarged or reduced from the same magnification, the information transmission unit uses the information indicating the position obtained by conversion by the conversion unit as the operation position information, as the processing execution device. The operation support program according to any one of claims 1 to 4, wherein the operation support program is transmitted to.
前記制御部を機能させ、
前記情報送信手段は、前記入力部により所定の入力操作が検出された場合に、当該入力操作が前記表示対象画像上にて行われたものである場合には、当該入力操作に応じた情報を送信することを特徴とする請求項1から5のいずれかに記載の操作支援プログラム。 When a predetermined input operation is detected by the input unit, if the input operation is performed outside the display target image, a process execution unit that executes a process according to the input operation ,
Make the control function,
When a predetermined input operation is detected by the input unit and the input operation is performed on the display target image, the information transmission unit displays information corresponding to the input operation. 6. The operation support program according to claim 1, wherein the operation support program is transmitted.
前記第1表示部に対する入力操作を検出する入力部と、
処理実行装置と通信する通信部と、
制御部と、を備え、
前記制御部は、
一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、前記処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を前記第1表示部に表示するための画像データを、前記通信部を介して処理実行装置から受信する画像受信手段と、
前記画像受信手段により受信した画像データに基づく前記表示対象画像を表示する画像表示手段と、
前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された前記表示対象画像上の位置に応じた操作位置情報を、前記通信部を介して、前記画像データの送信元である処理実行装置に送信する情報送信手段と、
を備えていることを特徴とする端末装置。 A first display unit;
An input unit for detecting an input operation on the first display unit;
A communication unit that communicates with the processing execution device;
A control unit,
The controller is
A display target image, which is image data for a plurality of screens constituting a series of screen groups and includes at least a plurality of indicator images each assigned a process performed by the processing execution device, included in the series of screen groups. Image receiving means for receiving image data to be displayed on the first display unit from the processing execution device via the communication unit;
Image display means for displaying the display target image based on the image data received by the image receiving means;
Operation position information corresponding to the position on the display target image designated by the designation operation for designating the position on the display target image displayed on the first display unit, which is the input operation detected by the input unit. Information transmitting means for transmitting to the processing execution apparatus which is the transmission source of the image data via the communication unit
A terminal device comprising:
端末装置と通信する通信部と、
制御部と、を備え、
前記制御部は、
一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、本処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を端末装置の表示部に表示させるための画像データを、前記通信部を介して端末装置に送信する画像送信手段と、
前記画像送信手段により前記画像データを前記端末装置に送信したことに基づき当該端末装置から受信した操作位置情報が、当該端末装置において指定された前記表示対象画像上の位置を示す操作位置情報である場合、当該操作位置情報が前記指示子の画像上の位置を示す場合には、当該指示子の画像に割り当てられた処理を実行する処理実行手段と、
を備えていることを特徴とする処理実行装置。 A display unit;
A communication unit that communicates with the terminal device;
A control unit,
The controller is
A display target image that is image data for a plurality of screens constituting a series of screen groups, and includes at least a plurality of indicator images assigned to the processes performed by the processing execution device, which are included in the series of screen groups. Image transmission means for transmitting image data to be displayed on the display unit of the terminal device to the terminal device via the communication unit;
The operation position information received from the terminal device based on the transmission of the image data to the terminal device by the image transmission means is the operation position information indicating the position on the display target image specified in the terminal device. In this case, when the operation position information indicates the position of the indicator on the image, a process execution means for executing a process assigned to the indicator image;
A process execution device comprising:
前記処理実行手段は、前記特定手段により特定された画面および位置に、前記指示子の画像が位置する場合、当該指示子の画像に割り当てられた処理を実行することを特徴とする請求項8記載の処理実行装置。 When the operation position information is received from the terminal device, the display target image specified by the operation position information based on the length of the display area of the display unit along the arrangement direction of the series of screen groups A specifying means for specifying which position of which screen in the series of screen groups designates which position;
9. The process execution means, when the image of the indicator is located at the screen and position specified by the specification means, the process assigned to the image of the indicator is executed. Process execution device.
前記画像送信手段は、前記一連の画面群のうち、1の画面が前記表示部に表示されていることを条件として、前記画像データと、前記記憶部に記憶されている画面情報のうち、前記表示部に表示されている画面に対応する画面情報とを、端末装置に送信し、
前記画像送信手段により前記画像データと前記画面情報とを前記端末装置に送信したことに基づいて、当該端末装置から前記操作位置情報を受信した場合に、当該操作位置情報の受信タイミングにおいて前記表示部に表示されている画面が、前記操作位置情報とともに前記端末装置から受信した画面情報により特定される画面を含む、前記一連の画面群に含まれる画面であるかを判断する判断手段を備え、
前記処理実行手段は、前記判断手段により、当該操作位置情報の受信タイミングにおいて前記表示部に表示されている画面が、前記受信した画面情報により特定される画面を含む、前記一連の画面群に含まれる画面であると判断されたことを条件として、前記端末装置から受信した当該操作位置情報が前記指示子の画像上の位置を示す場合に、当該指示子の画像に割り当てられた処理を実行することを特徴とする請求項8から10のいずれかに記載の処理実行装置。 A storage unit for storing screen information for identifying each screen;
The image transmission means includes the image data and the screen information stored in the storage unit on the condition that one screen of the series of screen groups is displayed on the display unit. Screen information corresponding to the screen displayed on the display unit is transmitted to the terminal device,
When the operation position information is received from the terminal device based on the transmission of the image data and the screen information to the terminal device by the image transmission means, the display unit at the reception timing of the operation position information A determination means for determining whether the screen displayed on the screen includes a screen specified by the screen information received from the terminal device together with the operation position information, the screen being included in the series of screen groups;
The process execution means is included in the series of screen groups in which the screen displayed on the display unit at the reception timing of the operation position information includes a screen specified by the received screen information by the determination means. If the operation position information received from the terminal device indicates the position of the indicator on the image, on the condition that the screen is determined to be a screen to be displayed, the process assigned to the indicator image is executed. The process execution device according to claim 8, wherein
端末装置と通信する通信部と、
制御部と、を備えた処理実行装置の、前記制御部が実行可能な処理実行プログラムであって、
一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、本処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を端末装置の表示部に表示させるための画像データを、前記通信部を介して前記端末装置に送信する画像送信手段と、
前記画像送信手段により前記画像データを前記端末装置に送信したことに基づき当該端末装置から受信した操作位置情報が、当該端末装置において指定された前記表示対象画像上の位置を示す操作位置情報である場合、当該操作位置情報が前記指示子の画像上の位置を示す場合には、当該指示子の画像に割り当てられた処理を実行する処理実行手段として、
前記制御部を機能させることを特徴とする処理実行プログラム。
A display unit;
A communication unit that communicates with the terminal device;
A processing execution program that can be executed by the control unit.
A display target image that is image data for a plurality of screens constituting a series of screen groups, and includes at least a plurality of indicator images assigned to the processes performed by the processing execution device, which are included in the series of screen groups. Image transmission means for transmitting image data to be displayed on the display unit of the terminal device to the terminal device via the communication unit;
The operation position information received from the terminal device based on the transmission of the image data to the terminal device by the image transmission means is the operation position information indicating the position on the display target image specified in the terminal device. In this case, when the operation position information indicates the position of the indicator on the image, as a process execution means for executing the process assigned to the indicator image,
A processing execution program for causing the control unit to function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013203204A JP6183109B2 (en) | 2013-09-30 | 2013-09-30 | Operation support program, terminal device, process execution device, and process execution program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013203204A JP6183109B2 (en) | 2013-09-30 | 2013-09-30 | Operation support program, terminal device, process execution device, and process execution program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015069420A true JP2015069420A (en) | 2015-04-13 |
JP6183109B2 JP6183109B2 (en) | 2017-08-23 |
Family
ID=52836019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013203204A Active JP6183109B2 (en) | 2013-09-30 | 2013-09-30 | Operation support program, terminal device, process execution device, and process execution program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6183109B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102734A (en) * | 2015-12-02 | 2017-06-08 | コニカミノルタ株式会社 | Display device, screen display method, screen display program and image processing apparatus |
JP2017204723A (en) * | 2016-05-11 | 2017-11-16 | コニカミノルタ株式会社 | Remote control system, image processing apparatus, remote control method, and remote control program |
JP2018529166A (en) * | 2015-09-14 | 2018-10-04 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Screen control method, apparatus and storage medium between terminals |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005026740A (en) * | 2003-06-30 | 2005-01-27 | Matsushita Electric Ind Co Ltd | Method of building device control interface |
JP2005269520A (en) * | 2004-03-22 | 2005-09-29 | Xanavi Informatics Corp | Operation method of vehicle-mounted information terminal, vehicle-mounted information terminal, portable terminal program, and mobile phone |
JP2007086213A (en) * | 2005-09-20 | 2007-04-05 | Ricoh Co Ltd | Image processing apparatus, mobile device, image display method, image display program and image display system |
JP2011134278A (en) * | 2009-12-25 | 2011-07-07 | Toshiba Corp | Information processing apparatus and pointing control method |
JP2013097667A (en) * | 2011-11-02 | 2013-05-20 | Konica Minolta Business Technologies Inc | Image processing system, image processing device, portable information device, image processing device cooperation method, portable information device cooperation method, image processing device cooperation program and portable information device cooperation program |
JP2013109565A (en) * | 2011-11-21 | 2013-06-06 | Konica Minolta Business Technologies Inc | Display system, control program of display system and display device |
JP2013186773A (en) * | 2012-03-09 | 2013-09-19 | Konica Minolta Inc | User terminal equipment, image processor, operator terminal equipment, information processing system and program |
JP2013186665A (en) * | 2012-03-07 | 2013-09-19 | Konica Minolta Inc | Operation system of image forming apparatus, image forming apparatus, operation terminal, control method of image forming apparatus, control method of operation terminal, control program of image forming apparatus, and control program of operation terminal |
-
2013
- 2013-09-30 JP JP2013203204A patent/JP6183109B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005026740A (en) * | 2003-06-30 | 2005-01-27 | Matsushita Electric Ind Co Ltd | Method of building device control interface |
JP2005269520A (en) * | 2004-03-22 | 2005-09-29 | Xanavi Informatics Corp | Operation method of vehicle-mounted information terminal, vehicle-mounted information terminal, portable terminal program, and mobile phone |
JP2007086213A (en) * | 2005-09-20 | 2007-04-05 | Ricoh Co Ltd | Image processing apparatus, mobile device, image display method, image display program and image display system |
JP2011134278A (en) * | 2009-12-25 | 2011-07-07 | Toshiba Corp | Information processing apparatus and pointing control method |
JP2013097667A (en) * | 2011-11-02 | 2013-05-20 | Konica Minolta Business Technologies Inc | Image processing system, image processing device, portable information device, image processing device cooperation method, portable information device cooperation method, image processing device cooperation program and portable information device cooperation program |
JP2013109565A (en) * | 2011-11-21 | 2013-06-06 | Konica Minolta Business Technologies Inc | Display system, control program of display system and display device |
JP2013186665A (en) * | 2012-03-07 | 2013-09-19 | Konica Minolta Inc | Operation system of image forming apparatus, image forming apparatus, operation terminal, control method of image forming apparatus, control method of operation terminal, control program of image forming apparatus, and control program of operation terminal |
JP2013186773A (en) * | 2012-03-09 | 2013-09-19 | Konica Minolta Inc | User terminal equipment, image processor, operator terminal equipment, information processing system and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018529166A (en) * | 2015-09-14 | 2018-10-04 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Screen control method, apparatus and storage medium between terminals |
JP2017102734A (en) * | 2015-12-02 | 2017-06-08 | コニカミノルタ株式会社 | Display device, screen display method, screen display program and image processing apparatus |
JP2017204723A (en) * | 2016-05-11 | 2017-11-16 | コニカミノルタ株式会社 | Remote control system, image processing apparatus, remote control method, and remote control program |
Also Published As
Publication number | Publication date |
---|---|
JP6183109B2 (en) | 2017-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10778863B2 (en) | Operation input system, electronic device and mobile terminal | |
JP6035985B2 (en) | Image processing apparatus, control program for image processing apparatus, and image processing system | |
JP2015128828A (en) | Image processing system, image processing apparatus, and portable information terminal | |
JP6170452B2 (en) | Image processing apparatus and system including the same | |
JP7201355B2 (en) | Mobile terminal device and display control method for mobile terminal device | |
US20140340706A1 (en) | Cooperative image processing system, portable terminal apparatus, cooperative image processing method, and recording medium | |
US9875433B2 (en) | Linkage system and linkage method for image processing, portable terminal device, and image processing linkage program | |
EP2750029A1 (en) | Display processing apparatus, image forming apparatus, display processing system of a remote screen, and display processing method | |
JP2014215961A (en) | Image processing system, image processing apparatus, mobile information terminal, and program | |
JP6183109B2 (en) | Operation support program, terminal device, process execution device, and process execution program | |
JP6186861B2 (en) | Printing system, image forming apparatus, terminal device, and printing processing method | |
JP5853999B2 (en) | Image forming system, image forming apparatus, remote control device, and program | |
JP6160194B2 (en) | Image forming system, external terminal and program | |
JP6314499B2 (en) | Operation support program and terminal device | |
JP6119772B2 (en) | Image processing system, image processing device, terminal device, and program | |
JP2014068152A (en) | Image processing apparatus, image processing method, and program | |
JP6318477B2 (en) | Instruction device, image forming apparatus, and program | |
US20190037094A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP6641901B2 (en) | Image processing apparatus, remote control method, and remote control program | |
JP6471581B2 (en) | Information processing apparatus, recording system, and program | |
JP6354206B2 (en) | Information processing program and information processing apparatus | |
JP6460330B2 (en) | Information processing apparatus, recording system, and program | |
JP6155883B2 (en) | Display program and display device | |
JP2006260204A (en) | Remote control system and method | |
JP6171577B2 (en) | Display program and display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6183109 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |