JP6183109B2 - Operation support program, terminal device, process execution device, and process execution program - Google Patents

Operation support program, terminal device, process execution device, and process execution program Download PDF

Info

Publication number
JP6183109B2
JP6183109B2 JP2013203204A JP2013203204A JP6183109B2 JP 6183109 B2 JP6183109 B2 JP 6183109B2 JP 2013203204 A JP2013203204 A JP 2013203204A JP 2013203204 A JP2013203204 A JP 2013203204A JP 6183109 B2 JP6183109 B2 JP 6183109B2
Authority
JP
Japan
Prior art keywords
image
screen
unit
displayed
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013203204A
Other languages
Japanese (ja)
Other versions
JP2015069420A (en
Inventor
啓太郎 友野
啓太郎 友野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013203204A priority Critical patent/JP6183109B2/en
Publication of JP2015069420A publication Critical patent/JP2015069420A/en
Application granted granted Critical
Publication of JP6183109B2 publication Critical patent/JP6183109B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、操作支援プログラム、端末装置、処理実行装置、および処理実行プログラムに関する。   The present invention relates to an operation support program, a terminal device, a process execution device, and a process execution program.

特許文献1には、LCDに重ねられたタッチパネルを備える携帯端末から、複合機を遠隔操作する技術が提案されている。具体的には、撮影した複合機の操作部の画像を、携帯端末のLCDに表示させ、表示された操作部を、タッチパネルを介してユーザに操作させ、操作された操作部に応じた指示を複合機に行う。   Patent Document 1 proposes a technique for remotely operating a multifunction peripheral from a portable terminal having a touch panel superimposed on an LCD. Specifically, the captured image of the operation unit of the multifunction device is displayed on the LCD of the mobile terminal, the displayed operation unit is operated by the user via the touch panel, and an instruction according to the operated operation unit is issued. To the multifunction machine.

特開2013−8183号公報JP2013-8183A

しかしながら、特許文献1の技術では、携帯端末が撮影した画像に含まれる操作子のみが対象となる。複合機は、操作部としてのソフトキーを含む画面を複合機の表示部に表示する場合がある。ユーザは、その表示された画面が所望のソフトキーを含む画面でない場合、当該所望のソフトキーを含む画面に切り替えた後、その画面を携帯端末のLCDに表示させるために撮影する必要があり、煩雑であった。   However, in the technique of Patent Literature 1, only the operation element included in the image captured by the mobile terminal is targeted. The multifunction device may display a screen including a soft key as an operation unit on a display unit of the multifunction device. When the displayed screen is not a screen including a desired soft key, the user needs to take a picture to display the screen on the LCD of the mobile terminal after switching to the screen including the desired soft key, It was complicated.

本発明は、上述した事情を鑑みてなされたものであり、処理実行装置を好適に遠隔操作させ得る操作支援プログラム、端末装置、処理実行装置、および処理実行プログラムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an operation support program, a terminal device, a process execution device, and a process execution program that can suitably operate a process execution device remotely.

この目的を達成するために、本発明の操作支援プログラムは、第1表示部と、前記第1表示部に対する入力操作を検出する入力部と、処理実行装置と通信する通信部と、制御部と、を備えた端末装置の、前記制御部が実行可能であり、かつ、前記入力部が検出した入力操作に基づいて処理実行装置を操作するためのプログラムであって、一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、前記処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を前記第1表示部に表示するための画像データを、前記通信部を介して処理実行装置から受信する画像受信手段と、前記画像受信手段により受信した画像データに基づく前記表示対象画像を表示する画像表示手段と、前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された前記表示対象画像上の位置に応じた操作位置情報を、前記通信部を介して、前記画像データの送信元である処理実行装置に送信する情報送信手段として、前記制御部を機能させる。   In order to achieve this object, an operation support program according to the present invention includes a first display unit, an input unit that detects an input operation on the first display unit, a communication unit that communicates with a process execution device, a control unit, Is a program that can be executed by the control unit and that operates the processing execution device based on an input operation detected by the input unit, and constitutes a series of screen groups. A display target image, which is image data for a plurality of screens and includes at least images of a plurality of indicators each assigned a process performed by the processing execution device and included in the series of screen groups, is displayed on the first display unit. Image receiving means for receiving image data for processing from the processing execution device via the communication unit, image display means for displaying the display target image based on the image data received by the image receiving means, Operation position information corresponding to the position on the display target image designated by the designation operation for designating the position on the display target image displayed on the first display unit, which is the input operation detected by the input unit. The control unit is caused to function as information transmission means that transmits to the processing execution apparatus that is the transmission source of the image data via the communication unit.

また、本発明の処理実行装置は、第1表示部と、前記第1表示部に対する入力操作を検出する入力部と、処理実行装置と通信する通信部と、制御部と、を備え、前記制御部は、一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、前記処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を前記第1表示部に表示するための画像データを、前記通信部を介して処理実行装置から受信する画像受信手段と、前記画像受信手段により受信した画像データに基づく前記表示対象画像を表示する画像表示手段と、前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された前記表示対象画像上の位置に応じた操作位置情報を、前記通信部を介して、前記画像データの送信元である処理実行装置に送信する情報送信手段と、を備えている。   In addition, the process execution device of the present invention includes a first display unit, an input unit that detects an input operation on the first display unit, a communication unit that communicates with the process execution device, and a control unit. The unit is image data for a plurality of screens that form a series of screen groups, and includes at least a plurality of indicators that are included in the series of screen groups and each assigned with a process performed by the processing execution device Image receiving means for receiving image data for displaying the target image on the first display section from the processing execution device via the communication section, and the display target image based on the image data received by the image receiving means. An image display means to display and a position on the display target image designated by a designation operation for designating a position on the display target image displayed on the first display unit, which is an input operation detected by the input unit. The operation position information corresponding to, via said communication unit, and a, and information transmitting means for transmitting to the processing execution unit that is the sender of the image data.

なお、本発明の操作支援プログラムは、端末装置、端末装置を制御する制御装置、操作支援システム、操作支援方法、操作支援プログラムを記録する記録媒体等の種々の態様で構成することができる。また、本発明の処理実行装置は、処理実行装置を制御する制御装置、処理実行システム、処理実行方法、処理実行プログラム、処理実行プログラムを記録する記録媒体等の種々の態様で構成することができる。   The operation support program of the present invention can be configured in various modes such as a terminal device, a control device that controls the terminal device, an operation support system, an operation support method, and a recording medium that records the operation support program. The process execution apparatus of the present invention can be configured in various modes such as a control apparatus that controls the process execution apparatus, a process execution system, a process execution method, a process execution program, and a recording medium that records the process execution program. .

請求項1記載の操作支援プログラムによれば、処理実行装置から受信した画像データに基づく表示対象画像が第1表示部に表示される。指定操作により指定された表示対象画像上の位置に応じた操作位置情報が、表示対象画像データに対応する画像データの送信元である処理実行装置に送信される。これにより、処理実行装置は、表示対象画像上のどの位置が指示されたかを把握できる。表示対象画像は、一連の画面群を構成する複数画面分の画像であるので、処理実行装置において表示されていない画面に含まれる操作子も操作対象とし得る。よって、端末装置からの処理実行装置の遠隔操作を好適に行い得る。   According to the operation support program of the first aspect, the display target image based on the image data received from the process execution device is displayed on the first display unit. The operation position information corresponding to the position on the display target image specified by the specifying operation is transmitted to the processing execution apparatus that is the transmission source of the image data corresponding to the display target image data. Thereby, the process execution apparatus can grasp which position on the display target image is designated. Since the display target image is an image for a plurality of screens constituting a series of screen groups, an operator included in a screen that is not displayed in the processing execution apparatus can be an operation target. Therefore, remote operation of the processing execution device from the terminal device can be suitably performed.

請求項2記載の操作支援プログラムによれば、請求項1が奏する効果に加え、次の効果を奏する。端末装置は、複数の指示子の画像各々である要素画像または複数の要素画像を含む集合画像と、それらの画像の配置を特定する要素画像位置情報とに基づいて、表示対象画像を生成し、表示させることができる。   According to the operation support program of claim 2, in addition to the effect of claim 1, the following effect is obtained. The terminal device generates a display target image based on an element image that is an image of each of a plurality of indicators or a group image that includes a plurality of element images and element image position information that specifies an arrangement of the images, Can be displayed.

請求項3記載の操作支援プログラムによれば、請求項2が奏する効果に加え、次の効果を奏する。要素画像位置情報に応じて配置された複数の指示子の画像のうち、処理実行装置の第2表示部に表示される指示子の画像の背景として背景画像が配置されるので、ユーザは、処理実行装置の第2表示部に表示中の指示子を把握できる。   According to the operation support program of claim 3, in addition to the effect of claim 2, the following effect is obtained. Since the background image is arranged as the background of the indicator image displayed on the second display unit of the processing execution device among the images of the indicators arranged in accordance with the element image position information, the user can process The indicator currently displayed on the 2nd display part of an execution apparatus can be grasped | ascertained.

請求項4記載の操作支援プログラムによれば、請求項1から3のいずれかが奏する効果に加え、次の効果を奏する。指定操作により指定された表示対象画像上の位置が、当該一連の画面群におけるどの画面のどの位置を指定するかを特定し、特定された画面および位置を示す情報が、処理実行装置に送信される。よって、処理実行装置は、第2表示部に表示されていない画面であっても、端末装置において指示された位置を把握できる。   According to the operation support program of the fourth aspect, in addition to the effect produced by any one of the first to third aspects, the following effect is produced. The position on the display target image specified by the specifying operation specifies which position of which screen in the series of screen groups is specified, and information indicating the specified screen and position is transmitted to the processing execution device. The Therefore, the process execution device can grasp the position instructed on the terminal device even if the screen is not displayed on the second display unit.

請求項5記載の操作支援プログラムによれば、請求項1から4のいずれかが奏する効果に加え、次の効果を奏する。表示対象画像が拡大または縮小された場合であっても、指示された位置を等倍の表示対象画像上の位置として処理実行装置に送信できるので、処理実行装置は、端末装置にて指示された位置を適切に把握できる。   According to the operation support program of the fifth aspect, in addition to the effect produced by any one of the first to fourth aspects, the following effect is obtained. Even when the display target image is enlarged or reduced, the designated position can be transmitted to the process execution device as a position on the display target image at the same magnification. Therefore, the process execution device is instructed by the terminal device. You can grasp the position appropriately.

請求項6記載の操作支援プログラムによれば、請求項1から5のいずれかが奏する効果に加え、入力操作が表示対象画像外にて行われたものである場合には、当該入力操作に応じた処理を実行することができる。   According to the operation support program of the sixth aspect, in addition to the effect of any one of the first to fifth aspects, when the input operation is performed outside the display target image, the input operation is performed according to the input operation. Can be executed.

請求項8記載の処理実行装置によれば、複数画面から構成される一連の画面群に含まれる、本処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を端末装置の表示部に表示させるための画像データが、端末装置に送信される。そして、当該端末装置から、送信した画像データに対応する表示対象画像上の位置を示す操作位置情報が、指示子の画像上の位置を示す場合には、当該指示子の画像に割り当てられた処理が行われる。よって、処理実行装置において表示されていない画面に含まれる操作子も操作対象として、端末装置に操作させることができる。これにより、処理実行装置を端末装置から好適に遠隔操作させ得る。   According to the process execution device of claim 8, a display target image including at least a plurality of indicator images each assigned a process performed by the process execution device, included in a series of screen groups including a plurality of screens. Image data to be displayed on the display unit of the terminal device is transmitted to the terminal device. When the operation position information indicating the position on the display target image corresponding to the image data transmitted from the terminal device indicates the position on the indicator image, the process assigned to the indicator image Is done. Therefore, an operator included in a screen that is not displayed on the process execution device can be operated by the terminal device as an operation target. Thereby, the process execution apparatus can be suitably remotely operated from the terminal apparatus.

請求項9記載の処理実行装置によれば、請求項8が奏する効果に加え、次の効果を奏する。端末装置から操作位置情報を受信した場合、当該操作位置情報により指定される表示対象画像上の位置が、当該一連の画面群におけるどの画面のどの位置を指定するかを特定する。よって、表示部に表示されていない画面であっても、端末装置において指示された位置を把握できる。   According to the process execution device of claim 9, in addition to the effect of claim 8, the following effect is obtained. When the operation position information is received from the terminal device, the position on the display target image specified by the operation position information specifies which position of which screen in the series of screen groups is specified. Therefore, even if the screen is not displayed on the display unit, the position instructed on the terminal device can be grasped.

請求項10記載の処理実行装置によれば、請求項8または9が奏する効果に加え、表示部に表示される画面が切り替えられた場合に、端末装置に表示する背景画像を、複数の指示子の画像のうち、本処理実行装置の表示部に表示される指示子の画像の背景に表示できる。端末装置を操作するユーザは、処理実行装置に表示中の指示子を把握できる。   According to the process execution device of claim 10, in addition to the effect of claim 8 or 9, when the screen displayed on the display unit is switched, the background image to be displayed on the terminal device is displayed with a plurality of indicators. Can be displayed on the background of the indicator image displayed on the display unit of the processing execution apparatus. A user who operates the terminal device can grasp the indicator being displayed on the process execution device.

請求項11記載の処理実行装置によれば、請求項8から10のいずれかが奏する効果に加え、次の効果を奏する。端末装置から受信した操作位置情報と、そのタイミングで処理実行装置に表示されている画面群との間に不整合がある場合には、操作位置情報が示す操作子に割り当てられた処理が実行されないので、処理実行装置に表示されている画面と、端末装置からの遠隔操作との整合性を取ることができる。   According to the process execution device of the eleventh aspect, in addition to the effect produced by any one of the eighth to tenth aspects, the following effect is produced. If there is a mismatch between the operation position information received from the terminal device and the screen group displayed on the process execution device at that timing, the process assigned to the operator indicated by the operation position information is not executed. Therefore, it is possible to maintain consistency between the screen displayed on the process execution device and the remote operation from the terminal device.

請求項7記載の端末装置によれば、請求項1記載の操作支援プログラムと同様の効果を奏する。また、請求項12記載の処理実行プログラムによれば、請求項1記載の処理実行装置と同様の効果を奏する。   According to the terminal device of the seventh aspect, the same effect as the operation support program according to the first aspect is obtained. Further, according to the process execution program of the twelfth aspect, the same effect as the process execution apparatus of the first aspect is obtained.

多機能周辺装置および携帯端末の電気的構成を示すブロック図である。It is a block diagram which shows the electrical structure of a multifunction peripheral device and a portable terminal. 本発明の概略を模式的に説明する図である。It is a figure which illustrates the outline of the present invention typically. 遠隔操作時のMFP側処理を示すフローチャートである。6 is a flowchart illustrating MFP-side processing during remote operation. 遠隔操作時の端末側処理を示すフローチャートである。It is a flowchart which shows the terminal side process at the time of remote operation. 第2実施形態の、遠隔操作時の端末側処理を示すフローチャートである。It is a flowchart which shows the terminal side process at the time of remote operation of 2nd Embodiment.

以下、本発明の好ましい実施形態について、添付図面を参照して説明する。まず、図1〜図4を参照して、本発明の第1実施形態を説明する。図1は、多機能周辺装置(以下「MFP」と称す)10、および、MFP10と通信可能な端末200の電気的構成を示すブロック図である。なお、図1に示すMFP10および端末200は、それぞれ、本発明の処理実行装置および端末装置の一実施形態である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. First, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing an electrical configuration of a multifunction peripheral device (hereinafter referred to as “MFP”) 10 and a terminal 200 that can communicate with the MFP 10. Note that the MFP 10 and the terminal 200 shown in FIG. 1 are embodiments of the processing execution device and the terminal device of the present invention, respectively.

MFP10は、印刷機能、スキャン機能、コピー機能、ファクシミリ機能などの各種機能を有している。詳細は後述するが、MFP10は、操作支援アプリケーション(以下「操作支援アプリ」と称す)212bを搭載する端末200からの遠隔操作によって、MFP10にて行われる各種の処理を実行可能に構成される。   The MFP 10 has various functions such as a print function, a scan function, a copy function, and a facsimile function. Although details will be described later, the MFP 10 is configured to be able to execute various processes performed in the MFP 10 by remote operation from the terminal 200 on which the operation support application (hereinafter referred to as “operation support application”) 212b is mounted.

MFP10には、CPU11、フラッシュメモリ12、RAM13、操作キー15、LCD16、タッチパネル17、スキャナ部18、プリンタ部19、NCU20、モデム21、無線通信部23が主に設けられている。これらの各部は、入出力ポート24を介して互いに接続されている。CPU11は、フラッシュメモリ12に記憶される固定値やプログラム、RAM13に記憶されているデータ、或いは、NCU20を介して送受信される各種信号に従って、MFP10が有している各機能の制御や、入出力ポート24と接続された各部を制御する。   The MFP 10 is mainly provided with a CPU 11, flash memory 12, RAM 13, operation keys 15, LCD 16, touch panel 17, scanner unit 18, printer unit 19, NCU 20, modem 21, and wireless communication unit 23. These units are connected to each other via the input / output port 24. The CPU 11 controls various functions of the MFP 10 according to fixed values and programs stored in the flash memory 12, data stored in the RAM 13, or various signals transmitted / received via the NCU 20, and input / output Each unit connected to the port 24 is controlled.

フラッシュメモリ12は、不揮発性のメモリであり、MFP10の動作を制御する制御プログラム12aなどが格納される。後述する図3のフローチャートに示す各処理は、CPU11が制御プログラム12aに従い実行する処理である。また、フラッシュメモリ12には、LCD16に表示する各画面を構成するための部品画像および背景画像の画像データが、表示可能な全画面分、準備される。RAM13は、CPU11が制御プログラム12aを実行するにあたり、各種データを一時的に記憶するためのテンポラリエリアを有する書換可能な揮発性のメモリである。   The flash memory 12 is a nonvolatile memory, and stores a control program 12a for controlling the operation of the MFP 10 and the like. Each process shown in the flowchart of FIG. 3 to be described later is a process executed by the CPU 11 in accordance with the control program 12a. Further, the flash memory 12 is prepared with image data of a part image and a background image for constituting each screen displayed on the LCD 16 for all displayable screens. The RAM 13 is a rewritable volatile memory having a temporary area for temporarily storing various data when the CPU 11 executes the control program 12a.

操作キー15は、MFP10の筐体に設けられるメカニカルキーであり、各種の設定値や指示などをユーザから受け付ける。LCD16は、液晶表示装置であり、各種画面を表示する。LCD16の画面には、タッチパネル17がLCD16に重ねて設けられる。タッチパネル17は、例えば、指や棒などの指示体がLCD16の画面に対してタッチ又は近づいた場合に、タッチ又は近づいた位置を検知し、検知した位置をMFP10に入力する。スキャナ部18は、原稿を読み取って画像データに変換する。プリンタ部19は、画像データに基づく画像を記録用紙に印刷する。モデム21は、FAX送信時には送信すべき画像データを、電話回線網(図示せず)に伝送可能な信号に変調してNCU20を介して送信し、または、電話回線網からNCU20を介して入力された信号を画像データに復調する。NCU20は、図示されない電話回線網とMFP10との間を接続するものであり、モデム21からの指示に従って、回線を閉結または切断することにより、電話回線網との間の接続状態を制御する。   The operation key 15 is a mechanical key provided on the casing of the MFP 10 and accepts various setting values and instructions from the user. The LCD 16 is a liquid crystal display device and displays various screens. A touch panel 17 is provided on the LCD 16 so as to overlap the LCD 16. For example, when an indicator such as a finger or a stick touches or approaches the screen of the LCD 16, the touch panel 17 detects the touched or approached position and inputs the detected position to the MFP 10. The scanner unit 18 reads a document and converts it into image data. The printer unit 19 prints an image based on the image data on a recording sheet. The modem 21 modulates image data to be transmitted at the time of FAX transmission into a signal that can be transmitted to a telephone line network (not shown) and transmits the signal via the NCU 20 or is input from the telephone line network via the NCU 20. The received signal is demodulated into image data. The NCU 20 connects a telephone line network (not shown) and the MFP 10, and controls the connection state with the telephone line network by closing or disconnecting the line according to an instruction from the modem 21.

無線通信部23は、無線LANによる無線通信を行うためのインタフェースである。本実施形態では、無線通信部23が行う通信は、IEEE802.11b/g/nの規格に準拠した無線LANによる無線通信である。本実施形態において、無線通信部23は、中継装置であるアクセスポイント(AP)50を介するインフラストラクチャーモードによって、端末200との間でWi−Fi(登録商標)規格に基づいた無線通信(以下、この通信を「Wi−Fi通信」と称す)により接続される。   The wireless communication unit 23 is an interface for performing wireless communication using a wireless LAN. In the present embodiment, the communication performed by the wireless communication unit 23 is wireless communication based on a wireless LAN compliant with the IEEE802.11b / g / n standard. In the present embodiment, the wireless communication unit 23 communicates with the terminal 200 based on the Wi-Fi (registered trademark) standard in the infrastructure mode via the access point (AP) 50 that is a relay device (hereinafter, referred to as “wireless communication”). This communication is referred to as “Wi-Fi communication”).

本実施形態の端末200は、タブレット端末である。端末200には、CPU211、フラッシュメモリ212、RAM213、操作キー215、LCD216、タッチパネル217、メモリカードインタフェース(メモリカードI/F)218、無線通信部223が主に設けられる。これらの各部は、入出力ポート224を介して互いに接続されている。CPU211は、ROM212等に記憶される固定値やプログラム等に従って、バスライン224と接続された各部を制御する。   The terminal 200 of this embodiment is a tablet terminal. The terminal 200 is mainly provided with a CPU 211, a flash memory 212, a RAM 213, an operation key 215, an LCD 216, a touch panel 217, a memory card interface (memory card I / F) 218, and a wireless communication unit 223. These units are connected to each other via an input / output port 224. The CPU 211 controls each unit connected to the bus line 224 according to a fixed value, a program, or the like stored in the ROM 212 or the like.

フラッシュメモリ212は、書換可能な不揮発性のメモリである。フラッシュメモリ212には、オペレーティングシステム212a、操作支援アプリ212bが格納される。なお、以下では「オペレーティングシステム」を「OS」と称することがある。また、以下では、アプリケーションやオペレーティングシステムなどのプログラムを実行するCPU211のことを、単にプログラム名で記載する場合もある。例えば「アプリケーション」という記載が「アプリケーションを実行するCPU211」を意味する場合もある。OS212aは、端末200の標準機能を実現するための基本ソフトウェアである。本実施形態では、OS212aの一例として、アンドロイド(登録商標)OSを採用する。   The flash memory 212 is a rewritable nonvolatile memory. The flash memory 212 stores an operating system 212a and an operation support application 212b. Hereinafter, the “operating system” may be referred to as “OS”. In the following description, the CPU 211 that executes a program such as an application or an operating system may be simply described by a program name. For example, the description “application” may mean “CPU 211 executing the application”. The OS 212a is basic software for realizing the standard functions of the terminal 200. In this embodiment, an Android (registered trademark) OS is adopted as an example of the OS 212a.

操作支援アプリ212bは、MFP10などのデバイスを遠隔操作するためのアプリケーションプログラムである。操作支援アプリ212bは、ユーザによって端末200にインストールされ、端末200から、対応するデバイスの遠隔操作を可能にする。なお、後述する図4のフローチャートに示す各処理は、CPU211が操作支援アプリ212bに従い実行する処理である。   The operation support application 212b is an application program for remotely operating a device such as the MFP 10. The operation support application 212b is installed in the terminal 200 by the user, and enables remote operation of the corresponding device from the terminal 200. Each process shown in the flowchart of FIG. 4 to be described later is a process executed by the CPU 211 in accordance with the operation support application 212b.

操作キー215は、端末200の筐体に設けられるメカニカルキーであり、各種の設定値や指示などをユーザから受け付ける。LCD216、タッチパネル217、メモリカードI/F218、および無線通信部223は、それぞれ、上述したLCD16、タッチパネル17、メモリカードI/F18、および無線通信部23と同様のものである。   The operation key 215 is a mechanical key provided on the casing of the terminal 200, and accepts various setting values and instructions from the user. LCD 216, touch panel 217, memory card I / F 218, and wireless communication unit 223 are the same as LCD 16, touch panel 17, memory card I / F 18, and wireless communication unit 23, respectively.

図2を参照して、本発明の概略を説明する。図2(a)には、MFP10のLCD16に表示される画面の一例として、機能メニュー画面70を示す。機能メニュー画面70は、2ページ分の画面、すなわち、1ページ目の画面70aと2ページ目の画面70bとの2画面から構成される。ユーザは、機能メニュー画面70に表示されるボタン画像91c,91dに対する押下操作(所謂「タップ操作」)を適宜行うことにより、LCD16に表示する画面を、画面70aまたは画面70bに適宜切り替えることができる。   The outline of the present invention will be described with reference to FIG. FIG. 2A shows a function menu screen 70 as an example of a screen displayed on the LCD 16 of the MFP 10. The function menu screen 70 is composed of two pages of screens, that is, a screen 70a for the first page and a screen 70b for the second page. The user can appropriately switch the screen displayed on the LCD 16 to the screen 70a or the screen 70b by appropriately pressing the button images 91c and 91d displayed on the function menu screen 70 (so-called “tap operation”). .

LCD16に表示される画面は、背景画像と、当該背景画像上に配置される部品画像とから構成される。図2(a)に示す機能メニュー画面70は、背景画像91と、当該背景画像91に配置される部品画像としてのボタン画像81とから構成される。ボタン画像81は、MFP10に実行させる機能を選択するための操作子である。本実施形態では、ボタン画像81は、5つのボタン画像81a〜81eから構成される。ユーザが、ボタン画像81a〜81eのいずれかに対する押下操作を行った場合、MFP10は、押下操作されたボタン画像81に応じた処理、具体的には、押下操作されたボタン画像81に対応する機能の実行に関わる画面(図示せず)の表示処理を実行する。   The screen displayed on the LCD 16 is composed of a background image and component images arranged on the background image. The function menu screen 70 shown in FIG. 2A includes a background image 91 and a button image 81 as a component image arranged on the background image 91. The button image 81 is an operator for selecting a function to be executed by the MFP 10. In this embodiment, the button image 81 includes five button images 81a to 81e. When the user performs a pressing operation on any of the button images 81a to 81e, the MFP 10 performs processing corresponding to the pressed button image 81, specifically, a function corresponding to the pressed button image 81. The display process of a screen (not shown) related to the execution of is executed.

5つのボタン画像81a〜81eは、1画面に集約されず、2画面に分けて表示される。具体的に、ボタン画像81a〜81cは、1ページ目の画面70aに表示され、ボタン画像81d,81eは、2ページ目の画面70bに表示される。よって、ユーザは、ボタン画像81a〜81eのうち、操作したいボタン画像に応じて、画面70aまたは画面70bを適宜切り替えて表示する必要がある。   The five button images 81a to 81e are displayed on two screens instead of being collected on one screen. Specifically, the button images 81a to 81c are displayed on the screen 70a of the first page, and the button images 81d and 81e are displayed on the screen 70b of the second page. Therefore, the user needs to switch and display the screen 70a or the screen 70b as appropriate according to the button image to be operated among the button images 81a to 81e.

背景画像91は、テキストであるページ番号91aおよび日時情報91bを含む。また、背景画像91は、LCD16に表示する画面を、前ページまたは次ページに切り替えるための操作子であるボタン画像91c,91dを含む。   The background image 91 includes a page number 91a and date / time information 91b, which are text. The background image 91 includes button images 91c and 91d that are operators for switching the screen displayed on the LCD 16 to the previous page or the next page.

機能メニュー画面70など、LCD16に表示される各画面は、背景画像91などの背景画像の画層と、ボタン画像81などの部品画像の画層とを重ねて構成される。MFP10は、ある画面をLCD16に表示させる場合、背景画像の画層と、部品画像を予め決められた配置に配置させた画層とを生成し、各画層を重ねてLCD16に表示する。   Each screen displayed on the LCD 16, such as the function menu screen 70, is configured by overlaying a background image layer such as the background image 91 and a component image layer such as the button image 81. When displaying a screen on the LCD 16, the MFP 10 generates a layer of a background image and a layer in which component images are arranged in a predetermined arrangement, and displays each layer on the LCD 16 in a superimposed manner.

なお、表示対象の画面が、機能メニュー画面70のような、複数画面から構成される一連の画面群である場合、MFP10は、一連の画面群を構成する全ての画面について、それぞれ、ボタン画像81などの部品画像を配置させた画層を生成し、RAM13に記憶させる。つまり、機能メニュー画面70が表示対象となる場合、MFP10は、背景画像91の画層と、画面70a用の部品画像の画層と、画面70b用の部品画像の画層とを予め生成する。MFP10は、画面70aをLCD16に表示する場合には、画面70a用の部品画像の画層と、背景画像91の画層とを重ねて、LCD16に表示する。一方、MFP10は、画面70bをLCD16に表示する場合には、画面70b用の部品画像の画層と、背景画像91の画層とを重ねて、LCD16に表示する。なお、ボタン画像81および背景画像91に対応する画像データは、フラッシュメモリ12に予め準備される。   When the display target screen is a series of screen groups including a plurality of screens, such as the function menu screen 70, the MFP 10 sets button images 81 for all the screens constituting the series of screen groups. A layer in which component images such as are arranged is generated and stored in the RAM 13. That is, when the function menu screen 70 is a display target, the MFP 10 previously generates a layer of the background image 91, a layer of the component image for the screen 70a, and a layer of the component image for the screen 70b. When displaying the screen 70 a on the LCD 16, the MFP 10 superimposes the component image layer for the screen 70 a and the background image 91 layer on the LCD 16. On the other hand, when displaying the screen 70b on the LCD 16, the MFP 10 superimposes the layer of the component image for the screen 70b and the layer of the background image 91 on the LCD 16. Note that image data corresponding to the button image 81 and the background image 91 is prepared in the flash memory 12 in advance.

詳細は後述するが、MFP10が、操作支援アプリ212bを搭載する端末200から遠隔操作される場合、MFP10は、LCD16に表示中の画面を構成する背景画像および部品画像の画像データなどを端末200に送信する。これにより、端末200のLCD216には、MFP10のLCD16に表示中の画面と同じ画像が、遠隔操作用の画像として表示される。ユーザは、かかる遠隔操作用の画像に基づいて、MFP10の遠隔操作を行うことができる。特に、LCD16に表示中の画面が、機能メニュー画面70など、複数画面から構成される一連の画面群である場合には、表示中の1画面だけでなく、複数画面分の画像が、遠隔操作用の画像としてLCD216に表示される。   Although details will be described later, when the MFP 10 is remotely operated from the terminal 200 on which the operation support application 212b is mounted, the MFP 10 provides the terminal 200 with the background image and the image data of the component image constituting the screen being displayed on the LCD 16. Send. As a result, the same image as that displayed on the LCD 16 of the MFP 10 is displayed on the LCD 216 of the terminal 200 as an image for remote operation. The user can remotely operate the MFP 10 based on the remote operation image. In particular, when the screen displayed on the LCD 16 is a series of screen groups composed of a plurality of screens such as the function menu screen 70, not only one screen being displayed but also images for a plurality of screens can be remotely controlled. Is displayed on the LCD 216 as an image.

図2(b)および(c)に、遠隔操作用の画像の1つである画像170を示す。画像170は、機能メニュー画面70に対応する遠隔操作用の画像である。画像170は、機能メニュー画面70を構成する2画面分の画像、より詳細には、画面70a,70bに表示されるボタン画像81(81a〜81e)と、背景画像91とから構成される。背景画像91は、ページ番号91aと、日時情報91bと、ボタン画像91c,91dとを含む。端末200は、ボタン画像81(81a〜81e)および背景画像91にそれぞれ対応する画像データとともに、各画像81,91の位置情報をMFP10から受信する。端末200は、受信した位置情報に基づいて、各画像81,91を配置し、それにより、図2(b)および(c)に示すような画像170が、LCD216に表示される。   2B and 2C show an image 170 that is one of the images for remote operation. The image 170 is a remote operation image corresponding to the function menu screen 70. The image 170 includes two screen images constituting the function menu screen 70, more specifically, button images 81 (81a to 81e) displayed on the screens 70a and 70b and a background image 91. The background image 91 includes a page number 91a, date / time information 91b, and button images 91c and 91d. The terminal 200 receives from the MFP 10 position information of the images 81 and 91 together with image data corresponding to the button images 81 (81a to 81e) and the background image 91, respectively. The terminal 200 arranges the images 81 and 91 based on the received position information, whereby an image 170 as shown in FIGS. 2B and 2C is displayed on the LCD 216.

ボタン画像81の位置情報は、各ボタン画像81a〜81eのビットマップの情報と、各ボタン画像81a〜81eの位置を示す座標とから構成される。一方、背景画像91の位置情報は、背景画像91のビットマップの情報と、背景画像91の位置を示す座標とから構成される。本実施形態では、位置情報に含まれる座標は、各画像の左上の位置を示す座標である。よって、各ボタン画像81a〜81eの左上の位置を示す座標P1〜P5と、背景画像91の左上の位置を示す座標Q1とが、ボタン画像81または背景画像91の位置情報として含まれている。   The position information of the button image 81 includes bitmap information of the button images 81a to 81e and coordinates indicating the positions of the button images 81a to 81e. On the other hand, the position information of the background image 91 includes bitmap information of the background image 91 and coordinates indicating the position of the background image 91. In the present embodiment, the coordinates included in the position information are coordinates indicating the upper left position of each image. Therefore, coordinates P1 to P5 indicating the upper left position of each of the button images 81a to 81e and coordinates Q1 indicating the upper left position of the background image 91 are included as position information of the button image 81 or the background image 91.

画像170は、MFP10のLCD16に表示されている画面が、画面70aであるか画面70bであるかにより、表示内容が相違する。つまり、図2(b)には、MFP10のLCD16に表示中の画面が、画面70aであるときの場合の画像170aを示す。一方、図2(c)には、MFP10のLCD16に表示中の画面が、画面70bであるときの場合の画像170bを示す。画像170aと画像170bとでは、背景画像91の表示位置が相違する。これは、MFP10から受信する座標Q1の値が異なることに基づく。   The display content of the image 170 differs depending on whether the screen displayed on the LCD 16 of the MFP 10 is the screen 70a or the screen 70b. That is, FIG. 2B shows an image 170a when the screen being displayed on the LCD 16 of the MFP 10 is the screen 70a. On the other hand, FIG. 2C shows an image 170b when the screen displayed on the LCD 16 of the MFP 10 is the screen 70b. The display position of the background image 91 is different between the image 170a and the image 170b. This is based on the fact that the value of the coordinate Q1 received from the MFP 10 is different.

画像170aでは、ボタン画像81a〜81cの背景として、背景画像91が表示される。一方、画像170bでは、ボタン画像81d,81eの背景として、背景画像91が表示される。つまり、機能メニュー画面70に含まれるボタン画像81のうち、MFP10のLCD16に表示中のボタン画像の背景として、背景画像91が表示される。よって、ユーザは、そのときにMFP10側で表示されている画面を、LCD216に表示される遠隔操作用の画像における背景画像の位置から把握できる。   In the image 170a, a background image 91 is displayed as the background of the button images 81a to 81c. On the other hand, in the image 170b, the background image 91 is displayed as the background of the button images 81d and 81e. That is, among the button images 81 included in the function menu screen 70, the background image 91 is displayed as the background of the button image being displayed on the LCD 16 of the MFP 10. Therefore, the user can grasp the screen displayed at that time on the MFP 10 side from the position of the background image in the remote operation image displayed on the LCD 216.

ユーザは、画像170のうち、操作子であるボタン画像81a〜81eのいずれかに対する押下操作を行うことにより、MFP10に、押下操作されたボタン画像81に応じた処理を実行させることができる。このとき、操作対象にするボタン画像81a〜81eが、MFP10のLCD16に表示されているか否かは問わない。つまり、操作支援アプリ212bによれば、ボタン画像81a〜81のうち、LCD16に表示されていない画面に含まれるボタン画像であっても、操作対象とすることができる。   The user can cause the MFP 10 to execute processing corresponding to the pressed button image 81 by performing a pressing operation on any of the button images 81a to 81e which are the operators in the image 170. At this time, it does not matter whether or not the button images 81a to 81e to be operated are displayed on the LCD 16 of the MFP 10. That is, according to the operation support application 212b, even the button image included in the screen not displayed on the LCD 16 among the button images 81a to 81 can be set as the operation target.

また、操作支援アプリ212bによれば、画像170など、LCD216に表示される遠隔操作用の画像上でドラッグ操作などの操作が行われた場合には、その操作をMFP10で行ったかのように、MFP10に処理を実行させることができる。その一方で、LCD216上における、遠隔操作用の画像が表示されていない領域216a上で各種操作が行われた場合には、端末200に対し当該操作に応じた処理を実行させることができる。例えば、領域216a上でピンチアウト操作が行われた場合には、表示されている遠隔操作用の画像を、そのときの表示サイズから拡大できる。   Further, according to the operation support application 212b, when an operation such as a drag operation is performed on an image for remote operation displayed on the LCD 216 such as the image 170, the MFP 10 is operated as if the operation was performed on the MFP 10. Can execute the process. On the other hand, when various operations are performed on the area 216a on the LCD 216 where the image for remote operation is not displayed, the terminal 200 can be caused to execute processing corresponding to the operation. For example, when a pinch-out operation is performed on the area 216a, the displayed remote operation image can be enlarged from the display size at that time.

なお、上記図2では、部品画像であるボタン画像81が、LCD16およびLCD216の長手方向、すなわち、X軸方向に並ぶ例を例示したが、部品画像の並び方向は、LCD16およびLCD216の短手方向、すなわち、Y軸方向であってもよい。つまり、部品画像がLCD16の短手方向に並ぶ場合に、LCD216に表示される遠隔操作用の画像は、部品画像がLCD216の短手方向に並ぶ画像となる。   2 illustrates the example in which the button images 81 that are component images are arranged in the longitudinal direction of the LCD 16 and the LCD 216, that is, in the X-axis direction, the component image is arranged in the short direction of the LCD 16 and the LCD 216. That is, it may be in the Y-axis direction. That is, when the component images are arranged in the short direction of the LCD 16, the remote operation image displayed on the LCD 216 is an image in which the component images are arranged in the short direction of the LCD 216.

図3は、MFP10のCPU11が実行する、遠隔操作時のMFP側処理を示すフローチャートである。本処理は、MFP10を端末200から遠隔操作させるための処理である。本処理は、MFP10と端末200との間で、遠隔操作を行うための事前処理が完了したことを条件として開始される。   FIG. 3 is a flowchart showing MFP-side processing during remote operation, which is executed by the CPU 11 of the MFP 10. This process is a process for remotely operating the MFP 10 from the terminal 200. This process is started on the condition that the preliminary process for performing the remote operation is completed between the MFP 10 and the terminal 200.

図3の説明に先立って、上記事前処理について説明する。事前処理は、まず、ユーザは、MFP10を操作し、遠隔操作を有効に設定することから始まる。次に、ユーザは、端末200を操作して操作支援アプリ212bを起動し、操作支援アプリ212bが起動された端末200に、遠隔操作が有効に設定されたMFP10を検索させる。端末200は、検索されたMFP10を遠隔操作の対象として端末200に登録し、登録されたMFP10に、登録したことを示す登録情報や、端末200のIPアドレスなどをWi−Fi通信で送信する。これらを受信したMFP10は、端末200との通信リンクを確立する。通信リンクが確立したことにより、事前処理は完了する。MFP10は、端末200からの遠隔操作が可能な状態となる。   Prior to the description of FIG. 3, the pre-processing will be described. The pre-processing starts when the user operates the MFP 10 and sets the remote operation to be valid. Next, the user operates the terminal 200 to activate the operation support application 212b, and causes the terminal 200 on which the operation support application 212b is activated to search for the MFP 10 in which the remote operation is enabled. The terminal 200 registers the searched MFP 10 as a remote operation target in the terminal 200, and transmits registration information indicating registration, the IP address of the terminal 200, and the like to the registered MFP 10 by Wi-Fi communication. Receiving these, the MFP 10 establishes a communication link with the terminal 200. The pre-processing is completed when the communication link is established. The MFP 10 can be remotely operated from the terminal 200.

図3に示すように、CPU11は、背景画像、表示中の部品画像、および画面遷移用に隠れている部品画像の画像データと、各画像の位置情報と、表示中の画面の画面IDとを、Wi−Fi通信により、端末200に送信する(S301)。S301においてCPU11が送信する画面IDは、LCD16に表示される画面を特定する識別情報であり、フッシュメモリ12に予め準備されている。   As shown in FIG. 3, the CPU 11 obtains the background image, the displayed component image, the image data of the component image hidden for screen transition, the position information of each image, and the screen ID of the displayed screen. And transmitted to the terminal 200 by Wi-Fi communication (S301). The screen ID transmitted by the CPU 11 in S301 is identification information for specifying the screen displayed on the LCD 16 and is prepared in the flash memory 12 in advance.

各画像の位置情報は、各画像のビットマップの情報と、各画像の座標情報とから構成される。S301の処理が実行されたことにより、MFP10から送信した画像データおよび位置情報に応じた遠隔操作用の画像、例えば、図2(b)に示す画像170が、端末200のLCD216に表示される。   The position information of each image is composed of bitmap information of each image and coordinate information of each image. By executing the processing of S301, the image data transmitted from the MFP 10 and the image for remote operation corresponding to the position information, for example, the image 170 shown in FIG. 2B are displayed on the LCD 216 of the terminal 200.

本実施形態では、各画像の座標情報は、各画像の左上の座標である。機能メニュー画面70のような、複数画面から構成される一連の画面群である場合、画面70aのような1ページ目の画面に含まれる部品画像の座標Pは、その部品画像の、当該部品画像を含む画面における実際の座標をそのまま用いる。一方、画面70bのような2ページ目以降の画面に含まれる部品画像の座標Pは、一連の画面群を構成する各画面を仮想的に並べたことによる通算の座標を用いる。   In the present embodiment, the coordinate information of each image is the upper left coordinate of each image. In the case of a series of screen groups composed of a plurality of screens such as the function menu screen 70, the coordinate P of the component image included in the first page screen such as the screen 70a is the component image of the component image. The actual coordinates on the screen including are used as they are. On the other hand, as the coordinates P of the component images included in the second and subsequent screens such as the screen 70b, the total coordinates obtained by virtually arranging the screens constituting the series of screen groups are used.

具体的に、通算座標のうち、一連の画面群における仮想的な画面の並び方向(以下、単に「画面の並び方向」と称することがある)の値は、対象となる部品画像を含む画面における当該部品画像の実際の座標のうち、画面の並び方向の値A1と、当該部品画像を含む画面のページ番号Nと、LCD16の、画面の並び方向の長さLとから算出される。一方、通算座標のうち、画面の並び方向の値は、対象となる部品画像を含む画面における当該部品画像の実際の座標のうち、画面の並び方向の値A2をそのまま用いる。すなわち、画面の並び方向がX方向である場合には、2ページ目以降の画面に含まれる部品画像の通算座標は(A1+(N×L+1),A2)である。一方、画面の並び方向がY方向である場合には、2ページ目以降の画面に含まれる部品画像の通算座標は(A2,A1+(N×L+1))である。   Specifically, among the total coordinates, the value of the virtual screen alignment direction (hereinafter, simply referred to as “screen alignment direction”) in the series of screen groups is the value on the screen including the target component image. Of the actual coordinates of the component image, the value is calculated from the value A1 of the screen alignment direction, the page number N of the screen including the component image, and the length L of the LCD 16 in the screen alignment direction. On the other hand, among the total coordinates, the value A2 of the screen arrangement direction is used as it is among the actual coordinates of the component image on the screen including the target component image. That is, when the screen alignment direction is the X direction, the total coordinates of the component images included in the second and subsequent screens are (A1 + (N × L + 1), A2). On the other hand, when the screen alignment direction is the Y direction, the total coordinates of the component images included in the second and subsequent screens are (A2, A1 + (N × L + 1)).

なお、「一連の画面群における仮想的な画面の並び方向」は、一連の画面群に含まれる部品画像の並び方向に等しい。つまり、ボタン画像81がLCD16の長手方向に並ぶ機能メニュー画面70は、一連の画面群における仮想的な画面の並び方向は、LCD16の長手方向となる。よって、例えば、LCD16の長手方向の長さが480dotである場合、上記長さLは480である。一方、部品画像がLCD16の短手方向に並ぶ画面は、一連の画面群における仮想的な画面の並び方向は、LCD16の短手方向となる。よって、例えば、LCD16の短手方向の長さが320dotである場合、上記長さLは320である。   The “virtual screen arrangement direction in a series of screen groups” is equal to the arrangement direction of component images included in the series of screen groups. That is, in the function menu screen 70 in which the button images 81 are arranged in the longitudinal direction of the LCD 16, the virtual screen arrangement direction in the series of screen groups is the longitudinal direction of the LCD 16. Therefore, for example, when the length of the LCD 16 in the longitudinal direction is 480 dots, the length L is 480. On the other hand, in the screen in which the component images are arranged in the short direction of the LCD 16, the virtual screen arrangement direction in the series of screen groups is the short direction of the LCD 16. Therefore, for example, when the length of the LCD 16 in the short direction is 320 dots, the length L is 320.

次に、背景画像の座標について説明する。機能メニュー画面70のような、複数画面から構成される一連の画面群である場合、背景画像91のような背景画像の座標Qは、LCD16に表示中の画面がどのページの画面であるかに応じた座標となる。具体的に、LCD16に表示中の画面が1ページ目の画面である場合には、背景画像の左上の座標Qは(0,0)である。LCD16に表示中の画面が2ページ目以降の画面である場合、背景画像の左上の座標のうち、画面の並び方向の値Eは、E=(画面の並び方向の長さL+1)の式に基づき算出する。よって、例えば、画面の並び方向がX方向である場合、背景画像の座標Qは(E,0)である。一方、画面の並び方向がY方向である場合、背景画像の座標Qは(0,E)である。   Next, the coordinates of the background image will be described. In the case of a series of screen groups composed of a plurality of screens, such as the function menu screen 70, the coordinate Q of the background image such as the background image 91 indicates which page the screen currently displayed on the LCD 16 is. It becomes the coordinates according to. Specifically, when the screen displayed on the LCD 16 is the screen of the first page, the upper left coordinate Q of the background image is (0, 0). When the screen being displayed on the LCD 16 is the second or subsequent page, the value E of the screen alignment direction among the coordinates at the upper left of the background image is expressed by the equation E = (length L + 1 of the screen alignment direction). Calculate based on Therefore, for example, when the screen arrangement direction is the X direction, the coordinate Q of the background image is (E, 0). On the other hand, when the screen arrangement direction is the Y direction, the coordinate Q of the background image is (0, E).

CPU11は、S301の処理後、端末200から操作情報を受信したかを判断する(S302)。端末200から操作情報を受信していないとCPU11が判断した場合(S302:No)、CPU11は、端末200への画像データおよび位置情報などを定期的に送信する送信タイミングであるかを判断する(S313)。本実施形態では、当該送信タイミングは、50msec毎とする。送信タイミングであるとCPU11が判断した場合(S313:Yes)、CPU11は、処理をS301に移行する。   After the process of S301, the CPU 11 determines whether operation information has been received from the terminal 200 (S302). When the CPU 11 determines that no operation information has been received from the terminal 200 (S302: No), the CPU 11 determines whether it is a transmission timing for periodically transmitting image data, position information, and the like to the terminal 200 ( S313). In the present embodiment, the transmission timing is every 50 msec. If the CPU 11 determines that it is the transmission timing (S313: Yes), the CPU 11 proceeds to S301.

S313において、送信タイミングでないとCPU11が判断した場合(S313:No)、CPU11は、MFP10において、ボタン画像81などの操作子が操作されたなどに基づく各種イベントが発生したかを判断する(S314)。イベントが発生していないとCPU11が判断した場合(S314:No)、CPU11は、処理をS302に移行する。一方、イベントが発生したとCPU11が判断した場合(S314:Yes)、CPU11は、発生したイベントに応じた処理を実行し(S315)、処理をS301に移行する。なお、このイベントには、MPF10において、ボタン画像91cまたは91dが押下され、LCD16の表示が画面70aから画面70bに切り替わることや、画面70bから画面70aに切り替わることも含む。   When the CPU 11 determines that it is not the transmission timing in S313 (S313: No), the CPU 11 determines whether various events have occurred in the MFP 10 based on the operation of the operation element such as the button image 81 (S314). . When the CPU 11 determines that no event has occurred (S314: No), the CPU 11 shifts the processing to S302. On the other hand, when the CPU 11 determines that an event has occurred (S314: Yes), the CPU 11 executes processing according to the event that has occurred (S315), and shifts the processing to S301. Note that this event includes a case where the button image 91c or 91d is pressed in the MPF 10 and the display on the LCD 16 is switched from the screen 70a to the screen 70b, or the screen 70b is switched to the screen 70a.

S302において、端末200から操作情報を受信したとCPU11が判断した場合(S302:Yes)。CPU11は、操作情報とともに端末200から受信した画面IDが適切であるか否かを判断する(S303)。具体的に、受信した画面IDが、LCD16に表示中の画面に対応する画面IDであるか、または、表示中の画面ともに一連の画面群を構成する他の画面に対応する画面IDである場合、CPU11は、S303において、受信した画面IDが適切であると判断する。   In S302, when the CPU 11 determines that operation information has been received from the terminal 200 (S302: Yes). The CPU 11 determines whether the screen ID received from the terminal 200 together with the operation information is appropriate (S303). Specifically, when the received screen ID is a screen ID corresponding to the screen being displayed on the LCD 16 or a screen ID corresponding to another screen that constitutes a series of screen groups together with the screen being displayed. In S303, the CPU 11 determines that the received screen ID is appropriate.

S303において、受信した画面IDが不適切であるとCPU11が判断した場合(S303:No)、CPU11は、処理をS302に移行する。かかる場合、CPU11は、後述するS304〜S312の処理、すなわち、MFP10が端末200から受信した操作情報に応じた処理を行わない。受信した画面IDが不適切であることは、端末200側にて操作が行われた遠隔操作用の画像が、LCD16に表示中の画面または当該画面を含む一連の画面群に対応しないことを示す。よって、S303の処理によれば、LCD16に表示中の画面と、端末200からの遠隔操作との整合性を取ることできる。   If the CPU 11 determines that the received screen ID is inappropriate in S303 (S303: No), the CPU 11 proceeds to S302. In such a case, the CPU 11 does not perform the processes of S304 to S312 described later, that is, the process according to the operation information received by the MFP 10 from the terminal 200. When the received screen ID is inappropriate, it means that the remote operation image operated on the terminal 200 side does not correspond to the screen currently displayed on the LCD 16 or a series of screen groups including the screen. . Therefore, according to the process of S303, consistency between the screen displayed on the LCD 16 and the remote operation from the terminal 200 can be achieved.

一方、S303において、受信した画面IDが適切であるとCPU11が判断した場合(S303:Yes)、CPU11は、受信した操作情報が何であるかを判断する(S304)。受信した操作情報が、端末200に表示された遠隔操作用の画像に対し、ドラッグ操作が行われたことを示すドラッグ情報であると、CPU11が判断した場合(S304:ドラッグ情報)、CPU11は、受信したドラッグ情報に従ってドラッグ処理、より詳細には、遠隔操作用の画像に対するドラッグ操作に応じたドラッグ処理を実行する(S310)。また、受信した操作情報が、端末200に表示された遠隔操作用の画像に対し、フリック操作が行われたことを示すフリック情報であると、CPU11が判断した場合(S304:フリック情報)、CPU11は、受信したフリック情報に従ってフリック処理、より詳細には、遠隔操作用の画像に対するフリック操作に応じたフリック処理を実行する(S311)。   On the other hand, when the CPU 11 determines that the received screen ID is appropriate in S303 (S303: Yes), the CPU 11 determines what the received operation information is (S304). When the CPU 11 determines that the received operation information is drag information indicating that a drag operation has been performed on the remote operation image displayed on the terminal 200 (S304: drag information), the CPU 11 A drag process according to the received drag information, more specifically, a drag process corresponding to the drag operation on the remote operation image is executed (S310). When the CPU 11 determines that the received operation information is flick information indicating that a flick operation has been performed on the remote operation image displayed on the terminal 200 (S304: flick information), the CPU 11 Performs the flick process according to the received flick information, more specifically, the flick process corresponding to the flick operation on the remote operation image (S311).

受信した操作情報が、端末200に表示された遠隔操作用の画像に対し、押下操作が行われたことを示す押下情報であると、CPU11が判断した場合(S304:押下情報)、CPU11は、受信した押下情報に含まれる押下座標が、LCD16の画面内に収まるかを判断する(S305)。具体的に、例えば、LCD16の画面サイズが、480×320dotの大きさである場合に、受信した押下座標が、(0,0)から(480,320)までの矩形領域内に位置する座標であれば、CPU11は、当該押下座標が、LCD16内に収まると判断する。   When the CPU 11 determines that the received operation information is pressing information indicating that a pressing operation has been performed on the remote operation image displayed on the terminal 200 (S304: pressing information), the CPU 11 It is determined whether or not the pressed coordinates included in the received pressed information fit within the screen of the LCD 16 (S305). Specifically, for example, when the screen size of the LCD 16 is 480 × 320 dots, the received pressed coordinates are coordinates located within a rectangular area from (0, 0) to (480, 320). If there is, the CPU 11 determines that the pressed coordinates are within the LCD 16.

受信した押下座標がLCD16の画面内に収まるとCPU11が判断した場合(S305:Yes)、CPU11は、1ページ目の画面における押下座標が示す位置を押下位置に決定する(S306)。一方、受信した押下座標がLCD16の画面内に収まらないとCPU11が判断した場合(S305:No)、CPU11は、受信した押下座標が、どのページの画面におけるどの座標を押下位置とするかを決定する(S312)。   When the CPU 11 determines that the received pressed coordinates are within the screen of the LCD 16 (S305: Yes), the CPU 11 determines the position indicated by the pressed coordinates on the screen of the first page as the pressed position (S306). On the other hand, when the CPU 11 determines that the received pressed coordinates do not fit within the screen of the LCD 16 (S305: No), the CPU 11 determines which coordinates on the screen of which page the received pressed coordinates are set as the pressed position. (S312).

具体的に、S312において、CPU11は、まず、受信した押下座標(X,Y)のXおよびYを、それぞれ、LCD16のX方向の長さLxと、Y方向の長さLyで割った商を算出する。次に、CPU11は、商(X/Lx)または商(Y/Ly)のうち、1以上である商の整数部分の値Naから、Naページ目の画面が押下されたかを決定する。CPU11は、商(X/Lx)または商(Y/Ly)のうち、商が1以上である方の余りMaに基づいて、Naページ目の画面における押下座標を決定する。つまり、商(X/Lx)が1以上である場合には、Naページ目の画面における座標(Ma,Y)を押下位置として決定する。一方、商(Y/Ly)が1以上である場合には、Naページ目の画面における座標(X,Ma)を押下位置として決定する。   Specifically, in S312, the CPU 11 first calculates a quotient obtained by dividing X and Y of the received pressed coordinates (X, Y) by the length Lx in the X direction of the LCD 16 and the length Ly in the Y direction, respectively. calculate. Next, the CPU 11 determines from the value Na of the integer part of the quotient that is 1 or more of the quotient (X / Lx) or the quotient (Y / Ly) whether the screen of the Na page has been pressed. The CPU 11 determines the pressed coordinates on the screen of the Nath page based on the remainder Ma of the quotient (X / Lx) or quotient (Y / Ly) having a quotient of 1 or more. That is, when the quotient (X / Lx) is 1 or more, the coordinate (Ma, Y) on the screen of the Na page is determined as the pressed position. On the other hand, when the quotient (Y / Ly) is 1 or more, the coordinate (X, Ma) on the screen of the Na page is determined as the pressed position.

CPU11は、S306またはS312により決定された押下位置が、ボタン画像81など、MFP10に対する指示を入力するための各種操作子上に位置するかを判断する(S307)。決定された押下位置が操作子上に位置しないとCPU11が判断した場合(S307:No)、端末200に表示された遠隔操作用の画像に対して行われた押下操作は、操作子上で行われていないことを示す。よって、かかる場合、CPU11は、処理をS302に移行する。一方、決定された押下位置が操作子上に位置するとCPU11が判断した場合(S307:Yes)、CPU11は、押下対象の操作子に対する押下処理を実行する(S308)。   The CPU 11 determines whether the pressed position determined in S306 or S312 is located on various operators for inputting instructions to the MFP 10, such as the button image 81 (S307). When the CPU 11 determines that the determined pressing position is not located on the operator (S307: No), the pressing operation performed on the remote operation image displayed on the terminal 200 is performed on the operator. Indicates that it is not broken. Therefore, in such a case, the CPU 11 proceeds to S302. On the other hand, when the CPU 11 determines that the determined pressing position is located on the operation element (S307: Yes), the CPU 11 executes a pressing process on the operation object to be pressed (S308).

例えば、端末200に表示された遠隔操作用の画像に対して行われた押下操作が、ボタン画像81a〜81eのいずれかに対する押下操作であると、CPU11が判断した場合、CPU11は、押下処理として、押下操作されたボタン画像81に応じた処理を実行する。具体的に、CPU11は、押下操作されたボタン画像81a〜81eに対応する機能の実行に関わる画面(図示せず)を表示する処理を実行する。その結果、LCD16に表示される画面は、機能メニュー画面79から、押下操作されたボタン画像81a〜81eに対応する機能の実行に関わる画面に切り替わる。   For example, when the CPU 11 determines that the pressing operation performed on the remote operation image displayed on the terminal 200 is a pressing operation on any of the button images 81a to 81e, the CPU 11 performs the pressing process. Then, processing corresponding to the pressed button image 81 is executed. Specifically, the CPU 11 executes processing for displaying a screen (not shown) related to execution of a function corresponding to the pressed button images 81a to 81e. As a result, the screen displayed on the LCD 16 is switched from the function menu screen 79 to a screen related to execution of the function corresponding to the pressed button images 81a to 81e.

あるいは、端末200に表示された遠隔操作用の画像に対して行われた押下操作が、ボタン画像91cまたはボタン画像91dに対する押下操作であると、CPU11が判断した場合、CPU11は、押下処理として、LCD16に表示されている画面を、当該表示中の画面に対する前ページまたは次ページの画面に切り替える処理を実行する。また、端末200に表示された遠隔操作用の画像に対して行われた押下操作が、コピー機能など、各種機能の実行を指示する操作子に対する押下操作であると、CPU11が判断した場合、CPU11は、押下処理として、指示の対象となる機能を用いた処理を実行する。   Alternatively, when the CPU 11 determines that the pressing operation performed on the remote operation image displayed on the terminal 200 is the pressing operation on the button image 91c or the button image 91d, the CPU 11 performs the pressing process as A process of switching the screen displayed on the LCD 16 to the screen of the previous page or the next page with respect to the currently displayed screen is executed. When the CPU 11 determines that the pressing operation performed on the remote operation image displayed on the terminal 200 is a pressing operation on an operator that instructs execution of various functions such as a copy function, the CPU 11 Performs a process using a function to be instructed as a pressing process.

S308,S310,S311の処理によれば、MFP10は、操作支援アプリ212bを搭載する端末200から遠隔操作される。そして、S308,S310,S311の処理後、CPU11は、各処理の実行結果を示す実行結果情報を、Wi−Fi通信により、端末200に送信する(S309)。実行結果情報には、処理が行われた結果としてLCD16の表示画面に変化があったかを示す情報を含む。S309の処理後、CPU11は、処理をS301に移行する。   According to the processing of S308, S310, and S311, the MFP 10 is remotely operated from the terminal 200 on which the operation support application 212b is installed. Then, after the processes of S308, S310, and S311, the CPU 11 transmits execution result information indicating the execution result of each process to the terminal 200 by Wi-Fi communication (S309). The execution result information includes information indicating whether the display screen of the LCD 16 has changed as a result of the processing. After the process of S309, the CPU 11 shifts the process to S301.

図4は、端末200のCPU211が実行する、遠隔操作時の端末側処理を示すフローチャートである。本処理は、MFP10を遠隔操作するための処理である。本処理は、図3と同様、上述した事前処理が完了したことを条件として開始される。   FIG. 4 is a flowchart showing terminal-side processing at the time of remote operation, which is executed by the CPU 211 of the terminal 200. This process is a process for remotely operating the MFP 10. This process is started on the condition that the above-described preliminary process is completed, as in FIG.

CPU211は、MFP10がS301において送信した画像データなどの受信、または、タッチパネル217に対する操作の受け付けを待機する(S401:No,S404:No)。CPU211は、MFP10から画像データなどを受信した場合(S401:Yes)、画像データとともに受信した画面IDをRAM213に記憶する(S402)。次に、CPU211は、画像データとともに受信した各画像の位置情報に基づいて、遠隔操作用の画像を構成し、LCD216に表示する(S403)。S403の処理の結果、例えば、図2(b)の画像170aまたは図2(c)の画像170bが、LCD216に表示される。CPU211は、S403の処理後、処理をS404に移行する。   The CPU 211 waits for reception of image data or the like transmitted by the MFP 10 in S301 or reception of an operation on the touch panel 217 (S401: No, S404: No). When receiving image data or the like from the MFP 10 (S401: Yes), the CPU 211 stores the screen ID received together with the image data in the RAM 213 (S402). Next, the CPU 211 configures an image for remote operation based on the positional information of each image received together with the image data, and displays it on the LCD 216 (S403). As a result of the process of S403, for example, the image 170a in FIG. 2B or the image 170b in FIG. 2C is displayed on the LCD 216. After the process of S403, the CPU 211 moves the process to S404.

タッチパネル217に対する操作をCPU211が受け付けた場合(S404:Yes)、CPU211は、受け付けた操作の種類を判断する(S405)。押下操作を受け付けたとCPU211が判断した場合(S405:押下)、CPU211は、LCD216に表示されている遠隔操作用の画像の、等倍画像に対する拡縮倍率Zを取得する(S406)。拡縮倍率Zは、等倍画像に対する現在の画像のサイズ比である。等倍画像の場合、拡縮倍率Zは1である。拡縮倍率Zが1より小さい値である場合には、現在の画像が、等倍画像から縮小されていることを示す。一方、拡縮倍率Zが1より大きい値である場合には、現在の画像が、等倍画像から拡大されていることを示す。拡縮倍率Zは、RAM216に記憶されており、LCD216に表示される画像が拡大または縮小される毎に随時更新される。なお、等倍画像は、拡大も縮小もしていない画像である。本実施形態では、S401においてMFP10から受信した画像データに基づく画像を、等倍画像とする。   When the CPU 211 receives an operation on the touch panel 217 (S404: Yes), the CPU 211 determines the type of the received operation (S405). When the CPU 211 determines that the pressing operation has been received (S405: pressing), the CPU 211 acquires the enlargement / reduction ratio Z of the image for remote operation displayed on the LCD 216 with respect to the same size image (S406). The enlargement / reduction ratio Z is a size ratio of the current image to the equal-size image. In the case of the same size image, the enlargement / reduction ratio Z is 1. When the enlargement / reduction ratio Z is a value smaller than 1, it indicates that the current image is reduced from the same-size image. On the other hand, when the enlargement / reduction ratio Z is a value larger than 1, it indicates that the current image is enlarged from the same-size image. The enlargement / reduction ratio Z is stored in the RAM 216 and is updated whenever the image displayed on the LCD 216 is enlarged or reduced. Note that the same size image is an image that has not been enlarged or reduced. In the present embodiment, an image based on the image data received from the MFP 10 in S401 is assumed to be a normal size image.

CPU211は、S406で取得した拡縮倍率Zに基づいて、押下操作として受け付けた押下座標を、等倍画像に対する押下座標に換算する(S407)。具体的に、受け付けた押下座標が(X1,Y1)である場合、CPU211は、X1およびY1をそれぞれ拡縮倍率Zで割る。つまり、換算後の押下座標は(X1/Z,Y1/Z)である。次に、CPU211は、押下情報と、RAM213に記憶される画面IDとを、Wi−Fi通信により、MFP10に送信する(S408)。押下情報は、押下操作が行われたことを示す情報と、S407による換算後の押下座標とを含む。S408の処理の結果、MFP10のCPU11は、画像IDが適切であることを条件として、上述したS305〜S308,S312の処理を実行する。   Based on the enlargement / reduction ratio Z acquired in S406, the CPU 211 converts the pressed coordinates received as the pressed operation into pressed coordinates for the same-size image (S407). Specifically, when the received pressed coordinates are (X1, Y1), the CPU 211 divides X1 and Y1 by the enlargement / reduction ratio Z, respectively. That is, the pressed coordinates after conversion are (X1 / Z, Y1 / Z). Next, the CPU 211 transmits the pressing information and the screen ID stored in the RAM 213 to the MFP 10 by Wi-Fi communication (S408). The pressing information includes information indicating that the pressing operation has been performed, and the pressed coordinates after conversion in S407. As a result of the process of S408, the CPU 11 of the MFP 10 executes the processes of S305 to S308 and S312 described above on condition that the image ID is appropriate.

このように、LCD216に表示される遠隔操作用の画像が拡大または縮小されたとしても、ユーザが押下した座標が、等倍画像の押下座標としてMFP10に送信されるので、MFP10では、ユーザが意図した操作子に応じた処理を適確に実行させることができる。また、このように、遠隔操作用の画像が拡大または縮小されても、ユーザの意図に応じた処理をMFP10に実行させることができるので、ユーザは、遠隔操作用の画像を自身が所望するサイズに拡大または縮小して利用することができ、利便性がよい。なお、拡縮倍率Zが1である場合、すなわち、現在の画像が等倍画像である場合には、S407による換算を行うことなく、受け付けた押下座標を送信する構成としてもよい。   As described above, even if the image for remote operation displayed on the LCD 216 is enlarged or reduced, the coordinates pressed by the user are transmitted to the MFP 10 as the pressed coordinates of the equal-size image. Thus, it is possible to appropriately execute the process according to the operated operator. In addition, even when the remote operation image is enlarged or reduced in this manner, the MFP 10 can execute processing according to the user's intention, so that the user has the desired size of the remote operation image. It can be used by enlarging or reducing it, which is convenient. When the enlargement / reduction ratio Z is 1, that is, when the current image is an equal-magnification image, the received pressed coordinates may be transmitted without performing the conversion in S407.

一方、ドラッグ操作を受け付けたとCPU211が判断した場合(S405:ドラッグ)、CPU211は、ドラッグ情報と、RAM213に記憶される画面IDとを、Wi−Fi通信により、MFP10に送信する(S410)。ドラッグ情報は、ドラッグ操作が行われたことを示す情報と、受け付けたドラッグ操作の始点座標および終点座標と、を含む。一方、フリック操作を受け付けたとCPU211が判断した場合(S405:フリック)、CPU211は、フリック情報と、RAM213に記憶される画面IDとを、Wi−Fi通信により、MFP10に送信する(S411)。フリック情報は、フリック操作が行われたことを示す情報と、受け付けたフリック操作の加速方向および加速度と、を含む。S410またはS411の処理の結果、MFP10のCPU11は、画像IDが適切であることを条件として、上述したS310またはS311の処理を実行する。   On the other hand, when the CPU 211 determines that the drag operation has been received (S405: drag), the CPU 211 transmits the drag information and the screen ID stored in the RAM 213 to the MFP 10 by Wi-Fi communication (S410). The drag information includes information indicating that the drag operation has been performed, and start and end point coordinates of the accepted drag operation. On the other hand, when the CPU 211 determines that the flick operation has been accepted (S405: flick), the CPU 211 transmits the flick information and the screen ID stored in the RAM 213 to the MFP 10 by Wi-Fi communication (S411). The flick information includes information indicating that the flick operation has been performed, and the acceleration direction and acceleration of the accepted flick operation. As a result of the processing of S410 or S411, the CPU 11 of the MFP 10 executes the above-described processing of S310 or S311 on condition that the image ID is appropriate.

CPU211は、S408,S410,S411の処理後、MFP10から実行結果情報を受信することを待機する(S409:No,413:No)。実行結果情報は、MFP10のCPU11が、上述したS309において送信する情報である。CPU211は、MFP10から実行結果情報を受信した場合(S409:Yes)、CPU211は、処理をS401に移行する。S408,S410,S411において、CPU211が、タッチパネル217に対する操作に応じた情報をMFP10に送信した結果、MFP10にてLCD16に表示される画面に変化があった場合、MFP10から受信する実行結果情報にはその旨を示す情報が含まれる。よって、MFP10から、変更後の画面に応じた画像データなどが送信されるので、CPU211は、S403の処理を実行することになり、その結果、端末200のLCD216には、変更後の画面に応じた遠隔操作用の画像が表示される。   After the processing of S408, S410, and S411, the CPU 211 waits to receive execution result information from the MFP 10 (S409: No, 413: No). The execution result information is information that the CPU 11 of the MFP 10 transmits in the above-described S309. When the CPU 211 receives the execution result information from the MFP 10 (S409: Yes), the CPU 211 shifts the processing to S401. In S <b> 408, S <b> 410, and S <b> 411, if the CPU 211 transmits information corresponding to the operation on the touch panel 217 to the MFP 10, and the screen displayed on the LCD 16 is changed by the MFP 10, the execution result information received from the MFP 10 is Information indicating that is included. Therefore, since image data or the like corresponding to the changed screen is transmitted from the MFP 10, the CPU 211 executes the process of S403. As a result, the LCD 216 of the terminal 200 displays the changed screen according to the changed screen. A remote operation image is displayed.

CPU211が、MFP10から実行結果情報を受信することなく、所定時間、例えば、5秒が経過した場合(S413:Yes)、CPU211は、操作された遠隔操作用の画像が、MFP10に表示されている画面と相違する旨をLCD216に表示し(S414)、処理をS401に移行する。S414の処理による表示は、MFP10のCPU11が、S408において送信した画面IDを不適切であると判断し、実行結果情報が送信されなかった場合に表示される。よって、ユーザは、当該表示に基づき、MFP10の画面が、遠隔操作用の画像から変更されており、操作できなかったことを把握できる。   When the CPU 211 receives no execution result information from the MFP 10 and a predetermined time, for example, 5 seconds elapses (S413: Yes), the CPU 211 displays the operated remote operation image on the MFP 10. The fact that it is different from the screen is displayed on the LCD 216 (S414), and the process proceeds to S401. The display by the process of S414 is displayed when the CPU 11 of the MFP 10 determines that the screen ID transmitted in S408 is inappropriate and the execution result information is not transmitted. Therefore, the user can grasp that the screen of the MFP 10 has been changed from the image for remote operation and cannot be operated based on the display.

一方、S405において、LCD216上における遠隔操作用の画像以外の領域、すなわち、領域216aに対する操作を受け付けたと、CPU211が判断した場合(S405:画像外操作)、CPU211は、受け付けた操作に応じた処理を実行し(S412)、処理をS401に移行する。例えば、領域216a上でのピンチアウト操作をCPU211が受け付けた場合、CPU211は、表示されている遠隔操作用の画像を、ピンチアウトの操作量に応じて拡大する。これに対し、領域216a上でのピンチイン操作をCPU211が受け付けた場合、CPU211は、表示されている遠隔操作用の画像を、ピンチインの操作量に応じて縮小する。また、領域216上でのドラッグ操作やフリック操作をCPU211が受け付けた場合、CPU211は、表示されている遠隔操作用の画像を、ドラッグ操作やフリック操作に応じてスクロールする。このように、操作支援アプリ212bによれば、遠隔操作用の画像が表示されていない領域216を有効活用できる。また、遠隔操作用の画像のサイズや表示部位をユーザの所望に応じて変化できるので、遠隔操作用の画像の操作性や利便性がよい。   On the other hand, when the CPU 211 determines in S405 that an operation for an area other than the image for remote operation on the LCD 216, that is, the area 216a is accepted (S405: outside image operation), the CPU 211 performs processing according to the accepted operation. Is executed (S412), and the process proceeds to S401. For example, when the CPU 211 receives a pinch-out operation on the area 216a, the CPU 211 enlarges the displayed remote operation image in accordance with the pinch-out operation amount. On the other hand, when the CPU 211 receives a pinch-in operation on the area 216a, the CPU 211 reduces the displayed remote operation image according to the pinch-in operation amount. When the CPU 211 receives a drag operation or flick operation on the area 216, the CPU 211 scrolls the displayed remote operation image in accordance with the drag operation or flick operation. As described above, according to the operation support application 212b, it is possible to effectively use the area 216 where the image for remote operation is not displayed. Further, since the size and display part of the image for remote operation can be changed according to the user's desire, the operability and convenience of the image for remote operation are good.

上記第1実施形態によれば、MFP10を、操作支援アプリ212bを搭載する端末200から遠隔操作することができる。特に、機能メニュー画面70のように、複数画面から構成される一連の画面群の場合、MFP10のLCD16に表示されていない画面に含まれる操作子であっても、端末200からの遠隔操作の対象にすることができるので、操作性および利便性に優れる。   According to the first embodiment, the MFP 10 can be remotely operated from the terminal 200 on which the operation support application 212b is installed. In particular, in the case of a series of screen groups composed of a plurality of screens, such as the function menu screen 70, even an operator included in a screen that is not displayed on the LCD 16 of the MFP 10 is subject to remote operation from the terminal 200. Therefore, it is excellent in operability and convenience.

次に、図5を参照して、本発明の第2実施形態について説明する。上述した第1実施形態では、MFP10側で、端末200のタッチパネル217に対する押下操作の押下座標が、複数画面から構成される一連の画像群のうち、どのページの画面におけるどの位置を押下したものであるかを決定する構成とした。これに対し、第2実施形態では、当該決定を端末200側で行う。第2実施形態において、上述した第1実施形態と同一の部分については、同一の符号を付し、その説明は省略する。   Next, a second embodiment of the present invention will be described with reference to FIG. In the first embodiment described above, on the MFP 10 side, the pressing coordinate of the pressing operation on the touch panel 217 of the terminal 200 is a pressing position on a screen of which page among a series of image groups composed of a plurality of screens. It was set as the structure which determines whether there exists. In contrast, in the second embodiment, the determination is performed on the terminal 200 side. In the second embodiment, the same parts as those in the first embodiment described above are denoted by the same reference numerals, and the description thereof is omitted.

以下、第1実施形態との相違点を中心に説明する。第2実施形態の、遠隔操作時のMFP側処理は、CPU11が、第2実施形態の制御プログラム12aに従って実行する。本実施形態では、MFP10側にて上記決定を行わないので、MFP10のCPU11が実行する、本実施形態において、遠隔操作時のMFP側処理は、上述した第1実施形態での同処理(図3)から、S305,S306,S312の各処理が省略された処理となる。   Hereinafter, the difference from the first embodiment will be mainly described. The MFP 11 processing in the second embodiment at the time of remote operation is executed by the CPU 11 according to the control program 12a of the second embodiment. In the present embodiment, since the above determination is not performed on the MFP 10 side, in the present embodiment executed by the CPU 11 of the MFP 10, the MFP-side processing at the time of remote operation is the same processing in the above-described first embodiment (FIG. 3). ) To S305, S306, and S312 are omitted.

図5は、第2実施形態の、遠隔操作時の端末側処理を示すフローチャートである。本処理は、CPU211が、第2実施形態の操作支援アプリ212bに従って実行する。本処理は、CPU211が受け付けた操作が押下操作である場合が、第1実施形態と相違する。具体的に、CPU11は、S407の処理後、MFP10の画面サイズを取得する(S501)。画面サイズの取得方法としては、LCD16の画面サイズをMFP10に問い合わせ、その返信として取得する方法や、LCD16の画面サイズをフラッシュメモリ212に記憶しておき、読み出す方法などがある。フラッシュメモリ212に画面サイズを記憶させる方法としては、例えば、MFP10に対する問い合わせの結果として受信した画面サイズを記憶させる方法や、事前処理においてMFP10から取得した画面サイズを記憶させる方法や、MFP10のモデル毎に画面サイズが格納されたテーブルを予め記憶させる方法などがある。   FIG. 5 is a flowchart illustrating terminal-side processing during remote operation according to the second embodiment. This process is executed by the CPU 211 according to the operation support application 212b of the second embodiment. This process differs from the first embodiment when the operation received by the CPU 211 is a pressing operation. Specifically, the CPU 11 acquires the screen size of the MFP 10 after the process of S407 (S501). As a method of acquiring the screen size, there are a method of inquiring the MFP 10 for the screen size of the LCD 16 and acquiring it as a reply, a method of storing the screen size of the LCD 16 in the flash memory 212 and reading it out. As a method of storing the screen size in the flash memory 212, for example, a method of storing the screen size received as a result of an inquiry to the MFP 10, a method of storing the screen size acquired from the MFP 10 in the pre-processing, There is a method of previously storing a table in which the screen size is stored.

次に、CPU211は、S305の処理と同様に、換算後の押下座標が、MFP10のLCD16の画面内に収まるかを判断する(S502)。換算後の押下座標がLCD16の画面内に収まるとCPU211が判断した場合(S502:Yes)、CPU211は、換算後の押下座標を、1ページ目の画面における押下座標として決定する(S503)。一方、換算後の押下座標がLCD16の画面内に収まらないとCPU211が判断した場合(S502:No)、CPU211は、換算後の押下座標が、どのページの画面におけるどの座標が押下されたかを決定する(S504)。S504の決定は、S312と同様に行うことができる。   Next, the CPU 211 determines whether the pressed coordinates after conversion fit within the screen of the LCD 16 of the MFP 10 as in the process of S305 (S502). When the CPU 211 determines that the converted pressed coordinates fall within the screen of the LCD 16 (S502: Yes), the CPU 211 determines the converted pressed coordinates as the pressed coordinates on the screen of the first page (S503). On the other hand, when the CPU 211 determines that the pressed coordinates after conversion do not fit within the screen of the LCD 16 (S502: No), the CPU 211 determines which coordinates on the screen of which page the pressed coordinates after conversion are pressed. (S504). The determination in S504 can be performed in the same manner as in S312.

CPU211は、S503またはS504の処理後、S408の処理を実行する。第2実施形態では、S408において、CPU211は、押下情報として、押下操作が行われたことを示す情報と、どのページの画面におけるどの座標が押下されたかを示す情報を、MFP10に送信する。MFP10は、S305,S306,S312の各処理を行うことなく、端末200から受信した押下情報に基づいて、複数画面から構成される一連の画像群のうち、どのページにおけるどの位置を押下したものであるかを認識できる。   The CPU 211 executes the processing of S408 after the processing of S503 or S504. In the second embodiment, in step S <b> 408, the CPU 211 transmits, as pressing information, information indicating that a pressing operation has been performed and information indicating which coordinate on which screen is pressed to the MFP 10. The MFP 10 does not perform each process of S305, S306, and S312 and presses which position on which page of a series of image groups composed of a plurality of screens based on the pressing information received from the terminal 200. You can recognize it.

上記第2実施形態によれば、端末200側で、タッチパネル217に対する押下操作の押下座標が、複数画面から構成される一連の画像群のうち、どのページの画面におけるどの位置を押下したものであるかを決定できる。つまり、端末200側で、MFP10のLCD16に表示されていない画面であっても、押下操作の位置を特定できる。   According to the second embodiment, on the terminal 200 side, the pressing coordinate of the pressing operation on the touch panel 217 is a position on the screen of which page among a series of image groups configured by a plurality of screens. Can be determined. That is, on the terminal 200 side, the position of the pressing operation can be specified even on a screen that is not displayed on the LCD 16 of the MFP 10.

上記実施形態において、操作支援アプリ212bが、操作支援プログラムの一例である。端末200が、端末装置の一例である。MFP10が、処理実行装置の一例である。
制御プログラム12aが、処理実行プログラムの一例である。LCD216が、第1表示部の一例である。タッチパネル217が、入力部の一例である。無線通信部223が、端末装置の通信部の一例である。CPU211が、端末装置の制御部の一例である。LCD16が、第2表示部、表示部の一例である。無線通信部23が、処理実行装置の通信部の一例である。CPU11が、処理実行装置の制御部の一例である。フラッシュメモリ12が、記憶部の一例である。機能メニュー画面70が、一連の画面群の一例である。ボタン画像81,91c,91dが、操作子の画像の一例である。各ボタン画像81a〜81eが、要素画像の一例である。遠隔操作用の画像170が、表示対象画像の一例である。
In the above embodiment, the operation support application 212b is an example of an operation support program. The terminal 200 is an example of a terminal device. The MFP 10 is an example of a process execution device.
The control program 12a is an example of a process execution program. The LCD 216 is an example of a first display unit. The touch panel 217 is an example of an input unit. The wireless communication unit 223 is an example of a communication unit of the terminal device. The CPU 211 is an example of a control unit of the terminal device. The LCD 16 is an example of a second display unit or a display unit. The wireless communication unit 23 is an example of a communication unit of the process execution device. The CPU 11 is an example of a control unit of the process execution device. The flash memory 12 is an example of a storage unit. The function menu screen 70 is an example of a series of screen groups. The button images 81, 91c, and 91d are examples of the operator image. Each of the button images 81a to 81e is an example of an element image. The remote operation image 170 is an example of a display target image.

S401の処理を実行するCPU211が、画像受信手段の一例である。S403の処理を実行するCPU211が、画像表示手段の一例である。S408の処理を実行するCPU211が、情報送信手段の一例である。S501の処理を実行するCPU211が、取得手段の一例である。S502〜S504の処理を実行するCPU211が、請求項4の特定手段の一例である。S407の処理を実行するCPU211が、変換手段の一例である。S412の処理を実行するCPU211が、処理実行手段の一例である。S301の処理を実行するCPU11が、画像送信手段の一例である。S308の処理を実行するCPU11が、処理実行手段の一例である。S305,S306,S312の処理を実行するCPU11が、請求項9の特定手段の一例である。S303の処理を実行するCPU11が、判断手段の一例である。   The CPU 211 that executes the process of S401 is an example of an image receiving unit. The CPU 211 that executes the process of S403 is an example of an image display unit. The CPU 211 that executes the process of S408 is an example of an information transmission unit. The CPU 211 that executes the process of S501 is an example of an acquisition unit. The CPU 211 that executes the processes of S502 to S504 is an example of a specifying unit. The CPU 211 that executes the process of S407 is an example of a conversion unit. The CPU 211 that executes the process of S412 is an example of a process execution unit. CPU11 which performs the process of S301 is an example of an image transmission means. The CPU 11 that executes the process of S308 is an example of a process execution unit. The CPU 11 that executes the processes of S305, S306, and S312 is an example of the specifying unit of claim 9. The CPU 11 that executes the process of S303 is an example of a determination unit.

以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。   Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.

例えば、上記実施形態では、本発明の端末装置として、タブレット端末である端末200を例示したが、MFP10などの処理実行装置と通信可能であり、かつ、LCDなどの画面を有する装置であれば、パーソナルコンピュータや、スマートフォンや、携帯端末や、デジタルカメラや、携帯音楽再生装置などであっても、本発明の端末装置の一例となり得る。上記実施形態では、OS12aとして、アンドロイドOSを例示したが、他のOSを採用してもよい。上記実施形態では、遠隔操作用の画像に対する押下操作をタッチパネル217が検出する構成としたが、マウスなどのポインティングデバイスを用いて、遠隔操作用の画像に対する操作を行う構成であっても、本発明を適用できる。   For example, in the above-described embodiment, the terminal 200 that is a tablet terminal is illustrated as the terminal device of the present invention. However, any device that can communicate with a processing execution device such as the MFP 10 and has a screen such as an LCD can be used. Even a personal computer, a smartphone, a portable terminal, a digital camera, a portable music playback device, or the like can be an example of the terminal device of the present invention. In the above embodiment, the Android OS is exemplified as the OS 12a, but another OS may be adopted. In the above embodiment, the touch panel 217 detects a pressing operation on a remote operation image. However, the present invention may be applied to a configuration in which an operation for a remote operation image is performed using a pointing device such as a mouse. Can be applied.

上記実施形態では、本発明の処理実行装置として、多機能周辺装置であるMFP10を例示したが、スキャナ装置や、プリンタ装置などの単機能を有する装置や、画像や音楽を再生するための装置などであっても、本発明の処理実行装置の一例となり得る。   In the above embodiment, the MFP 10 which is a multifunction peripheral device is exemplified as the processing execution device of the present invention. However, a device having a single function such as a scanner device or a printer device, a device for reproducing images or music, and the like. Even so, it can be an example of the processing execution apparatus of the present invention.

上記実施形態では、MFP10は、ボタン画像81a〜81eの各々について、画像データと位置情報とを、端末200に送信する構成としたが、複数のボタン画像が予め連なって配列された集合画像の画像データと、当該集合画像の位置情報とを、端末200に送信する構成としてもよい。集合画像は、MFP10に予め準備されていても、S301の送信の前に、例えば、画面毎に各画面に含まれる部品画像から集合画像を生成してもよい。なお、本変形例の「集合画像」が、特許請求の範囲の「集合画像」の一例である。   In the above embodiment, the MFP 10 is configured to transmit the image data and the position information to each of the button images 81a to 81e to the terminal 200. However, the image of the collective image in which a plurality of button images are arranged in advance. The data and the position information of the aggregate image may be transmitted to the terminal 200. Even if the collective image is prepared in the MFP 10 in advance, the collective image may be generated from component images included in each screen for each screen, for example, before transmission in S301. It should be noted that the “collective image” of this modification is an example of the “collective image” in the claims.

上記実施形態では、遠隔操作用の画像を、ボタン画像81などの部品画像と、背景画像91などの背景画像とから構成される画像としたが、部品画像のみから遠隔操作用の画像を構成してもよい。つまり、MFP10は、部品画像の画像データおよび位置情報だけを送信する構成としてもよい。また、LCDに表示中の画面だけでなく、表示されていない画面の背景画像も遠隔操作用の画像に含めてもよい。また、上記実施形態では、MFP10が、背景画像および部品画像の各画像データと各画像の位置情報とを、端末200に送信することに代えて、MFP10が、遠隔操作用の画像を生成して、端末200に送信する構成としてもよい。   In the above embodiment, the image for remote operation is an image composed of a component image such as the button image 81 and a background image such as the background image 91, but the image for remote operation is composed only of the component image. May be. That is, the MFP 10 may be configured to transmit only the image data and position information of the component image. Further, not only the screen being displayed on the LCD but also a background image of a screen that is not displayed may be included in the image for remote operation. In the above embodiment, instead of the MFP 10 transmitting the image data of the background image and the component image and the position information of each image to the terminal 200, the MFP 10 generates an image for remote operation. Alternatively, it may be configured to transmit to the terminal 200.

上記実施形態では、一連の画面群として、2画面から構成される機能メニュー画面70を例示したが、3画面以上から構成される画面群であっても、本発明を適用できる。また、上記実施形態では、一連の画面群のうち、1ページ目の画面の左上の座標を(0,0)としたが、位置の基準にする画面は、1ページ目に限らず、適宜設定できる。また、LCD16に表示中の画面の左上の座標を(0,0)としてもよい。   In the above embodiment, the function menu screen 70 composed of two screens is exemplified as a series of screen groups. However, the present invention can be applied even to screen groups composed of three or more screens. In the above embodiment, the upper left coordinate of the screen of the first page in the series of screen groups is set to (0, 0). However, the screen used as a reference for the position is not limited to the first page, and is set as appropriate. it can. Alternatively, the upper left coordinate of the screen being displayed on the LCD 16 may be (0, 0).

上記実施携帯では、MFP10と端末200との間の通信を、AP50を介するインフラストラクチャーモードでのWi−Fi通信を例示したが、直接接続であるアドホックモードでのWi−Fi通信であっても、本発明を適用できる。あるいは、Bluetooth(登録商標)などの他の通信方法であっても、本発明を適用できる。   In the embodiment, the communication between the MFP 10 and the terminal 200 is exemplified by the Wi-Fi communication in the infrastructure mode via the AP 50. However, even in the Wi-Fi communication in the ad hoc mode that is a direct connection, The present invention can be applied. Alternatively, the present invention can be applied to other communication methods such as Bluetooth (registered trademark).

10:MFP.200:端末,212b:操作支援アプリ
10: MFP. 200: terminal, 212b: operation support application

Claims (12)

第1表示部と、前記第1表示部に対する入力操作を検出する入力部と、処理実行装置と通信する通信部と、制御部と、を備えた端末装置の、前記制御部が実行可能であり、かつ、前記入力部が検出した入力操作に基づいて処理実行装置を操作するための操作支援プログラムであって、
一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、前記処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を前記第1表示部に表示するための画像データを、前記通信部を介して処理実行装置から受信する画像受信手段と、
前記画像受信手段により受信した画像データに基づく前記表示対象画像を前記第1表示部に表示する画像表示手段と、
前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された前記表示対象画像上の位置に応じた操作位置情報を、前記通信部を介して、前記画像データの送信元である処理実行装置に送信する情報送信手段として、
前記制御部を機能させることを特徴とする操作支援プログラム。
The control unit of the terminal device including the first display unit, the input unit that detects an input operation on the first display unit, the communication unit that communicates with the processing execution device, and the control unit is executable. And an operation support program for operating the processing execution device based on the input operation detected by the input unit,
A display target image, which is image data for a plurality of screens constituting a series of screen groups and includes at least a plurality of indicator images each assigned a process performed by the processing execution device, included in the series of screen groups. Image receiving means for receiving image data to be displayed on the first display unit from the processing execution device via the communication unit;
Image display means for displaying the display target image based on the image data received by the image receiving means on the first display section;
Operation position information corresponding to the position on the display target image designated by the designation operation for designating the position on the display target image displayed on the first display unit, which is the input operation detected by the input unit. As an information transmission means for transmitting to the processing execution apparatus that is the transmission source of the image data via the communication unit,
An operation support program for causing the control unit to function.
前記画像受信手段は、前記複数の指示子の画像各々を要素画像として、要素画像毎または複数の要素画像を含む集合画像毎の画像データを受信するとともに、当該要素画像毎または当該集合画像毎に、当該要素画像または当該集合画像の配置を特定する要素画像位置情報を受信し、
前記画像表示手段は、前記画像受信手段により受信した画像データと要素画像位置情報とに基づいて、前記複数の指示子の画像各々が配置された前記表示対象画像を表示することを特徴とする請求項1記載の操作支援プログラム。
The image receiving means receives each of the plurality of indicator images as element images, receives image data for each element image or for each group image including a plurality of element images, and for each element image or each group image. Receiving element image position information specifying the arrangement of the element image or the group image,
The image display means displays the display target image in which images of the plurality of indicators are arranged based on image data and element image position information received by the image receiving means. Item 1. The operation support program according to Item 1.
前記処理実行装置は、第2表示部を備え、
前記画像受信手段は、前記処理実行装置が、前記一連の画面群のうち、1の画面が前記第2表示部に表示されていることを条件として送信した前記要素画像毎または前記集合画像毎の画像データと、前記第2表示部に表示される背景画像の画像データと、前記要素画像位置情報と、前記背景画像の位置を示す背景画像位置情報とを受信し、
前記画像表示手段は、前記画像受信手段により受信した画像データと要素画像位置情報と背景画像位置情報とに基づいて、複数の指示子の画像各々が配置されるとともに、前記複数の指示子の画像のうち、前記第2表示部に表示される指示子の画像の背景として前記背景画像が配置された、前記表示対象画像を表示することを特徴とする請求項2記載の操作支援プログラム。
The process execution device includes a second display unit,
The image receiving means is provided for each element image or each group image transmitted by the process execution device on condition that one screen of the series of screen groups is displayed on the second display unit. Receiving image data, image data of a background image displayed on the second display unit, the element image position information, and background image position information indicating the position of the background image;
The image display means arranges each of the images of the plurality of indicators based on the image data, the element image position information, and the background image position information received by the image receiving means, and the images of the plurality of indicators. The operation support program according to claim 2, wherein the display target image in which the background image is arranged as a background of an indicator image displayed on the second display unit is displayed.
前記処理実行装置は、第2表示部を備え、
前記第2表示部の表示領域の、前記一連の画面群の配列方向に沿った長さを取得する取得手段と、
前記取得手段により取得された長さに基づいて、前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された位置が、前記一連の画面群におけるどの画面のどの位置を指定するものであるかを特定する特定手段として、
前記制御部を機能させ、
前記情報送信手段は、前記特定手段により特定された画面および位置を示す情報を、前記操作位置情報として、前記処理実行装置に送信することを特徴とする請求項1から3のいずれかに記載の操作支援プログラム。
The process execution device includes a second display unit,
Obtaining means for obtaining a length of the display area of the second display unit along an arrangement direction of the series of screen groups;
A position specified by a specifying operation for specifying a position on a display target image displayed on the first display unit, which is an input operation detected by the input unit based on the length acquired by the acquiring unit As a specifying means for specifying which position of which screen in the series of screen groups is specified,
Make the control function,
4. The information transmission unit according to claim 1, wherein the information transmission unit transmits information indicating the screen and the position specified by the specifying unit as the operation position information to the processing execution device. 5. Operation support program.
前記第1表示部に表示される表示対象画像が等倍より拡大または縮小されて表示されている場合に、前記入力部により検出された入力操作である、当該表示対象画像上の位置を指定する指定操作により指定された位置を、等倍に対する表示の変倍率に基づいて、等倍の前記表示対象画像における位置に変換する変換手段と、
して前記制御部を機能させ、
前記情報送信手段は、前記表示対象画像が等倍より拡大または縮小されて表示されている場合、前記変換手段による変換により得られた位置を示す情報を、前記操作位置情報として、前記処理実行装置に送信することを特徴とする請求項1から4のいずれかに記載の操作支援プログラム。
When the display target image displayed on the first display unit is displayed enlarged or reduced at the same magnification, a position on the display target image that is an input operation detected by the input unit is specified. Conversion means for converting the position designated by the designation operation into a position in the display target image at the same magnification, based on the scaling factor of the display with respect to the same magnification;
And let the control unit function,
In the case where the display target image is displayed enlarged or reduced from the same magnification, the information transmission unit uses the information indicating the position obtained by conversion by the conversion unit as the operation position information, as the processing execution device. The operation support program according to any one of claims 1 to 4, wherein the operation support program is transmitted to.
前記入力部により所定の入力操作が検出された場合に、当該入力操作が前記表示対象画像外にて行われたものである場合には、当該入力操作に応じた処理を実行する処理実行手段として、
前記制御部を機能させ、
前記情報送信手段は、前記入力部により所定の入力操作が検出された場合に、当該入力操作が前記表示対象画像上にて行われたものである場合には、当該入力操作に応じた情報を送信することを特徴とする請求項1から5のいずれかに記載の操作支援プログラム。
When a predetermined input operation is detected by the input unit, if the input operation is performed outside the display target image, a process execution unit that executes a process according to the input operation ,
Make the control function,
When a predetermined input operation is detected by the input unit and the input operation is performed on the display target image, the information transmission unit displays information corresponding to the input operation. 6. The operation support program according to claim 1, wherein the operation support program is transmitted.
第1表示部と、
前記第1表示部に対する入力操作を検出する入力部と、
処理実行装置と通信する通信部と、
制御部と、を備え、
前記制御部は、
一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、前記処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を前記第1表示部に表示するための画像データを、前記通信部を介して処理実行装置から受信する画像受信手段と、
前記画像受信手段により受信した画像データに基づく前記表示対象画像を表示する画像表示手段と、
前記入力部により検出された入力操作である、前記第1表示部に表示される表示対象画像上の位置を指定する指定操作により指定された前記表示対象画像上の位置に応じた操作位置情報を、前記通信部を介して、前記画像データの送信元である処理実行装置に送信する情報送信手段と、
を備えていることを特徴とする端末装置。
A first display unit;
An input unit for detecting an input operation on the first display unit;
A communication unit that communicates with the processing execution device;
A control unit,
The controller is
A display target image, which is image data for a plurality of screens constituting a series of screen groups and includes at least a plurality of indicator images each assigned a process performed by the processing execution device, included in the series of screen groups. Image receiving means for receiving image data to be displayed on the first display unit from the processing execution device via the communication unit;
Image display means for displaying the display target image based on the image data received by the image receiving means;
Operation position information corresponding to the position on the display target image designated by the designation operation for designating the position on the display target image displayed on the first display unit, which is the input operation detected by the input unit. Information transmitting means for transmitting to the processing execution apparatus that is the transmission source of the image data via the communication unit;
A terminal device comprising:
表示部と、
端末装置と通信する通信部と、
制御部と、を備え、
前記制御部は、
一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、本処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を端末装置の表示部に表示させるための画像データを、前記通信部を介して端末装置に送信する画像送信手段と、
前記画像送信手段により前記画像データを前記端末装置に送信したことに基づき当該端末装置から受信した操作位置情報が、当該端末装置において指定された前記表示対象画像上の位置を示す操作位置情報である場合、当該操作位置情報が前記指示子の画像上の位置を示す場合には、当該指示子の画像に割り当てられた処理を実行する処理実行手段と、
を備えていることを特徴とする処理実行装置。
A display unit;
A communication unit that communicates with the terminal device;
A control unit,
The controller is
A display target image that is image data for a plurality of screens constituting a series of screen groups, and includes at least a plurality of indicator images assigned to the processes performed by the processing execution device, which are included in the series of screen groups. Image transmission means for transmitting image data to be displayed on the display unit of the terminal device to the terminal device via the communication unit;
The operation position information received from the terminal device based on the transmission of the image data to the terminal device by the image transmission means is the operation position information indicating the position on the display target image specified in the terminal device. In this case, when the operation position information indicates the position of the indicator on the image, a process execution means for executing a process assigned to the indicator image;
A process execution device comprising:
前記端末装置から前記操作位置情報を受信した場合、前記表示部の表示領域の、前記一連の画面群の配列方向に沿った長さに基づいて、当該操作位置情報により指定される前記表示対象画像上の位置が、前記一連の画面群におけるどの画面のどの位置を指定するものであるかを特定する特定手段を備え、
前記処理実行手段は、前記特定手段により特定された画面および位置に、前記指示子の画像が位置する場合、当該指示子の画像に割り当てられた処理を実行することを特徴とする請求項8記載の処理実行装置。
When the operation position information is received from the terminal device, the display target image specified by the operation position information based on the length of the display area of the display unit along the arrangement direction of the series of screen groups A specifying means for specifying which position of which screen in the series of screen groups designates which position;
9. The process execution means, when the image of the indicator is located at the screen and position specified by the specification means, the process assigned to the image of the indicator is executed. Process execution device.
前記画像送信手段は、前記一連の画面群のうち、1の画面が前記表示部に表示されていることを条件として、前記複数の指示子の画像各々を要素画像として、当該要素画像毎または複数の要素画像を含む集合画像毎の画像データと、前記表示部に表示中の画面の背景画像の画像データと、前記要素画像または前記集合画像の配置を特定する要素画像位置情報と、前記一連の画面群のうち、どの画面が前記表示部に表示されているかに基づいて算出される、前記複数の指示子の画像の位置に対する相対的な前記背景画像の位置を特定する背景画像位置情報とを送信することを特徴とする請求項8または9に記載の処理実行装置。   The image transmitting means is configured such that each of the plurality of indicator images is an element image on the condition that one screen of the series of screen groups is displayed on the display unit. Image data for each group image including the element image, image data of a background image of the screen being displayed on the display unit, element image position information specifying the arrangement of the element image or the group image, and the series of Background image position information for specifying the position of the background image relative to the position of the images of the plurality of indicators, which is calculated based on which screen of the screen group is displayed on the display unit. The processing execution apparatus according to claim 8 or 9, wherein the transmission is performed. 各画面を特定する画面情報を記憶する記憶部を備え、
前記画像送信手段は、前記一連の画面群のうち、1の画面が前記表示部に表示されていることを条件として、前記画像データと、前記記憶部に記憶されている画面情報のうち、前記表示部に表示されている画面に対応する画面情報とを、端末装置に送信し、
前記画像送信手段により前記画像データと前記画面情報とを前記端末装置に送信したことに基づいて、当該端末装置から前記操作位置情報を受信した場合に、当該操作位置情報の受信タイミングにおいて前記表示部に表示されている画面が、前記操作位置情報とともに前記端末装置から受信した画面情報により特定される画面を含む、前記一連の画面群に含まれる画面であるかを判断する判断手段を備え、
前記処理実行手段は、前記判断手段により、当該操作位置情報の受信タイミングにおいて前記表示部に表示されている画面が、前記受信した画面情報により特定される画面を含む、前記一連の画面群に含まれる画面であると判断されたことを条件として、前記端末装置から受信した当該操作位置情報が前記指示子の画像上の位置を示す場合に、当該指示子の画像に割り当てられた処理を実行することを特徴とする請求項8から10のいずれかに記載の処理実行装置。
A storage unit for storing screen information for identifying each screen;
The image transmission means includes the image data and the screen information stored in the storage unit on the condition that one screen of the series of screen groups is displayed on the display unit. Screen information corresponding to the screen displayed on the display unit is transmitted to the terminal device,
When the operation position information is received from the terminal device based on the transmission of the image data and the screen information to the terminal device by the image transmission means, the display unit at the reception timing of the operation position information A determination means for determining whether the screen displayed on the screen includes a screen specified by the screen information received from the terminal device together with the operation position information, the screen being included in the series of screen groups;
The process execution means is included in the series of screen groups in which the screen displayed on the display unit at the reception timing of the operation position information includes a screen specified by the received screen information by the determination means. If the operation position information received from the terminal device indicates the position of the indicator on the image, on the condition that the screen is determined to be a screen to be displayed, the process assigned to the indicator image is executed. The process execution device according to claim 8, wherein
表示部と、
端末装置と通信する通信部と、
制御部と、を備えた処理実行装置の、前記制御部が実行可能な処理実行プログラムであって、
一連の画面群を構成する複数画面分の画像データであって、前記一連の画面群に含まれる、本処理実行装置が行う処理を各々割り当てた複数の指示子の画像を少なくとも含む表示対象画像を端末装置の表示部に表示させるための画像データを、前記通信部を介して前記端末装置に送信する画像送信手段と、
前記画像送信手段により前記画像データを前記端末装置に送信したことに基づき当該端末装置から受信した操作位置情報が、当該端末装置において指定された前記表示対象画像上の位置を示す操作位置情報である場合、当該操作位置情報が前記指示子の画像上の位置を示す場合には、当該指示子の画像に割り当てられた処理を実行する処理実行手段として、
前記制御部を機能させることを特徴とする処理実行プログラム。
A display unit;
A communication unit that communicates with the terminal device;
A processing execution program that can be executed by the control unit.
A display target image that is image data for a plurality of screens constituting a series of screen groups, and includes at least a plurality of indicator images assigned to the processes performed by the processing execution device, which are included in the series of screen groups. Image transmission means for transmitting image data to be displayed on the display unit of the terminal device to the terminal device via the communication unit;
The operation position information received from the terminal device based on the transmission of the image data to the terminal device by the image transmission means is the operation position information indicating the position on the display target image specified in the terminal device. In this case, when the operation position information indicates the position of the indicator on the image, as a process execution means for executing the process assigned to the indicator image,
A processing execution program for causing the control unit to function.
JP2013203204A 2013-09-30 2013-09-30 Operation support program, terminal device, process execution device, and process execution program Active JP6183109B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013203204A JP6183109B2 (en) 2013-09-30 2013-09-30 Operation support program, terminal device, process execution device, and process execution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013203204A JP6183109B2 (en) 2013-09-30 2013-09-30 Operation support program, terminal device, process execution device, and process execution program

Publications (2)

Publication Number Publication Date
JP2015069420A JP2015069420A (en) 2015-04-13
JP6183109B2 true JP6183109B2 (en) 2017-08-23

Family

ID=52836019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013203204A Active JP6183109B2 (en) 2013-09-30 2013-09-30 Operation support program, terminal device, process execution device, and process execution program

Country Status (1)

Country Link
JP (1) JP6183109B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105260112A (en) * 2015-09-14 2016-01-20 百度在线网络技术(北京)有限公司 Method and device for controlling screen between terminals
JP6304210B2 (en) * 2015-12-02 2018-04-04 コニカミノルタ株式会社 Display device, screen display method, screen display program, and image processing device
JP6701940B2 (en) * 2016-05-11 2020-05-27 コニカミノルタ株式会社 Remote control system, image processing device, remote control method, and remote control program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005026740A (en) * 2003-06-30 2005-01-27 Matsushita Electric Ind Co Ltd Method of building device control interface
JP2005269520A (en) * 2004-03-22 2005-09-29 Xanavi Informatics Corp Operation method of vehicle-mounted information terminal, vehicle-mounted information terminal, portable terminal program, and mobile phone
JP2007086213A (en) * 2005-09-20 2007-04-05 Ricoh Co Ltd Image processing apparatus, mobile device, image display method, image display program and image display system
JP2011134278A (en) * 2009-12-25 2011-07-07 Toshiba Corp Information processing apparatus and pointing control method
JP5435010B2 (en) * 2011-11-02 2014-03-05 コニカミノルタ株式会社 Image processing system, image processing apparatus, portable information apparatus, image processing apparatus cooperation method, portable information apparatus cooperation method, image processing apparatus cooperation program, and portable information apparatus cooperation program
JP5423772B2 (en) * 2011-11-21 2014-02-19 コニカミノルタ株式会社 Display system, display system control program, and display device
JP2013186665A (en) * 2012-03-07 2013-09-19 Konica Minolta Inc Operation system of image forming apparatus, image forming apparatus, operation terminal, control method of image forming apparatus, control method of operation terminal, control program of image forming apparatus, and control program of operation terminal
JP5772669B2 (en) * 2012-03-09 2015-09-02 コニカミノルタ株式会社 User terminal device, image processing device, operator terminal device, information processing system, and program

Also Published As

Publication number Publication date
JP2015069420A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
US10778863B2 (en) Operation input system, electronic device and mobile terminal
JP5983635B2 (en) Image processing system, image processing apparatus, and portable information terminal
JP6035985B2 (en) Image processing apparatus, control program for image processing apparatus, and image processing system
JP6170452B2 (en) Image processing apparatus and system including the same
US20140340706A1 (en) Cooperative image processing system, portable terminal apparatus, cooperative image processing method, and recording medium
JP7201355B2 (en) Mobile terminal device and display control method for mobile terminal device
US9875433B2 (en) Linkage system and linkage method for image processing, portable terminal device, and image processing linkage program
EP2750029A1 (en) Display processing apparatus, image forming apparatus, display processing system of a remote screen, and display processing method
JP2014215961A (en) Image processing system, image processing apparatus, mobile information terminal, and program
JP6183109B2 (en) Operation support program, terminal device, process execution device, and process execution program
JP6186861B2 (en) Printing system, image forming apparatus, terminal device, and printing processing method
JP5853999B2 (en) Image forming system, image forming apparatus, remote control device, and program
JP6160194B2 (en) Image forming system, external terminal and program
JP6107246B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
JP6314499B2 (en) Operation support program and terminal device
JP6597435B2 (en) Screen display system, screen display method, image processing apparatus, and screen display program
JP6874868B2 (en) Programs and mobile devices
JP6119772B2 (en) Image processing system, image processing device, terminal device, and program
JP2014068152A (en) Image processing apparatus, image processing method, and program
JP6318477B2 (en) Instruction device, image forming apparatus, and program
US20190037094A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6471581B2 (en) Information processing apparatus, recording system, and program
JP6354206B2 (en) Information processing program and information processing apparatus
JP6155883B2 (en) Display program and display device
JP2006260204A (en) Remote control system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R150 Certificate of patent or registration of utility model

Ref document number: 6183109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150