JP2014106807A - Data processing apparatus, operation reception method, and browsing program - Google Patents

Data processing apparatus, operation reception method, and browsing program Download PDF

Info

Publication number
JP2014106807A
JP2014106807A JP2012260147A JP2012260147A JP2014106807A JP 2014106807 A JP2014106807 A JP 2014106807A JP 2012260147 A JP2012260147 A JP 2012260147A JP 2012260147 A JP2012260147 A JP 2012260147A JP 2014106807 A JP2014106807 A JP 2014106807A
Authority
JP
Japan
Prior art keywords
event
browsing
unit
display
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012260147A
Other languages
Japanese (ja)
Inventor
Masayuki Kawamoto
将之 河本
Ayumi Ito
歩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012260147A priority Critical patent/JP2014106807A/en
Publication of JP2014106807A publication Critical patent/JP2014106807A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately execute an application program different from a browsing program when a content includes a description for executing the application program.SOLUTION: A data processing apparatus includes: a browsing unit 61 that displays a display image corresponding to a content; a mouse event generation unit 85 that generates a mouse event showing one or more positions designated by a user; and a gesture event determination unit 83 that determines one gesture event on the basis of one or more of pairs of mouse events. The browsing unit 61 includes: a display image creation unit 71 that creates a display image having an embedded image created through the execution of an application program included in the content arranged in an embedding area; and a selection unit 75 that selects the mouse event when the mouse events show positions in the embedding area, and selects the gesture event when the mouse events show positions outside the embedding area.

Description

この発明はデータ処理装置、操作受付方法およびブラウジングプログラムに関し、特に、マルチタッチ対応のタッチパネルを備えたデータ処理装置、そのデータ処理装置で実行される操作受付方法およびブラウジングプログラムに関する。   The present invention relates to a data processing device, an operation reception method, and a browsing program, and more particularly, to a data processing device including a multi-touch compatible touch panel, an operation reception method and a browsing program executed by the data processing device.

近年、複合機(MFP)で代表されるデータ処理装置において、ユーザーインターフェースとして、ユーザーが同時に指示する複数の位置を検出可能なマルチタッチ対応のタッチパネルを備えた装置がある。一方で、MFPは、アプリケーションプログラムをインストールすることが可能になっているものがあり、ユーザーは、使用形態に応じたアプリケーションプログラムをインストールすることによって、MFPをカスタマイズすることができる。このアプリケーションプログラムは、ユーザーインターフェースとして、ユーザーが同時に複数の位置を指示するマルチタッチ操作およびユーザーが一度に1つの位置を指示するシングルタッチ操作を受け付けることが可能な仕様のものと、マルチタッチ操作を受け付けることができずシングルタッチ操作を受け付けることが可能な仕様のものとがある。このため、同時に複数のアプリケーションプログラムが実行される場合に、アプリケーションプログラムによって、ユーザーにより入力される操作を、マルチタッチ操作として受け付けるか、シングルタッチ操作として受け付けるかを、切り換えなければならない。   In recent years, in a data processing apparatus represented by a multifunction peripheral (MFP), as a user interface, there is an apparatus provided with a multi-touch compatible touch panel capable of detecting a plurality of positions designated by a user at the same time. On the other hand, some MFPs can install an application program, and a user can customize the MFP by installing an application program according to a usage pattern. This application program has a specification that can accept a multi-touch operation in which a user simultaneously designates a plurality of positions and a single touch operation in which a user designates one position at a time and a multi-touch operation as a user interface. There is a specification that cannot accept single touch operation but can accept it. For this reason, when a plurality of application programs are executed simultaneously, it is necessary to switch between accepting an operation input by the user as a multi-touch operation or a single touch operation.

例えば、特開2009−211704号公報には、マルチタッチデバイスにおけるマウスイベントに対応する方法であって、1又はそれ以上のビューを表示するステップと、各々が特定のビューに関連付けられた1又はそれ以上のソフトウェア要素を実行するステップと、マルチタッチフラグ又は排他的タッチフラグを個々のビューに関連付けるステップと、前記1又はそれ以上のビューにおいて1又はそれ以上のタッチを受信するステップと、前記マルチタッチフラグ及び排他的タッチフラグの値に基づいて、各々が受信したタッチについて記述する1又はそれ以上のマウスイベントを、タッチを受信した前記1又はそれ以上のビューに関連付けられた1又はそれ以上の前記ソフトウェア要素へ選択的に送信するステップと、を含むことを特徴とする方法が記載されている。   For example, Japanese Patent Application Laid-Open No. 2009-2111704 discloses a method for responding to a mouse event in a multi-touch device, the step of displaying one or more views, and one or more each of which is associated with a specific view. Executing the above software elements; associating a multi-touch flag or exclusive touch flag with individual views; receiving one or more touches in the one or more views; Based on the value of the flag and the exclusive touch flag, one or more mouse events each describing a received touch are transmitted to one or more of the one or more views associated with the one or more views that received the touch. Selectively sending to the software element. How to symptoms are described.

しなしながら、アプリケーションプログラムによっては、そのアプリケーションプログラムが出力する画像(ビュー)中に、マルチタッチ操作を受け付ける領域と、シングルタッチ操作を受け付ける領域とを含む場合がある。このため、従来の方法においては、ビューによって、ユーザーにより入力される操作を、マルチタッチ操作として受け付けるか、シングルタッチ操作として受け付けるかを切り換えるので、1つのビュー(画像)中にマルチタッチ操作を受け付ける領域と、シングルタッチ操作を受け付ける領域とを含む場合に対応することができないといった問題がある。
特開2009−211704号公報
However, depending on the application program, an image (view) output by the application program may include an area for receiving a multi-touch operation and an area for receiving a single touch operation. Therefore, in the conventional method, depending on the view, an operation input by the user is switched between accepting as a multi-touch operation or accepting as a single touch operation, so that the multi-touch operation is accepted in one view (image). There is a problem that it is not possible to cope with a case where a region and a region for receiving a single touch operation are included.
JP 2009-2111704 A

この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムを実行する記述を含む場合にアプリケーションプログラムを適切に実行することが可能なデータ処理装置を提供することである。   The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to appropriately execute an application program when the content includes a description for executing an application program different from the browsing program. It is to provide a data processing device capable of doing so.

この発明の他の目的は、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることが可能な操作受付方法を提供することである。   Another object of the present invention is to provide an operation reception method capable of receiving one operation by a user as an operation suitable for each of a browsing program and an application program.

この発明のさらに他の目的は、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることが可能なブラウジングプログラムを提供することである。   Still another object of the present invention is to provide a browsing program capable of accepting one operation by a user as an operation suitable for each of the browsing program and the application program.

上述した目的を達成するためにこの発明のある局面によれば、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、制御手段と、を備え、制御手段は、ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、取得されたコンテンツに対応する表示画像の少なくとも一部を表示手段に表示するとともに、ブラウジングプログラムにより定められる複数種類の処理にそれぞれ対応する複数のジェスチャーイベントのいずれか1つが入力されることに応じて、複数種類の処理のうち入力されたジェスチャーイベントに対応する種類の処理を実行するブラウジング手段と、タッチパネルにより1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成手段と、マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、を含み、ブラウジング手段は、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、アプリケーションプログラムが実行されて生成された埋込画像をコンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成手段と、表示画像が埋込領域を含む場合、マウスイベント生成手段から入力されるマウスイベントにより示される位置が埋込領域内ならば入力されるマウスイベントを選択し、マウスイベント生成手段から入力されるマウスイベントにより示される位置が埋込領域外ならばジェスチャーイベント決定手段から入力されるジェスチャーイベントを選択する選択手段と、を含む。   In order to achieve the above-described object, according to one aspect of the present invention, a data processing device detects display means capable of displaying an image, and one or more positions indicated by a user on the display surface of the display means. A touch panel capable of controlling, and a control unit. The control unit executes a browsing program, acquires content described in a markup language from the outside, and at least a part of a display image corresponding to the acquired content. Corresponding to the input gesture event among the plurality of types of processing in response to the input of any one of the plurality of gesture events corresponding to the plurality of types of processing defined by the browsing program. One or more positions are detected by the browsing means for executing the type of processing and the touch panel. Accordingly, based on a set of mouse event generation means for generating a mouse event including position information indicating each of one or more positions, and one or more mouse events generated successively by the mouse event generation means, Gesture event determining means for determining any one of a plurality of gesture events, and the browsing means includes a description for displaying an embedded image in which content is generated by executing an application program different from the browsing program. If included, display image generating means for generating a display image in which an embedded image generated by executing an application program is arranged in an embedded area defined by content, and if the display image includes an embedded area, a mouse event The position indicated by the mouse event input from the generation means Selection for selecting a mouse event to be input if it is within the embedded area, and selecting a gesture event to be input from the gesture event determining means if the position indicated by the mouse event input from the mouse event generating means is outside the embedded area Means.

この局面に従えば、ユーザーにより指示された1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントが生成され、連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのうちからいずれか1つが決定され、外部から受信されるコンテンツがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、埋込画像をコンテンツにより定められた埋込領域に配置した表示画像が生成され、表示画像が埋込領域を含む場合、マウスイベントにより示される位置に基づいて、マウスイベントとジェスチャーイベントとのいずれか一方が選択される。このため、ユーザーによる1つの操作をマウスイベントとジェスチャーイベントとして検出するとともに、検出されたジェスチャーイベントをブラウジングプログラムに対応させ、マウスイベントをアプリケーションプログラムに対応させる。このため、ブラウジングプログラムがジェスチャーイベントに対応し、アプリケーションプログラムがマウスイベントに対応する場合にアプリケーションプログラムを適切に実行することができる。その結果、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムを実行する記述を含む場合であってもアプリケーションプログラムを適切に実行することが可能なデータ処理装置を提供することができる。   According to this aspect, in response to detection of one or more positions designated by the user, a mouse event including position information indicating each of the one or more positions is generated, and the one or more generated continuously Based on the set of mouse events, any one of a plurality of gesture events is determined, and the content received from the outside displays an embedded image generated by executing an application program different from the browsing program When a description is included, a display image in which an embedded image is arranged in an embedded area defined by the content is generated. When the display image includes an embedded area, a mouse event and a gesture are based on the position indicated by the mouse event. One of the events is selected. For this reason, one operation by the user is detected as a mouse event and a gesture event, the detected gesture event is made to correspond to the browsing program, and the mouse event is made to correspond to the application program. For this reason, when the browsing program corresponds to a gesture event and the application program corresponds to a mouse event, the application program can be appropriately executed. As a result, it is possible to provide a data processing apparatus capable of appropriately executing an application program even when the content includes a description for executing an application program different from the browsing program.

好ましくは、ブラウジング手段は、マウスイベントが選択される場合、マウスイベントを、アプリケーションプログラムを実行するタスクに出力し、埋込領域に表示される埋込画像を更新させる指示手段を、さらに含む。   Preferably, the browsing means further includes instruction means for outputting the mouse event to a task for executing the application program and updating the embedded image displayed in the embedded area when the mouse event is selected.

この局面に従えば、アプリケーションプログラムを実行するタスクにマウスイベントに従って処理を実行させることができる。   If this aspect is followed, the task which performs an application program can be made to perform a process according to a mouse event.

好ましくは、ブラウジング手段は、ジェスチャーイベントが選択される場合、複数種類の処理のうち選択されたジェスチャーイベントに対応する種類の処理を実行することによって、表示画像のうち表示手段に表示するための表示部分を決定する決定手段を、さらに含む。   Preferably, when a gesture event is selected, the browsing means executes a process corresponding to the selected gesture event among a plurality of kinds of processes, thereby displaying the display image to be displayed on the display means. Further included is a determining means for determining the portion.

この局面に従えば、ジェスチャーイベントに従ってブラウジングプログラムを実行することができる。   According to this aspect, the browsing program can be executed according to the gesture event.

好ましくは、制御手段は、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムに対応して、ブラウジングプログラムが定める複数種類の処理に対応する複数のジェスチャーイベントを関連付ける関連付手段をさらに含み、ジェスチャーイベント決定手段は、マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に対応するジェスチャーイベントが、関連付手段によってブラウジングプログラムに対応して複数種類の処理のいずれかと関連付けられていることを条件に、ジェスチャーイベントを決定する。   Preferably, the control means further includes association means for associating a plurality of gesture events corresponding to a plurality of types of processing defined by the browsing program corresponding to the browsing program when the browsing program is installed. The means is that a gesture event corresponding to a set of one or more mouse events continuously generated by the mouse event generation means is associated with one of a plurality of types of processing corresponding to the browsing program by the association means. Determine the gesture event on the condition.

この局面に従えば、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムが定める複数種類の処理に対応する複数のジェスチャーイベントを関連付けるので、ブラウジングプログラムが定める複数種類の処理それぞれに対応するジェスチャーイベントのみを検出することができる。   According to this aspect, when a browsing program is installed, a plurality of gesture events corresponding to a plurality of types of processing defined by the browsing program are associated, so only a gesture event corresponding to each of the plurality of types of processing defined by the browsing program is associated. Can be detected.

この発明の他の局面によれば、操作受付方法は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、を備えたデータ処理装置で実行される操作受付方法であって、ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、取得されたコンテンツに対応する表示画像の少なくとも一部を表示手段に表示するブラウジングステップと、タッチパネルにより1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成ステップと、マウスイベント生成ステップにおいて連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定ステップと、を含み、ブラウジングステップは、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、アプリケーションプログラムが実行されて生成された埋込画像をコンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成ステップと、表示画像が埋込領域を含む場合、マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が埋込領域内ならばマウスイベントを選択し、マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が埋込領域外ならばジェスチャーイベント決定ステップにおいて決定されたジェスチャーイベントを選択する選択ステップと、を含む。   According to another aspect of the present invention, an operation reception method includes display means capable of displaying an image, and a touch panel capable of detecting one or more positions designated by the user on the display surface of the display means. An operation reception method executed by a data processing apparatus that executes a browsing program, acquires content described in a markup language from the outside, and displays at least a part of a display image corresponding to the acquired content A browsing step for displaying on the means, a mouse event generating step for generating a mouse event including position information indicating each of the one or more positions in response to detection of one or more positions by the touch panel, and a mouse event generating step. Multiple gesture events based on a set of one or more mouse events generated in succession A gesture event determining step for determining any one of them, and the browsing step includes an application program when the content includes a description for displaying an embedded image generated by executing an application program different from the browsing program. A display image generation step for generating a display image in which an embedded image generated by executing is placed in an embedded region defined by the content, and if the display image includes an embedded region, it is generated by a mouse event generation step. If the position indicated by the mouse event is within the embedded area, the mouse event is selected. If the position indicated by the mouse event generated by the mouse event generating step is outside the embedded area, the gesture determined in the gesture event determining step is selected. Event Selecting comprises a selection step, the.

この局面に従えば、ユーザーによる1つの操作をマウスイベントとジェスチャーイベントとして検出するとともに、検出されたジェスチャーイベントをブラウジングプログラムに対応させ、マウスイベントをアプリケーションプログラムに対応させる。このため、ブラウジングプログラムがジェスチャーイベントに対応し、アプリケーションプログラムがマウスイベントに対応する場合に、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることができる。その結果、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることが可能な操作受付方法を提供することができる。

好ましくは、ブラウジングステップは、選択ステップにおいてマウスイベントが選択される場合、マウスイベントを、アプリケーションプログラムを実行するタスクに出力し、埋込領域に表示される埋込画像を更新させる指示ステップを、さらに含む。
According to this aspect, one operation by the user is detected as a mouse event and a gesture event, and the detected gesture event is made to correspond to the browsing program, and the mouse event is made to correspond to the application program. For this reason, when the browsing program corresponds to a gesture event and the application program corresponds to a mouse event, one operation by the user can be accepted as an operation suitable for each of the browsing program and the application program. As a result, it is possible to provide an operation receiving method capable of receiving one operation by the user as an operation suitable for each of the browsing program and the application program.

Preferably, when the mouse event is selected in the selection step, the browsing step outputs the mouse event to a task that executes the application program, and further includes an instruction step for updating the embedded image displayed in the embedded region. Including.

この局面に従えば、アプリケーションプログラムを実行するタスクにマウスイベントに従って処理を実行させることができる。   If this aspect is followed, the task which performs an application program can be made to perform a process according to a mouse event.

好ましくは、ブラウジングステップは、選択ステップにおいてジェスチャーイベントが選択される場合、複数種類の処理のうち選択されたジェスチャーイベントに対応する種類の処理を実行することにより、表示画像のうち表示手段に表示するための表示部分を決定する決定ステップを、さらに含む。   Preferably, when a gesture event is selected in the selection step, the browsing step displays the display image on the display unit by executing a type of processing corresponding to the selected gesture event among a plurality of types of processing. And a determining step for determining a display portion for.

この局面に従えば、ジェスチャーイベントに従ってブラウジングプログラムを実行することができる。   According to this aspect, the browsing program can be executed according to the gesture event.

好ましくは、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムに対応して、ブラウジングプログラムが定める複数種類の処理に対応する複数のジェスチャーイベントを関連付ける関連付ステップをさらに含み、ジェスチャーイベント決定ステップは、マウスイベント生成ステップにおいて連続して生成される1以上のマウスイベントの組に対応するジェスチャーイベントが、関連付ステップにおいてブラウジングプログラムに対応して複数種類の処理のいずれかと関連付けられていることを条件に、ジェスチャーイベントを決定するステップを含む。   Preferably, the method further includes an association step of associating a plurality of gesture events corresponding to a plurality of types of processing defined by the browsing program corresponding to the browsing program when the browsing program is installed. On condition that a gesture event corresponding to a set of one or more mouse events generated continuously in the event generation step is associated with one of a plurality of types of processing corresponding to the browsing program in the association step. Determining a gesture event.

この局面に従えば、ブラウジングプログラムが定める複数種類の処理それぞれに対応するジェスチャーイベントのみを検出することができる。   According to this aspect, it is possible to detect only gesture events corresponding to a plurality of types of processing determined by the browsing program.

この発明のさらに他の局面によれば、ブラウジングプログラムは、データ処理装置を制御するコンピューターで実行されるブラウジングプログラムであって、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、タッチパネルにより1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成手段と、マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、を備えており、ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、取得されたコンテンツに対応する表示画像の少なくとも一部を表示手段に表示するブラウジングステップを、コンピューターに実行させ、ブラウジングステップは、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、アプリケーションプログラムが実行されて生成された埋込画像をコンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成ステップと、表示画像が埋込領域を含む場合、マウスイベント生成手段により生成されるマウスイベントにより示される位置が埋込領域内ならばマウスイベントを選択し、マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が埋込領域外ならばジェスチャーイベント決定ステップにおいて決定されたジェスチャーイベントを選択する選択ステップと、を含む。   According to still another aspect of the present invention, the browsing program is a browsing program executed by a computer that controls the data processing device, and the data processing device includes a display unit capable of displaying an image, and a display of the display unit. A mouse event including position information indicating each of one or more positions is generated in response to detection of one or more positions on the touch panel that can be detected by the user and one or more positions indicated by the user. Mouse event generation means, and gesture event determination means for determining any one of a plurality of gesture events based on a set of one or more mouse events generated successively by the mouse event generation means. Execute a browsing program and write in markup language from the outside. A browsing step for displaying at least a part of a display image corresponding to the acquired content on a display means is executed by a computer, and the browsing step is executed by an application program different from the browsing program. A display image generating step for generating a display image in which an embedded image generated by executing an application program is arranged in an embedded region defined by the content when the description includes a description for displaying the generated embedded image When the display image includes an embedded area, if the position indicated by the mouse event generated by the mouse event generating means is within the embedded area, the mouse event is selected and indicated by the mouse event generated by the mouse event generating step. The position to be embedded is an embedded area If comprising a selection step of selecting a gesture event determined in the gesture event determining step.

この局面に従えば、ユーザーによる1つの操作をマウスイベントとジェスチャーイベントとして検出するとともに、検出されたジェスチャーイベントをブラウジングプログラムに対応させ、マウスイベントをアプリケーションプログラムに対応させる。このため、ブラウジングプログラムがジェスチャーイベントに対応し、アプリケーションプログラムがマウスイベントに対応する場合に、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることができる。その結果、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることが可能なブラウジングプログラムを提供することができる。   According to this aspect, one operation by the user is detected as a mouse event and a gesture event, and the detected gesture event is made to correspond to the browsing program, and the mouse event is made to correspond to the application program. For this reason, when the browsing program corresponds to a gesture event and the application program corresponds to a mouse event, one operation by the user can be accepted as an operation suitable for each of the browsing program and the application program. As a result, it is possible to provide a browsing program that can accept one operation by the user as an operation suitable for each of the browsing program and the application program.

好ましくは、ブラウジングステップは、選択ステップにおいてマウスイベントが選択される場合、マウスイベントを、アプリケーションプログラムを実行するタスクに出力し、埋込領域に表示される埋込画像を更新させる指示ステップを、さらに含む。   Preferably, when the mouse event is selected in the selection step, the browsing step outputs the mouse event to a task that executes the application program, and further includes an instruction step for updating the embedded image displayed in the embedded region. Including.

好ましくは、ブラウジングステップは、選択ステップにおいてジェスチャーイベントが選択される場合、複数種類の処理のうち選択されたジェスチャーイベントに対応する種類の処理を実行することにより、表示画像のうち表示手段に表示するための表示部分を決定する決定ステップを、さらに含む。   Preferably, when a gesture event is selected in the selection step, the browsing step displays the display image on the display unit by executing a type of processing corresponding to the selected gesture event among a plurality of types of processing. And a determining step for determining a display portion for.

本実施の形態の一つにおけるMFPの外観を示す斜視図である。1 is a perspective view showing an appearance of an MFP in one embodiment of the present invention. 操作パネルの一例を示す平面図である。It is a top view which shows an example of an operation panel. MFPのハードウェア構成の概要の一例を示すブロック図である。2 is a block diagram illustrating an example of an outline of a hardware configuration of an MFP. FIG. MFPが備えるCPUのソフトウェアアーキテクチャの一例を示す図である。2 is a diagram illustrating an example of a software architecture of a CPU provided in an MFP. FIG. MFPが備えるCPUが有する機能の一例を、HDDに記憶される情報とともに示すブロック図である。3 is a block diagram illustrating an example of functions of a CPU included in an MFP, together with information stored in an HDD. FIG. マスターテーブルの一例を示す図である。It is a figure which shows an example of a master table. ユーザーによる操作とMFPが実行する処理の流れの一例を示す図である。FIG. 5 is a diagram illustrating an example of a flow of processing performed by a user and an operation performed by an MFP. ジェスチャーイベント決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a gesture event determination process. ブラウジング処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a browsing process. 表示画像の一例を示す図である。It is a figure which shows an example of a display image. 表示画像中の表示部分の一例を示す第1の図である。It is a 1st figure which shows an example of the display part in a display image. 表示画像中の表示部分の一例を示す第2の図である。It is a 2nd figure which shows an example of the display part in a display image. 表示画像中の表示部分の一例を示す第3の図である。It is a 3rd figure which shows an example of the display part in a display image.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本実施の形態の一つにおけるMFPの外観を示す斜視図である。図2は、操作パネルの一例を示す平面図である。図1および図2を参照して、MFP100は、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、ユーザーインターフェースとしての操作パネル160とを含む。   FIG. 1 is a perspective view showing an external appearance of an MFP according to one embodiment. FIG. 2 is a plan view showing an example of the operation panel. Referring to FIGS. 1 and 2, MFP 100 includes a document reading unit 130 for reading a document, an automatic document feeder 120 for conveying a document to document reading unit 130, and document reading unit 130 reads a document. An image forming unit 140 for forming an image on a sheet or the like based on image data to be output, a sheet feeding unit 150 for supplying the sheet to the image forming unit 140, and an operation panel 160 as a user interface. .

操作パネル160は、MFP100の上面に設けられる。操作パネル160は、表示部161と、タッチパネル165と、ハードキー部167とを含む。表示部161は、例えば、液晶表示装置(LCD)であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。ハードキー部167は、「BOX」、「FAX」、「COPY」、「ECO」の文字がそれぞれ表された4つのハードキー167A〜167Dを含む。タッチパネル165は、表示部161の上面または下面に表示部161に重畳して設けられたマルチタッチ対応のタッチパネルであり、表示部161の表示面中でユーザーにより指示された位置を検出する。ユーザーがタッチパネル165を指示する操作は、タッチパネル165を、同時に複数個所を指で指示するマルチタッチ操作と、一度に1つの個所を指で指示するシングルタッチ操作と、を含む。   Operation panel 160 is provided on the upper surface of MFP 100. Operation panel 160 includes a display unit 161, a touch panel 165, and a hard key unit 167. The display unit 161 is, for example, a liquid crystal display device (LCD), and displays an instruction menu for a user, information about acquired image data, and the like. The hard key portion 167 includes four hard keys 167A to 167D each representing characters of “BOX”, “FAX”, “COPY”, and “ECO”. The touch panel 165 is a multi-touch compatible touch panel provided on the upper surface or the lower surface of the display unit 161 so as to overlap the display unit 161, and detects a position designated by the user on the display surface of the display unit 161. The operation in which the user instructs the touch panel 165 includes a multi-touch operation for instructing the touch panel 165 with a finger at the same time, and a single touch operation for instructing one place with a finger at a time.

自動原稿搬送装置120は、原稿給紙トレイ上にセットされた複数枚の原稿を1枚ずつ自動的に原稿読取部130のプラテンガラス上に設定された所定の原稿読み取り位置まで搬送し、原稿読取部130により原稿画像が読み取られた原稿を原稿排紙トレイ上に排出する。原稿読取部130は、原稿読取位置に搬送されてきた原稿に光を照射する光源と、原稿で反射した光を受光する光電変換素子とを含み、原稿のサイズに応じた原稿画像を走査する。光電変換素子は、受光した光を電気信号である画像データに変換して、画像形成部140に出力する。給紙部150は、給紙トレイに収納された用紙を画像形成部140に搬送する。   The automatic document feeder 120 automatically conveys a plurality of documents set on the document feeding tray one by one to a predetermined document reading position set on the platen glass of the document reading unit 130, and reads the document. The document whose document image is read by the unit 130 is discharged onto a document discharge tray. The document reading unit 130 includes a light source that irradiates light to the document conveyed to the document reading position and a photoelectric conversion element that receives light reflected from the document, and scans a document image corresponding to the size of the document. The photoelectric conversion element converts the received light into image data that is an electrical signal and outputs the image data to the image forming unit 140. The paper feed unit 150 conveys the paper stored in the paper feed tray to the image forming unit 140.

画像形成部140は、周知の電子写真方式により画像を形成するものであって、原稿読取部130から入力される画像データにシェーディング補正などの各種のデータ処理を施した、データ処理後の画像データまたは、外部から受信された画像データに基づいて、給紙部150により搬送される用紙に画像を形成する。   The image forming unit 140 forms an image by a well-known electrophotographic method, and the image data after data processing is obtained by performing various data processing such as shading correction on the image data input from the document reading unit 130. Alternatively, an image is formed on a sheet conveyed by the sheet feeding unit 150 based on image data received from the outside.

図3は、MFPのハードウェア構成の概要の一例を示すブロック図である。図3を参照して、MFP100は、メイン回路110を含む。メイン回路110は、CPU111と、通信インターフェース(I/F)部112と、ROM(Read Only Memory)113と、RAM(Random Access Memory)114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、外部記憶装置117と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150および操作パネル160と接続され、MFP100の全体を制御する。   FIG. 3 is a block diagram illustrating an example of an outline of the hardware configuration of the MFP. Referring to FIG. 3, MFP 100 includes a main circuit 110. The main circuit 110 includes a CPU 111, a communication interface (I / F) unit 112, a ROM (Read Only Memory) 113, a RAM (Random Access Memory) 114, and a hard disk drive (HDD) 115 as a mass storage device. A facsimile unit 116 and an external storage device 117. CPU 111 is connected to automatic document feeder 120, document reading unit 130, image forming unit 140, sheet feeding unit 150, and operation panel 160, and controls the entire MFP 100.

ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる読取画像を一時的に記憶する。   The ROM 113 stores a program executed by the CPU 111 or data necessary for executing the program. The RAM 114 is used as a work area when the CPU 111 executes a program. Further, the RAM 114 temporarily stores the read images continuously sent from the document reading unit 130.

ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶するか、または、画像形成部140でプリント可能なプリントデータに変換して、画像形成部140に出力する。これにより、画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙に画像を形成する。また、ファクシミリ部116は、原稿読取部130によって読み取られたデータ、またはHDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。   The facsimile unit 116 is connected to the public switched telephone network (PSTN) and transmits facsimile data to the PSTN or receives facsimile data from the PSTN. The facsimile unit 116 stores the received facsimile data in the HDD 115 or converts the received facsimile data into print data that can be printed by the image forming unit 140 and outputs the print data to the image forming unit 140. As a result, the image forming unit 140 forms an image on a sheet of facsimile data received by the facsimile unit 116. Further, the facsimile unit 116 converts the data read by the document reading unit 130 or the data stored in the HDD 115 into facsimile data, and transmits the facsimile data to a facsimile machine connected to the PSTN.

通信I/F部112は、ネットワークにMFP100を接続するためのインターフェースである。通信I/F部112は、TCP(Transmission Control Protocol)またはFTP(File Transfer Protocol)等の通信プロトコルで、ネットワークに接続された他のコンピューターと通信する。なお、通信のためのプロトコルは、特に限定されることはなく、任意のプロトコルを用いることができる。また、通信I/F部112が接続されるネットワークは、例えば、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワークは、LANに限らず、ワイドエリアネットワーク(WAN)、公衆交換電話網(Public Switched Telephone Networks)を用いたネットワーク等であってもよい。さらに、ネットワークは、インターネットに接続されている。このため、MFP100は、インターネットに接続されたサーバー等のコンピューターと通信が可能である。   Communication I / F unit 112 is an interface for connecting MFP 100 to a network. The communication I / F unit 112 communicates with other computers connected to the network using a communication protocol such as TCP (Transmission Control Protocol) or FTP (File Transfer Protocol). Note that the protocol for communication is not particularly limited, and an arbitrary protocol can be used. The network to which the communication I / F unit 112 is connected is, for example, a local area network (LAN), and the connection form may be wired or wireless. The network is not limited to the LAN, and may be a network using a wide area network (WAN), a public switched telephone network, or the like. Furthermore, the network is connected to the Internet. Therefore, MFP 100 can communicate with a computer such as a server connected to the Internet.

外部記憶装置117は、CPU111により制御され、CD−ROM(Compact Disk Read Only Memory)118、または半導体メモリが装着される。CPU111は、外部記憶装置117を介してCD−ROM118または半導体メモリにアクセス可能である。CPU111は、外部記憶装置117に装表されたCD−ROM118または半導体メモリに記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムは、CD−ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、通信I/F部112に接続されるネットワークを介して、ネットワークに接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワークに接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The external storage device 117 is controlled by the CPU 111, and a CD-ROM (Compact Disk Read Only Memory) 118 or a semiconductor memory is mounted. The CPU 111 can access the CD-ROM 118 or the semiconductor memory via the external storage device 117. The CPU 111 loads the program recorded in the CD-ROM 118 or semiconductor memory mounted on the external storage device 117 into the RAM 114 and executes it. Note that the program executed by the CPU 111 is not limited to the program recorded on the CD-ROM 118, and the program stored in the HDD 115 may be loaded into the RAM 114 and executed. In this case, another computer connected to the network rewrites the program stored in HDD 115 of MFP 100 or adds a new program and writes it via the network connected to communication I / F unit 112. You may do it. Further, MFP 100 may download a program from another computer connected to the network and store the program in HDD 115. The program here includes not only a program directly executable by the CPU 111 but also a source program, a compressed program, an encrypted program, and the like.

なお、CPU111が実行するプログラムを記憶する媒体としては、CD−ROM118に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programable ROM)、EEPROM(Electrically EPROM)などの半導体メモリであってもよい。   The medium for storing the program executed by the CPU 111 is not limited to the CD-ROM 118, but an optical disc (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)), IC card, optical card, It may be a semiconductor memory such as a mask ROM, an EPROM (Erasable Programmable ROM), or an EEPROM (Electrically EPROM).

操作パネル160は、表示部161と操作部163とを含む。表示部161は、液晶表示装置(LCD)、有機ELD(Electro−Luminescence Display)等のディスプレイであり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、タッチパネル165と、複数のキーからなるハードキー部167と、を含む。ハードキー部167が含む複数のキーそれぞれは、接点スイッチを含み、CPU111に接続される。ハードキーは、操作ユーザーにより押下されると接点を閉じて、CPU111に接続される回路を閉じる。ハードキーは、MFP100を操作する操作ユーザーにより押下されている間は回路を閉じ、操作ユーザーにより押下されていない間は回路を開く。   Operation panel 160 includes a display unit 161 and an operation unit 163. The display unit 161 is a display such as a liquid crystal display (LCD) or an organic ELD (Electro-Luminescence Display), and displays an instruction menu for the user, information about acquired image data, and the like. The operation unit 163 includes a touch panel 165 and a hard key unit 167 including a plurality of keys. Each of the plurality of keys included in the hard key unit 167 includes a contact switch and is connected to the CPU 111. When the hard key is pressed by the operation user, the contact is closed and the circuit connected to the CPU 111 is closed. The hard key closes the circuit while being pressed by the operating user who operates the MFP 100, and opens the circuit when not pressed by the operating user.

操作部163は、ハードキー部167が有する複数のキーが押下されると、押下されたキーに対応する指示、文字、数字などのデータの入力を受け付ける。タッチパネル165は、表示部161の上面または下面に設けられ、操作ユーザーにより指示された位置の座標をCPU111に出力する。タッチパネル165は、操作ユーザーが指またはスタイラスペンで指示した位置を検出し、検出した位置の座標をCPU111に出力する。タッチパネル165は、マルチタッチ対応のタッチパネルであり、ユーザーがマルチタッチ操作を入力する場合、ユーザーにより同時に指示された複数の位置にそれぞれ対応する複数の座標をCPU111に出力する。また、タッチパネル165は、ユーザーがシングルタッチ操作を入力する場合に、ユーザーにより指示された単一の位置に対応する座標をCPU111に出力する。   When a plurality of keys included in the hard key unit 167 are pressed, the operation unit 163 receives input of data such as instructions, characters, and numbers corresponding to the pressed keys. The touch panel 165 is provided on the upper surface or the lower surface of the display unit 161, and outputs the coordinates of the position designated by the operation user to the CPU 111. The touch panel 165 detects a position designated by the operation user with a finger or a stylus pen, and outputs the coordinates of the detected position to the CPU 111. The touch panel 165 is a multi-touch compatible touch panel, and outputs a plurality of coordinates corresponding to a plurality of positions simultaneously designated by the user to the CPU 111 when the user inputs a multi-touch operation. Further, the touch panel 165 outputs coordinates corresponding to a single position designated by the user to the CPU 111 when the user inputs a single touch operation.

タッチパネル165は、表示部161の表示面と同じまたはそれ以上のサイズであるのが好ましい。タッチパネル165は、表示部161に重畳して設けられるので、タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、表示部161の表示面中で操作ユーザーが指示した位置の座標をCPU111に出力する。タッチパネル165は、例えば、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式を用いることができ、その方式は限定されない。   The touch panel 165 is preferably the same size or larger than the display surface of the display unit 161. Since the touch panel 165 is provided so as to overlap the display unit 161, the touch panel 165 indicates the coordinates of the position indicated by the operation user on the display surface of the display unit 161 when the operation user indicates the display surface of the display unit 161. It outputs to CPU111. For the touch panel 165, for example, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, or a capacitance method can be used, and the method is not limited.

操作部163が受け付け可能な操作は、ハードキー部167が有する複数のキーを押下する操作、タッチパネル165を指示するシングルタッチ操作およびマルチタッチ操作を含む。さらに、ハードキー部167は、「BOX」、「FAX」、「COPY」、「ECO」の文字がそれぞれ表された4つのハードキー167A〜167Dを含む。「BOX」、「FAX」、「COPY」の文字がそれぞれ表された3つのハードキー167A,167B,167Cは、MFP100に実行させる処理の切り換えを指示するための処理切換操作が割り当てられた処理切換キーである。「ECO」の文字が表されたハードキー167Dは、MFP100を、通常モードから通常モードよりも消費電力の低い省電力モードへの切換を指示するためのモード切換操作が割り当てられたモード切換キーである。操作部163は、ハードキー167A,167B,167Cのいずれかが押下される場合、処理切換操作を受け付け、ハードキー167Dが押下される場合、モード切換操作を受け付ける。   The operations that can be accepted by the operation unit 163 include an operation of pressing a plurality of keys of the hard key unit 167, a single touch operation that instructs the touch panel 165, and a multi-touch operation. Further, the hard key section 167 includes four hard keys 167A to 167D each representing characters of “BOX”, “FAX”, “COPY”, and “ECO”. Three hard keys 167A, 167B, and 167C, each of which represents the characters “BOX”, “FAX”, and “COPY”, are process switches to which a process switch operation for instructing the MFP 100 to switch processes is assigned. Key. A hard key 167D having characters “ECO” is a mode switching key to which a mode switching operation for instructing the MFP 100 to switch from the normal mode to the power saving mode having lower power consumption than the normal mode is assigned. is there. The operation unit 163 receives a process switching operation when any of the hard keys 167A, 167B, and 167C is pressed, and receives a mode switching operation when the hard key 167D is pressed.

図4は、MFPが備えるCPUのソフトウェアアーキテクチャの一例を示す図である。図4を参照して、CPU111には、オペレーティングシステム(OS)層が形成され、その上の階層に、MFPプロセス層が形成される。MFPプロセス層の上層に、アプリケーションプラットフォーム(PF)層、アプリケーション層の順に形成される。   FIG. 4 is a diagram illustrating an example of a software architecture of a CPU provided in the MFP. Referring to FIG. 4, an operating system (OS) layer is formed in CPU 111, and an MFP process layer is formed in a layer above it. An application platform (PF) layer and an application layer are formed in this order on the MFP process layer.

OS層は、CPU111がOSプログラムを実行するタスクが属する。OS層に属するタスクは、MFP100のハードウェア資源を制御する処理を実行する。ハードウェア資源は、ここでは、通信I/F部112、ROM113、RAM114、HDD115、ファクシミリ部116、外部記憶装置117、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150、操作パネル160を含む。OS層に属するタスクは、MFPプロセス層から入力されるオペレーティングコマンドに従って、ハードウェア資源を制御する。また、OS層は、MFPプロセス層との間で、ハードウェア資源の1つである操作部163が受け付け可能な複数種類の操作それぞれを識別するための操作識別情報を共有しており、OS層に属するタスクは、操作部163によって操作ユーザーによる操作が検出されることに応じて、検出された操作を示す操作識別情報をMFPプロセス層に出力する。   The OS layer includes a task for the CPU 111 to execute the OS program. A task belonging to the OS layer executes processing for controlling hardware resources of the MFP 100. Here, the hardware resources include the communication I / F unit 112, the ROM 113, the RAM 114, the HDD 115, the facsimile unit 116, the external storage device 117, the automatic document feeder 120, the document reading unit 130, the image forming unit 140, and the paper feeding unit 150. The operation panel 160 is included. A task belonging to the OS layer controls hardware resources in accordance with an operating command input from the MFP process layer. Further, the OS layer shares operation identification information for identifying each of a plurality of types of operations that can be accepted by the operation unit 163, which is one of hardware resources, with the MFP process layer. When the operation unit 163 detects an operation by the operating user, the task belonging to the group outputs operation identification information indicating the detected operation to the MFP process layer.

アプリケーション層は、CPU111がアプリケーションプログラムを実行するタスクが属する。複数種類のアプリケーションプログラムがMFP100にインストールされる場合、アプリケーション層に、複数種類のアプリケーションプログラムをそれぞれ実行する複数のタスクが属する場合がある。   The application layer includes a task for the CPU 111 to execute an application program. When a plurality of types of application programs are installed in MFP 100, a plurality of tasks that respectively execute the plurality of types of application programs may belong to the application layer.

アプリケーションプログラムを実行するタスクは、アプリケーションプログラムによって定められた複数種類の処理を実行する。複数種類の処理は、MFPプロセス層において実行される処理をMFPプロセス層に属するタスクに実行させる処理を含む。アプリケーションプログラムを実行するタスクは、MFPプロセス層に属するタスクに処理を実行させる場合、アプリコマンドを出力する。アプリコマンドは、API(Application Program Interface)として、公開されたコマンドである。このため、MFP100に処理を実行させるアプリケーションプログラムを容易に作成することができる。公開とは、MFP100を製造するメーカー以外の第三者が使用可能な状態をいう。このため、第三者は、アプリコマンドを用いてMFP100にインストール可能なアプリケーションプログラムを開発することができる。   The task for executing the application program executes a plurality of types of processing determined by the application program. The multiple types of processing include processing for causing a task belonging to the MFP process layer to execute processing executed in the MFP process layer. The task that executes the application program outputs an application command when the task belonging to the MFP process layer executes processing. The application command is a command published as an API (Application Program Interface). Therefore, an application program that causes MFP 100 to execute processing can be easily created. “Public” means a state in which a third party other than the manufacturer that manufactures the MFP 100 can use it. Therefore, a third party can develop an application program that can be installed in MFP 100 using an application command.

さらに、アプリケーションプログラムを実行するタスクは、MFP100を操作する操作ユーザーが入力する操作に基づいて、アプリケーションプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、処理を実行する。MFP100を操作する操作ユーザーが入力する操作は、操作ユーザーが操作部163を操作して入力することにより、OS層において受け付けられる。   Further, the task for executing the application program specifies a process to be executed from among a plurality of types of processes defined by the application program based on an operation input by an operation user operating MFP 100, and executes the process. An operation input by an operation user who operates MFP 100 is accepted in the OS layer when the operation user operates operation unit 163 to input.

アプリケーションPF層は、アプリケーション層とMFPプロセス層との間に配置され、アプリケーション層に属する複数のタスクを調停するとともに、アプリケーション層に属する複数のタスクが出力するアプリコマンドを制御するタスクが属する。具体的には、アプリケーションPF層は、アプリケーション層に属する複数のタスクそれぞれが出力するアプリコマンドを受け付け、受け付けられたアプリコマンドを、予め定められた規則に従って内部コマンドに変換することにより標準化し、内部コマンドをMFPプロセス層に出力する。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。また、アプリケーションPF層は、アプリケーション層に属する複数のタスクのいずれか1つをカレント状態に決定する。そして、OS層において受け付けられ、MFPプロセス層に属するタスクから入力される操作を、アプリケーション層に属する複数のタスクのうちカレント状態に決定したカレントタスクに出力する。   The application PF layer is arranged between the application layer and the MFP process layer, and arbitrates a plurality of tasks belonging to the application layer, and a task for controlling an application command output by the plurality of tasks belonging to the application layer belongs. Specifically, the application PF layer accepts application commands output by each of a plurality of tasks belonging to the application layer, standardizes the received application commands by converting them into internal commands according to a predetermined rule, The command is output to the MFP process layer. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. In addition, the application PF layer determines any one of a plurality of tasks belonging to the application layer as a current state. Then, an operation received from the task belonging to the MFP process layer and received from the OS layer is output to the current task determined as the current state among a plurality of tasks belonging to the application layer.

OS層において受け付けられるユーザーが入力する操作は、1本の指でタッチパネル165を指示するシングルタッチ操作と、2本以上の指で同時にタッチパネル165を指示するマルチタッチ操作とを含む。シングルタッチ操作およびマルチタッチ操作は、それぞれマウスイベントとしてオペレーティングシステムによって検出され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。また、1以上のマウスイベントは、MFPプロセス層においてジェスチャーイベントに変換され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。このため、アプリケーション層は、MFPプロセス層との間で、アプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントを共有しており、アプリケーションプログラムを実行するタスクは、アプリケーションPF層に属するタスクからアプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントが入力される。アプリケーションプログラムを実行するタスクは、複数種類の処理のうちジェスチャーイベントまたはマウスイベントのいずれかに対応する処理を実行する。   The operations input by the user accepted in the OS layer include a single touch operation in which the touch panel 165 is instructed with one finger and a multi-touch operation in which the touch panel 165 is instructed simultaneously with two or more fingers. The single touch operation and the multi-touch operation are detected by the operating system as mouse events, respectively, and input from the application PF layer to the current task among a plurality of tasks belonging to the application layer. One or more mouse events are converted into gesture events in the MFP process layer, and input from the application PF layer to the current task among a plurality of tasks belonging to the application layer. For this reason, the application layer shares one or more gesture events that can be accepted by the application program with the MFP process layer, and the task for executing the application program is executed from the task belonging to the application PF layer by the application program. One or more acceptable gesture events are input. The task that executes the application program executes a process corresponding to either a gesture event or a mouse event among a plurality of types of processes.

アプリコマンドと内部コマンドとは予め対応付けられている。例えば、アプリコマンドと内部コマンドとを対応付けたコマンド対応テーブルを記憶しておくようにすればよい。アプリコマンドと内部コマンドとは、1対1に対応してもよいし、1つのアプリコマンドに2以上の内部コマンドの組が対応していてもよい。さらに、バージョンの異なる複数のアプリコマンドに対して、1つの内部コマンド、または複数の内部コマンドからなる1組が対応していてもよい。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。内部コマンドは、MFP100のハードウェア資源に依存するコマンドである。内部コマンドは、通常は、公開されていないが、公開されていてもよい。   Application commands and internal commands are associated in advance. For example, a command correspondence table in which application commands and internal commands are associated with each other may be stored. An application command and an internal command may correspond one-to-one, or a set of two or more internal commands may correspond to one application command. Furthermore, one internal command or a set of a plurality of internal commands may correspond to a plurality of application commands having different versions. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. The internal command is a command that depends on the hardware resources of MFP 100. The internal command is not normally disclosed, but may be disclosed.

MFPプロセス層は、アプリケーションPF層とOS層との間に配置され、CPU111がMFPプロセスプログラムを実行するタスクが属する。MFPプロセス層は、アプリケーションPF層に属するタスクが出力する内部コマンドを、OS層に属するタスクが解釈可能なオペレーティングコマンドに変換し、ハードウェア資源を制御するためにオペレーティングコマンドをOS層に属するタスクに出力する。なお、実際には、内部コマンドを、OS層に属するタスクが実行可能な1以上のオペレーティングコマンドに変換する場合があるが、ここでは説明のために、内部コマンドとOS層に属するタスクが実行可能な1以上のオペレーティングコマンドとの関係は1対1として、説明する。   The MFP process layer is arranged between the application PF layer and the OS layer, and a task for the CPU 111 to execute the MFP process program belongs to it. The MFP process layer converts an internal command output by a task belonging to the application PF layer into an operating command interpretable by the task belonging to the OS layer, and converts the operating command to a task belonging to the OS layer in order to control hardware resources. Output. In actuality, internal commands may be converted into one or more operating commands that can be executed by tasks belonging to the OS layer, but for the sake of explanation, internal commands and tasks belonging to the OS layer can be executed. The relationship with one or more operating commands will be described as one-to-one.

上述したように、アプリケーションプログラムは、MFP100に、ブラウジング処理、コピー処理、スキャン処理、プリント処理、ファクシミリ送受信処理、データ送信処理等を実行させるためのアプリケーションプログラムであるが、以下の説明では、アプリケーションプログラムがCPU111に実行させる処理のうちで、操作パネル160を制御する処理に関連する部分を主に説明する。   As described above, the application program is an application program for causing MFP 100 to execute browsing processing, copy processing, scanning processing, printing processing, facsimile transmission / reception processing, data transmission processing, and the like. Among the processes executed by the CPU 111, the part related to the process for controlling the operation panel 160 will be mainly described.

図5は、MFPが備えるCPUが有する機能の一例を、HDDに記憶される情報とともに示すブロック図である。図5に示す機能は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたプログラムを実行することにより、CPU111により実現される機能である。具体的には、CPU111が、OSプログラム、MFPプロセスプログラム、操作受付プログラム、およびアプリケーションプログラムを実行することにより、CPU111により実現される。ここでは、MFP100に、アプリケーションプログラムとして、第1アプリケーションプログラムおよび第2アプリケーションプログラムが、インストールされている場合におけるCPU111の機能を示している。   FIG. 5 is a block diagram illustrating an example of functions of the CPU included in the MFP, together with information stored in the HDD. The functions shown in FIG. 5 are functions realized by CPU 111 when CPU 111 provided in MFP 100 executes a program stored in ROM 113, HDD 115, or CD-ROM 118. Specifically, the CPU 111 is realized by the CPU 111 by executing an OS program, an MFP process program, an operation reception program, and an application program. Here, the function of CPU 111 when first application program and second application program are installed as application programs in MFP 100 is shown.

図5を参照して、CPU111は、アプリケーション部51と、調停部53と、操作変換部55と、オペレーティング部57と、を含む。アプリケーション部51は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーション層に属する。アプリケーション部51は、第1アプリケーションプログラムであるブラウジングプログラムを実行するブラウジング部61と、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する副実行部63と、を含む。   Referring to FIG. 5, CPU 111 includes an application unit 51, an arbitration unit 53, an operation conversion unit 55, and an operating unit 57. The application unit 51 belongs to the application layer in the software architecture shown in FIG. The application unit 51 includes a browsing unit 61 that executes a browsing program that is a first application program, and a sub-execution unit 63 that executes a second application program different from the browsing program.

ブラウジング部61は、表示画像生成部71と、決定部73と、選択部75と、指示部77と、を含む。表示画像生成部71は、インターネットに接続されたサーバーからHTML(HyperText Markup Language)等のマークアップ言語で記述されたコンテンツであるWebページをダウンロードし、Webページを解釈して、Webページに対応する表示画像を生成し、表示画像の少なくとも一部を表示部161に表示する。Webページは、MFP100を操作する操作ユーザーが指定したURL(Uniform Resource Locator)で識別されるWebページであってもよいし、ブラウジング部61において予め定められたURLで識別されるWebページであってもよい。   The browsing unit 61 includes a display image generation unit 71, a determination unit 73, a selection unit 75, and an instruction unit 77. The display image generation unit 71 downloads a Web page, which is content written in a markup language such as HTML (HyperText Markup Language), from a server connected to the Internet, interprets the Web page, and corresponds to the Web page A display image is generated, and at least a part of the display image is displayed on the display unit 161. The web page may be a web page identified by a URL (Uniform Resource Locator) specified by an operating user who operates MFP 100, or a web page identified by a predetermined URL in browsing unit 61. Also good.

具体的には、表示画像生成部71は、Webページに対応する表示画像の少なくとも一部を表示部161に表示するために、アプリコマンドを調停部53に出力する。これにより、後述するオペレーティング部57によって、表示部161が備えるVRAM(Video RAM)に表示画像が記憶され、表示画像の少なくとも一部が表示部161に表示される。表示画像中で、表示部161に表示する部分は、任意に定めることができる。例えば、予め定めておいてもよいし、Webページによって定めるようにしてもよいし、表示画像のサイズと表示部161のサイズとから定めるようにしてもよい。   Specifically, the display image generation unit 71 outputs an application command to the arbitration unit 53 in order to display at least a part of the display image corresponding to the Web page on the display unit 161. As a result, a display image is stored in a VRAM (Video RAM) included in the display unit 161 by the operating unit 57 described later, and at least a part of the display image is displayed on the display unit 161. The part displayed on the display part 161 in a display image can be defined arbitrarily. For example, it may be determined in advance, may be determined by a Web page, or may be determined from the size of the display image and the size of the display unit 161.

また、表示画像生成部71は、サーバーから取得されたWebページが、ブラウジングプログラムとは別の第2アプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含んでいる場合、副実行部63に起動指示を出力する。これにより、副実行部63がCPU111に形成される。表示画像生成部71は、Webページが埋込画像を表示する記述を含んでいる場合、表示画像中で、Webページにより定められた埋込領域には、画像を配置しない。埋込領域は、表示画像中で埋込画像を配置する領域である。   When the Web page acquired from the server includes a description for displaying an embedded image generated by executing a second application program different from the browsing program, the display image generating unit 71 performs sub-execution. An activation instruction is output to the unit 63. Thereby, the sub execution part 63 is formed in the CPU 111. When the Web page includes a description for displaying an embedded image, the display image generation unit 71 does not place an image in the embedded region defined by the Web page in the display image. The embedding area is an area in which the embedding image is arranged in the display image.

起動指示は、表示画像中の埋込領域の位置を示す位置情報を含む。また、起動指示は、Webページとは別の埋込コンテンツを特定するコンテンツ識別情報を含む場合がある。コンテンツ識別情報は、例えば、ネットワークアドレスであり、好ましくは、URLである。   The activation instruction includes position information indicating the position of the embedded area in the display image. In addition, the activation instruction may include content identification information that identifies embedded content different from the Web page. The content identification information is a network address, for example, and is preferably a URL.

副実行部63は、表示画像生成部71から起動指示が入力されることに応じて起動する。副実行部63は、JAVA(登録商標)、JAVASCRIPT(登録商標)等のオブジェクト指向プログラミング言語で記述されたプログラムを実行する。副実行部63は、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する場合と、ブラウジングプログラムとは別の第2アプリケーションプログラムを、ネットワークを介して接続された外部のコンピューターであるサーバーに実行させる場合と、がある。   The sub execution unit 63 is activated in response to an activation instruction input from the display image generation unit 71. The sub-execution unit 63 executes a program described in an object-oriented programming language such as JAVA (registered trademark) or JAVASCRIPT (registered trademark). The sub-execution unit 63 causes a server that is an external computer connected via a network to execute a second application program that is different from the browsing program and a second application program that is different from the browsing program. There are cases.

副実行部63が、第2アプリケーションプログラムをネットワークに接続されたサーバーに実行させる場合、副実行部63は、ブラウジング部61に含まれる場合と、ブラウジング部61に含まれない場合がある。副実行部63がブラウジング部61に含まれる場合は、例えば、副実行部63が、JAVASCRIPT(登録商標)で記述されたアプリケーションプログラムを実行する場合である。この場合、JAVASCRIPT(登録商標)で記述されたアプリケーションプログラムが、第1アプリケーションプログラムであるブラウジングプログラム中に記述される。副実行部63がブラウジング部61に含まれない場合は、例えば、副実行部63が、JAVA(登録商標)で記述されたアプリケーションプログラムを実行する場合である。この場合、JAVA(登録商標)で記述されたアプリケーションプログラムは、第1アプリケーションプログラムであるブラウジングプログラムとは別のプログラムである。   When the secondary execution unit 63 causes the server connected to the network to execute the second application program, the secondary execution unit 63 may be included in the browsing unit 61 or may not be included in the browsing unit 61. The sub-execution unit 63 is included in the browsing unit 61, for example, when the sub-execution unit 63 executes an application program described in JAVASCRIPT (registered trademark). In this case, the application program described in JAVASCRIPT (registered trademark) is described in the browsing program that is the first application program. The case where the secondary execution unit 63 is not included in the browsing unit 61 is, for example, the case where the secondary execution unit 63 executes an application program described in JAVA (registered trademark). In this case, the application program described in JAVA (registered trademark) is a program different from the browsing program that is the first application program.

副実行部63は、サーバーが実行する第2アプリケーションプログラムにより定まるコンテンツの画像を埋込画像として取得する。副実行部63は、サーバーによって第2アプリケーションプログラムによって予め定められた処理を実行させるために処理リクエストをサーバーに送信する。そして、副実行部63は、サーバーが処理リクエストに従って処理を実行することにより生成される画像をサーバーから受信し、受信される画像を埋込画像として取得する。サーバーによって表示するコンテンツが決定される場合には、処理リクエストはコンテンツ識別情報を含む必要はない。逆に、Webページでコンテンツを特定するようにして、サーバーに起動指示に含まれるコンテンツ識別情報を含む処理リクエストを送信し、サーバーにコンテンツ識別情報で特定されるコンテンツを処理させ、コンテンツの画像を返信させるようにしてもよい。なお、副実行部63が処理を実行させるサーバーは、ブラウジング部61がWebページをダウンロードしたサーバーと同じであってもよいし、それとは異なるサーバーであってもよい。   The sub-execution unit 63 acquires an image of content determined by the second application program executed by the server as an embedded image. The sub-execution unit 63 transmits a processing request to the server to cause the server to execute a process predetermined by the second application program. Then, the sub-execution unit 63 receives an image generated when the server executes processing according to the processing request from the server, and acquires the received image as an embedded image. If the content to be displayed is determined by the server, the processing request need not include content identification information. Conversely, the content is specified on the Web page, a processing request including the content identification information included in the activation instruction is transmitted to the server, the content specified by the content identification information is processed by the server, and the content image is displayed. You may make it reply. The server on which the sub-execution unit 63 executes the process may be the same as the server from which the browsing unit 61 has downloaded the web page, or may be a different server.

また、副実行部63が、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する場合、第2アプリケーションプログラムは、ブラウジングプログラムとは別のアプリケーションプログラムであり、例えば、コンテンツである静止画または動画を生成する再生プログラムである。副実行部63は、第2アプリケーションプログラムである再生プログラムを実行し、起動指示に含まれるコンテンツ識別情報で特定されるコンテンツの画像を再生する処理をCPU111に実行させる。   Further, when the sub-execution unit 63 executes a second application program different from the browsing program, the second application program is an application program different from the browsing program, for example, a still image or a moving image that is content. A reproduction program to be generated. The sub-execution unit 63 executes the reproduction program that is the second application program, and causes the CPU 111 to execute processing for reproducing the image of the content specified by the content identification information included in the activation instruction.

副実行部63は、サーバーから受信されるコンテンツの画像、または、第2アプリケーションプログラムを実行することにより生成されるコンテンツの画像を埋込画像として表示部161に表示する。具体的には、副実行部63は、埋込画像を表示画像の埋込領域に配置するために、アプリコマンドを調停部53に出力する。また、副実行部63は、ブラウジング部61に表示要求を出力する。これにより、後述するオペレーティング部57によって、表示部161が備えるVRAMに記憶された表示画像中の埋込領域に埋込画像が記憶される。アプリコマンドは、実行指示に含まれる位置情報を含む。   The sub-execution unit 63 displays the content image received from the server or the content image generated by executing the second application program on the display unit 161 as an embedded image. Specifically, the sub-execution unit 63 outputs an application command to the arbitration unit 53 in order to place the embedded image in the embedded region of the display image. Further, the sub-execution unit 63 outputs a display request to the browsing unit 61. As a result, the embedded image is stored in the embedded region in the display image stored in the VRAM included in the display unit 161 by the operating unit 57 described later. The application command includes position information included in the execution instruction.

なお、ブラウジング部61および副実行部63が実行するアプリケーションプログラムは、これらに限定されることなく、MFP100にコピー処理、スキャン処理、プリント処理、ファクシミリ送受信処理、データ送受信処理等を実行させるために、ユーザーインターフェース等をカスタマイズするためのプログラムであってもよい。   Note that the application programs executed by the browsing unit 61 and the sub-execution unit 63 are not limited to these. In order to cause the MFP 100 to execute copy processing, scan processing, print processing, facsimile transmission / reception processing, data transmission / reception processing, and the like, It may be a program for customizing a user interface or the like.

調停部53および操作変換部55は、CPU111が操作受付プログラムを実行するタスクによって実現される機能である。調停部53は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。操作変換部55は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。なお、操作変換部55が有する機能のすべてをアプリケーションPF層の機能としたが、操作変換部55が有する機能の少なくとも一部をアプリケーションPF層の機能とし、他の部分をMFPプロセス層の機能としてもよい。   The arbitration unit 53 and the operation conversion unit 55 are functions realized by a task in which the CPU 111 executes the operation reception program. The arbitration unit 53 belongs to the application PF layer in the software architecture shown in FIG. The operation conversion unit 55 belongs to the application PF layer in the software architecture shown in FIG. Although all the functions of the operation conversion unit 55 are functions of the application PF layer, at least some of the functions of the operation conversion unit 55 are functions of the application PF layer, and other parts are functions of the MFP process layer. Also good.

調停部53は、アプリケーション部51においてアプリケーションプログラムを実行するタスクが複数の場合、複数のタスクのうちいずれか1つをカレント状態に決定する。以下、調停部53が、カレント状態に決定しているタスクをカレントタスクという。本実施の形態においては、アプリケーション部51がブラウジング部61と副実行部63とを含み、副実行部63は、ブラウジング部61によって起動されるので、ブラウジング部61をカレントタスク状態に決定する。   When there are a plurality of tasks for executing the application program in the application unit 51, the arbitration unit 53 determines any one of the plurality of tasks as the current state. Hereinafter, the task that the arbitration unit 53 has determined to be in the current state is referred to as a current task. In the present embodiment, the application unit 51 includes a browsing unit 61 and a sub-execution unit 63. Since the sub-execution unit 63 is activated by the browsing unit 61, the browsing unit 61 is determined to be in the current task state.

調停部53は、ブラウジング部61および副実行部63それぞれが出力するアプリコマンドが入力され、アプリコマンドを出力したタスクを識別するためのアプリ識別情報とアプリコマンドとを操作変換部55に出力する。   The arbitration unit 53 receives an application command output from each of the browsing unit 61 and the sub-execution unit 63, and outputs application identification information and an application command for identifying the task that has output the application command to the operation conversion unit 55.

調停部53は、ブラウジング部61および副実行部63から複数のアプリコマンドが出力される場合、それらの順番を決定し、順に操作変換部55に出力する。例えば、複数のアプリコマンドを同時に実行できない場合に、一方のアプリコマンドの操作変換部55による実行が終了するのを待って他方のアプリコマンドを操作変換部55に出力する。また、一方のアプリコマンドを実行した後でなければ、他方のアプリコマンドを実行できない場合には、他方のアプリコマンドが一方のアプリコマンドより先に入力される場合であっても、一方のアプリコマンドを先に出力する。   When a plurality of application commands are output from the browsing unit 61 and the sub-execution unit 63, the arbitration unit 53 determines their order and outputs them in order to the operation conversion unit 55. For example, when a plurality of application commands cannot be executed simultaneously, the other application command is output to the operation conversion unit 55 after the execution of one application command by the operation conversion unit 55 is completed. Also, if the other app command cannot be executed until after one app command has been executed, the other app command can be executed even if the other app command is input prior to the other app command. Is output first.

操作変換部55は、調停部53からアプリコマンドが入力され、アプリコマンドをコマンド対応テーブルに従って内部コマンドに変換することにより標準化する。コマンド対応テーブルは、1つのアプリコマンドに1以上の内部コマンドを対応付ける。コマンド対応テーブルに含まれるアプリコマンドは、バージョンの異なる同種類のアプリコマンドを含む場合があり、この場合、異なるバージョンのアプリコマンドそれぞれを1以上の内部コマンドに対応付ける。このため、異なるバージョンのアプリコマンドを記述したアプリケーションプログラムをインストールすることを可能としている。コマンド対応テーブルは、新しいアプリコマンドが登場する場合に、新たに登場したアプリコマンドに1以上の内部コマンドを対応付けたコマンド対応テーブルで更新される。このため、新しいアプリコマンドを記述したアプリケーションプログラムをインストールすることができる。   The operation conversion unit 55 receives the application command from the arbitration unit 53 and standardizes the application command by converting the application command into an internal command according to the command correspondence table. The command correspondence table associates one or more internal commands with one application command. The application commands included in the command correspondence table may include the same type of application commands with different versions. In this case, each different version of the application command is associated with one or more internal commands. For this reason, it is possible to install an application program in which application commands of different versions are described. When a new application command appears, the command correspondence table is updated with a command correspondence table in which one or more internal commands are associated with the newly appeared application command. Therefore, an application program describing a new application command can be installed.

さらに、操作変換部55は、標準化された内部コマンドを、オペレーティングコマンドに変換し、オペレーティングコマンドをオペレーティング部57に出力する。オペレーティングコマンドは、操作変換部55とオペレーティング部57との間で予め定められた、オペレーティング部57が解釈可能なコマンドである。   Further, the operation conversion unit 55 converts the standardized internal command into an operating command, and outputs the operating command to the operating unit 57. The operating command is a command that is predetermined between the operation conversion unit 55 and the operating unit 57 and that can be interpreted by the operating unit 57.

オペレーティング部57は、CPU111がOSプログラムを実行するタスクによって実行される機能である。オペレーティング部57は、図4に示したソフトウェアアーキテクチャにおいて、OS層に属する。   The operating unit 57 is a function executed by a task for the CPU 111 to execute the OS program. The operating unit 57 belongs to the OS layer in the software architecture shown in FIG.

オペレーティング部57は、操作変換部55が出力するオペレーティングコマンドが入力され、オペレーティングコマンドに従って、ハードウェア資源を制御する。ハードウェア資源として、ここでは、表示部161、操作部163のタッチパネル165およびHDD115を例に説明する。オペレーティング部57は、表示部161を制御して、表示部161に画像を表示させる。また、オペレーティング部57は、HDD115を制御して、HDD115にデータを記憶させ、また、HDD115に記憶されたデータを読み出す。さらに、オペレーティング部57は、所定時間間隔でタッチパネル165にユーザーにより指示された位置を検出させ、タッチパネル165から所定時間間隔で位置情報を取得する。   The operating unit 57 receives an operating command output from the operation conversion unit 55 and controls hardware resources according to the operating command. As the hardware resources, here, the display unit 161, the touch panel 165 of the operation unit 163, and the HDD 115 will be described as an example. The operating unit 57 controls the display unit 161 to display an image on the display unit 161. In addition, the operating unit 57 controls the HDD 115 to store data in the HDD 115 and reads data stored in the HDD 115. Further, the operating unit 57 causes the touch panel 165 to detect a position designated by the user at a predetermined time interval, and acquires position information from the touch panel 165 at a predetermined time interval.

タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、操作ユーザーにより指示された位置を検出し、表示部161の表示面の位置を示す位置情報をCPU111に出力する。オペレーティング部57は、タッチパネル165から位置情報が入力される場合、位置情報を操作変換部55に出力する。オペレーティング部57は、タッチパネル165から同時に2以上の位置情報が入力される場合がある。例えば、操作ユーザーが、表示部161の表示面の異なる2つの部分を、2つの指で同時に指示する場合、指示された表示面の2つの位置をそれぞれ示す2つの位置情報を受け付ける。オペレーティング部57は、タッチパネル165から同時に2以上の位置情報を受け付ける場合、2以上の位置情報を、操作変換部55に出力する。   Touch panel 165 detects the position instructed by the operation user when the operation user indicates the display surface of display unit 161, and outputs position information indicating the position of the display surface of display unit 161 to CPU 111. When the position information is input from the touch panel 165, the operating unit 57 outputs the position information to the operation conversion unit 55. The operating unit 57 may receive two or more pieces of position information from the touch panel 165 at the same time. For example, when the operating user designates two different parts of the display surface of the display unit 161 with two fingers at the same time, two pieces of position information indicating the two positions of the designated display surface are received. When the operating unit 57 simultaneously receives two or more pieces of position information from the touch panel 165, the operating unit 57 outputs the two or more pieces of position information to the operation conversion unit 55.

操作変換部55は、関連付部81と、ジェスチャーイベント決定部83と、マウスイベント生成部85と、表示制御部87と、を含む。関連付部81は、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムが定める複数種類の処理それぞれを、複数のジェスチャーイベントのいずれかと関連付ける。具体的には、関連付部81は、ブラウジングプログラムが定める複数の処理識別情報それぞれに、ブラウジングプログラムが受け付け可能なジェスチャーイベントを関連付けたマスターテーブルを生成し、HDD115に記憶する。   The operation conversion unit 55 includes an association unit 81, a gesture event determination unit 83, a mouse event generation unit 85, and a display control unit 87. The associating unit 81 associates each of a plurality of types of processing determined by the browsing program with one of a plurality of gesture events at the stage where the browsing program is installed. Specifically, the associating unit 81 generates a master table in which a gesture event that can be accepted by the browsing program is associated with each of a plurality of pieces of processing identification information determined by the browsing program, and stores the master table in the HDD 115.

図6は、マスターテーブルの一例を示す図である。図6を参照して、マスターテーブル91は、複数の処理識別情報ごとにマスターレコードを含む。マスターレコードは、処理の項目と、ジェスチャーの項目と、を含む。処理の項目には、処理識別情報が設定され、ジェスチャーの項目には、ジェスチャーイベントを識別するためのジェスチャー識別情報が設定される。   FIG. 6 is a diagram illustrating an example of the master table. Referring to FIG. 6, master table 91 includes a master record for each of a plurality of process identification information. The master record includes a process item and a gesture item. Processing identification information is set in the processing item, and gesture identification information for identifying a gesture event is set in the gesture item.

例えば、処理の項目に処理識別情報「ページ送り」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「スワイプ」が設定される。処理識別情報「ページ送り」で特定される処理は、画面を次のページの画面に変更して表示させる処理である。ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指を所定の速さより速い速さで移動させるユーザーの操作に対応する。指を所定の速さより速い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、指を移動させる方向をパラメータに含む。   For example, in the master record in which the process identification information “page feed” is set in the process item, the gesture identification information “swipe” is set in the gesture item. The process specified by the process identification information “page feed” is a process of changing the screen to the screen of the next page and displaying it. The gesture event specified by the gesture identification information “Swipe” corresponds to a user's operation of moving the finger to any one of up, down, left and right at a speed faster than a predetermined speed while instructing the touch panel 165. In the operation of moving the finger at a speed faster than a predetermined speed, the direction in which the finger is moved is determined. Therefore, the gesture event specified by the gesture identification information “swipe” includes the direction in which the finger is moved as a parameter.

処理の項目に処理識別情報「拡大」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチアウト」が設定される。処理識別情報「拡大」で特定される処理は、画面を拡大して表示させる処理である。ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が長くなるように移動させる操作に対応する。2箇所の間隔が長くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、2箇所の間隔が変化の割合を倍率としたパラメータに含む。   In the master record in which the process identification information “enlarge” is set in the process item, the gesture identification information “pinch out” is set in the gesture item. The process specified by the process identification information “enlargement” is a process for enlarging and displaying the screen. The gesture event specified by the gesture identification information “pinch out” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations becomes long while designating the two locations on the touch panel 165. Since the operation of moving so that the interval between the two places becomes longer, the interval between the two places changes, the gesture event specified by the gesture identification information “pinch out” has the ratio of the change between the two places as a magnification. Include in parameter.

処理の項目に処理識別情報「縮小」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチイン」が設定される。処理識別情報「縮小」で特定される処理は、画面を縮小して表示させる処理である。ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が短くなるように移動させる操作に対応する。2箇所の間隔が短くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、2箇所の間隔が変化の割合を倍率としたパラメータに含む。   In the master record in which the process identification information “reduction” is set in the process item, the gesture identification information “pinch-in” is set in the gesture item. The process specified by the process identification information “reduction” is a process of reducing the screen for display. The gesture event specified by the gesture identification information “pinch-in” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations is shortened while designating the two locations on the touch panel 165. Since the operation of moving so that the interval between the two locations is shortened, the interval between the two locations changes, the gesture event specified by the gesture identification information “Pinch In” is a parameter in which the interval between the two locations is the ratio of the change. Included.

処理の項目に処理識別情報「回転」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ローテーション」が設定される。処理識別情報「回転」で特定される処理は、画面を回転して画面の方向を変更する処理である。ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所を結ぶ直線の向きが変更されるように移動させる操作が入力される場合に検出される。例えば、2箇所の一方を中心に他方で円弧を描く操作である。円弧を描く方向が時計回りと反時計回りとがあるため、ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、時計回りと反時計回りのいずれかを方向としたパラメータに含む。   In the master record in which the process identification information “rotation” is set in the process item, the gesture identification information “rotation” is set in the gesture item. The process specified by the process identification information “rotation” is a process of rotating the screen and changing the screen direction. The gesture event specified by the gesture identification information “Rotation” is an operation to move at least one of the two designated locations while changing the orientation of a straight line connecting the two locations while designating two locations on the touch panel 165. Detected when input. For example, this is an operation of drawing an arc on one of two places as the center. Since there are clockwise and counterclockwise directions in which the arc is drawn, the gesture event specified by the gesture identification information “rotation” is included in a parameter whose direction is either clockwise or counterclockwise.

処理の項目に処理識別情報「スクロール」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「フリック」が設定される。処理識別情報「スクロール」で特定される処理は、画面を上下左右にスクロールさせる処理である。ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指をスワイプのジェスチャーイベントの操作におけるしきい値より遅い速さで移動させる操作に対応する。指をしきい値より遅い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、指を移動させる方向をパラメータに含む。   In the master record in which the process identification information “scroll” is set in the process item, the gesture identification information “flick” is set in the gesture item. The process specified by the process identification information “scroll” is a process of scrolling the screen up / down / left / right. The gesture event specified by the gesture identification information “flick” corresponds to an operation in which the finger is moved at a speed slower than the threshold value in the operation of the swipe gesture event while instructing the touch panel 165, either vertically or horizontally. . Since the operation of moving the finger at a speed slower than the threshold value determines the direction in which the finger is moved, the gesture event specified by the gesture identification information “flick” includes the direction in which the finger is moved as a parameter.

図5に戻って、表示制御部87は、ブラウジング部61または副実行部63から入力されるアプリコマンドを、表示部161に画像を表示させるためのオペレーティングコマンドに変換し、オペレーティング部57に出力する。これにより、ブラウジング部61によって生成された表示画像および副実行部63により生成される埋込画像が、表示部161のVRAMに記憶され、表示部161に表示画像の少なくとも一部が表示される。   Returning to FIG. 5, the display control unit 87 converts the application command input from the browsing unit 61 or the sub-execution unit 63 into an operating command for causing the display unit 161 to display an image, and outputs the operating command to the operating unit 57. . Thereby, the display image generated by the browsing unit 61 and the embedded image generated by the sub-execution unit 63 are stored in the VRAM of the display unit 161, and at least a part of the display image is displayed on the display unit 161.

マウスイベント生成部85は、オペレーティング部57から位置情報が入力されることに応じてマウスイベントを生成する。さらに、マウスイベント生成部85は、マウスイベントを生成するごとに、生成されたマウスイベントをジェスチャーイベント決定部83および調停部53を介してブラウジング部61に出力する。マウスイベント生成部85は、オペレーティング部57から複数の位置情報が同時に入力される場合、複数の位置情報それぞれに対応する複数のマウスイベントを生成する。マウスイベント生成部85は、1以上のマウスイベントを生成する場合、生成された1以上のマウスイベントをジェスチャーイベント決定部83およびブラウジング部61に出力する。位置情報は、操作ユーザーが指示した表示部161の表示面中の位置を示す。   The mouse event generation unit 85 generates a mouse event in response to position information input from the operating unit 57. Furthermore, every time a mouse event is generated, the mouse event generation unit 85 outputs the generated mouse event to the browsing unit 61 via the gesture event determination unit 83 and the arbitration unit 53. The mouse event generation unit 85 generates a plurality of mouse events corresponding to each of the plurality of pieces of position information when a plurality of pieces of position information are simultaneously input from the operating unit 57. When generating one or more mouse events, the mouse event generation unit 85 outputs the generated one or more mouse events to the gesture event determination unit 83 and the browsing unit 61. The position information indicates a position on the display surface of the display unit 161 instructed by the operation user.

操作ユーザーが表示部161の表示面を指示する操作は、ユーザーが表示部161の表示面の任意の位置を指示する指示開始操作、ユーザーが表示部161の表示面を指示しながら、換言すれば、表示部161の表示面に触れながら指示する位置を移動させる移動操作、ユーザーが表示部161の表示面の指示を終了する終了操作、を含む。マウスイベント生成部85は、オペレーティング部57から位置情報が入力されると、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。上述したように、オペレーティング部57は、タッチパネル165から位置情報が出力されるごとに、その位置情報を出力するので、時間の経過とともに連続して入力される位置情報の連続性に基づいて、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。   In other words, the operation of the operation user instructing the display surface of the display unit 161 is an instruction start operation in which the user specifies an arbitrary position on the display surface of the display unit 161, in other words, while the user indicates the display surface of the display unit 161. , A moving operation for moving the position to be instructed while touching the display surface of the display unit 161, and an ending operation for the user to end the instruction on the display surface of the display unit 161. When the position information is input from the operating unit 57, the mouse event generation unit 85 determines whether the operation by the operating user is an instruction start operation, a movement operation, or an end operation. As described above, the operating unit 57 outputs the position information every time the position information is output from the touch panel 165. Therefore, based on the continuity of the position information that is continuously input as time passes, It is determined whether the operation by the user is an instruction start operation, a move operation, or an end operation.

マウスイベント生成部85は、オペレーティング部57から位置情報が入力されていない状態が所定時間経過した後に入力される位置情報に対して、操作ユーザーによる操作が指示開始操作と判断し、位置情報と、指示開始操作を識別するための状態識別情報「Press」とを含むマウスイベントを生成する。   The mouse event generation unit 85 determines that the operation by the operating user is an instruction start operation for the position information input after a predetermined time has passed without the position information being input from the operating unit 57, and the position information, A mouse event including state identification information “Press” for identifying the instruction start operation is generated.

マウスイベント生成部85は、状態識別情報「Press」のマウスイベントを検出した後、オペレーティング部57から連続して1以上位置情報が入力される場合、1以上の位置情報それぞれに対して、操作ユーザーによる操作が移動操作と判断する。マウスイベント生成部85は、オペレーティング部57から連続して入力される1以上の位置情報それぞれに対して、その位置情報と移動操作を識別するための状態識別情報「Move」とを含むマウスイベントを生成する。   When one or more pieces of position information are continuously input from the operating unit 57 after detecting the mouse event of the state identification information “Press”, the mouse event generation unit 85 operates the operation user for each piece of one or more pieces of position information. The operation according to is determined as a moving operation. For each of one or more pieces of position information continuously input from the operating unit 57, the mouse event generation unit 85 generates a mouse event including the position information and state identification information “Move” for identifying the moving operation. Generate.

マウスイベント生成部85は、状態識別情報「Move」のマウスイベントを検出した後、オペレーティング部57から位置情報が入力されなくなる場合、最後に入力された位置情報に対して、操作ユーザーによる操作が終了操作と判断し、最後に入力された位置情報と、終了操作を識別するための状態識別情報「Release」とを含むマウスイベントを生成する。   When the mouse event generation unit 85 detects the mouse event of the state identification information “Move” and the position information is no longer input from the operating unit 57, the operation by the operating user is completed for the last input position information. It is determined as an operation, and a mouse event including the position information last input and state identification information “Release” for identifying the end operation is generated.

より具体的には、マウスイベント生成部85は、オペレーティング部57から第1の時に入力される位置情報と、第1の時よりも所定時間後の第2の時に入力される位置情報とに基づいて、マウスイベントの状態を決定する。マウスイベント生成部85は、第1の時に入力される位置情報に対して、第1の時よりも所定時間前に、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置を示す位置情報が入力されていない場合には、第1の時に入力される位置情報に対するマウスイベントの状態を「Press」に決定する。マウスイベント生成部85は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在しない場合には、第2の時に入力される位置情報に対するマウスイベントの状態を「Press」に決定する。   More specifically, the mouse event generation unit 85 is based on position information input from the operating unit 57 at the first time and position information input at a second time after a predetermined time from the first time. To determine the state of the mouse event. The mouse event generation unit 85 has a predetermined distance from the position specified by the position information input at the first time before the first time with respect to the position information input at the first time. If position information indicating a position within the range is not input, the state of the mouse event for the position information input at the first time is determined as “Press”. When the position specified by the position information input at the first time does not exist within a predetermined distance from the position specified by the position information input at the second time, the mouse event generation unit 85 The state of the mouse event for the position information input at the second time is determined as “Press”.

また、マウスイベント生成部85は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在する場合には、第2の時に入力される位置情報に対するマウスイベントの状態を「Move」に決定する。さらに、状態検出部76は、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置情報が、第2の時に入力されない場合には、第2の時において第1の時に入力されていた位置情報に対するマウスイベントの状態を「Release」に決定する。   In addition, the mouse event generation unit 85 has a case where the position specified by the position information input at the first time is within a predetermined distance from the position specified by the position information input at the second time. The mouse event state for the position information input at the second time is determined as “Move”. Further, the state detection unit 76, when position information within a predetermined distance from the position specified by the position information input at the first time is not input at the second time, The state of the mouse event for the position information input at 1 is determined as “Release”.

ジェスチャーイベント決定部83は、マウスイベント生成部85から連続して入力される複数のマウスイベントに基づいてジェスチャーイベントを決定する。ジェスチャーイベント決定部83は、マウスイベント生成部85から第1のマウスイベントと第2のマウスイベントの2つが同時に入力される場合、第1のマウスイベントに対して連続して入力される複数のマウスイベントの第1の組と、第2のマウスイベントに対して連続して入力される複数のマウスイベントの第2の組と、に基づいてジェスチャーイベントを決定する。ジェスチャーイベント決定部83は、決定されたジェスチャーイベントを処理特定部79に出力する。第1の組に含まれる複数のマウスイベントは、位置情報が同じか、または位置情報が連続している。連続とは、2つの位置情報が隣接する位置を示すことをいう。第2の組に含まれる複数のマウスイベントは、位置情報が同じか、または位置情報が連続している。このため、ジェスチャーイベント決定部83は、同時に入力される複数のマウスイベントが、第1の組と第2の組のいずれに属するかを、それらに含まれる位置情報で判断する。   The gesture event determination unit 83 determines a gesture event based on a plurality of mouse events input continuously from the mouse event generation unit 85. Gesture event determination unit 83 has a plurality of mice that are continuously input to the first mouse event when two of the first mouse event and the second mouse event are input simultaneously from mouse event generation unit 85. A gesture event is determined based on a first set of events and a second set of multiple mouse events that are input sequentially for the second mouse event. The gesture event determining unit 83 outputs the determined gesture event to the process specifying unit 79. The plurality of mouse events included in the first group have the same position information or continuous position information. Continuous means that two pieces of position information indicate adjacent positions. The plurality of mouse events included in the second group have the same position information or continuous position information. For this reason, the gesture event determination unit 83 determines whether a plurality of mouse events input simultaneously belong to the first group or the second group based on the position information included in them.

ジェスチャーイベント決定部83は、マウスイベント生成部85から連続してマウスイベントが入力される場合、最初に入力されるマウスイベントの状態識別情報は「Press」である。そして、ジェスチャーイベント決定部83は、状態識別情報が「Move」のマウスイベントが入力されると、状態識別情報が「Press」のマウスイベントの位置情報と、状態識別情報が「Move」のマウスイベントの位置情報とから2点間の距離を算出し、距離が所定のしきい値TH以上ならばユーザーによるスワイプ操作を検出し、距離が所定のしきい値THより短ければユーザーによるフリック操作を検出する。また、複数のマウスイベントが入力される場合は、最初の複数のマウスイベントによってユーザーによるスワイプ操作が検出され、後の複数のマウスイベントによってユーザーによるフリック操作が検出される場合がある。ジェスチャーイベント決定部83は、スワイプ操作およびフリック操作を検出する場合、最初の位置情報で特定される位置から後の位置情報で特定される位置に向かう方向を算出し、表示部161の表示面を基準に上下左右の4方向のうち算出された方向に最も近い方向をパラメータとして決定し、パラメータを含むジェスチャー識別情報を決定する。スワイプ操作を検出する場合には、ジェスチャー識別情報「スワイプ」のジェスチャーイベントは、方向を示すパラメータを含み、ジェスチャー識別情報「フリック」のジェスチャーイベントは、方向を示すパラメータを含む。   When the mouse event is continuously input from the mouse event generation unit 85, the gesture event determination unit 83 firstly inputs the state identification information of the mouse event as “Press”. When the mouse event whose state identification information is “Move” is input, the gesture event determination unit 83 receives the position information of the mouse event whose state identification information is “Press” and the mouse event whose state identification information is “Move”. The distance between two points is calculated from the position information, and if the distance is greater than or equal to a predetermined threshold TH, the user's swipe operation is detected, and if the distance is shorter than the predetermined threshold TH, the user's flick operation is detected. To do. When a plurality of mouse events are input, the user's swipe operation may be detected by the first plurality of mouse events, and the user's flick operation may be detected by the subsequent plurality of mouse events. When detecting the swipe operation and the flick operation, the gesture event determining unit 83 calculates a direction from the position specified by the first position information to the position specified by the subsequent position information, and displays the display surface of the display unit 161. The direction closest to the calculated direction is determined as a parameter among the four directions of up, down, left, and right as a reference, and gesture identification information including the parameter is determined. When a swipe operation is detected, the gesture event of the gesture identification information “Swipe” includes a parameter indicating the direction, and the gesture event of the gesture identification information “Flick” includes a parameter indicating the direction.

ジェスチャーイベント決定部83は、マウスイベント生成部85から同時に2つのマウスイベントが入力される場合、最初に入力される2つのマウスイベントそれぞれの状態は「Press」である。この場合に、2つのマウスイベントそれぞれに含まれる位置情報に基づいて、2点間の距離L1および2点間を結ぶ直線の角度R1を算出する。2点間を結ぶ直線の角度は、表示部161の横方向を基準線として、2点間を結ぶ直線が基準線となす角度とすればよい。2点間を結ぶ直線と基準線とのなす角度は、基準線から時計回りになす角度である。そして、ジェスチャーイベント決定部83は、その後に連続して入力される2つのマウスイベントの位置情報に基づいて、2点間の距離L2および2点間を結ぶ直線の角度R2を算出する。   When two mouse events are input simultaneously from the mouse event generation unit 85, the state of each of the two mouse events input first is “Press”. In this case, the distance L1 between the two points and the angle R1 of the straight line connecting the two points are calculated based on the position information included in each of the two mouse events. The angle of the straight line connecting the two points may be an angle formed by the straight line connecting the two points with the reference line with the horizontal direction of the display unit 161 as the reference line. The angle formed between the straight line connecting the two points and the reference line is an angle formed clockwise from the reference line. Then, the gesture event determination unit 83 calculates the distance L2 between the two points and the angle R2 of the straight line connecting the two points based on the positional information of the two mouse events that are successively input thereafter.

ジェスチャーイベント決定部83は、角度R1と角度R2とが同じで、かつ、距離L2と距離L1と異なれば、ユーザーによるピンチアウト操作またはピンチイン操作を検出する。角度R1と角度R2とが同じとは、角度R1と角度R2との差が所定の範囲内の場合を含む。ユーザーの指の動きを検出するために、誤差を含む。距離L2が距離L1より大きければピンチアウト操作を検出し、距離L2が距離L1より小さければピンチイン操作を検出する。ジェスチャーイベント決定部83は、ピンチアウト操作またはピンチイン操作を検出する場合、距離L2を距離L1で除算することによって倍率を算出し、算出された倍率をパラメータとして決定し、パラメータを含むジェスチャー識別情報を決定する。ピンチアウト操作を検出する場合には、ジェスチャー識別情報「ピンチアウト」のジェスチャーイベントは、倍率を示すパラメータを含み、ピンチイン操作を検出する場合には、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントは、倍率を示すパラメータを含む。   The gesture event determination unit 83 detects a pinch-out operation or a pinch-in operation by the user if the angle R1 and the angle R2 are the same and the distance L2 is different from the distance L1. The angle R1 and the angle R2 being the same include the case where the difference between the angle R1 and the angle R2 is within a predetermined range. In order to detect the movement of the user's finger, an error is included. If the distance L2 is larger than the distance L1, a pinch-out operation is detected. If the distance L2 is smaller than the distance L1, a pinch-in operation is detected. When detecting a pinch-out operation or a pinch-in operation, the gesture event determination unit 83 calculates a magnification by dividing the distance L2 by the distance L1, determines the calculated magnification as a parameter, and determines gesture identification information including the parameter. decide. When a pinch-out operation is detected, the gesture event of the gesture identification information “Pinch-out” includes a parameter indicating a magnification. When a pinch-in operation is detected, the gesture event of the gesture identification information “Pinch-in” is a magnification. The parameter that indicates is included.

ジェスチャーイベント決定部83は、角度R1と角度R2とが異なる場合、ユーザーによるローテーション操作を検出する。角度R1と角度R2とが異なるとは、角度R1と角度R2との差が所定の範囲外の場合である。ユーザーの指の動きを検出するために、誤差を含む。ジェスチャーイベント決定部83は、ローテーション操作を検出する場合、角度R2から角度R1を減算することによって回転方向を決定し、決定された回転方向をパラメータとして決定し、パラメータを含むジェスチャー識別情報を決定する。角度R2から角度R1を減算した値がプラスならば回転方向は時計回りであり、角度R2から角度R1を減算した値がマイナスならば回転方向は反時計回りである。ジェスチャー識別情報「ローテーション」は、回転方向を示すパラメータを含む。   The gesture event determination unit 83 detects a rotation operation by the user when the angles R1 and R2 are different. The difference between the angle R1 and the angle R2 is when the difference between the angle R1 and the angle R2 is outside a predetermined range. In order to detect the movement of the user's finger, an error is included. When detecting a rotation operation, the gesture event determination unit 83 determines a rotation direction by subtracting the angle R1 from the angle R2, determines the determined rotation direction as a parameter, and determines gesture identification information including the parameter. . If the value obtained by subtracting the angle R1 from the angle R2 is positive, the rotational direction is clockwise. If the value obtained by subtracting the angle R1 from the angle R2 is negative, the rotational direction is counterclockwise. The gesture identification information “Rotation” includes a parameter indicating the rotation direction.

ジェスチャーイベント決定部83は、ジェスチャーイベントを決定する場合、HDD115から、調停部53によって設定されているカレントタスクのアプリ識別情報に対応するマスターテーブル91を読み出す。具体的には、マスターテーブル91を読み出すためのオペレーティングコマンドをオペレーティング部57に出力し、オペレーティング部57がHDD115を制御して読み出すマスターテーブル91を取得する。以下、ブラウジング部61がカレントタスクの場合について説明する。   When determining the gesture event, the gesture event determination unit 83 reads the master table 91 corresponding to the application identification information of the current task set by the arbitration unit 53 from the HDD 115. Specifically, an operating command for reading the master table 91 is output to the operating unit 57, and the operating unit 57 controls the HDD 115 to acquire the master table 91 to be read. Hereinafter, a case where the browsing unit 61 is the current task will be described.

ジェスチャーイベント決定部83は、ジェスチャーイベントを決定することに応じて、ジェスチャーイベントに基づいて、マスターテーブル91において定められている複数種類の処理のうちから調停部53によってカレント状態に設定されているアプリケーションプログラムに対応して関連付けられた処理を特定する。ここでは、調停部53によってブラウジング部61がカレントタスクに設定されているので、ジェスチャーイベント決定部83は、ジェスチャーイベントと、マスターテーブル91によって関連付けられた処理を特定する。より具体的には、ジェスチャーイベント決定部83は、決定されたジェスチャーイベントのジェスチャー識別情報がジェスチャーの項目に設定されたマスターレコードを、マスターテーブル91から抽出し、抽出されたマスターレコードの処理の項目に設定されている処理識別情報を取得する。ジェスチャーイベント決定部83は、処理識別情報が取得される場合、決定されたジェスチャーイベントを調停部53に出力するが、処理識別情報が取得されない場合、決定されたジェスチャーイベントを調停部53に出力しない。   The gesture event determination unit 83 determines whether or not the gesture event is determined, and based on the gesture event, the application set in the current state by the arbitration unit 53 from among a plurality of types of processing determined in the master table 91. Identify the process associated with the program. Here, since the browsing unit 61 is set as the current task by the arbitrating unit 53, the gesture event determining unit 83 identifies the gesture event and the process associated with the master table 91. More specifically, the gesture event determination unit 83 extracts the master record in which the gesture identification information of the determined gesture event is set as the item of gesture from the master table 91, and the process item of the extracted master record Acquires the process identification information set in. When the process identification information is acquired, the gesture event determination unit 83 outputs the determined gesture event to the arbitration unit 53. However, when the process identification information is not acquired, the gesture event determination unit 83 does not output the determined gesture event to the arbitration unit 53. .

ジェスチャーイベント決定部83は、調停部53によってカレント状態に設定されているブラウジング部61が実行可能な処理に対応するジェスチャーイベントのみを調停部53に出力し、調停部53は、ジェスチャーイベントをカレントタスクであるブラウジング部61に出力する。このため、タッチパネル165に入力される操作であって、複数のマウスイベントの組で特定されるジェスチャーイベントを、ブラウジングプログラムを実行するブラウジング部61に実行させることができる。換言すれば、ブラウジングプログラムを開発する段階で、MFP100においてタッチパネル165で受け付け可能なジェスチャーイベントを意識することなく開発することができる。例えば、ローテーション操作を受け付けないブラウジングプログラムを開発することができる。   The gesture event determination unit 83 outputs only the gesture event corresponding to the process executable by the browsing unit 61 set in the current state by the arbitration unit 53 to the arbitration unit 53, and the arbitration unit 53 outputs the gesture event to the current task. Is output to the browsing unit 61. For this reason, it is possible to cause the browsing unit 61 that executes a browsing program to execute a gesture event that is an operation input to the touch panel 165 and is specified by a set of a plurality of mouse events. In other words, at the stage of developing a browsing program, the MFP 100 can be developed without being aware of gesture events that can be accepted by the touch panel 165 in the MFP 100. For example, a browsing program that does not accept rotation operations can be developed.

調停部53は、マウスイベント生成部85からマウスイベントが入力され、ジェスチャーイベント決定部83からジェスチャーイベントが入力され、それらをアプリケーション部51がアプリケーションプログラムを実行する複数のタスクのうちカレントタスクに出力する。ここでは、アプリケーション部51は、ブラウジング部61と、副実行部63とを含み、副実行部63はブラウジング部61によって起動されるため、調停部53は、ブラウジング部61をカレント状態に設定する。このため、ブラウジング部61がカレントタスクである。調停部53は、マウスイベント生成部85からマウスイベントが入力されることに応じて、マウスイベントをブラウジング部61に出力する。調停部53は、ジェスチャーイベント決定部83からジェスチャーイベントが入力されることに応じて、ジェスチャーイベントをブラウジング部61に出力する。   The arbitration unit 53 receives a mouse event from the mouse event generation unit 85, receives a gesture event from the gesture event determination unit 83, and outputs them to the current task among a plurality of tasks for which the application unit 51 executes the application program. . Here, the application unit 51 includes a browsing unit 61 and a sub-execution unit 63. Since the sub-execution unit 63 is activated by the browsing unit 61, the arbitration unit 53 sets the browsing unit 61 to the current state. For this reason, the browsing unit 61 is the current task. The arbitration unit 53 outputs the mouse event to the browsing unit 61 in response to the mouse event input from the mouse event generation unit 85. The arbitration unit 53 outputs the gesture event to the browsing unit 61 in response to the gesture event input from the gesture event determination unit 83.

ブラウジング部61は、マウスイベント生成部85が出力するマウスイベントが調停部53から入力され、ジェスチャーイベント決定部83が出力するジェスチャーイベントが調停部53から入力される。ジェスチャーイベントは、1以上のマウスイベントの組から決定されるため、ジェスチャーイベントと、ジェスチャーイベントを決定する1以上のマウスイベントの組とは、操作ユーザーが入力する1回のシングルタッチ操作または1回のマルチタッチ操作に対して、同時に発生する。   The browsing unit 61 receives a mouse event output from the mouse event generation unit 85 from the arbitration unit 53, and receives a gesture event output from the gesture event determination unit 83 from the arbitration unit 53. Since the gesture event is determined from a group of one or more mouse events, the gesture event and the group of one or more mouse events that determine the gesture event are a single touch operation input by the operating user or a single operation. This occurs simultaneously for multiple touch operations.

ブラウジング部61は、MFP100を操作する操作ユーザーがタッチパネル165に入力するシングルタッチ操作またはマルチタッチ操作のうち埋込領域以外に入力されるシングルタッチ操作またはマルチタッチ操作に従って、ブラウジングプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、処理を実行する。   Browsing unit 61 includes a plurality of browsing programs defined by a browsing program in accordance with a single touch operation or a multi-touch operation that is input to an area other than the embedded region among single-touch operations or multi-touch operations input to touch panel 165 by an operation user operating MFP 100. The process to be executed is identified from the types of processes, and the process is executed.

ブラウジング部61が実行する複数種類の処理は、表示部161に表示する画像を変化させる処理を含む。画面を変化させる処理は、例えば、表示する画像を別のコンテンツの画像に変更する処理、表示部161に画像の一部が表示されている場合には、画像のうち表示部161に表示する部分を変更するスクロール処理、ページ送り処理、画像を拡大して表示する拡大処理、画像を縮小して表示する縮小処理、画像の方向を変更する回転処理を含む。   The plurality of types of processing executed by the browsing unit 61 includes processing for changing an image displayed on the display unit 161. The process of changing the screen is, for example, a process of changing an image to be displayed to an image of another content, or a part of the image that is displayed on the display unit 161 when the image is displayed on the display unit 161. Scroll processing for changing the image, page turning processing, enlargement processing for enlarging and displaying the image, reduction processing for reducing and displaying the image, and rotation processing for changing the direction of the image.

また、副実行部63は、MFP100を操作する操作ユーザーがタッチパネル165に入力するシングルタッチ操作またはマルチタッチ操作のうち埋込領域内に入力されるシングルタッチ操作またはマルチタッチ操作に従って、処理を実行する。具体的には、副実行部63が、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する場合、ブラウジングプログラムとは別の第2アプリケーションプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、特定された処理を実行する。この場合において、副実行部63が実行する複数種類の処理は、表示部161に表示する画像を変化させる処理を含む。画面を変化させる処理は、例えば、表示する画像を別のコンテンツの画像に変更する処理、表示部161に画像の一部が表示されている場合には、画像のうち表示部161に表示する部分を変更するスクロール処理、ページ送り処理、画像を拡大して表示する拡大処理、画像を縮小して表示する縮小処理、画像の方向を変更する回転処理を含む。   Sub-execution unit 63 executes processing in accordance with a single touch operation or a multi-touch operation that is input into the embedding area among a single touch operation or a multi-touch operation that is input to touch panel 165 by the user who operates MFP 100. . Specifically, when the sub-execution unit 63 executes a second application program different from the browsing program, a process to be executed from among a plurality of types of processes defined by the second application program different from the browsing program And specify the specified process. In this case, the plurality of types of processing executed by the sub-execution unit 63 includes processing for changing an image displayed on the display unit 161. The process of changing the screen is, for example, a process of changing an image to be displayed to an image of another content, or a part of the image that is displayed on the display unit 161 when the image is displayed on the display unit 161. Scroll processing for changing the image, page turning processing, enlargement processing for enlarging and displaying the image, reduction processing for reducing and displaying the image, and rotation processing for changing the direction of the image.

また、副実行部63は、ブラウジングプログラムとは別の第2アプリケーションプログラムを、ネットワークを介して接続された外部のコンピューターであるサーバーに実行させる場合、シングルタッチ操作またはマルチタッチ操作に対応するマウスイベントを含む処理リクエストを、サーバーに送信する。   In addition, when the sub-execution unit 63 causes a server, which is an external computer connected via a network, to execute a second application program different from the browsing program, a mouse event corresponding to a single touch operation or a multi-touch operation A processing request containing is sent to the server.

ブラウジング部61が備える選択部75は、マウスイベントとジェスチャーイベントとのいずれか一方を選択する。選択部75にジェスチャーイベントが入力される場合には、それ以前にジェスチャーイベントを決定するための1以上のマウスイベントが入力される。選択部75は、調停部53からマウスイベントが入力される場合、そのマウスイベントに含まれる位置情報で示される位置が、表示画像生成部71によって生成された表示画像中の埋込領域内か否かを判断する。選択部75は、マウスイベントに含まれる位置情報で示される位置が埋込領域内ならばマウスイベントを選択するが、マウスイベントに含まれる位置情報で示される位置が埋込領域外ならばマウスイベントを選択しない。また、選択部75は、マウスイベントに含まれる位置情報で示される位置が埋込領域外ならばジェスチャーイベントを選択するが、マウスイベントに含まれる位置情報で示される位置が埋込領域内ならばジェスチャーイベントを選択しない。選択部75は、マウスイベントを選択する場合は、マウスイベントを指示部77に出力し、ジェスチャーイベントを選択する場合は、ジェスチャーイベントを決定部73に出力する。   The selection unit 75 included in the browsing unit 61 selects either a mouse event or a gesture event. When a gesture event is input to the selection unit 75, one or more mouse events for determining a gesture event are input before that. When a mouse event is input from the arbitration unit 53, the selection unit 75 determines whether or not the position indicated by the position information included in the mouse event is within an embedded region in the display image generated by the display image generation unit 71. Determine whether. The selection unit 75 selects a mouse event if the position indicated by the position information included in the mouse event is within the embedded area, but selects the mouse event if the position indicated by the position information included in the mouse event is outside the embedded area. Do not select. The selection unit 75 selects a gesture event if the position indicated by the position information included in the mouse event is outside the embedded area, but if the position indicated by the position information included in the mouse event is within the embedded area. Do not select a gesture event. The selection unit 75 outputs the mouse event to the instruction unit 77 when selecting a mouse event, and outputs the gesture event to the determination unit 73 when selecting a gesture event.

指示部77は、選択部75からマウスイベントが入力される場合、マウスイベントを副実行部63に出力する。副実行部63は、ブラウジングプログラムとは別の第2アプリケーションプログラムを、ネットワークを介して接続された外部のコンピューターであるサーバーに実行させる場合、指示部77からマウスイベントが入力されることに応じて、サーバーにマウスイベントを含む処理リクエストを送信し、サーバーから受信される画像で、埋込画像を更新する。具体的には、表示部161が備えるVRAMにサーバーから受信される画像を上書きするアプリコマンドを表示制御部87に出力する。これにより、表示部161が備えるVRAMに記憶されている表示画像の埋込領域が、サーバーから受信される画像で上書きされる。   When a mouse event is input from the selection unit 75, the instruction unit 77 outputs the mouse event to the sub-execution unit 63. When the sub-execution unit 63 causes the server, which is an external computer connected via the network, to execute a second application program different from the browsing program, in response to a mouse event being input from the instruction unit 77 Then, a processing request including a mouse event is transmitted to the server, and the embedded image is updated with the image received from the server. Specifically, an application command for overwriting an image received from the server in the VRAM included in the display unit 161 is output to the display control unit 87. Thereby, the embedding area of the display image stored in the VRAM included in the display unit 161 is overwritten with the image received from the server.

また、副実行部63が、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する場合、副実行部63は、第2アプリケーションプログラムによって定められた複数種類の処理のうちから、マウスイベントに基づいて実行する処理を特定し、処理を実行する。例えば、マウスイベントに含まれる位置情報で特定される位置が、埋込画像に含まれるボタンの画像内ならば、そのボタンの画像に対応付けられた処理を特定する。例えば、拡大ボタンの画像ならば画像を拡大する処理を実行し、埋込画像を拡大した後の画像で更新する。具体的には、表示部161が備えるVRAMに更新後の画像を上書きするアプリコマンドを表示制御部87に出力する。これにより、表示部161が備えるVRAMに記憶されている表示画像の埋込領域が、更新後の画像で上書きされる。   In addition, when the secondary execution unit 63 executes a second application program different from the browsing program, the secondary execution unit 63 selects one of a plurality of types of processing determined by the second application program based on a mouse event. Identify the process to be executed and execute the process. For example, if the position specified by the position information included in the mouse event is within the button image included in the embedded image, the process associated with the button image is specified. For example, if the image is an enlargement button image, processing for enlarging the image is executed, and the embedded image is updated with the image after enlargement. Specifically, an application command for overwriting the updated image in the VRAM included in the display unit 161 is output to the display control unit 87. As a result, the display image embedding area stored in the VRAM included in the display unit 161 is overwritten with the updated image.

決定部73は、選択部75からジェスチャーイベントが入力される場合、ブラウジングプログラムによって定められた複数種類の処理のうちジェスチャーイベントに対応する種類の処理を実行する。具体的には、表示画像のうち表示部161に表示するための表示部分を決定する。決定部73は、決定された表示部分を表示部161に表示させるアプリコマンドを、表示制御部87に出力する。これにより、表示部161が備えるVRAMに記憶されている表示画像のうちから決定部73によって決定された部分の画像が表示部161に表示される。例えば、選択部75から入力されるジェスチャーイベントが処理識別情報「スクロール」に対応するならば、表示画像で表示部161に表示されていた部分を、その部分から上下左右のいずれかにスライドさせた部分が表示部161に表示される。   When a gesture event is input from the selection unit 75, the determination unit 73 executes a type of process corresponding to the gesture event among a plurality of types of processes determined by the browsing program. Specifically, a display portion to be displayed on the display unit 161 in the display image is determined. The determination unit 73 outputs an application command for causing the display unit 161 to display the determined display portion to the display control unit 87. Thereby, the image of the part determined by the determination part 73 among the display images memorize | stored in VRAM with which the display part 161 is provided is displayed on the display part 161. FIG. For example, if the gesture event input from the selection unit 75 corresponds to the process identification information “scroll”, the part displayed on the display unit 161 in the display image is slid from the part to the top, bottom, left, or right. The part is displayed on the display unit 161.

次に、本実施の形態におけるMFP100において、インターネットに接続されたサーバー300からWebページをダウンロードし、Webページの画像である表示画像を表示する場合を例に、ユーザーの操作とMFP100が実行する処理の流れの一例を説明する。   Next, in MFP 100 according to the present embodiment, for example, a case where a Web page is downloaded from server 300 connected to the Internet and a display image, which is an image of the Web page, is displayed, a user operation and processing executed by MFP 100 An example of the flow will be described.

図7は、ユーザーによる操作とMFPが実行する処理の流れの一例を示す図である。図7を参照して、左から順に、ユーザーによる操作、オペレーティング部57の処理、副実行部63の処理、ブラウジング部61の処理およびサーバー300の処理をそれぞれに対応する軸を示し、それぞれの軸は上から下に時間の流れを示している。   FIG. 7 is a diagram illustrating an example of a user operation and a flow of processing executed by the MFP. Referring to FIG. 7, in order from the left, the user operation, the processing of the operating unit 57, the processing of the sub-execution unit 63, the processing of the browsing unit 61, and the processing of the server 300 are shown. Shows the flow of time from top to bottom.

まず、ユーザーが、ブラウジングプログラムを起動する操作を入力すれば、オペレーティング部57によって、その操作が受け付けられる。ここでは、サーバー300に記憶されたWebページのURLが同時に指定される場合を説明する。ユーザーによる操作に従って、オペレーティング部57は、CPU111にブラウジングプログラムを実行させることによって、CPU111がブラウジングプログラムを実行するタスクであるブラウジング部61が起動する。また、オペレーティング部57は、ユーザーにより入力されたURLを、ブラウジング部61に出力する。   First, when the user inputs an operation for starting a browsing program, the operation unit 57 accepts the operation. Here, a case where the URLs of Web pages stored in the server 300 are specified at the same time will be described. In accordance with a user operation, the operating unit 57 causes the CPU 111 to execute the browsing program, thereby starting the browsing unit 61 that is a task for the CPU 111 to execute the browsing program. In addition, the operating unit 57 outputs the URL input by the user to the browsing unit 61.

ブラウジング部61は、オペレーティング部57から入力されるURLで特定されるWebページを、URLで特定されるサーバー300に送信する要求であるコンテンツリクエストをサーバー300に送信する。サーバー300は、コンテンツリクエストを受信すると、URLで特定されるWebページを返信するので、ブラウジング部61は、サーバー300からWebページを受信する。さらに、ブラウジング部61は、Webページを解析して、Webページに対応する表示画像を生成し、表示画像をVRAMに記憶する指令と、表示部分を表示する指令を、オペレーティング部57に出力する。これに伴い、オペレーティング部57は、表示画像を表示部161のVRAMに記憶するとともに、表示部分を表示部161に表示する。   The browsing unit 61 transmits to the server 300 a content request that is a request for transmitting the Web page specified by the URL input from the operating unit 57 to the server 300 specified by the URL. When the server 300 receives the content request, it returns a Web page specified by the URL, so that the browsing unit 61 receives the Web page from the server 300. Further, the browsing unit 61 analyzes the Web page, generates a display image corresponding to the Web page, and outputs a command to store the display image in the VRAM and a command to display the display part to the operating unit 57. Accordingly, the operating unit 57 stores the display image in the VRAM of the display unit 161 and displays the display part on the display unit 161.

ここで、WebページがJAVA(登録商標)プログラムを起動するコマンドの記述を含んでいるとする。このため、ブラウジングブ61は、CPU111にJAVA(登録商標)プログラムを実行させることによって、CPU111がJAVA(登録商標)プログラムを実行するタスクである副実行部63が起動する。   Here, it is assumed that the Web page includes a description of a command for starting a JAVA (registered trademark) program. For this reason, when the browsing program 61 causes the CPU 111 to execute the JAVA (registered trademark) program, the sub-execution unit 63, which is a task for the CPU 111 to execute the JAVA (registered trademark) program, is activated.

ここでは、JAVA(登録商標)プログラムにより、サーバー300に、それに記憶されたコンテンツの画像を送信させる処理が定められているとする。副実行部63は、コンテンツの画像を送信させる処理を実行する要求である処理リクエストをサーバーに送信する。これに伴い、サーバー300は、コンテンツの画像を返信するので、副実行部63は、サーバー300から受信するコンテンツの画像を、埋込画像として受信する。さらに、副実行部63は、埋込画像を表示部161のVRAMに記憶するとともに、表示要求をブラウジング部61に出力する。これに伴い、オペレーティング部57は、表示画像を表示部161のVRAMに記憶する。また、ブラウジング部61は、オペレーティング部57に、表示部分を表示する指示を出力し、オペレーティング部57は、埋込領域に埋込画像を配置した表示画像のうち表示部分を表示部161に表示する。したがって、表示部分が埋込領域を含んでいれば、埋込画像が表示部161に表示される。   Here, it is assumed that processing for causing the server 300 to transmit an image of content stored in the JAVA (registered trademark) program is determined. The sub-execution unit 63 transmits a processing request, which is a request for executing processing for transmitting a content image, to the server. Accordingly, the server 300 returns a content image, so the sub-execution unit 63 receives the content image received from the server 300 as an embedded image. Further, the sub execution unit 63 stores the embedded image in the VRAM of the display unit 161 and outputs a display request to the browsing unit 61. Accordingly, the operating unit 57 stores the display image in the VRAM of the display unit 161. In addition, the browsing unit 61 outputs an instruction to display the display portion to the operating unit 57, and the operating unit 57 displays the display portion of the display image in which the embedded image is arranged in the embedded area on the display unit 161. . Therefore, if the display portion includes the embedded region, the embedded image is displayed on the display unit 161.

次に、ユーザーが、シングルタッチ操作またはマルチタッチ操作を入力すれば、オペレーティング部57によって、その操作が受け付けられる。操作変換部55によって、シングルタッチ操作またはマルチタッチ操作に対応するマウスイベントが生成され、1以上のマウスイベントに基づいてジェスチャーイベントが決定される。マウスイベントとジェスチャーイベントとは、ブラウジング部61に入力される。   Next, when the user inputs a single touch operation or a multi-touch operation, the operation unit 57 accepts the operation. The operation conversion unit 55 generates a mouse event corresponding to a single touch operation or a multi-touch operation, and determines a gesture event based on one or more mouse events. The mouse event and the gesture event are input to the browsing unit 61.

ブラウジング部61は、マウスイベントに含まれる位置情報で示される位置が、埋込領域内の場合と、埋込領域外の場合とで、処理を異ならせる。ブラウジング部61は、マウスイベントに含まれる位置情報で示される位置が埋込領域内の場合、マウスイベントを副実行部63に出力する。副実行部63は、マウスイベントを含む処理リクエストをサーバー300に送信する。サーバー300は、処理リクエストを受信すると、処理リクエストに含まれるマウスイベントにより特定される埋込画像中の位置に対応して、サーバー300が実行する第2アプリケーションプログラムによって定められた処理を実行し、処理後のコンテンツの画像を返信する。例えば、第2アプリケーションプログラムによって画像を拡大する処理が定められている場合には、コンテンツの画像を拡大した画像を返信する。副実行部63は、サーバー300から受信するコンテンツの画像を、埋込画像として受信する。さらに、副実行部63は、埋込画像を表示部161のVRAMに記憶するとともに、表示要求をブラウジング部61に出力する。これに伴い、オペレーティング部57は、表示画像を表示部161のVRAMに記憶する。また、ブラウジング部61は、オペレーティング部57に、表示部分を表示する指示を出力し、オペレーティング部57は、埋込領域に埋込画像を配置した表示画像のうち表示部分を表示部161に表示する。したがって、表示部分が埋込領域を含んでいれば、サーバー300によって拡大された後の埋込画像が表示部161に表示される。   The browsing unit 61 makes processing different depending on whether the position indicated by the position information included in the mouse event is within the embedded area or outside the embedded area. The browsing unit 61 outputs the mouse event to the sub-execution unit 63 when the position indicated by the position information included in the mouse event is within the embedded region. The sub-execution unit 63 transmits a processing request including a mouse event to the server 300. When the server 300 receives the processing request, the server 300 executes processing determined by the second application program executed by the server 300 in correspondence with the position in the embedded image specified by the mouse event included in the processing request. Returns the content image after processing. For example, when processing for enlarging an image is defined by the second application program, an image obtained by enlarging the content image is returned. The sub-execution unit 63 receives an image of content received from the server 300 as an embedded image. Further, the sub execution unit 63 stores the embedded image in the VRAM of the display unit 161 and outputs a display request to the browsing unit 61. Accordingly, the operating unit 57 stores the display image in the VRAM of the display unit 161. In addition, the browsing unit 61 outputs an instruction to display the display portion to the operating unit 57, and the operating unit 57 displays the display portion of the display image in which the embedded image is arranged in the embedded area on the display unit 161. . Therefore, if the display portion includes the embedded region, the embedded image after being enlarged by the server 300 is displayed on the display unit 161.

一方、マウスイベントに含まれる位置情報で示される位置が埋込領域外の場合、ジェスチャーイベントに基づく処理を実行する。この場合、マウスイベントを副実行部63に出力しない。ジェスチャーイベントに基づく処理は、ブラウジングプログラムによって定められている。例えば、ジェスチャーイベントに基づく処理が下方向にスクロールする処理ならば、表示画像の表示部分を下方に移動させた後の表示部分を表示する指示をオペレーティング部57に出力する。オペレーティング部57は、表示画像のうち表示部分を表示部161に表示する。したがって、表示画像のうち移動された後の表示部分が表示部161に表示される。   On the other hand, if the position indicated by the position information included in the mouse event is outside the embedded area, processing based on the gesture event is executed. In this case, no mouse event is output to the sub-execution unit 63. Processing based on the gesture event is defined by a browsing program. For example, if the process based on the gesture event is a process of scrolling downward, an instruction to display the display part after moving the display part of the display image downward is output to the operating unit 57. The operating unit 57 displays a display part of the display image on the display unit 161. Therefore, the display part after the display image is moved is displayed on the display unit 161.

図8は、ジェスチャーイベント決定処理の流れの一例を示すフローチャートである。ジェスチャーイベント決定処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶された操作受付プログラムを実行することにより、CPU111により実行される処理である。図8を参照して、CPU111は、マウスイベントが検出されたか否かを判断する(ステップS01)。ユーザーがタッチパネル165を指示すれば、タッチパネル165により検出された位置に基づいてマウスイベントが検出される。マウスイベントが検出されるまで待機状態となり(ステップS01でNO)、マウスイベントが検出されたたならば(ステップS01でYES)、処理をステップS02に進める。   FIG. 8 is a flowchart illustrating an example of the flow of gesture event determination processing. The gesture event determination process is a process executed by CPU 111 when CPU 111 of MFP 100 executes an operation reception program stored in ROM 113, HDD 115, or CD-ROM 118. Referring to FIG. 8, CPU 111 determines whether a mouse event has been detected (step S01). If the user indicates touch panel 165, a mouse event is detected based on the position detected by touch panel 165. The process waits until a mouse event is detected (NO in step S01). If a mouse event is detected (YES in step S01), the process proceeds to step S02.

ステップS02においては、検出されたマウスイベントが単数か否かを判断する。単数のマウスイベントが検出されたならば処理をステップS03に進めるが、複数のマウスイベントが検出されたならば処理をステップS13に進める。   In step S02, it is determined whether or not the detected mouse event is single. If a single mouse event is detected, the process proceeds to step S03. If a plurality of mouse events are detected, the process proceeds to step S13.

ステップS03においてはマウスイベントの状態によって処理を分岐させる。マウスイベントの状態が「Press」ならば処理をステップS01に戻し、「Move」ならば処理をステップS04に進め、「Release」ならば処理をステップS09に進める。処理がステップS04に進む場合、マウスイベントの状態が「Move」の場合であり、そのマウスイベントの直前に別のマウスイベントが入力されている。別のマウスイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS04においては、指示方向を決定する。直前に入力された別のマウスイベントに含まれる位置情報で特定される位置からステップS01において検出されたマウスイベントに含まれる位置情報で特定される位置に向かう方法を決定する。ここで決定する方向は、表示部161の表示面を基準にした上下左右の4方向のうち最も近い方向である。   In step S03, the process branches depending on the state of the mouse event. If the mouse event state is “Press”, the process returns to step S01. If “Mouse”, the process proceeds to step S04. If “Release”, the process proceeds to step S09. When the process proceeds to step S04, the state of the mouse event is “Move”, and another mouse event is input immediately before the mouse event. The state of another mouse event may be “Press” or “Move”. In step S04, an instruction direction is determined. A method is determined for going from the position specified by the position information included in another mouse event input immediately before to the position specified by the position information included in the mouse event detected in step S01. The direction determined here is the closest direction among the four directions, top, bottom, left, and right, based on the display surface of the display unit 161.

次のステップS05においては、指示距離Lを算出する。直前に入力された別のマウスイベントに含まれる位置情報で特定される位置とステップS01において検出されたマウスイベントに含まれる位置情報で特定される位置との間の距離を指示距離Lとして算出する。そして、指示距離Lがしきい値TH以上か否かを判断する(ステップS06)。指示距離Lがしきい値TH以上ならば処理をステップS07に進めるが、そうでなければ処理をステップS08に進める。   In the next step S05, the designated distance L is calculated. The distance between the position specified by the position information included in another mouse event input immediately before and the position specified by the position information included in the mouse event detected in step S01 is calculated as the instruction distance L. . Then, it is determined whether or not the designated distance L is greater than or equal to the threshold value TH (step S06). If instructed distance L is equal to or greater than threshold value TH, the process proceeds to step S07; otherwise, the process proceeds to step S08.

ステップS07においては、ジェスチャーイベントをスワイプに決定し、処理をステップS01に戻す。ステップS08においては、ジェスチャーイベントをフリックに決定し、処理をステップS01に戻す。   In step S07, the gesture event is determined to be swipe, and the process returns to step S01. In step S08, the gesture event is determined to be flicked, and the process returns to step S01.

処理がステップS09に進む場合、ステップS01において検出されたマウスイベントの状態が「Release」である。マウスイベントの状態が「Release」の場合、そのマウスイベントの直前に別のマウスイベントが入力されている。別のマウスイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS09においては、直前に入力された別のマウスイベントの状態によって処理を分岐させる。直前に入力された別のマウスイベントの状態が「Press」ならば処理をステップS10に進めるが、そうでなければ処理をステップS01に戻す。   When the process proceeds to step S09, the state of the mouse event detected in step S01 is “Release”. When the state of the mouse event is “Release”, another mouse event is input immediately before the mouse event. The state of another mouse event may be “Press” or “Move”. In step S09, the process branches depending on the state of another mouse event input immediately before. If the state of another mouse event input immediately before is “Press”, the process proceeds to step S10; otherwise, the process returns to step S01.

ステップS10においては、ステップS01において検出されたマウスイベントに含まれる位置情報と同じ位置情報がRAM114に記憶されているか否かを判断する。RAM114に記憶されているならば処理をステップS11に進めるが、そうでなければ処理をステップS12に進める。なお、ここでいう同じ位置情報とは、2つの位置情報でそれぞれ特定される2つの位置の間の距離が所定の長さ以内である場合を含む。ユーザーが同じ位置を指示する操作を検出するために、誤差を含む。   In step S10, it is determined whether or not the same position information as the position information included in the mouse event detected in step S01 is stored in the RAM 114. If stored in RAM 114, the process proceeds to step S11; otherwise, the process proceeds to step S12. In addition, the same position information here includes the case where the distance between the two positions respectively specified by the two position information is within a predetermined length. In order to detect an operation in which the user points to the same position, an error is included.

ステップS12においては、ステップS01において検出されたマウスイベントに含まれる位置情報をRAM114に一時記憶し、処理をステップS01に戻す。処理がステップS12に進む場合は、直前に入力されたマウスイベントの状態が「Press」で、次に入力されるマウスイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されていない場合である。換言すれば、ユーザーが最初のタップ操作を入力する場合である。   In step S12, the position information included in the mouse event detected in step S01 is temporarily stored in RAM 114, and the process returns to step S01. When the process proceeds to step S12, the state of the mouse event input immediately before is “Press”, the state of the next mouse event input is “Release”, and the same position information is stored in the RAM 114. This is the case when it is not stored. In other words, the user inputs the first tap operation.

ステップS11においては、ジェスチャーイベントをダブルタップに決定し、処理をステップS01に戻す。処理がステップS11に進む場合は、直前に入力されたマウスイベントの状態が「Press」で、ステップS01において入力されるマウスイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されている場合である。換言すれば、ユーザーが最初のタップ操作を入力した後に、最初のタップ操作と同じ位置をタップ操作する場合である。   In step S11, the gesture event is determined to be a double tap, and the process returns to step S01. When the process proceeds to step S11, the state of the mouse event input immediately before is “Press”, the state of the mouse event input in step S01 is “Release”, and the same position information is stored in the RAM 114. Is stored. In other words, after the user inputs the first tap operation, the user taps the same position as the first tap operation.

処理がステップS13に進む場合は、2つのマウスイベントが検出される場合である。ステップS13においては、2つのマウスイベントの少なくとも一方の状態が「Move」か否かを判断する。2つのマウスイベントの少なくとも一方の状態が「Move」ならば処理をステップS14に進めるが、そうでなければ処理をステップS01に戻す。   The process proceeds to step S13 when two mouse events are detected. In step S13, it is determined whether or not the state of at least one of the two mouse events is “Move”. If the state of at least one of the two mouse events is “Move”, the process proceeds to step S14; otherwise, the process returns to step S01.

ステップS14においては、角度を算出する。表示部161の表示面の所定の基準辺を基準に、2つのマウスイベントそれぞれに含まれる位置情報で特定される2つの位置を結ぶ直線が基準辺となす角度を算出する。次のステップS15においては、ステップS14において算出された角度に変化があるか否かを判断する。ステップS14において算出された角度が、直前に入力された別の2つのマウスイベントに基づいて算出された角度との差が所定の角度以上であれば、角度が変化したと判断する。角度が変化したならば処理をステップS16に進めるが、そうでなければ処理をステップS17に進める。ステップS16においては、ジェスチャーイベントをローテーションに決定し、処理をステップS01に戻す。   In step S14, an angle is calculated. Based on a predetermined reference side of the display surface of the display unit 161, an angle between a straight line connecting two positions specified by position information included in each of the two mouse events and the reference side is calculated. In the next step S15, it is determined whether or not there is a change in the angle calculated in step S14. If the difference between the angle calculated in step S14 and the angle calculated based on the other two mouse events input immediately before is greater than or equal to a predetermined angle, it is determined that the angle has changed. If the angle has changed, the process proceeds to step S16; otherwise, the process proceeds to step S17. In step S16, the gesture event is determined as rotation, and the process returns to step S01.

ステップS17においては、距離を算出する。2つのマウスイベントそれぞれに含まれる位置情報で特定される2つの位置の間の距離を算出する。次のステップS18においては、ステップS14において算出された距離に変化があるか否かを判断する。ステップS17において算出された距離と、直前に入力された別の2つのマウスイベントに基づいて算出された距離との差が所定の長さ以上であれば、距離が変化したと判断する。距離が変化したならば処理をステップS19に進めるが、そうでなければ処理をステップS01に戻す。   In step S17, the distance is calculated. A distance between two positions specified by position information included in each of two mouse events is calculated. In the next step S18, it is determined whether or not there is a change in the distance calculated in step S14. If the difference between the distance calculated in step S17 and the distance calculated based on the other two mouse events input immediately before is greater than or equal to a predetermined length, it is determined that the distance has changed. If the distance has changed, the process proceeds to step S19; otherwise, the process returns to step S01.

ステップS19においては、倍率を決定する。ステップS18において算出された距離を、直前に入力された別の2つのマウスイベントに基づいて算出された距離で除算した値を倍率に決定する。そして、倍率が1より大きければ処理をステップS21に進めるが、そうでなければ処理をステップS22に進める。   In step S19, the magnification is determined. A value obtained by dividing the distance calculated in step S18 by the distance calculated based on the other two mouse events input immediately before is determined as the magnification. If the magnification is greater than 1, the process proceeds to step S21. If not, the process proceeds to step S22.

ステップS21においては、ジェスチャーイベントをピンチアウトに決定し、処理をステップS01に戻す。ステップS22においては、ジェスチャーイベントをピンチインに決定し、処理をステップS01に戻す。   In step S21, the gesture event is determined to be pinch out, and the process returns to step S01. In step S22, the gesture event is determined to be pinch-in, and the process returns to step S01.

図9は、ブラウジング処理の流れの一例を示すフローチャートである。ブラウジング処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたブラウジングプログラムを実行することにより、CPU111により実行される処理である。図9を参照して、CPU111は、コンテンツを取得する(ステップS31)。具体的には、インターネットに接続されたサーバーからWebページをコンテンツとしてダウンロードする。Webページは、MFP100を操作する操作ユーザーが指定したURLで識別されるWebページである。また、予め定められたURLで識別されるWebページであってもよい。   FIG. 9 is a flowchart illustrating an example of the flow of browsing processing. The browsing process is a process executed by CPU 111 when CPU 111 of MFP 100 executes a browsing program stored in ROM 113, HDD 115, or CD-ROM 118. Referring to FIG. 9, CPU 111 acquires content (step S31). Specifically, a Web page is downloaded as content from a server connected to the Internet. The web page is a web page identified by a URL specified by an operating user who operates MFP 100. Further, it may be a web page identified by a predetermined URL.

ステップS32においては、取得されたWebページが埋込画像の記述を含むか否かを判断する(ステップS32)。埋込画像の記述は、ブラウジングプログラムとは別の第2アプリケーションプログラムが実行されて生成される埋込画像を表示する記述である。サーバーから取得されたWebページが、埋込画像の記述を含んでいるならば処理をステップS33に進めるが、そうでなければ処理をステップS35に進める。ステップS35においては、Webページの記述に従って表示画像を生成し、処理をステップS36に進める。具体的には、表示画像を表示部161が備えるVRAMに記憶する。   In step S32, it is determined whether or not the acquired Web page includes a description of an embedded image (step S32). The description of the embedded image is a description for displaying an embedded image generated by executing a second application program different from the browsing program. If the Web page acquired from the server includes the description of the embedded image, the process proceeds to step S33; otherwise, the process proceeds to step S35. In step S35, a display image is generated according to the description of the Web page, and the process proceeds to step S36. Specifically, the display image is stored in a VRAM included in the display unit 161.

ステップS33においては、埋込領域を含む表示画像を生成する。具体的には、埋込領域を含む表示画像を表示部161が備えるVRAMに記憶する。これにより、表示部161が備えるVRAMにブラウジングプログラムを実行するタスクが生成する表示画像が記憶される。ただし、表示画像の埋込領域は、ブラウジングプログラムを実行するタスクによっては何も記憶されない。   In step S33, a display image including an embedded area is generated. Specifically, the display image including the embedded region is stored in the VRAM included in the display unit 161. As a result, the display image generated by the task that executes the browsing program is stored in the VRAM included in the display unit 161. However, the embedded area of the display image is not stored depending on the task that executes the browsing program.

ステップS34においては、アプリケーションを起動し、処理をステップS36に進める。Webページの記述に従って、ブラウジングプログラムとは別の第2アプリケーションプログラムをCPU111またはサーバーに実行させ、第2アプリケーションプログラムを実行するタスクに埋込画像を生成させる。具体的には、Webページに記述されたJAVA(登録商標)スクリプトによってサーバーによって第2アプリケーションプログラムが実行される場合、サーバーにコンテンツの生成を要求する処理リクエストを送信し、サーバーから返信されるコンテンツの画像を、表示部161が備えるVRAMに記憶された表示画像の埋込領域に記憶させる。これにより、表示部161が備えるVRAMに記憶された表示画像の埋込領域に、サーバーが第2アプリケーションプログラムを実行することによって生成した画像が埋込画像として記憶される。また、Webページが、CPU111が実行可能な再生プログラム等の第2アプリケーションプログラムを起動する指示を含む場合、CPU111に第2アプリケーションプログラムを実行させ、CPU111が第2アプリケーションプログラムを実行するタスクが生成する画像を、表示部161が備えるVRAMに記憶された表示画像の埋込領域に記憶させる。これにより、表示部161が備えるVRAMに記憶された表示画像の埋込領域に、CPU111が第2アプリケーションプログラムを実行するタスクによって生成された埋込画像が記憶される。   In step S34, the application is activated and the process proceeds to step S36. According to the description of the Web page, the CPU 111 or the server executes a second application program that is different from the browsing program, and an embedded image is generated by a task that executes the second application program. Specifically, when the second application program is executed by the server using a JAVA (registered trademark) script described on a Web page, the server sends a processing request for generating content to the server, and the content is returned from the server. Are stored in the embedded area of the display image stored in the VRAM included in the display unit 161. As a result, an image generated by the server executing the second application program is stored as an embedded image in the embedded region of the display image stored in the VRAM included in the display unit 161. When the Web page includes an instruction to start a second application program such as a reproduction program that can be executed by the CPU 111, the CPU 111 executes the second application program, and a task for the CPU 111 to execute the second application program is generated. The image is stored in the embedded area of the display image stored in the VRAM included in the display unit 161. As a result, the embedded image generated by the task in which the CPU 111 executes the second application program is stored in the embedded region of the display image stored in the VRAM included in the display unit 161.

このように、ブラウジングプログラムを実行するタスクが表示画像を書き換え、CPU111またはサーバーのいずれかが第2アプリケーションプログラムを実行するタスクによって生成された画像で埋込領域を書き換える。換言すれば、サーバーまたはCPU111のいずれかが第2アプリケーションプログラムを実行するタスクによって生成される画像で、ブラウジングプログラムを実行するタスクとは関係なく、埋込領域を更新することができる。   As described above, the task that executes the browsing program rewrites the display image, and either the CPU 111 or the server rewrites the embedded area with the image generated by the task that executes the second application program. In other words, the embedded area can be updated regardless of the task for executing the browsing program with the image generated by the task for executing either the second application program or the server or the CPU 111.

ステップS36においては、表示画像を表示する。表示部161のVRAMに記憶された表示画像を表示部161に表示する。この際、表示画像を部分的に表示してもよいし、表示画像の全体を表示してもよい。   In step S36, a display image is displayed. The display image stored in the VRAM of the display unit 161 is displayed on the display unit 161. At this time, the display image may be partially displayed or the entire display image may be displayed.

ステップS37においては、マウスイベントが入力されたか否かを判断する。操作ユーザーが表示部161の表示面を指で指示すれば、タッチパネル165によって指示された位置が検出され、その位置情報を含むマウスイベントが入力される。マウスイベントが入力されるまで待機状態となり(ステップS37でNO)、マウスイベントが入力されたならば(ステップS37でYES)、処理をステップS38に進める。   In step S37, it is determined whether a mouse event has been input. When the operating user indicates the display surface of the display unit 161 with a finger, the position indicated by the touch panel 165 is detected, and a mouse event including the position information is input. The process waits until a mouse event is input (NO in step S37). If a mouse event is input (YES in step S37), the process proceeds to step S38.

ステップS38においては、マウスイベントが埋込領域に対する操作か否かを判断する。マウスイベントに含まれる位置情報で特定される位置が、表示画像中の埋込領域内ならばマウスイベントが埋込領域に対する操作であると判断する。マウスイベントが埋込領域に対する操作ならば処理をステップS39に進めるが、そうでなければ処理をステップS40に進める。   In step S38, it is determined whether or not the mouse event is an operation for the embedded area. If the position specified by the position information included in the mouse event is within the embedded area in the display image, it is determined that the mouse event is an operation for the embedded area. If the mouse event is an operation on the embedded region, the process proceeds to step S39; otherwise, the process proceeds to step S40.

ステップS39においては、ステップS34において起動した第2アプリケーションプログラムを実行するタスクに、マウスイベントを出力し、処理をステップS43に進める。具体的には、Webページに記述されたJAVA(登録商標)スクリプトによってサーバーによって第2アプリケーションプログラムが実行される場合、サーバーにマウスイベントを含む処理リクエストを送信し、サーバーから返信されるコンテンツの画像を受信し、受信された画像を、表示部161が備えるVRAMに記憶された表示画像の埋込領域に記憶させる。また、Webページが、CPU111が実行可能な再生プログラム等の第2アプリケーションプログラムを起動する指示を含む場合、CPU111に第2アプリケーションプログラムを実行するタスクが形成されている。このため、CPU111が第2アプリケーションプログラムを実行するタスクに、マウスイベントを出力し、マウスイベントに基づく処理を実行させ、CPU111が第2アプリケーションプログラムを実行するタスクが生成するコンテンツの画像を、表示部161が備えるVRAMに記憶された表示画像の埋込領域に記憶させる。   In step S39, a mouse event is output to the task that executes the second application program started in step S34, and the process proceeds to step S43. Specifically, when the second application program is executed by the server by a JAVA (registered trademark) script described in a Web page, a processing request including a mouse event is transmitted to the server, and an image of content returned from the server And the received image is stored in the embedding area of the display image stored in the VRAM included in the display unit 161. When the Web page includes an instruction to start a second application program such as a playback program that can be executed by the CPU 111, a task for executing the second application program is formed in the CPU 111. For this reason, the CPU 111 outputs a mouse event to a task that executes the second application program, causes the CPU 111 to execute a process based on the mouse event, and displays an image of content generated by the task that the CPU 111 executes the second application program. 161 is stored in the embedded area of the display image stored in the VRAM included in 161.

サーバーまたはCPU111が第2アプリケーションプログラムを実行するタスクは、マウスイベントが入力されると、第2アプリケーションプログラムによって定められた複数の処理のうちからマウスイベントにより特定される処理を実行する。具体的には、第2アプリケーションプログラムによって定められた複数の処理のうち、マウスイベントに含まれる位置情報で特定される位置に割り当てられた処理を実行する。例えば、埋込画像が拡大処理が割り当てられたボタンを含み、マウスイベントに含まれる位置情報で特定される位置が、拡大処理が割り当てられたボタン内ならば拡大処理を実行する。そして、拡大処理後の埋込画像で、表示部161が備えるVRAMに記憶された表示画像中の埋込領域を更新する。このため、表示部161に表示されている表示画像に含まれる埋込領域の画像だけが、拡大して表示される。   The task for the server or CPU 111 to execute the second application program executes a process specified by the mouse event from among a plurality of processes determined by the second application program when a mouse event is input. Specifically, among the plurality of processes determined by the second application program, the process assigned to the position specified by the position information included in the mouse event is executed. For example, if the embedded image includes a button to which the enlargement process is assigned and the position specified by the position information included in the mouse event is within the button to which the enlargement process is assigned, the enlargement process is executed. Then, the embedded area in the display image stored in the VRAM included in the display unit 161 is updated with the embedded image after the enlargement process. For this reason, only the image of the embedding area included in the display image displayed on the display unit 161 is enlarged and displayed.

一方、ステップS40においては、ジェスチャーイベントが決定されたか否かを判断する。図8に示したジェスチャーイベント決定処理が実行されて、ステップS37において入力されたマウスイベントに基づいてジェスチャーイベントが決定されたか否かを判断する。ジェスチャーイベントが決定されたならば処理をステップS41に進めるが、そうでなければ処理をステップS42に進める。ステップS42においては、ステップS37において入力されたマウスイベントを保留し、処理をステップS43に進める。なお、ステップS37において入力されたマウスイベントを廃棄するようにしてもよい。   On the other hand, in step S40, it is determined whether or not a gesture event has been determined. The gesture event determination process shown in FIG. 8 is executed, and it is determined whether or not a gesture event has been determined based on the mouse event input in step S37. If a gesture event is determined, the process proceeds to step S41. If not, the process proceeds to step S42. In step S42, the mouse event input in step S37 is suspended, and the process proceeds to step S43. Note that the mouse event input in step S37 may be discarded.

ステップS41においては、ジェスチャーイベントに対応する処理を実行し、処理をステップS43に進める。ブラウジングプログラムによって定められた複数の処理のうち、ジェスチャーイベントにより特定される処理を実行する。具体的には、ジェスチャーイベントがフリックならば表示画像のうち表示部161に表示する部分をジェスチャーイベントにより定められる方向に移動する。より具体的には、表示部161が備えるVRAMに記憶された表示画像のうち表示部161に表示する領域を、ジェスチャーイベントにより定められる方向に移動し、移動後の領域を表示部161に表示する。このため、表示部161に表示されている表示画像の部分が変更される。   In step S41, a process corresponding to the gesture event is executed, and the process proceeds to step S43. Of the plurality of processes defined by the browsing program, the process specified by the gesture event is executed. Specifically, if the gesture event is a flick, the portion of the display image that is displayed on the display unit 161 is moved in the direction determined by the gesture event. More specifically, an area displayed on the display unit 161 in the display image stored in the VRAM included in the display unit 161 is moved in a direction determined by the gesture event, and the moved region is displayed on the display unit 161. . For this reason, the portion of the display image displayed on the display unit 161 is changed.

ステップS43においては、コンテンツの表示を終了する指示を受け付けたか否かを判断する。例えば、ハードキー部167に含まれる複数のキーのうち、ブラウジングプログラムを終了する指示が割り当てられたキーが指示されたならばコンテンツの表示を終了する指示を受け付ける。コンテンツンの表示を終了する指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS37に戻す。   In step S43, it is determined whether an instruction to end the display of content has been received. For example, if a key to which an instruction to end the browsing program is assigned among a plurality of keys included in the hard key unit 167, an instruction to end the display of content is accepted. If an instruction to end the display of content is accepted, the process ends. If not, the process returns to step S37.

図10は、表示画像の一例を示す図である。図10に示す表示画像は、インターネットに接続されたサーバーからダウンロードされたWebページに対応する。ここでは、Webページを、商品を販売する店舗を紹介する内容が記述されている場合を例に説明する。図10を参照して、表示画像300は、Webページにおいて、ブラウジングプログラムとは別の第2アプリケーションプログラムによって生成される埋込画像を配置する2つの埋込領域310,311を含む。埋込領域310,311に配置される埋込画像は、インターネットに接続されたさサーバーが、そのサーバーにインストールされた第2アプリケーションプログラムを実行することにより生成される。   FIG. 10 is a diagram illustrating an example of a display image. The display image shown in FIG. 10 corresponds to a Web page downloaded from a server connected to the Internet. Here, the Web page will be described by taking as an example a case where the contents for introducing a store that sells products are described. Referring to FIG. 10, display image 300 includes two embedded regions 310 and 311 in which embedded images generated by a second application program different from the browsing program are arranged on a Web page. The embedded images arranged in the embedded areas 310 and 311 are generated when a server connected to the Internet executes a second application program installed on the server.

埋込領域310には、その店の場所を示す地図の画像が埋込画像として配置され、埋込領域311には、その店が販売する商品のリストを表示する画像が埋込画像として配置される。点線で示す領域301,303は、表示画像300のうちで、表示部161に表示される表示部分を示している。なお、領域301,303を示す点線は、説明のために付したもので、表示画像300中に実際には存在しない。   In the embedded area 310, an image of a map showing the location of the store is arranged as an embedded image, and in the embedded area 311, an image displaying a list of products sold by the store is arranged as an embedded image. The Regions 301 and 303 indicated by dotted lines indicate display portions displayed on the display unit 161 in the display image 300. The dotted lines indicating the areas 301 and 303 are given for the sake of explanation, and do not actually exist in the display image 300.

図11は、表示画像300中の表示部分の一例を示す第1の図である。図11を参照して、表示部分331は、図10に示した表示画像300のうち領域301で示される部分である。表示部分331は、表示画像300に配置された埋込領域310を含む。埋込領域は、上下左右の4つの矢印が表されたボタン群313と、「+」および「−」の記号が表されたボタン群315を含む。ボタン群313,315は、それぞれのボタンにサーバーにインストールされた第2アプリケーションプログラムによって処理が割り当てられている。ここで、ユーザーがボタン群315の「+」の記号が表されたボタンを指で指示すれば、「+」の記号が表されたボタン内の位置を示す位置情報を含むマウスイベントが発生する。そして、そのマウスイベントは、埋込領域310に配置された画像を生成するサーバーに送信され、サーバーによって、画像を拡大する処理が実行される。そして、埋込領域310が、サーバーによって拡大する処理が実行された後の画像で更新される。   FIG. 11 is a first diagram illustrating an example of a display portion in the display image 300. Referring to FIG. 11, display portion 331 is a portion indicated by region 301 in display image 300 shown in FIG. 10. Display portion 331 includes an embedded region 310 arranged in display image 300. The embedding area includes a button group 313 in which four arrows (up, down, left and right) are represented, and a button group 315 in which symbols “+” and “−” are represented. In the button groups 313 and 315, processing is assigned to each button by the second application program installed in the server. Here, if the user points with a finger the button in which the “+” symbol of the button group 315 is represented, a mouse event including position information indicating the position within the button in which the “+” symbol is represented is generated. . Then, the mouse event is transmitted to a server that generates an image arranged in the embedding area 310, and processing for enlarging the image is executed by the server. Then, the embedded area 310 is updated with the image after the enlargement process is executed by the server.

図12は、表示画像300中の表示部分の一例を示す第2の図である。図12を参照して、表示部分331は、図10に示した表示画像300のうち領域301で示される部分である。表示部分331は、表示画像300に配置された埋込領域310を含む。埋込領域310に表示される埋込画像は、図11に示した埋込領域310に配置された画像に比較して、拡大した画像となっている。しかしながら、図12に示す表示画像300の表示部分331のうち埋込領域310以外の部分は、図11に示した表示部分331と同じである。   FIG. 12 is a second diagram illustrating an example of a display portion in the display image 300. Referring to FIG. 12, display portion 331 is a portion indicated by region 301 in display image 300 shown in FIG. 10. Display portion 331 includes an embedded region 310 arranged in display image 300. The embedded image displayed in the embedded region 310 is an enlarged image as compared with the image arranged in the embedded region 310 shown in FIG. However, the part other than the embedded region 310 in the display part 331 of the display image 300 shown in FIG. 12 is the same as the display part 331 shown in FIG.

さらに、操作ユーザーが、図12に示す表示画像300の表示部分331のうち埋込領域310以外の部分に指で触れて、フリック操作を入力すれば、ジェスチャーイベントが発生する。この場合、マウスイベントも発生するが、操作ユーザーが触れた位置が図12に示す表示画像300の表示部分331のうち埋込領域310以外の部分なので、マウスイベントは廃棄される。フリックのジェスチャーイベントに対応して、ブラウジングプログラムによって、表示画像の表示部分を変更するスクロール処理が定められている。ここでは、スクロール処理が実行されて、表示画像300のうち領域301が領域303に変更される場合を例に説明する。   Furthermore, if the operating user touches a portion other than the embedded region 310 in the display portion 331 of the display image 300 shown in FIG. 12 with a finger and inputs a flick operation, a gesture event occurs. In this case, a mouse event also occurs, but the mouse event is discarded because the position touched by the operating user is a portion other than the embedded region 310 in the display portion 331 of the display image 300 shown in FIG. Corresponding to the flick gesture event, a scrolling process for changing the display portion of the display image is defined by the browsing program. Here, a case where the scroll process is executed and the region 301 in the display image 300 is changed to the region 303 will be described as an example.

図13は、表示画像中300の表示部分の一例を示す第3の図である。図13を参照して、図12に示した表示部分331が表示部161に表示されている段階で、フリック操作が入力した後に表示部161に表示される表示画像300の表示部分341を示している。表示部分341は、図10に示した表示画像300のうち領域303で示される部分である。表示部分341は、表示画像300に配置された埋込領域311を含む。埋込領域311に表示される埋込画像は、図11に示した埋込領域311に配置された画像と同じである。   FIG. 13 is a third diagram illustrating an example of a display portion of 300 in the display image. Referring to FIG. 13, the display portion 341 of the display image 300 displayed on the display portion 161 after the flick operation is input at the stage where the display portion 331 shown in FIG. 12 is displayed on the display portion 161 is shown. Yes. The display portion 341 is a portion indicated by a region 303 in the display image 300 shown in FIG. Display portion 341 includes an embedded region 311 arranged in display image 300. The embedded image displayed in the embedded region 311 is the same as the image arranged in the embedded region 311 shown in FIG.

以上説明したように、本実施の形態におけるMFP100は、データ処理装置として機能し、タッチパネル169によってユーザーにより指示された1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントを生成し、連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのうちからいずれか1つを決定する。一方、外部から受信されるWebページがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、埋込画像をWebページにより定められた埋込領域に配置した表示画像を生成する。そして、表示画像が埋込領域を含む場合、マウスイベントにより示される位置に基づいて、マウスイベントとジェスチャーイベントとのいずれか一方を選択する。このため、ユーザーが表示部161の表示面を指示する1回の操作を1以上のマウスイベントとジェスチャーイベントとして検出するとともに、検出されたマウスイベントとジェスチャーイベントのうちからブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した一方を受け付けることができる。その結果、Webページがブラウジングプログラムとは別のアプリケーションプログラムを実行する記述を含む場合であってもアプリケーションプログラムを適切に実行することができる。   As described above, MFP 100 according to the present embodiment functions as a data processing device, and positions indicating one or more positions in response to detection of one or more positions instructed by a user on touch panel 169. A mouse event including information is generated, and any one of a plurality of gesture events is determined based on a set of one or more mouse events generated in succession. On the other hand, when the Web page received from the outside includes a description for displaying an embedded image generated by executing an application program different from the browsing program, the embedded image is stored in the embedded area defined by the Web page. The arranged display image is generated. If the display image includes an embedded area, either a mouse event or a gesture event is selected based on the position indicated by the mouse event. For this reason, one operation that the user designates the display surface of the display unit 161 is detected as one or more mouse events and gesture events, and the browsing program and the application program are respectively detected from the detected mouse events and gesture events. A suitable one can be accepted. As a result, even when the Web page includes a description for executing an application program different from the browsing program, the application program can be appropriately executed.

また、ユーザーが表示部161の表示面を指示する1回の操作を1以上のマウスイベントとジェスチャーイベントとして検出するとともに、検出されたジェスチャーイベントをブラウジングプログラムに対応させ、1以上のマウスイベントをアプリケーションプログラムに対応させる。このため、ブラウジングプログラムがジェスチャーイベントに対応し、アプリケーションプログラムがマウスイベントに対応する場合にアプリケーションプログラムを適切に実行することができる。   In addition, the user detects one operation for designating the display surface of the display unit 161 as one or more mouse events and gesture events, and the detected gesture events are made to correspond to the browsing program, and one or more mouse events are applied to the application. Correspond to the program. For this reason, when the browsing program corresponds to a gesture event and the application program corresponds to a mouse event, the application program can be appropriately executed.

また、マウスイベントを選択する場合、マウスイベントを、アプリケーションプログラムを実行するタスクに出力し、埋込領域に表示される埋込画像を更新させる。このため、アプリケーションプログラムを実行するタスクにマウスイベントに従って処理を実行させることができる。   When a mouse event is selected, the mouse event is output to a task that executes the application program, and the embedded image displayed in the embedded area is updated. For this reason, it is possible to cause a task that executes an application program to execute processing according to a mouse event.

さらに、ジェスチャーイベントを選択する場合、ブラウジングプログラムが実行可能な複数種類の処理のうち選択されたジェスチャーイベントに対応する種類の処理を実行する。このため、表示画像のうち表示部161に表示するための表示部分を決定する処理を実行させることができる。ブラウジングプログラムを実行するタスクに、ジェスチャーイベントに従って処理を実行させることができる。   Further, when selecting a gesture event, a process corresponding to the selected gesture event is executed among a plurality of processes that can be executed by the browsing program. For this reason, the process which determines the display part for displaying on the display part 161 among display images can be performed. A task that executes a browsing program can execute processing according to a gesture event.

さらに、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムが定める複数種類の処理に対応する複数のジェスチャーイベントを関連付けたマスターデータ91をHDD115に記憶するので、ブラウジングプログラムが定める複数種類の処理それぞれに対応するジェスチャーイベントのみを検出することができる。   Furthermore, since the master data 91 associated with a plurality of gesture events corresponding to a plurality of types of processing defined by the browsing program is stored in the HDD 115 at the stage where the browsing program is installed, it corresponds to each of a plurality of types of processing defined by the browsing program. Only gesture events can be detected.

なお、上述した実施の形態においては、データ処理装置の一例としてMFP100について説明したが、図8および図9に示した処理を、MFP100を制御するCPU111に実行させる操作受付方法、また、その操作受付方法をCPU111に実行させるためのブラウジングプログラムとして、発明を捉えることができるのは言うまでもない。   In the above-described embodiment, MFP 100 has been described as an example of a data processing apparatus. However, an operation reception method for causing CPU 111 that controls MFP 100 to execute the processes illustrated in FIGS. It goes without saying that the invention can be understood as a browsing program for causing the CPU 111 to execute the method.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 MFP、51 アプリケーション部、53 調停部、55 操作変換部、57 オペレーティング部、61 ブラウジング部、63 副実行部、71 表示画像生成部、73 決定部、75 選択部、76 状態検出部、77 指示部、79 処理特定部、81 関連付部、83 ジェスチャーイベント決定部、85 マウスイベント生成部、87 表示制御部、91 マスターテーブル、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD、116 ファクシミリ部、117 外部記憶装置、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、160 操作パネル、161 表示部、163 操作部、165 タッチパネル、167 ハードキー部。
100 MFP, 51 application section, 53 arbitration section, 55 operation conversion section, 57 operating section, 61 browsing section, 63 secondary execution section, 71 display image generation section, 73 determination section, 75 selection section, 76 state detection section, 77 instruction Unit, 79 process identification unit, 81 association unit, 83 gesture event determination unit, 85 mouse event generation unit, 87 display control unit, 91 master table, 110 main circuit, 111 CPU, 112 communication I / F unit, 113 ROM, 114 RAM, 115 HDD, 116 facsimile unit, 117 external storage device, 120 automatic document feeder, 130 document reading unit, 140 image forming unit, 150 sheet feeding unit, 160 operation panel, 161 display unit, 163 operation unit, 165 touch panel 167 Hard key part.

Claims (11)

画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、
制御手段と、を備え、
前記制御手段は、ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、前記取得されたコンテンツに対応する表示画像の少なくとも一部を前記表示手段に表示するとともに、前記ブラウジングプログラムにより定められる複数種類の処理にそれぞれ対応する複数のジェスチャーイベントのいずれか1つが入力されることに応じて、前記複数種類の処理のうち前記入力されたジェスチャーイベントに対応する種類の処理を実行するブラウジング手段と、
前記タッチパネルにより1以上の位置が検出されることに応じて、前記1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成手段と、
前記マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、を含み、
前記ブラウジング手段は、前記コンテンツが前記ブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、前記アプリケーションプログラムが実行されて生成された埋込画像を前記コンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成手段と、
前記表示画像が前記埋込領域を含む場合、前記マウスイベント生成手段から入力されるマウスイベントにより示される位置が前記埋込領域内ならば前記入力されるマウスイベントを選択し、前記マウスイベント生成手段から入力されるマウスイベントにより示される位置が前記埋込領域外ならば前記ジェスチャーイベント決定手段から入力されるジェスチャーイベントを選択する選択手段と、を含む、データ処理装置。
Display means capable of displaying images;
A touch panel capable of detecting one or more positions designated by a user in the display surface of the display means;
Control means,
The control means executes a browsing program, acquires content described in a markup language from the outside, displays at least a part of a display image corresponding to the acquired content on the display means, and the browsing In response to the input of any one of a plurality of gesture events respectively corresponding to a plurality of types of processing determined by the program, the type of processing corresponding to the input gesture event is executed among the plurality of types of processing. Browsing means to
Mouse event generation means for generating a mouse event including position information indicating each of the one or more positions in response to detection of one or more positions by the touch panel;
Gesture event determining means for determining any one of a plurality of gesture events based on a set of one or more mouse events generated successively by the mouse event generating means,
When the content includes a description for displaying an embedded image generated by executing an application program different from the browsing program, the browsing means displays the embedded image generated by executing the application program. Display image generating means for generating a display image arranged in an embedding area defined by content;
When the display image includes the embedded region, if the position indicated by the mouse event input from the mouse event generation unit is within the embedded region, the input mouse event is selected, and the mouse event generation unit And a selecting means for selecting a gesture event inputted from the gesture event determining means if the position indicated by the mouse event inputted from is outside the embedding area.
前記ブラウジング手段は、前記マウスイベントが選択される場合、前記マウスイベントを、前記アプリケーションプログラムを実行するタスクに出力し、前記埋込領域に表示される埋込画像を更新させる指示手段を、さらに含む、請求項1に記載のデータ処理装置。   The browsing means further includes an instruction means for outputting the mouse event to a task for executing the application program and updating an embedded image displayed in the embedded area when the mouse event is selected. The data processing apparatus according to claim 1. 前記ブラウジング手段は、前記ジェスチャーイベントが選択される場合、前記複数種類の処理のうち前記選択されたジェスチャーイベントに対応する種類の処理を実行することによって、前記表示画像のうち前記表示手段に表示するための表示部分を決定する決定手段を、さらに含む、請求項1または2に記載のデータ処理装置。   When the gesture event is selected, the browsing means displays the display image on the display means by executing a process corresponding to the selected gesture event among the plurality of kinds of processes. The data processing apparatus according to claim 1, further comprising a determination unit that determines a display portion for the display. 前記制御手段は、前記ブラウジングプログラムがインストールされる段階で、前記ブラウジングプログラムに対応して、前記ブラウジングプログラムが定める前記複数種類の処理に対応する複数のジェスチャーイベントを関連付ける関連付手段をさらに含み、
前記ジェスチャーイベント決定手段は、前記マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に対応するジェスチャーイベントが、前記関連付手段によって前記ブラウジングプログラムに対応して前記複数種類の処理のいずれかと関連付けられていることを条件に、前記ジェスチャーイベントを決定する、請求項1〜3のいずれかに記載のデータ処理装置。
The control means further includes association means for associating a plurality of gesture events corresponding to the plurality of types of processing defined by the browsing program corresponding to the browsing program when the browsing program is installed,
The gesture event determination unit is configured to process a plurality of types of processing in which gesture events corresponding to a set of one or more mouse events continuously generated by the mouse event generation unit correspond to the browsing program by the association unit. The data processing apparatus according to claim 1, wherein the gesture event is determined on the condition that the gesture event is associated with any one of the above.
画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、を備えたデータ処理装置で実行される操作受付方法であって、
ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、前記取得されたコンテンツに対応する表示画像の少なくとも一部を前記表示手段に表示するブラウジングステップと、
前記タッチパネルにより1以上の位置が検出されることに応じて、前記1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成ステップと、
前記マウスイベント生成ステップにおいて連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定ステップと、を含み、
前記ブラウジングステップは、前記コンテンツが前記ブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、前記アプリケーションプログラムが実行されて生成された埋込画像を前記コンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成ステップと、
前記表示画像が前記埋込領域を含む場合、前記マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が前記埋込領域内ならば前記マウスイベントを選択し、前記マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が前記埋込領域外ならば前記ジェスチャーイベント決定ステップにおいて決定されたジェスチャーイベントを選択する選択ステップと、を含む、操作受付方法。
Display means capable of displaying images;
An operation receiving method executed by a data processing device comprising: a touch panel capable of detecting one or more positions indicated by a user on a display surface of the display means,
A browsing step of executing a browsing program, acquiring content described in a markup language from the outside, and displaying at least a part of a display image corresponding to the acquired content on the display means;
A mouse event generating step for generating a mouse event including position information indicating each of the one or more positions in response to detection of the one or more positions by the touch panel;
A gesture event determining step of determining any one of a plurality of gesture events based on a set of one or more mouse events generated in succession in the mouse event generating step,
In the browsing step, when the content includes a description for displaying an embedded image generated by executing an application program different from the browsing program, the embedded image generated by executing the application program is displayed as the embedded image. A display image generation step for generating a display image arranged in an embedded region defined by the content;
When the display image includes the embedded region, the mouse event is selected if the position indicated by the mouse event generated by the mouse event generating step is within the embedded region, and is generated by the mouse event generating step. And a selection step of selecting the gesture event determined in the gesture event determination step if the position indicated by the mouse event is outside the embedded region.
前記ブラウジングステップは、前記選択ステップにおいて前記マウスイベントが選択される場合、前記マウスイベントを、前記アプリケーションプログラムを実行するタスクに出力し、前記埋込領域に表示される埋込画像を更新させる指示ステップを、さらに含む、請求項5に記載の操作受付方法。   In the browsing step, when the mouse event is selected in the selection step, the mouse event is output to a task for executing the application program, and an instruction step for updating an embedded image displayed in the embedded region The operation accepting method according to claim 5, further comprising: 前記ブラウジングステップは、前記選択ステップにおいてジェスチャーイベントが選択される場合、前記複数種類の処理のうち前記選択されたジェスチャーイベントに対応する種類の処理を実行することにより、前記表示画像のうち前記表示手段に表示するための表示部分を決定する決定ステップを、さらに含む、請求項5または6に記載の操作受付方法。   In the browsing step, when a gesture event is selected in the selection step, the display means of the display image is executed by executing a process corresponding to the selected gesture event among the plurality of types of processes. The operation accepting method according to claim 5, further comprising a determining step of determining a display part to be displayed on the screen. 前記ブラウジングプログラムがインストールされる段階で、前記ブラウジングプログラムに対応して、前記ブラウジングプログラムが定める前記複数種類の処理に対応する複数のジェスチャーイベントを関連付ける関連付ステップをさらに含み、
前記ジェスチャーイベント決定ステップは、前記マウスイベント生成ステップにおいて連続して生成される1以上のマウスイベントの組に対応するジェスチャーイベントが、前記関連付ステップにおいて前記ブラウジングプログラムに対応して前記複数種類の処理のいずれかと関連付けられていることを条件に、前記ジェスチャーイベントを決定するステップを含む、請求項5〜7のいずれかに記載の操作受付方法。
An association step of associating a plurality of gesture events corresponding to the plurality of types of processing defined by the browsing program corresponding to the browsing program at the stage of installing the browsing program;
In the gesture event determination step, the gesture event corresponding to a set of one or more mouse events generated continuously in the mouse event generation step corresponds to the plurality of types of processing corresponding to the browsing program in the association step. The operation reception method according to claim 5, further comprising the step of determining the gesture event on condition that it is associated with any one of the above.
データ処理装置を制御するコンピューターで実行されるブラウジングプログラムであって、
前記データ処理装置は、
画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、
前記タッチパネルにより1以上の位置が検出されることに応じて、前記1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成手段と、
前記マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、を備えており、
ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、前記取得されたコンテンツに対応する表示画像の少なくとも一部を前記表示手段に表示するブラウジングステップを、前記コンピューターに実行させ、
前記ブラウジングステップは、前記コンテンツが前記ブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、前記アプリケーションプログラムが実行されて生成された埋込画像を前記コンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成ステップと、
前記表示画像が前記埋込領域を含む場合、前記マウスイベント生成手段により生成されるマウスイベントにより示される位置が前記埋込領域内ならば前記マウスイベントを選択し、前記マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が前記埋込領域外ならば前記ジェスチャーイベント決定ステップにおいて決定されたジェスチャーイベントを選択する選択ステップと、を含む、ブラウジングプログラム。
A browsing program executed by a computer that controls a data processing device,
The data processing device includes:
Display means capable of displaying images;
A touch panel capable of detecting one or more positions designated by a user in the display surface of the display means;
Mouse event generation means for generating a mouse event including position information indicating each of the one or more positions in response to detection of one or more positions by the touch panel;
Gesture event determining means for determining any one of a plurality of gesture events based on a set of one or more mouse events generated continuously by the mouse event generating means,
Causing the computer to execute a browsing step of executing a browsing program, acquiring content described in a markup language from the outside, and displaying at least a part of a display image corresponding to the acquired content on the display means ,
In the browsing step, when the content includes a description for displaying an embedded image generated by executing an application program different from the browsing program, the embedded image generated by executing the application program is displayed as the embedded image. A display image generation step for generating a display image arranged in an embedded region defined by the content;
When the display image includes the embedded area, the mouse event is selected if the position indicated by the mouse event generated by the mouse event generating means is within the embedded area, and is generated by the mouse event generating step. And a selection step of selecting the gesture event determined in the gesture event determination step if the position indicated by the mouse event is outside the embedded region.
前記ブラウジングステップは、前記選択ステップにおいて前記マウスイベントが選択される場合、前記マウスイベントを、前記アプリケーションプログラムを実行するタスクに出力し、前記埋込領域に表示される埋込画像を更新させる指示ステップを、さらに含む、請求項9に記載のブラウジングプログラム。   In the browsing step, when the mouse event is selected in the selection step, the mouse event is output to a task for executing the application program, and an instruction step for updating an embedded image displayed in the embedded region The browsing program according to claim 9, further comprising: 前記ブラウジングステップは、前記選択ステップにおいてジェスチャーイベントが選択される場合、前記複数種類の処理のうち前記選択されたジェスチャーイベントに対応する種類の処理を実行することにより、前記表示画像のうち前記表示手段に表示するための表示部分を決定する決定ステップを、さらに含む、請求項9または10に記載のブラウジングプログラム。   In the browsing step, when a gesture event is selected in the selection step, the display means of the display image is executed by executing a process corresponding to the selected gesture event among the plurality of types of processes. The browsing program according to claim 9, further comprising a determining step of determining a display portion to be displayed on the screen.
JP2012260147A 2012-11-28 2012-11-28 Data processing apparatus, operation reception method, and browsing program Pending JP2014106807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012260147A JP2014106807A (en) 2012-11-28 2012-11-28 Data processing apparatus, operation reception method, and browsing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012260147A JP2014106807A (en) 2012-11-28 2012-11-28 Data processing apparatus, operation reception method, and browsing program

Publications (1)

Publication Number Publication Date
JP2014106807A true JP2014106807A (en) 2014-06-09

Family

ID=51028226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012260147A Pending JP2014106807A (en) 2012-11-28 2012-11-28 Data processing apparatus, operation reception method, and browsing program

Country Status (1)

Country Link
JP (1) JP2014106807A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033397A (en) * 2015-08-04 2017-02-09 日本放送協会 Operation information sharing device, application execution device, operation information sharing system, information processing device and program
JP2019159212A (en) * 2018-03-15 2019-09-19 富士通コネクテッドテクノロジーズ株式会社 Display device, display control program, and method for controlling display

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033397A (en) * 2015-08-04 2017-02-09 日本放送協会 Operation information sharing device, application execution device, operation information sharing system, information processing device and program
JP2019159212A (en) * 2018-03-15 2019-09-19 富士通コネクテッドテクノロジーズ株式会社 Display device, display control program, and method for controlling display
JP7260080B2 (en) 2018-03-15 2023-04-18 Fcnt株式会社 Display device, display control program and display control method

Similar Documents

Publication Publication Date Title
JP5772773B2 (en) Image processing apparatus, operation standardization method, and operation standardization program
JP4835118B2 (en) Operation information recording method for image forming apparatus and image forming apparatus
JP7342208B2 (en) Image processing device, control method and program for the image processing device
JP5262321B2 (en) Image forming apparatus, display processing apparatus, display processing method, and display processing program
JP5796562B2 (en) Data processing apparatus, setting method, and setting program
US20130031516A1 (en) Image processing apparatus having touch panel
JP2009260903A (en) Image processing apparatus, image processing method and image processing program
JP2010074682A (en) Image processing system, image processing apparatus, method of storing image data, and program for storing image data
JP5825277B2 (en) Data processing apparatus, content display method, and content display program
JP5875262B2 (en) Display control device
US9661165B2 (en) Image forming apparatus with playback mode, display method for an operation screen, and computer program
US9100519B2 (en) Data processing apparatus, content displaying method, and non-transitory computer-readable recording medium encoded with browsing program
JP5862549B2 (en) Data processing apparatus, operation reception method, and browsing program
JP2014106807A (en) Data processing apparatus, operation reception method, and browsing program
JP2014238700A (en) Information processing apparatus, display control method, and computer program
US8988694B2 (en) Image forming apparatus, application executing method, and non-transitory computer-readable recording medium encoded with application executing program
JP6102325B2 (en) Data processing apparatus, content display method, and content display program
JP6225625B2 (en) Image display device, image display method, and image display program
JP6552156B2 (en) Data processing apparatus, operation accepting method, and content display program
US20230141058A1 (en) Display apparatus and method for controlling display apparatus
JP2013162366A (en) Image formation device, operation standardization method, and operation standardization program
JP5949418B2 (en) Image processing apparatus, setting method, and setting program
JP6102593B2 (en) Image forming apparatus, application program generation method, and application program generation program
JP2015215924A (en) Data processor, setting method and setting program
JP2014197255A (en) Edition device, terminal equipment, edition method and program