JP2014106807A - Data processing apparatus, operation reception method, and browsing program - Google Patents
Data processing apparatus, operation reception method, and browsing program Download PDFInfo
- Publication number
- JP2014106807A JP2014106807A JP2012260147A JP2012260147A JP2014106807A JP 2014106807 A JP2014106807 A JP 2014106807A JP 2012260147 A JP2012260147 A JP 2012260147A JP 2012260147 A JP2012260147 A JP 2012260147A JP 2014106807 A JP2014106807 A JP 2014106807A
- Authority
- JP
- Japan
- Prior art keywords
- event
- browsing
- unit
- display
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
この発明はデータ処理装置、操作受付方法およびブラウジングプログラムに関し、特に、マルチタッチ対応のタッチパネルを備えたデータ処理装置、そのデータ処理装置で実行される操作受付方法およびブラウジングプログラムに関する。 The present invention relates to a data processing device, an operation reception method, and a browsing program, and more particularly, to a data processing device including a multi-touch compatible touch panel, an operation reception method and a browsing program executed by the data processing device.
近年、複合機(MFP)で代表されるデータ処理装置において、ユーザーインターフェースとして、ユーザーが同時に指示する複数の位置を検出可能なマルチタッチ対応のタッチパネルを備えた装置がある。一方で、MFPは、アプリケーションプログラムをインストールすることが可能になっているものがあり、ユーザーは、使用形態に応じたアプリケーションプログラムをインストールすることによって、MFPをカスタマイズすることができる。このアプリケーションプログラムは、ユーザーインターフェースとして、ユーザーが同時に複数の位置を指示するマルチタッチ操作およびユーザーが一度に1つの位置を指示するシングルタッチ操作を受け付けることが可能な仕様のものと、マルチタッチ操作を受け付けることができずシングルタッチ操作を受け付けることが可能な仕様のものとがある。このため、同時に複数のアプリケーションプログラムが実行される場合に、アプリケーションプログラムによって、ユーザーにより入力される操作を、マルチタッチ操作として受け付けるか、シングルタッチ操作として受け付けるかを、切り換えなければならない。 In recent years, in a data processing apparatus represented by a multifunction peripheral (MFP), as a user interface, there is an apparatus provided with a multi-touch compatible touch panel capable of detecting a plurality of positions designated by a user at the same time. On the other hand, some MFPs can install an application program, and a user can customize the MFP by installing an application program according to a usage pattern. This application program has a specification that can accept a multi-touch operation in which a user simultaneously designates a plurality of positions and a single touch operation in which a user designates one position at a time and a multi-touch operation as a user interface. There is a specification that cannot accept single touch operation but can accept it. For this reason, when a plurality of application programs are executed simultaneously, it is necessary to switch between accepting an operation input by the user as a multi-touch operation or a single touch operation.
例えば、特開2009−211704号公報には、マルチタッチデバイスにおけるマウスイベントに対応する方法であって、1又はそれ以上のビューを表示するステップと、各々が特定のビューに関連付けられた1又はそれ以上のソフトウェア要素を実行するステップと、マルチタッチフラグ又は排他的タッチフラグを個々のビューに関連付けるステップと、前記1又はそれ以上のビューにおいて1又はそれ以上のタッチを受信するステップと、前記マルチタッチフラグ及び排他的タッチフラグの値に基づいて、各々が受信したタッチについて記述する1又はそれ以上のマウスイベントを、タッチを受信した前記1又はそれ以上のビューに関連付けられた1又はそれ以上の前記ソフトウェア要素へ選択的に送信するステップと、を含むことを特徴とする方法が記載されている。 For example, Japanese Patent Application Laid-Open No. 2009-2111704 discloses a method for responding to a mouse event in a multi-touch device, the step of displaying one or more views, and one or more each of which is associated with a specific view. Executing the above software elements; associating a multi-touch flag or exclusive touch flag with individual views; receiving one or more touches in the one or more views; Based on the value of the flag and the exclusive touch flag, one or more mouse events each describing a received touch are transmitted to one or more of the one or more views associated with the one or more views that received the touch. Selectively sending to the software element. How to symptoms are described.
しなしながら、アプリケーションプログラムによっては、そのアプリケーションプログラムが出力する画像(ビュー)中に、マルチタッチ操作を受け付ける領域と、シングルタッチ操作を受け付ける領域とを含む場合がある。このため、従来の方法においては、ビューによって、ユーザーにより入力される操作を、マルチタッチ操作として受け付けるか、シングルタッチ操作として受け付けるかを切り換えるので、1つのビュー(画像)中にマルチタッチ操作を受け付ける領域と、シングルタッチ操作を受け付ける領域とを含む場合に対応することができないといった問題がある。
この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムを実行する記述を含む場合にアプリケーションプログラムを適切に実行することが可能なデータ処理装置を提供することである。 The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to appropriately execute an application program when the content includes a description for executing an application program different from the browsing program. It is to provide a data processing device capable of doing so.
この発明の他の目的は、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることが可能な操作受付方法を提供することである。 Another object of the present invention is to provide an operation reception method capable of receiving one operation by a user as an operation suitable for each of a browsing program and an application program.
この発明のさらに他の目的は、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることが可能なブラウジングプログラムを提供することである。 Still another object of the present invention is to provide a browsing program capable of accepting one operation by a user as an operation suitable for each of the browsing program and the application program.
上述した目的を達成するためにこの発明のある局面によれば、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、制御手段と、を備え、制御手段は、ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、取得されたコンテンツに対応する表示画像の少なくとも一部を表示手段に表示するとともに、ブラウジングプログラムにより定められる複数種類の処理にそれぞれ対応する複数のジェスチャーイベントのいずれか1つが入力されることに応じて、複数種類の処理のうち入力されたジェスチャーイベントに対応する種類の処理を実行するブラウジング手段と、タッチパネルにより1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成手段と、マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、を含み、ブラウジング手段は、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、アプリケーションプログラムが実行されて生成された埋込画像をコンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成手段と、表示画像が埋込領域を含む場合、マウスイベント生成手段から入力されるマウスイベントにより示される位置が埋込領域内ならば入力されるマウスイベントを選択し、マウスイベント生成手段から入力されるマウスイベントにより示される位置が埋込領域外ならばジェスチャーイベント決定手段から入力されるジェスチャーイベントを選択する選択手段と、を含む。 In order to achieve the above-described object, according to one aspect of the present invention, a data processing device detects display means capable of displaying an image, and one or more positions indicated by a user on the display surface of the display means. A touch panel capable of controlling, and a control unit. The control unit executes a browsing program, acquires content described in a markup language from the outside, and at least a part of a display image corresponding to the acquired content. Corresponding to the input gesture event among the plurality of types of processing in response to the input of any one of the plurality of gesture events corresponding to the plurality of types of processing defined by the browsing program. One or more positions are detected by the browsing means for executing the type of processing and the touch panel. Accordingly, based on a set of mouse event generation means for generating a mouse event including position information indicating each of one or more positions, and one or more mouse events generated successively by the mouse event generation means, Gesture event determining means for determining any one of a plurality of gesture events, and the browsing means includes a description for displaying an embedded image in which content is generated by executing an application program different from the browsing program. If included, display image generating means for generating a display image in which an embedded image generated by executing an application program is arranged in an embedded area defined by content, and if the display image includes an embedded area, a mouse event The position indicated by the mouse event input from the generation means Selection for selecting a mouse event to be input if it is within the embedded area, and selecting a gesture event to be input from the gesture event determining means if the position indicated by the mouse event input from the mouse event generating means is outside the embedded area Means.
この局面に従えば、ユーザーにより指示された1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントが生成され、連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのうちからいずれか1つが決定され、外部から受信されるコンテンツがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、埋込画像をコンテンツにより定められた埋込領域に配置した表示画像が生成され、表示画像が埋込領域を含む場合、マウスイベントにより示される位置に基づいて、マウスイベントとジェスチャーイベントとのいずれか一方が選択される。このため、ユーザーによる1つの操作をマウスイベントとジェスチャーイベントとして検出するとともに、検出されたジェスチャーイベントをブラウジングプログラムに対応させ、マウスイベントをアプリケーションプログラムに対応させる。このため、ブラウジングプログラムがジェスチャーイベントに対応し、アプリケーションプログラムがマウスイベントに対応する場合にアプリケーションプログラムを適切に実行することができる。その結果、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムを実行する記述を含む場合であってもアプリケーションプログラムを適切に実行することが可能なデータ処理装置を提供することができる。 According to this aspect, in response to detection of one or more positions designated by the user, a mouse event including position information indicating each of the one or more positions is generated, and the one or more generated continuously Based on the set of mouse events, any one of a plurality of gesture events is determined, and the content received from the outside displays an embedded image generated by executing an application program different from the browsing program When a description is included, a display image in which an embedded image is arranged in an embedded area defined by the content is generated. When the display image includes an embedded area, a mouse event and a gesture are based on the position indicated by the mouse event. One of the events is selected. For this reason, one operation by the user is detected as a mouse event and a gesture event, the detected gesture event is made to correspond to the browsing program, and the mouse event is made to correspond to the application program. For this reason, when the browsing program corresponds to a gesture event and the application program corresponds to a mouse event, the application program can be appropriately executed. As a result, it is possible to provide a data processing apparatus capable of appropriately executing an application program even when the content includes a description for executing an application program different from the browsing program.
好ましくは、ブラウジング手段は、マウスイベントが選択される場合、マウスイベントを、アプリケーションプログラムを実行するタスクに出力し、埋込領域に表示される埋込画像を更新させる指示手段を、さらに含む。 Preferably, the browsing means further includes instruction means for outputting the mouse event to a task for executing the application program and updating the embedded image displayed in the embedded area when the mouse event is selected.
この局面に従えば、アプリケーションプログラムを実行するタスクにマウスイベントに従って処理を実行させることができる。 If this aspect is followed, the task which performs an application program can be made to perform a process according to a mouse event.
好ましくは、ブラウジング手段は、ジェスチャーイベントが選択される場合、複数種類の処理のうち選択されたジェスチャーイベントに対応する種類の処理を実行することによって、表示画像のうち表示手段に表示するための表示部分を決定する決定手段を、さらに含む。 Preferably, when a gesture event is selected, the browsing means executes a process corresponding to the selected gesture event among a plurality of kinds of processes, thereby displaying the display image to be displayed on the display means. Further included is a determining means for determining the portion.
この局面に従えば、ジェスチャーイベントに従ってブラウジングプログラムを実行することができる。 According to this aspect, the browsing program can be executed according to the gesture event.
好ましくは、制御手段は、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムに対応して、ブラウジングプログラムが定める複数種類の処理に対応する複数のジェスチャーイベントを関連付ける関連付手段をさらに含み、ジェスチャーイベント決定手段は、マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に対応するジェスチャーイベントが、関連付手段によってブラウジングプログラムに対応して複数種類の処理のいずれかと関連付けられていることを条件に、ジェスチャーイベントを決定する。 Preferably, the control means further includes association means for associating a plurality of gesture events corresponding to a plurality of types of processing defined by the browsing program corresponding to the browsing program when the browsing program is installed. The means is that a gesture event corresponding to a set of one or more mouse events continuously generated by the mouse event generation means is associated with one of a plurality of types of processing corresponding to the browsing program by the association means. Determine the gesture event on the condition.
この局面に従えば、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムが定める複数種類の処理に対応する複数のジェスチャーイベントを関連付けるので、ブラウジングプログラムが定める複数種類の処理それぞれに対応するジェスチャーイベントのみを検出することができる。 According to this aspect, when a browsing program is installed, a plurality of gesture events corresponding to a plurality of types of processing defined by the browsing program are associated, so only a gesture event corresponding to each of the plurality of types of processing defined by the browsing program is associated. Can be detected.
この発明の他の局面によれば、操作受付方法は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、を備えたデータ処理装置で実行される操作受付方法であって、ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、取得されたコンテンツに対応する表示画像の少なくとも一部を表示手段に表示するブラウジングステップと、タッチパネルにより1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成ステップと、マウスイベント生成ステップにおいて連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定ステップと、を含み、ブラウジングステップは、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、アプリケーションプログラムが実行されて生成された埋込画像をコンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成ステップと、表示画像が埋込領域を含む場合、マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が埋込領域内ならばマウスイベントを選択し、マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が埋込領域外ならばジェスチャーイベント決定ステップにおいて決定されたジェスチャーイベントを選択する選択ステップと、を含む。 According to another aspect of the present invention, an operation reception method includes display means capable of displaying an image, and a touch panel capable of detecting one or more positions designated by the user on the display surface of the display means. An operation reception method executed by a data processing apparatus that executes a browsing program, acquires content described in a markup language from the outside, and displays at least a part of a display image corresponding to the acquired content A browsing step for displaying on the means, a mouse event generating step for generating a mouse event including position information indicating each of the one or more positions in response to detection of one or more positions by the touch panel, and a mouse event generating step. Multiple gesture events based on a set of one or more mouse events generated in succession A gesture event determining step for determining any one of them, and the browsing step includes an application program when the content includes a description for displaying an embedded image generated by executing an application program different from the browsing program. A display image generation step for generating a display image in which an embedded image generated by executing is placed in an embedded region defined by the content, and if the display image includes an embedded region, it is generated by a mouse event generation step. If the position indicated by the mouse event is within the embedded area, the mouse event is selected. If the position indicated by the mouse event generated by the mouse event generating step is outside the embedded area, the gesture determined in the gesture event determining step is selected. Event Selecting comprises a selection step, the.
この局面に従えば、ユーザーによる1つの操作をマウスイベントとジェスチャーイベントとして検出するとともに、検出されたジェスチャーイベントをブラウジングプログラムに対応させ、マウスイベントをアプリケーションプログラムに対応させる。このため、ブラウジングプログラムがジェスチャーイベントに対応し、アプリケーションプログラムがマウスイベントに対応する場合に、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることができる。その結果、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることが可能な操作受付方法を提供することができる。
好ましくは、ブラウジングステップは、選択ステップにおいてマウスイベントが選択される場合、マウスイベントを、アプリケーションプログラムを実行するタスクに出力し、埋込領域に表示される埋込画像を更新させる指示ステップを、さらに含む。
According to this aspect, one operation by the user is detected as a mouse event and a gesture event, and the detected gesture event is made to correspond to the browsing program, and the mouse event is made to correspond to the application program. For this reason, when the browsing program corresponds to a gesture event and the application program corresponds to a mouse event, one operation by the user can be accepted as an operation suitable for each of the browsing program and the application program. As a result, it is possible to provide an operation receiving method capable of receiving one operation by the user as an operation suitable for each of the browsing program and the application program.
Preferably, when the mouse event is selected in the selection step, the browsing step outputs the mouse event to a task that executes the application program, and further includes an instruction step for updating the embedded image displayed in the embedded region. Including.
この局面に従えば、アプリケーションプログラムを実行するタスクにマウスイベントに従って処理を実行させることができる。 If this aspect is followed, the task which performs an application program can be made to perform a process according to a mouse event.
好ましくは、ブラウジングステップは、選択ステップにおいてジェスチャーイベントが選択される場合、複数種類の処理のうち選択されたジェスチャーイベントに対応する種類の処理を実行することにより、表示画像のうち表示手段に表示するための表示部分を決定する決定ステップを、さらに含む。 Preferably, when a gesture event is selected in the selection step, the browsing step displays the display image on the display unit by executing a type of processing corresponding to the selected gesture event among a plurality of types of processing. And a determining step for determining a display portion for.
この局面に従えば、ジェスチャーイベントに従ってブラウジングプログラムを実行することができる。 According to this aspect, the browsing program can be executed according to the gesture event.
好ましくは、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムに対応して、ブラウジングプログラムが定める複数種類の処理に対応する複数のジェスチャーイベントを関連付ける関連付ステップをさらに含み、ジェスチャーイベント決定ステップは、マウスイベント生成ステップにおいて連続して生成される1以上のマウスイベントの組に対応するジェスチャーイベントが、関連付ステップにおいてブラウジングプログラムに対応して複数種類の処理のいずれかと関連付けられていることを条件に、ジェスチャーイベントを決定するステップを含む。 Preferably, the method further includes an association step of associating a plurality of gesture events corresponding to a plurality of types of processing defined by the browsing program corresponding to the browsing program when the browsing program is installed. On condition that a gesture event corresponding to a set of one or more mouse events generated continuously in the event generation step is associated with one of a plurality of types of processing corresponding to the browsing program in the association step. Determining a gesture event.
この局面に従えば、ブラウジングプログラムが定める複数種類の処理それぞれに対応するジェスチャーイベントのみを検出することができる。 According to this aspect, it is possible to detect only gesture events corresponding to a plurality of types of processing determined by the browsing program.
この発明のさらに他の局面によれば、ブラウジングプログラムは、データ処理装置を制御するコンピューターで実行されるブラウジングプログラムであって、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、タッチパネルにより1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成手段と、マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、を備えており、ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、取得されたコンテンツに対応する表示画像の少なくとも一部を表示手段に表示するブラウジングステップを、コンピューターに実行させ、ブラウジングステップは、コンテンツがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、アプリケーションプログラムが実行されて生成された埋込画像をコンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成ステップと、表示画像が埋込領域を含む場合、マウスイベント生成手段により生成されるマウスイベントにより示される位置が埋込領域内ならばマウスイベントを選択し、マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が埋込領域外ならばジェスチャーイベント決定ステップにおいて決定されたジェスチャーイベントを選択する選択ステップと、を含む。 According to still another aspect of the present invention, the browsing program is a browsing program executed by a computer that controls the data processing device, and the data processing device includes a display unit capable of displaying an image, and a display of the display unit. A mouse event including position information indicating each of one or more positions is generated in response to detection of one or more positions on the touch panel that can be detected by the user and one or more positions indicated by the user. Mouse event generation means, and gesture event determination means for determining any one of a plurality of gesture events based on a set of one or more mouse events generated successively by the mouse event generation means. Execute a browsing program and write in markup language from the outside. A browsing step for displaying at least a part of a display image corresponding to the acquired content on a display means is executed by a computer, and the browsing step is executed by an application program different from the browsing program. A display image generating step for generating a display image in which an embedded image generated by executing an application program is arranged in an embedded region defined by the content when the description includes a description for displaying the generated embedded image When the display image includes an embedded area, if the position indicated by the mouse event generated by the mouse event generating means is within the embedded area, the mouse event is selected and indicated by the mouse event generated by the mouse event generating step. The position to be embedded is an embedded area If comprising a selection step of selecting a gesture event determined in the gesture event determining step.
この局面に従えば、ユーザーによる1つの操作をマウスイベントとジェスチャーイベントとして検出するとともに、検出されたジェスチャーイベントをブラウジングプログラムに対応させ、マウスイベントをアプリケーションプログラムに対応させる。このため、ブラウジングプログラムがジェスチャーイベントに対応し、アプリケーションプログラムがマウスイベントに対応する場合に、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることができる。その結果、ユーザーによる1つの操作を、ブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した操作として受け付けることが可能なブラウジングプログラムを提供することができる。 According to this aspect, one operation by the user is detected as a mouse event and a gesture event, and the detected gesture event is made to correspond to the browsing program, and the mouse event is made to correspond to the application program. For this reason, when the browsing program corresponds to a gesture event and the application program corresponds to a mouse event, one operation by the user can be accepted as an operation suitable for each of the browsing program and the application program. As a result, it is possible to provide a browsing program that can accept one operation by the user as an operation suitable for each of the browsing program and the application program.
好ましくは、ブラウジングステップは、選択ステップにおいてマウスイベントが選択される場合、マウスイベントを、アプリケーションプログラムを実行するタスクに出力し、埋込領域に表示される埋込画像を更新させる指示ステップを、さらに含む。 Preferably, when the mouse event is selected in the selection step, the browsing step outputs the mouse event to a task that executes the application program, and further includes an instruction step for updating the embedded image displayed in the embedded region. Including.
好ましくは、ブラウジングステップは、選択ステップにおいてジェスチャーイベントが選択される場合、複数種類の処理のうち選択されたジェスチャーイベントに対応する種類の処理を実行することにより、表示画像のうち表示手段に表示するための表示部分を決定する決定ステップを、さらに含む。 Preferably, when a gesture event is selected in the selection step, the browsing step displays the display image on the display unit by executing a type of processing corresponding to the selected gesture event among a plurality of types of processing. And a determining step for determining a display portion for.
以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
図1は、本実施の形態の一つにおけるMFPの外観を示す斜視図である。図2は、操作パネルの一例を示す平面図である。図1および図2を参照して、MFP100は、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、ユーザーインターフェースとしての操作パネル160とを含む。
FIG. 1 is a perspective view showing an external appearance of an MFP according to one embodiment. FIG. 2 is a plan view showing an example of the operation panel. Referring to FIGS. 1 and 2,
操作パネル160は、MFP100の上面に設けられる。操作パネル160は、表示部161と、タッチパネル165と、ハードキー部167とを含む。表示部161は、例えば、液晶表示装置(LCD)であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。ハードキー部167は、「BOX」、「FAX」、「COPY」、「ECO」の文字がそれぞれ表された4つのハードキー167A〜167Dを含む。タッチパネル165は、表示部161の上面または下面に表示部161に重畳して設けられたマルチタッチ対応のタッチパネルであり、表示部161の表示面中でユーザーにより指示された位置を検出する。ユーザーがタッチパネル165を指示する操作は、タッチパネル165を、同時に複数個所を指で指示するマルチタッチ操作と、一度に1つの個所を指で指示するシングルタッチ操作と、を含む。
自動原稿搬送装置120は、原稿給紙トレイ上にセットされた複数枚の原稿を1枚ずつ自動的に原稿読取部130のプラテンガラス上に設定された所定の原稿読み取り位置まで搬送し、原稿読取部130により原稿画像が読み取られた原稿を原稿排紙トレイ上に排出する。原稿読取部130は、原稿読取位置に搬送されてきた原稿に光を照射する光源と、原稿で反射した光を受光する光電変換素子とを含み、原稿のサイズに応じた原稿画像を走査する。光電変換素子は、受光した光を電気信号である画像データに変換して、画像形成部140に出力する。給紙部150は、給紙トレイに収納された用紙を画像形成部140に搬送する。
The
画像形成部140は、周知の電子写真方式により画像を形成するものであって、原稿読取部130から入力される画像データにシェーディング補正などの各種のデータ処理を施した、データ処理後の画像データまたは、外部から受信された画像データに基づいて、給紙部150により搬送される用紙に画像を形成する。
The
図3は、MFPのハードウェア構成の概要の一例を示すブロック図である。図3を参照して、MFP100は、メイン回路110を含む。メイン回路110は、CPU111と、通信インターフェース(I/F)部112と、ROM(Read Only Memory)113と、RAM(Random Access Memory)114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、外部記憶装置117と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150および操作パネル160と接続され、MFP100の全体を制御する。
FIG. 3 is a block diagram illustrating an example of an outline of the hardware configuration of the MFP. Referring to FIG. 3,
ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる読取画像を一時的に記憶する。
The
ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶するか、または、画像形成部140でプリント可能なプリントデータに変換して、画像形成部140に出力する。これにより、画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙に画像を形成する。また、ファクシミリ部116は、原稿読取部130によって読み取られたデータ、またはHDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。
The
通信I/F部112は、ネットワークにMFP100を接続するためのインターフェースである。通信I/F部112は、TCP(Transmission Control Protocol)またはFTP(File Transfer Protocol)等の通信プロトコルで、ネットワークに接続された他のコンピューターと通信する。なお、通信のためのプロトコルは、特に限定されることはなく、任意のプロトコルを用いることができる。また、通信I/F部112が接続されるネットワークは、例えば、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワークは、LANに限らず、ワイドエリアネットワーク(WAN)、公衆交換電話網(Public Switched Telephone Networks)を用いたネットワーク等であってもよい。さらに、ネットワークは、インターネットに接続されている。このため、MFP100は、インターネットに接続されたサーバー等のコンピューターと通信が可能である。
Communication I /
外部記憶装置117は、CPU111により制御され、CD−ROM(Compact Disk Read Only Memory)118、または半導体メモリが装着される。CPU111は、外部記憶装置117を介してCD−ROM118または半導体メモリにアクセス可能である。CPU111は、外部記憶装置117に装表されたCD−ROM118または半導体メモリに記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムは、CD−ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、通信I/F部112に接続されるネットワークを介して、ネットワークに接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワークに接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
The
なお、CPU111が実行するプログラムを記憶する媒体としては、CD−ROM118に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programable ROM)、EEPROM(Electrically EPROM)などの半導体メモリであってもよい。
The medium for storing the program executed by the
操作パネル160は、表示部161と操作部163とを含む。表示部161は、液晶表示装置(LCD)、有機ELD(Electro−Luminescence Display)等のディスプレイであり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、タッチパネル165と、複数のキーからなるハードキー部167と、を含む。ハードキー部167が含む複数のキーそれぞれは、接点スイッチを含み、CPU111に接続される。ハードキーは、操作ユーザーにより押下されると接点を閉じて、CPU111に接続される回路を閉じる。ハードキーは、MFP100を操作する操作ユーザーにより押下されている間は回路を閉じ、操作ユーザーにより押下されていない間は回路を開く。
操作部163は、ハードキー部167が有する複数のキーが押下されると、押下されたキーに対応する指示、文字、数字などのデータの入力を受け付ける。タッチパネル165は、表示部161の上面または下面に設けられ、操作ユーザーにより指示された位置の座標をCPU111に出力する。タッチパネル165は、操作ユーザーが指またはスタイラスペンで指示した位置を検出し、検出した位置の座標をCPU111に出力する。タッチパネル165は、マルチタッチ対応のタッチパネルであり、ユーザーがマルチタッチ操作を入力する場合、ユーザーにより同時に指示された複数の位置にそれぞれ対応する複数の座標をCPU111に出力する。また、タッチパネル165は、ユーザーがシングルタッチ操作を入力する場合に、ユーザーにより指示された単一の位置に対応する座標をCPU111に出力する。
When a plurality of keys included in the hard
タッチパネル165は、表示部161の表示面と同じまたはそれ以上のサイズであるのが好ましい。タッチパネル165は、表示部161に重畳して設けられるので、タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、表示部161の表示面中で操作ユーザーが指示した位置の座標をCPU111に出力する。タッチパネル165は、例えば、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式を用いることができ、その方式は限定されない。
The
操作部163が受け付け可能な操作は、ハードキー部167が有する複数のキーを押下する操作、タッチパネル165を指示するシングルタッチ操作およびマルチタッチ操作を含む。さらに、ハードキー部167は、「BOX」、「FAX」、「COPY」、「ECO」の文字がそれぞれ表された4つのハードキー167A〜167Dを含む。「BOX」、「FAX」、「COPY」の文字がそれぞれ表された3つのハードキー167A,167B,167Cは、MFP100に実行させる処理の切り換えを指示するための処理切換操作が割り当てられた処理切換キーである。「ECO」の文字が表されたハードキー167Dは、MFP100を、通常モードから通常モードよりも消費電力の低い省電力モードへの切換を指示するためのモード切換操作が割り当てられたモード切換キーである。操作部163は、ハードキー167A,167B,167Cのいずれかが押下される場合、処理切換操作を受け付け、ハードキー167Dが押下される場合、モード切換操作を受け付ける。
The operations that can be accepted by the
図4は、MFPが備えるCPUのソフトウェアアーキテクチャの一例を示す図である。図4を参照して、CPU111には、オペレーティングシステム(OS)層が形成され、その上の階層に、MFPプロセス層が形成される。MFPプロセス層の上層に、アプリケーションプラットフォーム(PF)層、アプリケーション層の順に形成される。
FIG. 4 is a diagram illustrating an example of a software architecture of a CPU provided in the MFP. Referring to FIG. 4, an operating system (OS) layer is formed in
OS層は、CPU111がOSプログラムを実行するタスクが属する。OS層に属するタスクは、MFP100のハードウェア資源を制御する処理を実行する。ハードウェア資源は、ここでは、通信I/F部112、ROM113、RAM114、HDD115、ファクシミリ部116、外部記憶装置117、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150、操作パネル160を含む。OS層に属するタスクは、MFPプロセス層から入力されるオペレーティングコマンドに従って、ハードウェア資源を制御する。また、OS層は、MFPプロセス層との間で、ハードウェア資源の1つである操作部163が受け付け可能な複数種類の操作それぞれを識別するための操作識別情報を共有しており、OS層に属するタスクは、操作部163によって操作ユーザーによる操作が検出されることに応じて、検出された操作を示す操作識別情報をMFPプロセス層に出力する。
The OS layer includes a task for the
アプリケーション層は、CPU111がアプリケーションプログラムを実行するタスクが属する。複数種類のアプリケーションプログラムがMFP100にインストールされる場合、アプリケーション層に、複数種類のアプリケーションプログラムをそれぞれ実行する複数のタスクが属する場合がある。
The application layer includes a task for the
アプリケーションプログラムを実行するタスクは、アプリケーションプログラムによって定められた複数種類の処理を実行する。複数種類の処理は、MFPプロセス層において実行される処理をMFPプロセス層に属するタスクに実行させる処理を含む。アプリケーションプログラムを実行するタスクは、MFPプロセス層に属するタスクに処理を実行させる場合、アプリコマンドを出力する。アプリコマンドは、API(Application Program Interface)として、公開されたコマンドである。このため、MFP100に処理を実行させるアプリケーションプログラムを容易に作成することができる。公開とは、MFP100を製造するメーカー以外の第三者が使用可能な状態をいう。このため、第三者は、アプリコマンドを用いてMFP100にインストール可能なアプリケーションプログラムを開発することができる。
The task for executing the application program executes a plurality of types of processing determined by the application program. The multiple types of processing include processing for causing a task belonging to the MFP process layer to execute processing executed in the MFP process layer. The task that executes the application program outputs an application command when the task belonging to the MFP process layer executes processing. The application command is a command published as an API (Application Program Interface). Therefore, an application program that causes
さらに、アプリケーションプログラムを実行するタスクは、MFP100を操作する操作ユーザーが入力する操作に基づいて、アプリケーションプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、処理を実行する。MFP100を操作する操作ユーザーが入力する操作は、操作ユーザーが操作部163を操作して入力することにより、OS層において受け付けられる。
Further, the task for executing the application program specifies a process to be executed from among a plurality of types of processes defined by the application program based on an operation input by an operation
アプリケーションPF層は、アプリケーション層とMFPプロセス層との間に配置され、アプリケーション層に属する複数のタスクを調停するとともに、アプリケーション層に属する複数のタスクが出力するアプリコマンドを制御するタスクが属する。具体的には、アプリケーションPF層は、アプリケーション層に属する複数のタスクそれぞれが出力するアプリコマンドを受け付け、受け付けられたアプリコマンドを、予め定められた規則に従って内部コマンドに変換することにより標準化し、内部コマンドをMFPプロセス層に出力する。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。また、アプリケーションPF層は、アプリケーション層に属する複数のタスクのいずれか1つをカレント状態に決定する。そして、OS層において受け付けられ、MFPプロセス層に属するタスクから入力される操作を、アプリケーション層に属する複数のタスクのうちカレント状態に決定したカレントタスクに出力する。 The application PF layer is arranged between the application layer and the MFP process layer, and arbitrates a plurality of tasks belonging to the application layer, and a task for controlling an application command output by the plurality of tasks belonging to the application layer belongs. Specifically, the application PF layer accepts application commands output by each of a plurality of tasks belonging to the application layer, standardizes the received application commands by converting them into internal commands according to a predetermined rule, The command is output to the MFP process layer. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. In addition, the application PF layer determines any one of a plurality of tasks belonging to the application layer as a current state. Then, an operation received from the task belonging to the MFP process layer and received from the OS layer is output to the current task determined as the current state among a plurality of tasks belonging to the application layer.
OS層において受け付けられるユーザーが入力する操作は、1本の指でタッチパネル165を指示するシングルタッチ操作と、2本以上の指で同時にタッチパネル165を指示するマルチタッチ操作とを含む。シングルタッチ操作およびマルチタッチ操作は、それぞれマウスイベントとしてオペレーティングシステムによって検出され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。また、1以上のマウスイベントは、MFPプロセス層においてジェスチャーイベントに変換され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。このため、アプリケーション層は、MFPプロセス層との間で、アプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントを共有しており、アプリケーションプログラムを実行するタスクは、アプリケーションPF層に属するタスクからアプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントが入力される。アプリケーションプログラムを実行するタスクは、複数種類の処理のうちジェスチャーイベントまたはマウスイベントのいずれかに対応する処理を実行する。
The operations input by the user accepted in the OS layer include a single touch operation in which the
アプリコマンドと内部コマンドとは予め対応付けられている。例えば、アプリコマンドと内部コマンドとを対応付けたコマンド対応テーブルを記憶しておくようにすればよい。アプリコマンドと内部コマンドとは、1対1に対応してもよいし、1つのアプリコマンドに2以上の内部コマンドの組が対応していてもよい。さらに、バージョンの異なる複数のアプリコマンドに対して、1つの内部コマンド、または複数の内部コマンドからなる1組が対応していてもよい。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。内部コマンドは、MFP100のハードウェア資源に依存するコマンドである。内部コマンドは、通常は、公開されていないが、公開されていてもよい。
Application commands and internal commands are associated in advance. For example, a command correspondence table in which application commands and internal commands are associated with each other may be stored. An application command and an internal command may correspond one-to-one, or a set of two or more internal commands may correspond to one application command. Furthermore, one internal command or a set of a plurality of internal commands may correspond to a plurality of application commands having different versions. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. The internal command is a command that depends on the hardware resources of
MFPプロセス層は、アプリケーションPF層とOS層との間に配置され、CPU111がMFPプロセスプログラムを実行するタスクが属する。MFPプロセス層は、アプリケーションPF層に属するタスクが出力する内部コマンドを、OS層に属するタスクが解釈可能なオペレーティングコマンドに変換し、ハードウェア資源を制御するためにオペレーティングコマンドをOS層に属するタスクに出力する。なお、実際には、内部コマンドを、OS層に属するタスクが実行可能な1以上のオペレーティングコマンドに変換する場合があるが、ここでは説明のために、内部コマンドとOS層に属するタスクが実行可能な1以上のオペレーティングコマンドとの関係は1対1として、説明する。
The MFP process layer is arranged between the application PF layer and the OS layer, and a task for the
上述したように、アプリケーションプログラムは、MFP100に、ブラウジング処理、コピー処理、スキャン処理、プリント処理、ファクシミリ送受信処理、データ送信処理等を実行させるためのアプリケーションプログラムであるが、以下の説明では、アプリケーションプログラムがCPU111に実行させる処理のうちで、操作パネル160を制御する処理に関連する部分を主に説明する。
As described above, the application program is an application program for causing
図5は、MFPが備えるCPUが有する機能の一例を、HDDに記憶される情報とともに示すブロック図である。図5に示す機能は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたプログラムを実行することにより、CPU111により実現される機能である。具体的には、CPU111が、OSプログラム、MFPプロセスプログラム、操作受付プログラム、およびアプリケーションプログラムを実行することにより、CPU111により実現される。ここでは、MFP100に、アプリケーションプログラムとして、第1アプリケーションプログラムおよび第2アプリケーションプログラムが、インストールされている場合におけるCPU111の機能を示している。
FIG. 5 is a block diagram illustrating an example of functions of the CPU included in the MFP, together with information stored in the HDD. The functions shown in FIG. 5 are functions realized by
図5を参照して、CPU111は、アプリケーション部51と、調停部53と、操作変換部55と、オペレーティング部57と、を含む。アプリケーション部51は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーション層に属する。アプリケーション部51は、第1アプリケーションプログラムであるブラウジングプログラムを実行するブラウジング部61と、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する副実行部63と、を含む。
Referring to FIG. 5,
ブラウジング部61は、表示画像生成部71と、決定部73と、選択部75と、指示部77と、を含む。表示画像生成部71は、インターネットに接続されたサーバーからHTML(HyperText Markup Language)等のマークアップ言語で記述されたコンテンツであるWebページをダウンロードし、Webページを解釈して、Webページに対応する表示画像を生成し、表示画像の少なくとも一部を表示部161に表示する。Webページは、MFP100を操作する操作ユーザーが指定したURL(Uniform Resource Locator)で識別されるWebページであってもよいし、ブラウジング部61において予め定められたURLで識別されるWebページであってもよい。
The
具体的には、表示画像生成部71は、Webページに対応する表示画像の少なくとも一部を表示部161に表示するために、アプリコマンドを調停部53に出力する。これにより、後述するオペレーティング部57によって、表示部161が備えるVRAM(Video RAM)に表示画像が記憶され、表示画像の少なくとも一部が表示部161に表示される。表示画像中で、表示部161に表示する部分は、任意に定めることができる。例えば、予め定めておいてもよいし、Webページによって定めるようにしてもよいし、表示画像のサイズと表示部161のサイズとから定めるようにしてもよい。
Specifically, the display
また、表示画像生成部71は、サーバーから取得されたWebページが、ブラウジングプログラムとは別の第2アプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含んでいる場合、副実行部63に起動指示を出力する。これにより、副実行部63がCPU111に形成される。表示画像生成部71は、Webページが埋込画像を表示する記述を含んでいる場合、表示画像中で、Webページにより定められた埋込領域には、画像を配置しない。埋込領域は、表示画像中で埋込画像を配置する領域である。
When the Web page acquired from the server includes a description for displaying an embedded image generated by executing a second application program different from the browsing program, the display
起動指示は、表示画像中の埋込領域の位置を示す位置情報を含む。また、起動指示は、Webページとは別の埋込コンテンツを特定するコンテンツ識別情報を含む場合がある。コンテンツ識別情報は、例えば、ネットワークアドレスであり、好ましくは、URLである。 The activation instruction includes position information indicating the position of the embedded area in the display image. In addition, the activation instruction may include content identification information that identifies embedded content different from the Web page. The content identification information is a network address, for example, and is preferably a URL.
副実行部63は、表示画像生成部71から起動指示が入力されることに応じて起動する。副実行部63は、JAVA(登録商標)、JAVASCRIPT(登録商標)等のオブジェクト指向プログラミング言語で記述されたプログラムを実行する。副実行部63は、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する場合と、ブラウジングプログラムとは別の第2アプリケーションプログラムを、ネットワークを介して接続された外部のコンピューターであるサーバーに実行させる場合と、がある。
The
副実行部63が、第2アプリケーションプログラムをネットワークに接続されたサーバーに実行させる場合、副実行部63は、ブラウジング部61に含まれる場合と、ブラウジング部61に含まれない場合がある。副実行部63がブラウジング部61に含まれる場合は、例えば、副実行部63が、JAVASCRIPT(登録商標)で記述されたアプリケーションプログラムを実行する場合である。この場合、JAVASCRIPT(登録商標)で記述されたアプリケーションプログラムが、第1アプリケーションプログラムであるブラウジングプログラム中に記述される。副実行部63がブラウジング部61に含まれない場合は、例えば、副実行部63が、JAVA(登録商標)で記述されたアプリケーションプログラムを実行する場合である。この場合、JAVA(登録商標)で記述されたアプリケーションプログラムは、第1アプリケーションプログラムであるブラウジングプログラムとは別のプログラムである。
When the
副実行部63は、サーバーが実行する第2アプリケーションプログラムにより定まるコンテンツの画像を埋込画像として取得する。副実行部63は、サーバーによって第2アプリケーションプログラムによって予め定められた処理を実行させるために処理リクエストをサーバーに送信する。そして、副実行部63は、サーバーが処理リクエストに従って処理を実行することにより生成される画像をサーバーから受信し、受信される画像を埋込画像として取得する。サーバーによって表示するコンテンツが決定される場合には、処理リクエストはコンテンツ識別情報を含む必要はない。逆に、Webページでコンテンツを特定するようにして、サーバーに起動指示に含まれるコンテンツ識別情報を含む処理リクエストを送信し、サーバーにコンテンツ識別情報で特定されるコンテンツを処理させ、コンテンツの画像を返信させるようにしてもよい。なお、副実行部63が処理を実行させるサーバーは、ブラウジング部61がWebページをダウンロードしたサーバーと同じであってもよいし、それとは異なるサーバーであってもよい。
The
また、副実行部63が、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する場合、第2アプリケーションプログラムは、ブラウジングプログラムとは別のアプリケーションプログラムであり、例えば、コンテンツである静止画または動画を生成する再生プログラムである。副実行部63は、第2アプリケーションプログラムである再生プログラムを実行し、起動指示に含まれるコンテンツ識別情報で特定されるコンテンツの画像を再生する処理をCPU111に実行させる。
Further, when the
副実行部63は、サーバーから受信されるコンテンツの画像、または、第2アプリケーションプログラムを実行することにより生成されるコンテンツの画像を埋込画像として表示部161に表示する。具体的には、副実行部63は、埋込画像を表示画像の埋込領域に配置するために、アプリコマンドを調停部53に出力する。また、副実行部63は、ブラウジング部61に表示要求を出力する。これにより、後述するオペレーティング部57によって、表示部161が備えるVRAMに記憶された表示画像中の埋込領域に埋込画像が記憶される。アプリコマンドは、実行指示に含まれる位置情報を含む。
The
なお、ブラウジング部61および副実行部63が実行するアプリケーションプログラムは、これらに限定されることなく、MFP100にコピー処理、スキャン処理、プリント処理、ファクシミリ送受信処理、データ送受信処理等を実行させるために、ユーザーインターフェース等をカスタマイズするためのプログラムであってもよい。
Note that the application programs executed by the
調停部53および操作変換部55は、CPU111が操作受付プログラムを実行するタスクによって実現される機能である。調停部53は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。操作変換部55は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。なお、操作変換部55が有する機能のすべてをアプリケーションPF層の機能としたが、操作変換部55が有する機能の少なくとも一部をアプリケーションPF層の機能とし、他の部分をMFPプロセス層の機能としてもよい。
The
調停部53は、アプリケーション部51においてアプリケーションプログラムを実行するタスクが複数の場合、複数のタスクのうちいずれか1つをカレント状態に決定する。以下、調停部53が、カレント状態に決定しているタスクをカレントタスクという。本実施の形態においては、アプリケーション部51がブラウジング部61と副実行部63とを含み、副実行部63は、ブラウジング部61によって起動されるので、ブラウジング部61をカレントタスク状態に決定する。
When there are a plurality of tasks for executing the application program in the
調停部53は、ブラウジング部61および副実行部63それぞれが出力するアプリコマンドが入力され、アプリコマンドを出力したタスクを識別するためのアプリ識別情報とアプリコマンドとを操作変換部55に出力する。
The
調停部53は、ブラウジング部61および副実行部63から複数のアプリコマンドが出力される場合、それらの順番を決定し、順に操作変換部55に出力する。例えば、複数のアプリコマンドを同時に実行できない場合に、一方のアプリコマンドの操作変換部55による実行が終了するのを待って他方のアプリコマンドを操作変換部55に出力する。また、一方のアプリコマンドを実行した後でなければ、他方のアプリコマンドを実行できない場合には、他方のアプリコマンドが一方のアプリコマンドより先に入力される場合であっても、一方のアプリコマンドを先に出力する。
When a plurality of application commands are output from the
操作変換部55は、調停部53からアプリコマンドが入力され、アプリコマンドをコマンド対応テーブルに従って内部コマンドに変換することにより標準化する。コマンド対応テーブルは、1つのアプリコマンドに1以上の内部コマンドを対応付ける。コマンド対応テーブルに含まれるアプリコマンドは、バージョンの異なる同種類のアプリコマンドを含む場合があり、この場合、異なるバージョンのアプリコマンドそれぞれを1以上の内部コマンドに対応付ける。このため、異なるバージョンのアプリコマンドを記述したアプリケーションプログラムをインストールすることを可能としている。コマンド対応テーブルは、新しいアプリコマンドが登場する場合に、新たに登場したアプリコマンドに1以上の内部コマンドを対応付けたコマンド対応テーブルで更新される。このため、新しいアプリコマンドを記述したアプリケーションプログラムをインストールすることができる。
The
さらに、操作変換部55は、標準化された内部コマンドを、オペレーティングコマンドに変換し、オペレーティングコマンドをオペレーティング部57に出力する。オペレーティングコマンドは、操作変換部55とオペレーティング部57との間で予め定められた、オペレーティング部57が解釈可能なコマンドである。
Further, the
オペレーティング部57は、CPU111がOSプログラムを実行するタスクによって実行される機能である。オペレーティング部57は、図4に示したソフトウェアアーキテクチャにおいて、OS層に属する。
The operating
オペレーティング部57は、操作変換部55が出力するオペレーティングコマンドが入力され、オペレーティングコマンドに従って、ハードウェア資源を制御する。ハードウェア資源として、ここでは、表示部161、操作部163のタッチパネル165およびHDD115を例に説明する。オペレーティング部57は、表示部161を制御して、表示部161に画像を表示させる。また、オペレーティング部57は、HDD115を制御して、HDD115にデータを記憶させ、また、HDD115に記憶されたデータを読み出す。さらに、オペレーティング部57は、所定時間間隔でタッチパネル165にユーザーにより指示された位置を検出させ、タッチパネル165から所定時間間隔で位置情報を取得する。
The operating
タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、操作ユーザーにより指示された位置を検出し、表示部161の表示面の位置を示す位置情報をCPU111に出力する。オペレーティング部57は、タッチパネル165から位置情報が入力される場合、位置情報を操作変換部55に出力する。オペレーティング部57は、タッチパネル165から同時に2以上の位置情報が入力される場合がある。例えば、操作ユーザーが、表示部161の表示面の異なる2つの部分を、2つの指で同時に指示する場合、指示された表示面の2つの位置をそれぞれ示す2つの位置情報を受け付ける。オペレーティング部57は、タッチパネル165から同時に2以上の位置情報を受け付ける場合、2以上の位置情報を、操作変換部55に出力する。
操作変換部55は、関連付部81と、ジェスチャーイベント決定部83と、マウスイベント生成部85と、表示制御部87と、を含む。関連付部81は、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムが定める複数種類の処理それぞれを、複数のジェスチャーイベントのいずれかと関連付ける。具体的には、関連付部81は、ブラウジングプログラムが定める複数の処理識別情報それぞれに、ブラウジングプログラムが受け付け可能なジェスチャーイベントを関連付けたマスターテーブルを生成し、HDD115に記憶する。
The
図6は、マスターテーブルの一例を示す図である。図6を参照して、マスターテーブル91は、複数の処理識別情報ごとにマスターレコードを含む。マスターレコードは、処理の項目と、ジェスチャーの項目と、を含む。処理の項目には、処理識別情報が設定され、ジェスチャーの項目には、ジェスチャーイベントを識別するためのジェスチャー識別情報が設定される。 FIG. 6 is a diagram illustrating an example of the master table. Referring to FIG. 6, master table 91 includes a master record for each of a plurality of process identification information. The master record includes a process item and a gesture item. Processing identification information is set in the processing item, and gesture identification information for identifying a gesture event is set in the gesture item.
例えば、処理の項目に処理識別情報「ページ送り」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「スワイプ」が設定される。処理識別情報「ページ送り」で特定される処理は、画面を次のページの画面に変更して表示させる処理である。ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指を所定の速さより速い速さで移動させるユーザーの操作に対応する。指を所定の速さより速い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、指を移動させる方向をパラメータに含む。
For example, in the master record in which the process identification information “page feed” is set in the process item, the gesture identification information “swipe” is set in the gesture item. The process specified by the process identification information “page feed” is a process of changing the screen to the screen of the next page and displaying it. The gesture event specified by the gesture identification information “Swipe” corresponds to a user's operation of moving the finger to any one of up, down, left and right at a speed faster than a predetermined speed while instructing the
処理の項目に処理識別情報「拡大」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチアウト」が設定される。処理識別情報「拡大」で特定される処理は、画面を拡大して表示させる処理である。ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が長くなるように移動させる操作に対応する。2箇所の間隔が長くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、2箇所の間隔が変化の割合を倍率としたパラメータに含む。
In the master record in which the process identification information “enlarge” is set in the process item, the gesture identification information “pinch out” is set in the gesture item. The process specified by the process identification information “enlargement” is a process for enlarging and displaying the screen. The gesture event specified by the gesture identification information “pinch out” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations becomes long while designating the two locations on the
処理の項目に処理識別情報「縮小」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチイン」が設定される。処理識別情報「縮小」で特定される処理は、画面を縮小して表示させる処理である。ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が短くなるように移動させる操作に対応する。2箇所の間隔が短くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、2箇所の間隔が変化の割合を倍率としたパラメータに含む。
In the master record in which the process identification information “reduction” is set in the process item, the gesture identification information “pinch-in” is set in the gesture item. The process specified by the process identification information “reduction” is a process of reducing the screen for display. The gesture event specified by the gesture identification information “pinch-in” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations is shortened while designating the two locations on the
処理の項目に処理識別情報「回転」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ローテーション」が設定される。処理識別情報「回転」で特定される処理は、画面を回転して画面の方向を変更する処理である。ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所を結ぶ直線の向きが変更されるように移動させる操作が入力される場合に検出される。例えば、2箇所の一方を中心に他方で円弧を描く操作である。円弧を描く方向が時計回りと反時計回りとがあるため、ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、時計回りと反時計回りのいずれかを方向としたパラメータに含む。
In the master record in which the process identification information “rotation” is set in the process item, the gesture identification information “rotation” is set in the gesture item. The process specified by the process identification information “rotation” is a process of rotating the screen and changing the screen direction. The gesture event specified by the gesture identification information “Rotation” is an operation to move at least one of the two designated locations while changing the orientation of a straight line connecting the two locations while designating two locations on the
処理の項目に処理識別情報「スクロール」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「フリック」が設定される。処理識別情報「スクロール」で特定される処理は、画面を上下左右にスクロールさせる処理である。ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指をスワイプのジェスチャーイベントの操作におけるしきい値より遅い速さで移動させる操作に対応する。指をしきい値より遅い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、指を移動させる方向をパラメータに含む。
In the master record in which the process identification information “scroll” is set in the process item, the gesture identification information “flick” is set in the gesture item. The process specified by the process identification information “scroll” is a process of scrolling the screen up / down / left / right. The gesture event specified by the gesture identification information “flick” corresponds to an operation in which the finger is moved at a speed slower than the threshold value in the operation of the swipe gesture event while instructing the
図5に戻って、表示制御部87は、ブラウジング部61または副実行部63から入力されるアプリコマンドを、表示部161に画像を表示させるためのオペレーティングコマンドに変換し、オペレーティング部57に出力する。これにより、ブラウジング部61によって生成された表示画像および副実行部63により生成される埋込画像が、表示部161のVRAMに記憶され、表示部161に表示画像の少なくとも一部が表示される。
Returning to FIG. 5, the
マウスイベント生成部85は、オペレーティング部57から位置情報が入力されることに応じてマウスイベントを生成する。さらに、マウスイベント生成部85は、マウスイベントを生成するごとに、生成されたマウスイベントをジェスチャーイベント決定部83および調停部53を介してブラウジング部61に出力する。マウスイベント生成部85は、オペレーティング部57から複数の位置情報が同時に入力される場合、複数の位置情報それぞれに対応する複数のマウスイベントを生成する。マウスイベント生成部85は、1以上のマウスイベントを生成する場合、生成された1以上のマウスイベントをジェスチャーイベント決定部83およびブラウジング部61に出力する。位置情報は、操作ユーザーが指示した表示部161の表示面中の位置を示す。
The mouse
操作ユーザーが表示部161の表示面を指示する操作は、ユーザーが表示部161の表示面の任意の位置を指示する指示開始操作、ユーザーが表示部161の表示面を指示しながら、換言すれば、表示部161の表示面に触れながら指示する位置を移動させる移動操作、ユーザーが表示部161の表示面の指示を終了する終了操作、を含む。マウスイベント生成部85は、オペレーティング部57から位置情報が入力されると、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。上述したように、オペレーティング部57は、タッチパネル165から位置情報が出力されるごとに、その位置情報を出力するので、時間の経過とともに連続して入力される位置情報の連続性に基づいて、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。
In other words, the operation of the operation user instructing the display surface of the
マウスイベント生成部85は、オペレーティング部57から位置情報が入力されていない状態が所定時間経過した後に入力される位置情報に対して、操作ユーザーによる操作が指示開始操作と判断し、位置情報と、指示開始操作を識別するための状態識別情報「Press」とを含むマウスイベントを生成する。
The mouse
マウスイベント生成部85は、状態識別情報「Press」のマウスイベントを検出した後、オペレーティング部57から連続して1以上位置情報が入力される場合、1以上の位置情報それぞれに対して、操作ユーザーによる操作が移動操作と判断する。マウスイベント生成部85は、オペレーティング部57から連続して入力される1以上の位置情報それぞれに対して、その位置情報と移動操作を識別するための状態識別情報「Move」とを含むマウスイベントを生成する。
When one or more pieces of position information are continuously input from the operating
マウスイベント生成部85は、状態識別情報「Move」のマウスイベントを検出した後、オペレーティング部57から位置情報が入力されなくなる場合、最後に入力された位置情報に対して、操作ユーザーによる操作が終了操作と判断し、最後に入力された位置情報と、終了操作を識別するための状態識別情報「Release」とを含むマウスイベントを生成する。
When the mouse
より具体的には、マウスイベント生成部85は、オペレーティング部57から第1の時に入力される位置情報と、第1の時よりも所定時間後の第2の時に入力される位置情報とに基づいて、マウスイベントの状態を決定する。マウスイベント生成部85は、第1の時に入力される位置情報に対して、第1の時よりも所定時間前に、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置を示す位置情報が入力されていない場合には、第1の時に入力される位置情報に対するマウスイベントの状態を「Press」に決定する。マウスイベント生成部85は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在しない場合には、第2の時に入力される位置情報に対するマウスイベントの状態を「Press」に決定する。
More specifically, the mouse
また、マウスイベント生成部85は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在する場合には、第2の時に入力される位置情報に対するマウスイベントの状態を「Move」に決定する。さらに、状態検出部76は、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置情報が、第2の時に入力されない場合には、第2の時において第1の時に入力されていた位置情報に対するマウスイベントの状態を「Release」に決定する。
In addition, the mouse
ジェスチャーイベント決定部83は、マウスイベント生成部85から連続して入力される複数のマウスイベントに基づいてジェスチャーイベントを決定する。ジェスチャーイベント決定部83は、マウスイベント生成部85から第1のマウスイベントと第2のマウスイベントの2つが同時に入力される場合、第1のマウスイベントに対して連続して入力される複数のマウスイベントの第1の組と、第2のマウスイベントに対して連続して入力される複数のマウスイベントの第2の組と、に基づいてジェスチャーイベントを決定する。ジェスチャーイベント決定部83は、決定されたジェスチャーイベントを処理特定部79に出力する。第1の組に含まれる複数のマウスイベントは、位置情報が同じか、または位置情報が連続している。連続とは、2つの位置情報が隣接する位置を示すことをいう。第2の組に含まれる複数のマウスイベントは、位置情報が同じか、または位置情報が連続している。このため、ジェスチャーイベント決定部83は、同時に入力される複数のマウスイベントが、第1の組と第2の組のいずれに属するかを、それらに含まれる位置情報で判断する。
The gesture
ジェスチャーイベント決定部83は、マウスイベント生成部85から連続してマウスイベントが入力される場合、最初に入力されるマウスイベントの状態識別情報は「Press」である。そして、ジェスチャーイベント決定部83は、状態識別情報が「Move」のマウスイベントが入力されると、状態識別情報が「Press」のマウスイベントの位置情報と、状態識別情報が「Move」のマウスイベントの位置情報とから2点間の距離を算出し、距離が所定のしきい値TH以上ならばユーザーによるスワイプ操作を検出し、距離が所定のしきい値THより短ければユーザーによるフリック操作を検出する。また、複数のマウスイベントが入力される場合は、最初の複数のマウスイベントによってユーザーによるスワイプ操作が検出され、後の複数のマウスイベントによってユーザーによるフリック操作が検出される場合がある。ジェスチャーイベント決定部83は、スワイプ操作およびフリック操作を検出する場合、最初の位置情報で特定される位置から後の位置情報で特定される位置に向かう方向を算出し、表示部161の表示面を基準に上下左右の4方向のうち算出された方向に最も近い方向をパラメータとして決定し、パラメータを含むジェスチャー識別情報を決定する。スワイプ操作を検出する場合には、ジェスチャー識別情報「スワイプ」のジェスチャーイベントは、方向を示すパラメータを含み、ジェスチャー識別情報「フリック」のジェスチャーイベントは、方向を示すパラメータを含む。
When the mouse event is continuously input from the mouse
ジェスチャーイベント決定部83は、マウスイベント生成部85から同時に2つのマウスイベントが入力される場合、最初に入力される2つのマウスイベントそれぞれの状態は「Press」である。この場合に、2つのマウスイベントそれぞれに含まれる位置情報に基づいて、2点間の距離L1および2点間を結ぶ直線の角度R1を算出する。2点間を結ぶ直線の角度は、表示部161の横方向を基準線として、2点間を結ぶ直線が基準線となす角度とすればよい。2点間を結ぶ直線と基準線とのなす角度は、基準線から時計回りになす角度である。そして、ジェスチャーイベント決定部83は、その後に連続して入力される2つのマウスイベントの位置情報に基づいて、2点間の距離L2および2点間を結ぶ直線の角度R2を算出する。
When two mouse events are input simultaneously from the mouse
ジェスチャーイベント決定部83は、角度R1と角度R2とが同じで、かつ、距離L2と距離L1と異なれば、ユーザーによるピンチアウト操作またはピンチイン操作を検出する。角度R1と角度R2とが同じとは、角度R1と角度R2との差が所定の範囲内の場合を含む。ユーザーの指の動きを検出するために、誤差を含む。距離L2が距離L1より大きければピンチアウト操作を検出し、距離L2が距離L1より小さければピンチイン操作を検出する。ジェスチャーイベント決定部83は、ピンチアウト操作またはピンチイン操作を検出する場合、距離L2を距離L1で除算することによって倍率を算出し、算出された倍率をパラメータとして決定し、パラメータを含むジェスチャー識別情報を決定する。ピンチアウト操作を検出する場合には、ジェスチャー識別情報「ピンチアウト」のジェスチャーイベントは、倍率を示すパラメータを含み、ピンチイン操作を検出する場合には、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントは、倍率を示すパラメータを含む。
The gesture
ジェスチャーイベント決定部83は、角度R1と角度R2とが異なる場合、ユーザーによるローテーション操作を検出する。角度R1と角度R2とが異なるとは、角度R1と角度R2との差が所定の範囲外の場合である。ユーザーの指の動きを検出するために、誤差を含む。ジェスチャーイベント決定部83は、ローテーション操作を検出する場合、角度R2から角度R1を減算することによって回転方向を決定し、決定された回転方向をパラメータとして決定し、パラメータを含むジェスチャー識別情報を決定する。角度R2から角度R1を減算した値がプラスならば回転方向は時計回りであり、角度R2から角度R1を減算した値がマイナスならば回転方向は反時計回りである。ジェスチャー識別情報「ローテーション」は、回転方向を示すパラメータを含む。
The gesture
ジェスチャーイベント決定部83は、ジェスチャーイベントを決定する場合、HDD115から、調停部53によって設定されているカレントタスクのアプリ識別情報に対応するマスターテーブル91を読み出す。具体的には、マスターテーブル91を読み出すためのオペレーティングコマンドをオペレーティング部57に出力し、オペレーティング部57がHDD115を制御して読み出すマスターテーブル91を取得する。以下、ブラウジング部61がカレントタスクの場合について説明する。
When determining the gesture event, the gesture
ジェスチャーイベント決定部83は、ジェスチャーイベントを決定することに応じて、ジェスチャーイベントに基づいて、マスターテーブル91において定められている複数種類の処理のうちから調停部53によってカレント状態に設定されているアプリケーションプログラムに対応して関連付けられた処理を特定する。ここでは、調停部53によってブラウジング部61がカレントタスクに設定されているので、ジェスチャーイベント決定部83は、ジェスチャーイベントと、マスターテーブル91によって関連付けられた処理を特定する。より具体的には、ジェスチャーイベント決定部83は、決定されたジェスチャーイベントのジェスチャー識別情報がジェスチャーの項目に設定されたマスターレコードを、マスターテーブル91から抽出し、抽出されたマスターレコードの処理の項目に設定されている処理識別情報を取得する。ジェスチャーイベント決定部83は、処理識別情報が取得される場合、決定されたジェスチャーイベントを調停部53に出力するが、処理識別情報が取得されない場合、決定されたジェスチャーイベントを調停部53に出力しない。
The gesture
ジェスチャーイベント決定部83は、調停部53によってカレント状態に設定されているブラウジング部61が実行可能な処理に対応するジェスチャーイベントのみを調停部53に出力し、調停部53は、ジェスチャーイベントをカレントタスクであるブラウジング部61に出力する。このため、タッチパネル165に入力される操作であって、複数のマウスイベントの組で特定されるジェスチャーイベントを、ブラウジングプログラムを実行するブラウジング部61に実行させることができる。換言すれば、ブラウジングプログラムを開発する段階で、MFP100においてタッチパネル165で受け付け可能なジェスチャーイベントを意識することなく開発することができる。例えば、ローテーション操作を受け付けないブラウジングプログラムを開発することができる。
The gesture
調停部53は、マウスイベント生成部85からマウスイベントが入力され、ジェスチャーイベント決定部83からジェスチャーイベントが入力され、それらをアプリケーション部51がアプリケーションプログラムを実行する複数のタスクのうちカレントタスクに出力する。ここでは、アプリケーション部51は、ブラウジング部61と、副実行部63とを含み、副実行部63はブラウジング部61によって起動されるため、調停部53は、ブラウジング部61をカレント状態に設定する。このため、ブラウジング部61がカレントタスクである。調停部53は、マウスイベント生成部85からマウスイベントが入力されることに応じて、マウスイベントをブラウジング部61に出力する。調停部53は、ジェスチャーイベント決定部83からジェスチャーイベントが入力されることに応じて、ジェスチャーイベントをブラウジング部61に出力する。
The
ブラウジング部61は、マウスイベント生成部85が出力するマウスイベントが調停部53から入力され、ジェスチャーイベント決定部83が出力するジェスチャーイベントが調停部53から入力される。ジェスチャーイベントは、1以上のマウスイベントの組から決定されるため、ジェスチャーイベントと、ジェスチャーイベントを決定する1以上のマウスイベントの組とは、操作ユーザーが入力する1回のシングルタッチ操作または1回のマルチタッチ操作に対して、同時に発生する。
The
ブラウジング部61は、MFP100を操作する操作ユーザーがタッチパネル165に入力するシングルタッチ操作またはマルチタッチ操作のうち埋込領域以外に入力されるシングルタッチ操作またはマルチタッチ操作に従って、ブラウジングプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、処理を実行する。
ブラウジング部61が実行する複数種類の処理は、表示部161に表示する画像を変化させる処理を含む。画面を変化させる処理は、例えば、表示する画像を別のコンテンツの画像に変更する処理、表示部161に画像の一部が表示されている場合には、画像のうち表示部161に表示する部分を変更するスクロール処理、ページ送り処理、画像を拡大して表示する拡大処理、画像を縮小して表示する縮小処理、画像の方向を変更する回転処理を含む。
The plurality of types of processing executed by the
また、副実行部63は、MFP100を操作する操作ユーザーがタッチパネル165に入力するシングルタッチ操作またはマルチタッチ操作のうち埋込領域内に入力されるシングルタッチ操作またはマルチタッチ操作に従って、処理を実行する。具体的には、副実行部63が、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する場合、ブラウジングプログラムとは別の第2アプリケーションプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、特定された処理を実行する。この場合において、副実行部63が実行する複数種類の処理は、表示部161に表示する画像を変化させる処理を含む。画面を変化させる処理は、例えば、表示する画像を別のコンテンツの画像に変更する処理、表示部161に画像の一部が表示されている場合には、画像のうち表示部161に表示する部分を変更するスクロール処理、ページ送り処理、画像を拡大して表示する拡大処理、画像を縮小して表示する縮小処理、画像の方向を変更する回転処理を含む。
また、副実行部63は、ブラウジングプログラムとは別の第2アプリケーションプログラムを、ネットワークを介して接続された外部のコンピューターであるサーバーに実行させる場合、シングルタッチ操作またはマルチタッチ操作に対応するマウスイベントを含む処理リクエストを、サーバーに送信する。
In addition, when the
ブラウジング部61が備える選択部75は、マウスイベントとジェスチャーイベントとのいずれか一方を選択する。選択部75にジェスチャーイベントが入力される場合には、それ以前にジェスチャーイベントを決定するための1以上のマウスイベントが入力される。選択部75は、調停部53からマウスイベントが入力される場合、そのマウスイベントに含まれる位置情報で示される位置が、表示画像生成部71によって生成された表示画像中の埋込領域内か否かを判断する。選択部75は、マウスイベントに含まれる位置情報で示される位置が埋込領域内ならばマウスイベントを選択するが、マウスイベントに含まれる位置情報で示される位置が埋込領域外ならばマウスイベントを選択しない。また、選択部75は、マウスイベントに含まれる位置情報で示される位置が埋込領域外ならばジェスチャーイベントを選択するが、マウスイベントに含まれる位置情報で示される位置が埋込領域内ならばジェスチャーイベントを選択しない。選択部75は、マウスイベントを選択する場合は、マウスイベントを指示部77に出力し、ジェスチャーイベントを選択する場合は、ジェスチャーイベントを決定部73に出力する。
The
指示部77は、選択部75からマウスイベントが入力される場合、マウスイベントを副実行部63に出力する。副実行部63は、ブラウジングプログラムとは別の第2アプリケーションプログラムを、ネットワークを介して接続された外部のコンピューターであるサーバーに実行させる場合、指示部77からマウスイベントが入力されることに応じて、サーバーにマウスイベントを含む処理リクエストを送信し、サーバーから受信される画像で、埋込画像を更新する。具体的には、表示部161が備えるVRAMにサーバーから受信される画像を上書きするアプリコマンドを表示制御部87に出力する。これにより、表示部161が備えるVRAMに記憶されている表示画像の埋込領域が、サーバーから受信される画像で上書きされる。
When a mouse event is input from the
また、副実行部63が、ブラウジングプログラムとは別の第2アプリケーションプログラムを実行する場合、副実行部63は、第2アプリケーションプログラムによって定められた複数種類の処理のうちから、マウスイベントに基づいて実行する処理を特定し、処理を実行する。例えば、マウスイベントに含まれる位置情報で特定される位置が、埋込画像に含まれるボタンの画像内ならば、そのボタンの画像に対応付けられた処理を特定する。例えば、拡大ボタンの画像ならば画像を拡大する処理を実行し、埋込画像を拡大した後の画像で更新する。具体的には、表示部161が備えるVRAMに更新後の画像を上書きするアプリコマンドを表示制御部87に出力する。これにより、表示部161が備えるVRAMに記憶されている表示画像の埋込領域が、更新後の画像で上書きされる。
In addition, when the
決定部73は、選択部75からジェスチャーイベントが入力される場合、ブラウジングプログラムによって定められた複数種類の処理のうちジェスチャーイベントに対応する種類の処理を実行する。具体的には、表示画像のうち表示部161に表示するための表示部分を決定する。決定部73は、決定された表示部分を表示部161に表示させるアプリコマンドを、表示制御部87に出力する。これにより、表示部161が備えるVRAMに記憶されている表示画像のうちから決定部73によって決定された部分の画像が表示部161に表示される。例えば、選択部75から入力されるジェスチャーイベントが処理識別情報「スクロール」に対応するならば、表示画像で表示部161に表示されていた部分を、その部分から上下左右のいずれかにスライドさせた部分が表示部161に表示される。
When a gesture event is input from the
次に、本実施の形態におけるMFP100において、インターネットに接続されたサーバー300からWebページをダウンロードし、Webページの画像である表示画像を表示する場合を例に、ユーザーの操作とMFP100が実行する処理の流れの一例を説明する。
Next, in
図7は、ユーザーによる操作とMFPが実行する処理の流れの一例を示す図である。図7を参照して、左から順に、ユーザーによる操作、オペレーティング部57の処理、副実行部63の処理、ブラウジング部61の処理およびサーバー300の処理をそれぞれに対応する軸を示し、それぞれの軸は上から下に時間の流れを示している。
FIG. 7 is a diagram illustrating an example of a user operation and a flow of processing executed by the MFP. Referring to FIG. 7, in order from the left, the user operation, the processing of the operating
まず、ユーザーが、ブラウジングプログラムを起動する操作を入力すれば、オペレーティング部57によって、その操作が受け付けられる。ここでは、サーバー300に記憶されたWebページのURLが同時に指定される場合を説明する。ユーザーによる操作に従って、オペレーティング部57は、CPU111にブラウジングプログラムを実行させることによって、CPU111がブラウジングプログラムを実行するタスクであるブラウジング部61が起動する。また、オペレーティング部57は、ユーザーにより入力されたURLを、ブラウジング部61に出力する。
First, when the user inputs an operation for starting a browsing program, the
ブラウジング部61は、オペレーティング部57から入力されるURLで特定されるWebページを、URLで特定されるサーバー300に送信する要求であるコンテンツリクエストをサーバー300に送信する。サーバー300は、コンテンツリクエストを受信すると、URLで特定されるWebページを返信するので、ブラウジング部61は、サーバー300からWebページを受信する。さらに、ブラウジング部61は、Webページを解析して、Webページに対応する表示画像を生成し、表示画像をVRAMに記憶する指令と、表示部分を表示する指令を、オペレーティング部57に出力する。これに伴い、オペレーティング部57は、表示画像を表示部161のVRAMに記憶するとともに、表示部分を表示部161に表示する。
The
ここで、WebページがJAVA(登録商標)プログラムを起動するコマンドの記述を含んでいるとする。このため、ブラウジングブ61は、CPU111にJAVA(登録商標)プログラムを実行させることによって、CPU111がJAVA(登録商標)プログラムを実行するタスクである副実行部63が起動する。
Here, it is assumed that the Web page includes a description of a command for starting a JAVA (registered trademark) program. For this reason, when the
ここでは、JAVA(登録商標)プログラムにより、サーバー300に、それに記憶されたコンテンツの画像を送信させる処理が定められているとする。副実行部63は、コンテンツの画像を送信させる処理を実行する要求である処理リクエストをサーバーに送信する。これに伴い、サーバー300は、コンテンツの画像を返信するので、副実行部63は、サーバー300から受信するコンテンツの画像を、埋込画像として受信する。さらに、副実行部63は、埋込画像を表示部161のVRAMに記憶するとともに、表示要求をブラウジング部61に出力する。これに伴い、オペレーティング部57は、表示画像を表示部161のVRAMに記憶する。また、ブラウジング部61は、オペレーティング部57に、表示部分を表示する指示を出力し、オペレーティング部57は、埋込領域に埋込画像を配置した表示画像のうち表示部分を表示部161に表示する。したがって、表示部分が埋込領域を含んでいれば、埋込画像が表示部161に表示される。
Here, it is assumed that processing for causing the
次に、ユーザーが、シングルタッチ操作またはマルチタッチ操作を入力すれば、オペレーティング部57によって、その操作が受け付けられる。操作変換部55によって、シングルタッチ操作またはマルチタッチ操作に対応するマウスイベントが生成され、1以上のマウスイベントに基づいてジェスチャーイベントが決定される。マウスイベントとジェスチャーイベントとは、ブラウジング部61に入力される。
Next, when the user inputs a single touch operation or a multi-touch operation, the
ブラウジング部61は、マウスイベントに含まれる位置情報で示される位置が、埋込領域内の場合と、埋込領域外の場合とで、処理を異ならせる。ブラウジング部61は、マウスイベントに含まれる位置情報で示される位置が埋込領域内の場合、マウスイベントを副実行部63に出力する。副実行部63は、マウスイベントを含む処理リクエストをサーバー300に送信する。サーバー300は、処理リクエストを受信すると、処理リクエストに含まれるマウスイベントにより特定される埋込画像中の位置に対応して、サーバー300が実行する第2アプリケーションプログラムによって定められた処理を実行し、処理後のコンテンツの画像を返信する。例えば、第2アプリケーションプログラムによって画像を拡大する処理が定められている場合には、コンテンツの画像を拡大した画像を返信する。副実行部63は、サーバー300から受信するコンテンツの画像を、埋込画像として受信する。さらに、副実行部63は、埋込画像を表示部161のVRAMに記憶するとともに、表示要求をブラウジング部61に出力する。これに伴い、オペレーティング部57は、表示画像を表示部161のVRAMに記憶する。また、ブラウジング部61は、オペレーティング部57に、表示部分を表示する指示を出力し、オペレーティング部57は、埋込領域に埋込画像を配置した表示画像のうち表示部分を表示部161に表示する。したがって、表示部分が埋込領域を含んでいれば、サーバー300によって拡大された後の埋込画像が表示部161に表示される。
The
一方、マウスイベントに含まれる位置情報で示される位置が埋込領域外の場合、ジェスチャーイベントに基づく処理を実行する。この場合、マウスイベントを副実行部63に出力しない。ジェスチャーイベントに基づく処理は、ブラウジングプログラムによって定められている。例えば、ジェスチャーイベントに基づく処理が下方向にスクロールする処理ならば、表示画像の表示部分を下方に移動させた後の表示部分を表示する指示をオペレーティング部57に出力する。オペレーティング部57は、表示画像のうち表示部分を表示部161に表示する。したがって、表示画像のうち移動された後の表示部分が表示部161に表示される。
On the other hand, if the position indicated by the position information included in the mouse event is outside the embedded area, processing based on the gesture event is executed. In this case, no mouse event is output to the
図8は、ジェスチャーイベント決定処理の流れの一例を示すフローチャートである。ジェスチャーイベント決定処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶された操作受付プログラムを実行することにより、CPU111により実行される処理である。図8を参照して、CPU111は、マウスイベントが検出されたか否かを判断する(ステップS01)。ユーザーがタッチパネル165を指示すれば、タッチパネル165により検出された位置に基づいてマウスイベントが検出される。マウスイベントが検出されるまで待機状態となり(ステップS01でNO)、マウスイベントが検出されたたならば(ステップS01でYES)、処理をステップS02に進める。
FIG. 8 is a flowchart illustrating an example of the flow of gesture event determination processing. The gesture event determination process is a process executed by
ステップS02においては、検出されたマウスイベントが単数か否かを判断する。単数のマウスイベントが検出されたならば処理をステップS03に進めるが、複数のマウスイベントが検出されたならば処理をステップS13に進める。 In step S02, it is determined whether or not the detected mouse event is single. If a single mouse event is detected, the process proceeds to step S03. If a plurality of mouse events are detected, the process proceeds to step S13.
ステップS03においてはマウスイベントの状態によって処理を分岐させる。マウスイベントの状態が「Press」ならば処理をステップS01に戻し、「Move」ならば処理をステップS04に進め、「Release」ならば処理をステップS09に進める。処理がステップS04に進む場合、マウスイベントの状態が「Move」の場合であり、そのマウスイベントの直前に別のマウスイベントが入力されている。別のマウスイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS04においては、指示方向を決定する。直前に入力された別のマウスイベントに含まれる位置情報で特定される位置からステップS01において検出されたマウスイベントに含まれる位置情報で特定される位置に向かう方法を決定する。ここで決定する方向は、表示部161の表示面を基準にした上下左右の4方向のうち最も近い方向である。
In step S03, the process branches depending on the state of the mouse event. If the mouse event state is “Press”, the process returns to step S01. If “Mouse”, the process proceeds to step S04. If “Release”, the process proceeds to step S09. When the process proceeds to step S04, the state of the mouse event is “Move”, and another mouse event is input immediately before the mouse event. The state of another mouse event may be “Press” or “Move”. In step S04, an instruction direction is determined. A method is determined for going from the position specified by the position information included in another mouse event input immediately before to the position specified by the position information included in the mouse event detected in step S01. The direction determined here is the closest direction among the four directions, top, bottom, left, and right, based on the display surface of the
次のステップS05においては、指示距離Lを算出する。直前に入力された別のマウスイベントに含まれる位置情報で特定される位置とステップS01において検出されたマウスイベントに含まれる位置情報で特定される位置との間の距離を指示距離Lとして算出する。そして、指示距離Lがしきい値TH以上か否かを判断する(ステップS06)。指示距離Lがしきい値TH以上ならば処理をステップS07に進めるが、そうでなければ処理をステップS08に進める。 In the next step S05, the designated distance L is calculated. The distance between the position specified by the position information included in another mouse event input immediately before and the position specified by the position information included in the mouse event detected in step S01 is calculated as the instruction distance L. . Then, it is determined whether or not the designated distance L is greater than or equal to the threshold value TH (step S06). If instructed distance L is equal to or greater than threshold value TH, the process proceeds to step S07; otherwise, the process proceeds to step S08.
ステップS07においては、ジェスチャーイベントをスワイプに決定し、処理をステップS01に戻す。ステップS08においては、ジェスチャーイベントをフリックに決定し、処理をステップS01に戻す。 In step S07, the gesture event is determined to be swipe, and the process returns to step S01. In step S08, the gesture event is determined to be flicked, and the process returns to step S01.
処理がステップS09に進む場合、ステップS01において検出されたマウスイベントの状態が「Release」である。マウスイベントの状態が「Release」の場合、そのマウスイベントの直前に別のマウスイベントが入力されている。別のマウスイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS09においては、直前に入力された別のマウスイベントの状態によって処理を分岐させる。直前に入力された別のマウスイベントの状態が「Press」ならば処理をステップS10に進めるが、そうでなければ処理をステップS01に戻す。 When the process proceeds to step S09, the state of the mouse event detected in step S01 is “Release”. When the state of the mouse event is “Release”, another mouse event is input immediately before the mouse event. The state of another mouse event may be “Press” or “Move”. In step S09, the process branches depending on the state of another mouse event input immediately before. If the state of another mouse event input immediately before is “Press”, the process proceeds to step S10; otherwise, the process returns to step S01.
ステップS10においては、ステップS01において検出されたマウスイベントに含まれる位置情報と同じ位置情報がRAM114に記憶されているか否かを判断する。RAM114に記憶されているならば処理をステップS11に進めるが、そうでなければ処理をステップS12に進める。なお、ここでいう同じ位置情報とは、2つの位置情報でそれぞれ特定される2つの位置の間の距離が所定の長さ以内である場合を含む。ユーザーが同じ位置を指示する操作を検出するために、誤差を含む。
In step S10, it is determined whether or not the same position information as the position information included in the mouse event detected in step S01 is stored in the
ステップS12においては、ステップS01において検出されたマウスイベントに含まれる位置情報をRAM114に一時記憶し、処理をステップS01に戻す。処理がステップS12に進む場合は、直前に入力されたマウスイベントの状態が「Press」で、次に入力されるマウスイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されていない場合である。換言すれば、ユーザーが最初のタップ操作を入力する場合である。
In step S12, the position information included in the mouse event detected in step S01 is temporarily stored in
ステップS11においては、ジェスチャーイベントをダブルタップに決定し、処理をステップS01に戻す。処理がステップS11に進む場合は、直前に入力されたマウスイベントの状態が「Press」で、ステップS01において入力されるマウスイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されている場合である。換言すれば、ユーザーが最初のタップ操作を入力した後に、最初のタップ操作と同じ位置をタップ操作する場合である。
In step S11, the gesture event is determined to be a double tap, and the process returns to step S01. When the process proceeds to step S11, the state of the mouse event input immediately before is “Press”, the state of the mouse event input in step S01 is “Release”, and the same position information is stored in the
処理がステップS13に進む場合は、2つのマウスイベントが検出される場合である。ステップS13においては、2つのマウスイベントの少なくとも一方の状態が「Move」か否かを判断する。2つのマウスイベントの少なくとも一方の状態が「Move」ならば処理をステップS14に進めるが、そうでなければ処理をステップS01に戻す。 The process proceeds to step S13 when two mouse events are detected. In step S13, it is determined whether or not the state of at least one of the two mouse events is “Move”. If the state of at least one of the two mouse events is “Move”, the process proceeds to step S14; otherwise, the process returns to step S01.
ステップS14においては、角度を算出する。表示部161の表示面の所定の基準辺を基準に、2つのマウスイベントそれぞれに含まれる位置情報で特定される2つの位置を結ぶ直線が基準辺となす角度を算出する。次のステップS15においては、ステップS14において算出された角度に変化があるか否かを判断する。ステップS14において算出された角度が、直前に入力された別の2つのマウスイベントに基づいて算出された角度との差が所定の角度以上であれば、角度が変化したと判断する。角度が変化したならば処理をステップS16に進めるが、そうでなければ処理をステップS17に進める。ステップS16においては、ジェスチャーイベントをローテーションに決定し、処理をステップS01に戻す。
In step S14, an angle is calculated. Based on a predetermined reference side of the display surface of the
ステップS17においては、距離を算出する。2つのマウスイベントそれぞれに含まれる位置情報で特定される2つの位置の間の距離を算出する。次のステップS18においては、ステップS14において算出された距離に変化があるか否かを判断する。ステップS17において算出された距離と、直前に入力された別の2つのマウスイベントに基づいて算出された距離との差が所定の長さ以上であれば、距離が変化したと判断する。距離が変化したならば処理をステップS19に進めるが、そうでなければ処理をステップS01に戻す。 In step S17, the distance is calculated. A distance between two positions specified by position information included in each of two mouse events is calculated. In the next step S18, it is determined whether or not there is a change in the distance calculated in step S14. If the difference between the distance calculated in step S17 and the distance calculated based on the other two mouse events input immediately before is greater than or equal to a predetermined length, it is determined that the distance has changed. If the distance has changed, the process proceeds to step S19; otherwise, the process returns to step S01.
ステップS19においては、倍率を決定する。ステップS18において算出された距離を、直前に入力された別の2つのマウスイベントに基づいて算出された距離で除算した値を倍率に決定する。そして、倍率が1より大きければ処理をステップS21に進めるが、そうでなければ処理をステップS22に進める。 In step S19, the magnification is determined. A value obtained by dividing the distance calculated in step S18 by the distance calculated based on the other two mouse events input immediately before is determined as the magnification. If the magnification is greater than 1, the process proceeds to step S21. If not, the process proceeds to step S22.
ステップS21においては、ジェスチャーイベントをピンチアウトに決定し、処理をステップS01に戻す。ステップS22においては、ジェスチャーイベントをピンチインに決定し、処理をステップS01に戻す。 In step S21, the gesture event is determined to be pinch out, and the process returns to step S01. In step S22, the gesture event is determined to be pinch-in, and the process returns to step S01.
図9は、ブラウジング処理の流れの一例を示すフローチャートである。ブラウジング処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたブラウジングプログラムを実行することにより、CPU111により実行される処理である。図9を参照して、CPU111は、コンテンツを取得する(ステップS31)。具体的には、インターネットに接続されたサーバーからWebページをコンテンツとしてダウンロードする。Webページは、MFP100を操作する操作ユーザーが指定したURLで識別されるWebページである。また、予め定められたURLで識別されるWebページであってもよい。
FIG. 9 is a flowchart illustrating an example of the flow of browsing processing. The browsing process is a process executed by
ステップS32においては、取得されたWebページが埋込画像の記述を含むか否かを判断する(ステップS32)。埋込画像の記述は、ブラウジングプログラムとは別の第2アプリケーションプログラムが実行されて生成される埋込画像を表示する記述である。サーバーから取得されたWebページが、埋込画像の記述を含んでいるならば処理をステップS33に進めるが、そうでなければ処理をステップS35に進める。ステップS35においては、Webページの記述に従って表示画像を生成し、処理をステップS36に進める。具体的には、表示画像を表示部161が備えるVRAMに記憶する。
In step S32, it is determined whether or not the acquired Web page includes a description of an embedded image (step S32). The description of the embedded image is a description for displaying an embedded image generated by executing a second application program different from the browsing program. If the Web page acquired from the server includes the description of the embedded image, the process proceeds to step S33; otherwise, the process proceeds to step S35. In step S35, a display image is generated according to the description of the Web page, and the process proceeds to step S36. Specifically, the display image is stored in a VRAM included in the
ステップS33においては、埋込領域を含む表示画像を生成する。具体的には、埋込領域を含む表示画像を表示部161が備えるVRAMに記憶する。これにより、表示部161が備えるVRAMにブラウジングプログラムを実行するタスクが生成する表示画像が記憶される。ただし、表示画像の埋込領域は、ブラウジングプログラムを実行するタスクによっては何も記憶されない。
In step S33, a display image including an embedded area is generated. Specifically, the display image including the embedded region is stored in the VRAM included in the
ステップS34においては、アプリケーションを起動し、処理をステップS36に進める。Webページの記述に従って、ブラウジングプログラムとは別の第2アプリケーションプログラムをCPU111またはサーバーに実行させ、第2アプリケーションプログラムを実行するタスクに埋込画像を生成させる。具体的には、Webページに記述されたJAVA(登録商標)スクリプトによってサーバーによって第2アプリケーションプログラムが実行される場合、サーバーにコンテンツの生成を要求する処理リクエストを送信し、サーバーから返信されるコンテンツの画像を、表示部161が備えるVRAMに記憶された表示画像の埋込領域に記憶させる。これにより、表示部161が備えるVRAMに記憶された表示画像の埋込領域に、サーバーが第2アプリケーションプログラムを実行することによって生成した画像が埋込画像として記憶される。また、Webページが、CPU111が実行可能な再生プログラム等の第2アプリケーションプログラムを起動する指示を含む場合、CPU111に第2アプリケーションプログラムを実行させ、CPU111が第2アプリケーションプログラムを実行するタスクが生成する画像を、表示部161が備えるVRAMに記憶された表示画像の埋込領域に記憶させる。これにより、表示部161が備えるVRAMに記憶された表示画像の埋込領域に、CPU111が第2アプリケーションプログラムを実行するタスクによって生成された埋込画像が記憶される。
In step S34, the application is activated and the process proceeds to step S36. According to the description of the Web page, the
このように、ブラウジングプログラムを実行するタスクが表示画像を書き換え、CPU111またはサーバーのいずれかが第2アプリケーションプログラムを実行するタスクによって生成された画像で埋込領域を書き換える。換言すれば、サーバーまたはCPU111のいずれかが第2アプリケーションプログラムを実行するタスクによって生成される画像で、ブラウジングプログラムを実行するタスクとは関係なく、埋込領域を更新することができる。
As described above, the task that executes the browsing program rewrites the display image, and either the
ステップS36においては、表示画像を表示する。表示部161のVRAMに記憶された表示画像を表示部161に表示する。この際、表示画像を部分的に表示してもよいし、表示画像の全体を表示してもよい。
In step S36, a display image is displayed. The display image stored in the VRAM of the
ステップS37においては、マウスイベントが入力されたか否かを判断する。操作ユーザーが表示部161の表示面を指で指示すれば、タッチパネル165によって指示された位置が検出され、その位置情報を含むマウスイベントが入力される。マウスイベントが入力されるまで待機状態となり(ステップS37でNO)、マウスイベントが入力されたならば(ステップS37でYES)、処理をステップS38に進める。
In step S37, it is determined whether a mouse event has been input. When the operating user indicates the display surface of the
ステップS38においては、マウスイベントが埋込領域に対する操作か否かを判断する。マウスイベントに含まれる位置情報で特定される位置が、表示画像中の埋込領域内ならばマウスイベントが埋込領域に対する操作であると判断する。マウスイベントが埋込領域に対する操作ならば処理をステップS39に進めるが、そうでなければ処理をステップS40に進める。 In step S38, it is determined whether or not the mouse event is an operation for the embedded area. If the position specified by the position information included in the mouse event is within the embedded area in the display image, it is determined that the mouse event is an operation for the embedded area. If the mouse event is an operation on the embedded region, the process proceeds to step S39; otherwise, the process proceeds to step S40.
ステップS39においては、ステップS34において起動した第2アプリケーションプログラムを実行するタスクに、マウスイベントを出力し、処理をステップS43に進める。具体的には、Webページに記述されたJAVA(登録商標)スクリプトによってサーバーによって第2アプリケーションプログラムが実行される場合、サーバーにマウスイベントを含む処理リクエストを送信し、サーバーから返信されるコンテンツの画像を受信し、受信された画像を、表示部161が備えるVRAMに記憶された表示画像の埋込領域に記憶させる。また、Webページが、CPU111が実行可能な再生プログラム等の第2アプリケーションプログラムを起動する指示を含む場合、CPU111に第2アプリケーションプログラムを実行するタスクが形成されている。このため、CPU111が第2アプリケーションプログラムを実行するタスクに、マウスイベントを出力し、マウスイベントに基づく処理を実行させ、CPU111が第2アプリケーションプログラムを実行するタスクが生成するコンテンツの画像を、表示部161が備えるVRAMに記憶された表示画像の埋込領域に記憶させる。
In step S39, a mouse event is output to the task that executes the second application program started in step S34, and the process proceeds to step S43. Specifically, when the second application program is executed by the server by a JAVA (registered trademark) script described in a Web page, a processing request including a mouse event is transmitted to the server, and an image of content returned from the server And the received image is stored in the embedding area of the display image stored in the VRAM included in the
サーバーまたはCPU111が第2アプリケーションプログラムを実行するタスクは、マウスイベントが入力されると、第2アプリケーションプログラムによって定められた複数の処理のうちからマウスイベントにより特定される処理を実行する。具体的には、第2アプリケーションプログラムによって定められた複数の処理のうち、マウスイベントに含まれる位置情報で特定される位置に割り当てられた処理を実行する。例えば、埋込画像が拡大処理が割り当てられたボタンを含み、マウスイベントに含まれる位置情報で特定される位置が、拡大処理が割り当てられたボタン内ならば拡大処理を実行する。そして、拡大処理後の埋込画像で、表示部161が備えるVRAMに記憶された表示画像中の埋込領域を更新する。このため、表示部161に表示されている表示画像に含まれる埋込領域の画像だけが、拡大して表示される。
The task for the server or
一方、ステップS40においては、ジェスチャーイベントが決定されたか否かを判断する。図8に示したジェスチャーイベント決定処理が実行されて、ステップS37において入力されたマウスイベントに基づいてジェスチャーイベントが決定されたか否かを判断する。ジェスチャーイベントが決定されたならば処理をステップS41に進めるが、そうでなければ処理をステップS42に進める。ステップS42においては、ステップS37において入力されたマウスイベントを保留し、処理をステップS43に進める。なお、ステップS37において入力されたマウスイベントを廃棄するようにしてもよい。 On the other hand, in step S40, it is determined whether or not a gesture event has been determined. The gesture event determination process shown in FIG. 8 is executed, and it is determined whether or not a gesture event has been determined based on the mouse event input in step S37. If a gesture event is determined, the process proceeds to step S41. If not, the process proceeds to step S42. In step S42, the mouse event input in step S37 is suspended, and the process proceeds to step S43. Note that the mouse event input in step S37 may be discarded.
ステップS41においては、ジェスチャーイベントに対応する処理を実行し、処理をステップS43に進める。ブラウジングプログラムによって定められた複数の処理のうち、ジェスチャーイベントにより特定される処理を実行する。具体的には、ジェスチャーイベントがフリックならば表示画像のうち表示部161に表示する部分をジェスチャーイベントにより定められる方向に移動する。より具体的には、表示部161が備えるVRAMに記憶された表示画像のうち表示部161に表示する領域を、ジェスチャーイベントにより定められる方向に移動し、移動後の領域を表示部161に表示する。このため、表示部161に表示されている表示画像の部分が変更される。
In step S41, a process corresponding to the gesture event is executed, and the process proceeds to step S43. Of the plurality of processes defined by the browsing program, the process specified by the gesture event is executed. Specifically, if the gesture event is a flick, the portion of the display image that is displayed on the
ステップS43においては、コンテンツの表示を終了する指示を受け付けたか否かを判断する。例えば、ハードキー部167に含まれる複数のキーのうち、ブラウジングプログラムを終了する指示が割り当てられたキーが指示されたならばコンテンツの表示を終了する指示を受け付ける。コンテンツンの表示を終了する指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS37に戻す。
In step S43, it is determined whether an instruction to end the display of content has been received. For example, if a key to which an instruction to end the browsing program is assigned among a plurality of keys included in the hard
図10は、表示画像の一例を示す図である。図10に示す表示画像は、インターネットに接続されたサーバーからダウンロードされたWebページに対応する。ここでは、Webページを、商品を販売する店舗を紹介する内容が記述されている場合を例に説明する。図10を参照して、表示画像300は、Webページにおいて、ブラウジングプログラムとは別の第2アプリケーションプログラムによって生成される埋込画像を配置する2つの埋込領域310,311を含む。埋込領域310,311に配置される埋込画像は、インターネットに接続されたさサーバーが、そのサーバーにインストールされた第2アプリケーションプログラムを実行することにより生成される。
FIG. 10 is a diagram illustrating an example of a display image. The display image shown in FIG. 10 corresponds to a Web page downloaded from a server connected to the Internet. Here, the Web page will be described by taking as an example a case where the contents for introducing a store that sells products are described. Referring to FIG. 10,
埋込領域310には、その店の場所を示す地図の画像が埋込画像として配置され、埋込領域311には、その店が販売する商品のリストを表示する画像が埋込画像として配置される。点線で示す領域301,303は、表示画像300のうちで、表示部161に表示される表示部分を示している。なお、領域301,303を示す点線は、説明のために付したもので、表示画像300中に実際には存在しない。
In the embedded
図11は、表示画像300中の表示部分の一例を示す第1の図である。図11を参照して、表示部分331は、図10に示した表示画像300のうち領域301で示される部分である。表示部分331は、表示画像300に配置された埋込領域310を含む。埋込領域は、上下左右の4つの矢印が表されたボタン群313と、「+」および「−」の記号が表されたボタン群315を含む。ボタン群313,315は、それぞれのボタンにサーバーにインストールされた第2アプリケーションプログラムによって処理が割り当てられている。ここで、ユーザーがボタン群315の「+」の記号が表されたボタンを指で指示すれば、「+」の記号が表されたボタン内の位置を示す位置情報を含むマウスイベントが発生する。そして、そのマウスイベントは、埋込領域310に配置された画像を生成するサーバーに送信され、サーバーによって、画像を拡大する処理が実行される。そして、埋込領域310が、サーバーによって拡大する処理が実行された後の画像で更新される。
FIG. 11 is a first diagram illustrating an example of a display portion in the
図12は、表示画像300中の表示部分の一例を示す第2の図である。図12を参照して、表示部分331は、図10に示した表示画像300のうち領域301で示される部分である。表示部分331は、表示画像300に配置された埋込領域310を含む。埋込領域310に表示される埋込画像は、図11に示した埋込領域310に配置された画像に比較して、拡大した画像となっている。しかしながら、図12に示す表示画像300の表示部分331のうち埋込領域310以外の部分は、図11に示した表示部分331と同じである。
FIG. 12 is a second diagram illustrating an example of a display portion in the
さらに、操作ユーザーが、図12に示す表示画像300の表示部分331のうち埋込領域310以外の部分に指で触れて、フリック操作を入力すれば、ジェスチャーイベントが発生する。この場合、マウスイベントも発生するが、操作ユーザーが触れた位置が図12に示す表示画像300の表示部分331のうち埋込領域310以外の部分なので、マウスイベントは廃棄される。フリックのジェスチャーイベントに対応して、ブラウジングプログラムによって、表示画像の表示部分を変更するスクロール処理が定められている。ここでは、スクロール処理が実行されて、表示画像300のうち領域301が領域303に変更される場合を例に説明する。
Furthermore, if the operating user touches a portion other than the embedded
図13は、表示画像中300の表示部分の一例を示す第3の図である。図13を参照して、図12に示した表示部分331が表示部161に表示されている段階で、フリック操作が入力した後に表示部161に表示される表示画像300の表示部分341を示している。表示部分341は、図10に示した表示画像300のうち領域303で示される部分である。表示部分341は、表示画像300に配置された埋込領域311を含む。埋込領域311に表示される埋込画像は、図11に示した埋込領域311に配置された画像と同じである。
FIG. 13 is a third diagram illustrating an example of a display portion of 300 in the display image. Referring to FIG. 13, the
以上説明したように、本実施の形態におけるMFP100は、データ処理装置として機能し、タッチパネル169によってユーザーにより指示された1以上の位置が検出されることに応じて、1以上の位置それぞれを示す位置情報を含むマウスイベントを生成し、連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのうちからいずれか1つを決定する。一方、外部から受信されるWebページがブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、埋込画像をWebページにより定められた埋込領域に配置した表示画像を生成する。そして、表示画像が埋込領域を含む場合、マウスイベントにより示される位置に基づいて、マウスイベントとジェスチャーイベントとのいずれか一方を選択する。このため、ユーザーが表示部161の表示面を指示する1回の操作を1以上のマウスイベントとジェスチャーイベントとして検出するとともに、検出されたマウスイベントとジェスチャーイベントのうちからブラウジングプログラムおよびアプリケーションプログラムそれぞれに適した一方を受け付けることができる。その結果、Webページがブラウジングプログラムとは別のアプリケーションプログラムを実行する記述を含む場合であってもアプリケーションプログラムを適切に実行することができる。
As described above,
また、ユーザーが表示部161の表示面を指示する1回の操作を1以上のマウスイベントとジェスチャーイベントとして検出するとともに、検出されたジェスチャーイベントをブラウジングプログラムに対応させ、1以上のマウスイベントをアプリケーションプログラムに対応させる。このため、ブラウジングプログラムがジェスチャーイベントに対応し、アプリケーションプログラムがマウスイベントに対応する場合にアプリケーションプログラムを適切に実行することができる。
In addition, the user detects one operation for designating the display surface of the
また、マウスイベントを選択する場合、マウスイベントを、アプリケーションプログラムを実行するタスクに出力し、埋込領域に表示される埋込画像を更新させる。このため、アプリケーションプログラムを実行するタスクにマウスイベントに従って処理を実行させることができる。 When a mouse event is selected, the mouse event is output to a task that executes the application program, and the embedded image displayed in the embedded area is updated. For this reason, it is possible to cause a task that executes an application program to execute processing according to a mouse event.
さらに、ジェスチャーイベントを選択する場合、ブラウジングプログラムが実行可能な複数種類の処理のうち選択されたジェスチャーイベントに対応する種類の処理を実行する。このため、表示画像のうち表示部161に表示するための表示部分を決定する処理を実行させることができる。ブラウジングプログラムを実行するタスクに、ジェスチャーイベントに従って処理を実行させることができる。
Further, when selecting a gesture event, a process corresponding to the selected gesture event is executed among a plurality of processes that can be executed by the browsing program. For this reason, the process which determines the display part for displaying on the
さらに、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムが定める複数種類の処理に対応する複数のジェスチャーイベントを関連付けたマスターデータ91をHDD115に記憶するので、ブラウジングプログラムが定める複数種類の処理それぞれに対応するジェスチャーイベントのみを検出することができる。
Furthermore, since the
なお、上述した実施の形態においては、データ処理装置の一例としてMFP100について説明したが、図8および図9に示した処理を、MFP100を制御するCPU111に実行させる操作受付方法、また、その操作受付方法をCPU111に実行させるためのブラウジングプログラムとして、発明を捉えることができるのは言うまでもない。
In the above-described embodiment,
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
100 MFP、51 アプリケーション部、53 調停部、55 操作変換部、57 オペレーティング部、61 ブラウジング部、63 副実行部、71 表示画像生成部、73 決定部、75 選択部、76 状態検出部、77 指示部、79 処理特定部、81 関連付部、83 ジェスチャーイベント決定部、85 マウスイベント生成部、87 表示制御部、91 マスターテーブル、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD、116 ファクシミリ部、117 外部記憶装置、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、160 操作パネル、161 表示部、163 操作部、165 タッチパネル、167 ハードキー部。
100 MFP, 51 application section, 53 arbitration section, 55 operation conversion section, 57 operating section, 61 browsing section, 63 secondary execution section, 71 display image generation section, 73 determination section, 75 selection section, 76 state detection section, 77 instruction Unit, 79 process identification unit, 81 association unit, 83 gesture event determination unit, 85 mouse event generation unit, 87 display control unit, 91 master table, 110 main circuit, 111 CPU, 112 communication I / F unit, 113 ROM, 114 RAM, 115 HDD, 116 facsimile unit, 117 external storage device, 120 automatic document feeder, 130 document reading unit, 140 image forming unit, 150 sheet feeding unit, 160 operation panel, 161 display unit, 163 operation unit, 165
Claims (11)
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、
制御手段と、を備え、
前記制御手段は、ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、前記取得されたコンテンツに対応する表示画像の少なくとも一部を前記表示手段に表示するとともに、前記ブラウジングプログラムにより定められる複数種類の処理にそれぞれ対応する複数のジェスチャーイベントのいずれか1つが入力されることに応じて、前記複数種類の処理のうち前記入力されたジェスチャーイベントに対応する種類の処理を実行するブラウジング手段と、
前記タッチパネルにより1以上の位置が検出されることに応じて、前記1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成手段と、
前記マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、を含み、
前記ブラウジング手段は、前記コンテンツが前記ブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、前記アプリケーションプログラムが実行されて生成された埋込画像を前記コンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成手段と、
前記表示画像が前記埋込領域を含む場合、前記マウスイベント生成手段から入力されるマウスイベントにより示される位置が前記埋込領域内ならば前記入力されるマウスイベントを選択し、前記マウスイベント生成手段から入力されるマウスイベントにより示される位置が前記埋込領域外ならば前記ジェスチャーイベント決定手段から入力されるジェスチャーイベントを選択する選択手段と、を含む、データ処理装置。 Display means capable of displaying images;
A touch panel capable of detecting one or more positions designated by a user in the display surface of the display means;
Control means,
The control means executes a browsing program, acquires content described in a markup language from the outside, displays at least a part of a display image corresponding to the acquired content on the display means, and the browsing In response to the input of any one of a plurality of gesture events respectively corresponding to a plurality of types of processing determined by the program, the type of processing corresponding to the input gesture event is executed among the plurality of types of processing. Browsing means to
Mouse event generation means for generating a mouse event including position information indicating each of the one or more positions in response to detection of one or more positions by the touch panel;
Gesture event determining means for determining any one of a plurality of gesture events based on a set of one or more mouse events generated successively by the mouse event generating means,
When the content includes a description for displaying an embedded image generated by executing an application program different from the browsing program, the browsing means displays the embedded image generated by executing the application program. Display image generating means for generating a display image arranged in an embedding area defined by content;
When the display image includes the embedded region, if the position indicated by the mouse event input from the mouse event generation unit is within the embedded region, the input mouse event is selected, and the mouse event generation unit And a selecting means for selecting a gesture event inputted from the gesture event determining means if the position indicated by the mouse event inputted from is outside the embedding area.
前記ジェスチャーイベント決定手段は、前記マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に対応するジェスチャーイベントが、前記関連付手段によって前記ブラウジングプログラムに対応して前記複数種類の処理のいずれかと関連付けられていることを条件に、前記ジェスチャーイベントを決定する、請求項1〜3のいずれかに記載のデータ処理装置。 The control means further includes association means for associating a plurality of gesture events corresponding to the plurality of types of processing defined by the browsing program corresponding to the browsing program when the browsing program is installed,
The gesture event determination unit is configured to process a plurality of types of processing in which gesture events corresponding to a set of one or more mouse events continuously generated by the mouse event generation unit correspond to the browsing program by the association unit. The data processing apparatus according to claim 1, wherein the gesture event is determined on the condition that the gesture event is associated with any one of the above.
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、を備えたデータ処理装置で実行される操作受付方法であって、
ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、前記取得されたコンテンツに対応する表示画像の少なくとも一部を前記表示手段に表示するブラウジングステップと、
前記タッチパネルにより1以上の位置が検出されることに応じて、前記1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成ステップと、
前記マウスイベント生成ステップにおいて連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定ステップと、を含み、
前記ブラウジングステップは、前記コンテンツが前記ブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、前記アプリケーションプログラムが実行されて生成された埋込画像を前記コンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成ステップと、
前記表示画像が前記埋込領域を含む場合、前記マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が前記埋込領域内ならば前記マウスイベントを選択し、前記マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が前記埋込領域外ならば前記ジェスチャーイベント決定ステップにおいて決定されたジェスチャーイベントを選択する選択ステップと、を含む、操作受付方法。 Display means capable of displaying images;
An operation receiving method executed by a data processing device comprising: a touch panel capable of detecting one or more positions indicated by a user on a display surface of the display means,
A browsing step of executing a browsing program, acquiring content described in a markup language from the outside, and displaying at least a part of a display image corresponding to the acquired content on the display means;
A mouse event generating step for generating a mouse event including position information indicating each of the one or more positions in response to detection of the one or more positions by the touch panel;
A gesture event determining step of determining any one of a plurality of gesture events based on a set of one or more mouse events generated in succession in the mouse event generating step,
In the browsing step, when the content includes a description for displaying an embedded image generated by executing an application program different from the browsing program, the embedded image generated by executing the application program is displayed as the embedded image. A display image generation step for generating a display image arranged in an embedded region defined by the content;
When the display image includes the embedded region, the mouse event is selected if the position indicated by the mouse event generated by the mouse event generating step is within the embedded region, and is generated by the mouse event generating step. And a selection step of selecting the gesture event determined in the gesture event determination step if the position indicated by the mouse event is outside the embedded region.
前記ジェスチャーイベント決定ステップは、前記マウスイベント生成ステップにおいて連続して生成される1以上のマウスイベントの組に対応するジェスチャーイベントが、前記関連付ステップにおいて前記ブラウジングプログラムに対応して前記複数種類の処理のいずれかと関連付けられていることを条件に、前記ジェスチャーイベントを決定するステップを含む、請求項5〜7のいずれかに記載の操作受付方法。 An association step of associating a plurality of gesture events corresponding to the plurality of types of processing defined by the browsing program corresponding to the browsing program at the stage of installing the browsing program;
In the gesture event determination step, the gesture event corresponding to a set of one or more mouse events generated continuously in the mouse event generation step corresponds to the plurality of types of processing corresponding to the browsing program in the association step. The operation reception method according to claim 5, further comprising the step of determining the gesture event on condition that it is associated with any one of the above.
前記データ処理装置は、
画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能なタッチパネルと、
前記タッチパネルにより1以上の位置が検出されることに応じて、前記1以上の位置それぞれを示す位置情報を含むマウスイベントを生成するマウスイベント生成手段と、
前記マウスイベント生成手段によって連続して生成される1以上のマウスイベントの組に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、を備えており、
ブラウジングプログラムを実行し、外部からマークアップ言語で記述されたコンテンツを取得し、前記取得されたコンテンツに対応する表示画像の少なくとも一部を前記表示手段に表示するブラウジングステップを、前記コンピューターに実行させ、
前記ブラウジングステップは、前記コンテンツが前記ブラウジングプログラムとは別のアプリケーションプログラムが実行されて生成される埋込画像を表示する記述を含む場合、前記アプリケーションプログラムが実行されて生成された埋込画像を前記コンテンツにより定められた埋込領域に配置した表示画像を生成する表示画像生成ステップと、
前記表示画像が前記埋込領域を含む場合、前記マウスイベント生成手段により生成されるマウスイベントにより示される位置が前記埋込領域内ならば前記マウスイベントを選択し、前記マウスイベント生成ステップにより生成されるマウスイベントにより示される位置が前記埋込領域外ならば前記ジェスチャーイベント決定ステップにおいて決定されたジェスチャーイベントを選択する選択ステップと、を含む、ブラウジングプログラム。 A browsing program executed by a computer that controls a data processing device,
The data processing device includes:
Display means capable of displaying images;
A touch panel capable of detecting one or more positions designated by a user in the display surface of the display means;
Mouse event generation means for generating a mouse event including position information indicating each of the one or more positions in response to detection of one or more positions by the touch panel;
Gesture event determining means for determining any one of a plurality of gesture events based on a set of one or more mouse events generated continuously by the mouse event generating means,
Causing the computer to execute a browsing step of executing a browsing program, acquiring content described in a markup language from the outside, and displaying at least a part of a display image corresponding to the acquired content on the display means ,
In the browsing step, when the content includes a description for displaying an embedded image generated by executing an application program different from the browsing program, the embedded image generated by executing the application program is displayed as the embedded image. A display image generation step for generating a display image arranged in an embedded region defined by the content;
When the display image includes the embedded area, the mouse event is selected if the position indicated by the mouse event generated by the mouse event generating means is within the embedded area, and is generated by the mouse event generating step. And a selection step of selecting the gesture event determined in the gesture event determination step if the position indicated by the mouse event is outside the embedded region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012260147A JP2014106807A (en) | 2012-11-28 | 2012-11-28 | Data processing apparatus, operation reception method, and browsing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012260147A JP2014106807A (en) | 2012-11-28 | 2012-11-28 | Data processing apparatus, operation reception method, and browsing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014106807A true JP2014106807A (en) | 2014-06-09 |
Family
ID=51028226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012260147A Pending JP2014106807A (en) | 2012-11-28 | 2012-11-28 | Data processing apparatus, operation reception method, and browsing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014106807A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017033397A (en) * | 2015-08-04 | 2017-02-09 | 日本放送協会 | Operation information sharing device, application execution device, operation information sharing system, information processing device and program |
JP2019159212A (en) * | 2018-03-15 | 2019-09-19 | 富士通コネクテッドテクノロジーズ株式会社 | Display device, display control program, and method for controlling display |
-
2012
- 2012-11-28 JP JP2012260147A patent/JP2014106807A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017033397A (en) * | 2015-08-04 | 2017-02-09 | 日本放送協会 | Operation information sharing device, application execution device, operation information sharing system, information processing device and program |
JP2019159212A (en) * | 2018-03-15 | 2019-09-19 | 富士通コネクテッドテクノロジーズ株式会社 | Display device, display control program, and method for controlling display |
JP7260080B2 (en) | 2018-03-15 | 2023-04-18 | Fcnt株式会社 | Display device, display control program and display control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5772773B2 (en) | Image processing apparatus, operation standardization method, and operation standardization program | |
JP4835118B2 (en) | Operation information recording method for image forming apparatus and image forming apparatus | |
JP7342208B2 (en) | Image processing device, control method and program for the image processing device | |
JP5262321B2 (en) | Image forming apparatus, display processing apparatus, display processing method, and display processing program | |
JP5796562B2 (en) | Data processing apparatus, setting method, and setting program | |
US20130031516A1 (en) | Image processing apparatus having touch panel | |
JP2009260903A (en) | Image processing apparatus, image processing method and image processing program | |
JP2010074682A (en) | Image processing system, image processing apparatus, method of storing image data, and program for storing image data | |
JP5825277B2 (en) | Data processing apparatus, content display method, and content display program | |
JP5875262B2 (en) | Display control device | |
US9661165B2 (en) | Image forming apparatus with playback mode, display method for an operation screen, and computer program | |
US9100519B2 (en) | Data processing apparatus, content displaying method, and non-transitory computer-readable recording medium encoded with browsing program | |
JP5862549B2 (en) | Data processing apparatus, operation reception method, and browsing program | |
JP2014106807A (en) | Data processing apparatus, operation reception method, and browsing program | |
JP2014238700A (en) | Information processing apparatus, display control method, and computer program | |
US8988694B2 (en) | Image forming apparatus, application executing method, and non-transitory computer-readable recording medium encoded with application executing program | |
JP6102325B2 (en) | Data processing apparatus, content display method, and content display program | |
JP6225625B2 (en) | Image display device, image display method, and image display program | |
JP6552156B2 (en) | Data processing apparatus, operation accepting method, and content display program | |
US20230141058A1 (en) | Display apparatus and method for controlling display apparatus | |
JP2013162366A (en) | Image formation device, operation standardization method, and operation standardization program | |
JP5949418B2 (en) | Image processing apparatus, setting method, and setting program | |
JP6102593B2 (en) | Image forming apparatus, application program generation method, and application program generation program | |
JP2015215924A (en) | Data processor, setting method and setting program | |
JP2014197255A (en) | Edition device, terminal equipment, edition method and program |