JP2014160426A - Data processing apparatus, content display method, and content display program - Google Patents

Data processing apparatus, content display method, and content display program Download PDF

Info

Publication number
JP2014160426A
JP2014160426A JP2013031447A JP2013031447A JP2014160426A JP 2014160426 A JP2014160426 A JP 2014160426A JP 2013031447 A JP2013031447 A JP 2013031447A JP 2013031447 A JP2013031447 A JP 2013031447A JP 2014160426 A JP2014160426 A JP 2014160426A
Authority
JP
Japan
Prior art keywords
display
gesture
gesture event
page
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013031447A
Other languages
Japanese (ja)
Other versions
JP6102325B2 (en
Inventor
Masayuki Kawamoto
将之 河本
Ayumi Ito
歩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013031447A priority Critical patent/JP6102325B2/en
Publication of JP2014160426A publication Critical patent/JP2014160426A/en
Application granted granted Critical
Publication of JP6102325B2 publication Critical patent/JP6102325B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce incorrect operation by a user.SOLUTION: An MFP comprises: a content display unit 51 that displays a display part of contents; and a gesture event determination unit 93 that determines at least one of a plurality of gesture events on the basis of one or more positions detected by a touch panel. The content display unit 51 includes a display image creating unit 71 that creates a display image for displaying the display part on the basis of the gesture event. The display image creating unit 71 comprises: a page switching unit 83 that changes a page to be displayed when a first gesture event is determined; a scroll unit 85 that changes a display part within a page when a second gesture event is determined; and a specific state page switching unit 86 that changes a page to be displayed when the display part cannot be changed when the second gesture event is determined.

Description

この発明はデータ処理装置、コンテンツ表示方法およびコンテンツ表示プログラムに関し、特に、タッチパネルを備えたデータ処理装置、そのデータ処理装置で実行されるコンテンツ表示方法およびコンテンツ表示プログラムに関する。   The present invention relates to a data processing device, a content display method, and a content display program, and more particularly to a data processing device provided with a touch panel, a content display method and a content display program executed by the data processing device.

近年、複合機(MFP)で代表されるデータ処理装置において、ユーザーインターフェースとして、タッチパネルを備えた装置がある。タッチパネルによって、ユーザーが指で指示する動作の違いによって、種々の操作を検出することができる。   In recent years, data processing apparatuses represented by MFPs (MFPs) include apparatuses having a touch panel as a user interface. By the touch panel, various operations can be detected based on the difference in the operation that the user designates with a finger.

たとえば、特開2011-170603号公報には、データ情報を表示する表示部と、前記表示部へ接触することにより入力を行う接触入力部と、前記接触入力部での入力のうち、少なくとも1つ以上の同時入力の接触点を検知する接触検知部と、前記接触検知部で検知した同時入力の接触点の数を取得する取得部と、少なくとも接触点の数に応じて異なる処理を行う処理部と、を有し、前記処理部は、前記少なくとも1つ以上の同時入力の接触点が一方向に移動されたことを前記接触検知部が検知した場合、前記表示部に表示されているデータ情報を、前記取得部で取得した前記同時入力の接触点の数に応じた移動量で表示移動するよう構成される、ことを特徴とする携帯端末が記載されている。   For example, Japanese Patent Laid-Open No. 2011-170603 discloses at least one of a display unit that displays data information, a contact input unit that performs input by touching the display unit, and an input from the contact input unit. The contact detection unit that detects the contact point of the simultaneous input described above, the acquisition unit that acquires the number of contact points of the simultaneous input detected by the contact detection unit, and a processing unit that performs different processing at least according to the number of contact points And when the contact detection unit detects that the at least one or more simultaneous input contact points are moved in one direction, the data information displayed on the display unit A portable terminal is described that is configured to display and move with a movement amount corresponding to the number of contact points of the simultaneous input acquired by the acquisition unit.

また、タッチパネルによって、ユーザーが指で指示する位置を移動させる速さの違いによって、異なる操作を検出することができる。たとえば、ユーザーが指で指示する位置を移動させる速さが、所定の速さより遅い場合にフリック操作として検出し、所定の速さ以上の場合にスワイプ操作そして検出する。   Also, different operations can be detected based on the difference in the speed at which the user moves the position indicated by the finger using the touch panel. For example, a flick operation is detected when the speed at which the user moves the position indicated by the finger is lower than a predetermined speed, and a swipe operation is detected when the speed is higher than a predetermined speed.

一方、ユーザーがMFPを操作する場合は直立した姿勢となるので、MFPにタッチパネルを搭載する場合は、タッチパネルの操作面が上側を向いているものが多い。このため、ユーザーがタッチパネルに指を触れる方向は、タッチパネルの上方になる。タッチパネルに上方から指を触れて移動させる動作において、指を移動させる速度を調整することが困難な場合がある。たとえば、タッチパネル上で指を移動させる動作は、手首だけを用いる場合と、手首に加えて腕、腰等を用いる場合とで、移動させる速度が異なる場合があるからである。このため、ユーザーがスワイプ操作を入力しようとする場合に、MFPにおいてフリック操作として検出されてしまう場合があるといった問題があった。
特開2011-170603号公報
On the other hand, when the user operates the MFP, the posture is upright. Therefore, when the touch panel is mounted on the MFP, the operation surface of the touch panel is often directed upward. For this reason, the direction in which the user touches the touch panel with the finger is above the touch panel. In the operation of touching and moving the touch panel with a finger from above, it may be difficult to adjust the speed of moving the finger. For example, the movement of the finger on the touch panel may be performed at different speeds when using only the wrist and when using an arm, waist, or the like in addition to the wrist. For this reason, when the user tries to input the swipe operation, there is a problem that the MFP may detect the flick operation.
JP 2011-170603 A

この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なデータ処理装置を提供することである。   The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to provide a data processing apparatus capable of reducing erroneous operations by a user and improving operability. It is.

この発明の他の目的は、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なコンテンツ表示方法を提供することである。   Another object of the present invention is to provide a content display method capable of reducing erroneous operations by a user and improving operability.

この発明のさらに他の目的は、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なコンテンツ表示プログラムを提供することである。   Still another object of the present invention is to provide a content display program capable of reducing erroneous operations by a user and improving operability.

上述した目的を達成するためにこの発明のある局面によれば、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、制御手段と、を備え、制御手段は、コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を表示手段に表示するコンテンツ表示手段と、位置検出手段により1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定手段と、を含み、コンテンツ表示手段は、ジェスチャーイベント決定手段により決定された少なくとも1つのジェスチャーイベントに基づいて表示部分を表示するための表示用画像を生成する表示用画像生成手段と、生成された表示用画像を表示手段に表示する表示制御手段と、を含み、表示用画像生成手段は、ジェスチャーイベント決定手段により第1ジェスチャーイベントが決定される場合、表示対象となるページを別のページに変更するページ切換手段と、ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定される場合、表示対象となるページ内で表示部分を変更するスクロール手段と、ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定される場合において、スクロール手段による表示部分の変更ができない場合、表示対象となるページを別のページに変更する特定状態ページ切換手段と、を含む。   In order to achieve the above-described object, according to one aspect of the present invention, a data processing device detects display means capable of displaying an image, and one or more positions indicated by a user on the display surface of the display means. Content display for displaying at least a part of a display part image of one page to be displayed among a plurality of pages included in the content. And a gesture event determining means for determining at least one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means. The means includes a table for displaying the display portion based on at least one gesture event determined by the gesture event determination means. Display image generating means for generating a display image, and display control means for displaying the generated display image on the display means. The display image generating means determines the first gesture event by the gesture event determining means. When the second gesture event is determined by the page switching means for changing the page to be displayed to another page and the gesture event determining means, the scroll means for changing the display portion in the page to be displayed. And a specific state page switching means for changing the display target page to another page when the display part cannot be changed by the scroll means when the second gesture event is determined by the gesture event determining means. .

この局面に従えば、コンテンツの少なくとも一部の表示部分が表示され、第1ジェスチャーイベントが決定される場合、表示対象となるページを別のページに変更され、第2ジェスチャーイベントが決定される場合、表示対象となるページ内で表示部分が変更され、第2ジェスチャーイベントが決定される場合において、表示対象となるページ内で表示部分が変更できない場合、表示対象となるページが別のページに変更される。このため、第2ジェスチャーイベントが決定される場合に表示用画像を変更できない場合に、第1ジェスチャーイベントが決定される場合と同じ表示用画像を表示することができる。このため、ユーザーは、第1ジェスチャーイベントに対応する操作を改めて入力し直す必要がない。その結果、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なデータ処理装置を提供することができる。   According to this aspect, when at least a part of the display portion of the content is displayed and the first gesture event is determined, the page to be displayed is changed to another page, and the second gesture event is determined When the display part is changed in the display target page and the second gesture event is determined, if the display part cannot be changed in the display target page, the display target page is changed to another page. Is done. For this reason, when the display image cannot be changed when the second gesture event is determined, the same display image as that when the first gesture event is determined can be displayed. For this reason, the user does not need to input again the operation corresponding to the first gesture event. As a result, it is possible to provide a data processing apparatus capable of reducing erroneous operations by the user and improving operability.

好ましくは、特定状態ページ切換手段は、位置検出手段により1以上の位置が連続して検出されるジェスチャー期間が開始するジェスチャー開始時点においてスクロール手段による表示部分の変更が可能であっても、ジェスチャー期間が終了するジェスチャー終了時点までにスクロール手段による表示部分の変更ができない期間が存在する場合、ジェスチャー終了時点で、表示対象となるページを別のページに変更する。   Preferably, the specific state page switching unit is configured to display the gesture period even when the display unit can be changed by the scroll unit at the start of the gesture when the gesture period in which one or more positions are continuously detected by the position detection unit starts. If there is a period during which the display part cannot be changed by the scroll means by the time when the gesture is ended, the page to be displayed is changed to another page when the gesture ends.

この局面に従えば、ジェスチャー開始時点において表示対象となるページ内で表示部分の変更が可能であっても、ジェスチャー終了時点までに表示対象となるページ内で表示部分の変更ができない期間が存在する場合、ジェスチャー終了時点で、表示対象となるページを別のページに変更する。このため、ジェスチャー開始時点において表示対象となるページ内で表示部分の変更が可能であっても、ジェスチャー期間終了時に、別のページの表示部分の表示用画像を表示することができる。その結果、表示部分を変更することができない場合に、ユーザーが、操作表示部分を変更する操作を入力した場合であっても、ページを切り換えた表示用画像を表示をすることができる。   According to this aspect, even if the display part can be changed in the display target page at the start of the gesture, there is a period in which the display part cannot be changed in the display target page by the end of the gesture. In such a case, the page to be displayed is changed to another page when the gesture ends. For this reason, even if the display part can be changed in the page to be displayed at the start of the gesture, the display image of the display part of another page can be displayed at the end of the gesture period. As a result, when the display portion cannot be changed, even when the user inputs an operation for changing the operation display portion, the display image with the page switched can be displayed.

好ましくは、スクロール手段は、ジェスチャー期間においては、ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定されるごとに、表示対象となるページ内で表示部分を変更できなくなるまで表示部分を変更する。   Preferably, in the gesture period, the scroll unit changes the display part until the display part cannot be changed in the display target page every time the second gesture event is determined by the gesture event determination unit.

この局面に従えば、ジェスチャー期間においては、第2ジェスチャーイベントが決定されるごとに、表示対象となるページ内で表示部分を変更できなくなるまで表示部分が変更される。このため、ジェスチャー期間においては、表示対象となるページ内で表示部分を変更して表示用画像を表示することができ、ユーザーが入力する1回の操作で、表示対象となるページ内で表示部分を変更した表示用画像と、ページを切り換えた後の表示部分の表示用画像とを表示することができる。   According to this aspect, in the gesture period, each time the second gesture event is determined, the display portion is changed until the display portion cannot be changed in the display target page. For this reason, in the gesture period, the display portion can be changed in the display target page and the display image can be displayed, and the display portion can be displayed in the display target page by one operation input by the user. And the display image of the display portion after the page is switched can be displayed.

好ましくは、ジェスチャーイベント決定手段は、位置検出手段により検出される1つの位置が移動する速度がしきい値より小さい場合に第1ジェスチャーイベントを決定するフリック決定手段と、位置検出手段により検出される1つの位置が移動する速度がしきい値以上の場合に第2ジェスチャーイベントを決定するスワイプ決定手段と、を含む。   Preferably, the gesture event determining means is detected by the flick determining means for determining the first gesture event when the moving speed of one position detected by the position detecting means is smaller than the threshold, and the position detecting means. Swipe determining means for determining a second gesture event when the speed at which one position moves is equal to or greater than a threshold value.

この局面に従えば、位置検出手段により検出される1つの位置が移動する速度がしきい値より小さい場合に第1ジェスチャーイベントが決定され、しきい値以上の場合に第2ジェスチャーイベントが決定される。このため、ユーザーは、指示する位置を移動する速度を異ならせるだけで、異なる操作を入力することができる。   According to this aspect, the first gesture event is determined when the moving speed of one position detected by the position detecting means is smaller than the threshold value, and the second gesture event is determined when the moving speed is equal to or higher than the threshold value. The Therefore, the user can input different operations only by changing the moving speed of the designated position.

この発明の他の局面によれば、コンテンツ表示方法は、データ処理装置で実行されるコンテンツ表示方法であって、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、を備え、コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を表示手段に表示するコンテンツ表示ステップと、位置検出手段により1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定ステップと、をデータ処理装置に実行させ、コンテンツ表示ステップは、ジェスチャーイベント決定ステップにおいて決定された少なくとも1つのジェスチャーイベントに基づいて表示部分を表示するための表示用画像を生成する表示用画像生成ステップと、生成された表示用画像を表示手段に表示する表示制御ステップと、を含み、表示用画像生成ステップは、ジェスチャーイベント決定ステップにおいて第1ジェスチャーイベントが決定される場合、表示対象となるページを別のページに変更するページ切換ステップと、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合、表示対象となるページ内で表示部分を変更するスクロールステップと、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合において、スクロールステップにおいて表示部分の変更ができない場合、表示対象となるページを別のページに変更する特定状態ページ切換ステップと、を含む。   According to another aspect of the present invention, the content display method is a content display method executed by a data processing device, the data processing device including a display unit capable of displaying an image, and a display surface of the display unit. A position detecting unit capable of detecting one or more positions designated by the user, and displaying at least a part of an image of a display portion of one page to be displayed among a plurality of pages included in the content as the display unit A content display step for displaying, and a gesture event determining step for determining at least one of a plurality of gesture events based on the one or more positions in response to detection of the one or more positions by the position detecting means. The content processing step is executed by the data processing device, and the content display step is at least determined in the gesture event determination step. Display image generation step including a display image generation step for generating a display image for displaying a display portion based on one gesture event, and a display control step for displaying the generated display image on a display means. When the first gesture event is determined in the gesture event determining step, the page switching step for changing the display target page to another page, and the second gesture event is determined in the gesture event determining step, When the second gesture event is determined in the scroll step for changing the display portion in the page to be displayed and the gesture event determining step, if the display portion cannot be changed in the scroll step, the display target page is separated. No ba Including a specific state page switching step of changing the di- and.

この局面に従えば、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なコンテンツ表示方法を提供することができる。   According to this aspect, it is possible to provide a content display method capable of reducing erroneous operations by the user and improving operability.

好ましくは、特定状態ページ切換ステップは、位置検出手段により1以上の位置が連続して検出されるジェスチャー期間が開始するジェスチャー開始時点においてスクロールステップにおいて表示部分の変更が可能であっても、ジェスチャー期間が終了するジェスチャー終了時点までにスクロールステップにおいて表示部分の変更ができない期間が存在する場合、ジェスチャー終了時点で、表示対象となるページを別のページに変更するステップを、含む。   Preferably, the specific state page switching step includes the gesture period even when the display portion can be changed in the scroll step at the gesture start time when the gesture period in which one or more positions are continuously detected by the position detection unit starts. If there is a period during which the display portion cannot be changed in the scroll step by the time when the gesture is ended, the step of changing the page to be displayed to another page at the time of the end of the gesture is included.

好ましくは、スクロールステップは、ジェスチャー期間においては、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定されるごとに、表示対象となるページ内で表示部分を変更できなくなるまで表示部分を変更するステップを含む。   Preferably, the scroll step includes a step of changing the display portion in the gesture period until the display portion cannot be changed in the display target page every time the second gesture event is determined in the gesture event determination step. .

好ましくは、ジェスチャーイベント決定ステップは、位置検出手段により検出される1つの位置が移動する速度がしきい値より小さい場合に第1ジェスチャーイベントを決定するフリック決定ステップと、位置検出手段により検出される1つの位置が移動する速度がしきい値以上の場合に第2ジェスチャーイベントを決定するスワイプ決定ステップと、を含む。   Preferably, the gesture event determining step is detected by the flick determining step of determining the first gesture event when the moving speed of one position detected by the position detecting unit is smaller than the threshold, and the position detecting unit. And a swipe determination step of determining a second gesture event when the speed at which one position moves is equal to or greater than a threshold value.

この発明の他の局面によれば、コンテンツ表示プログラムは、データ処理装置を制御するコンピューターで実行されるコンテンツ表示プログラムであって、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、を備え、コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を表示手段に表示するコンテンツ表示ステップと、位置検出手段により1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定ステップと、をコンピューターに実行させ、コンテンツ表示ステップは、ジェスチャーイベント決定ステップにおいて決定された少なくとも1つのジェスチャーイベントに基づいて表示部分を表示するための表示用画像を生成する表示用画像生成ステップと、生成された表示用画像を表示手段に表示する表示制御ステップと、を含み、表示用画像生成ステップは、ジェスチャーイベント決定ステップにおいて第1ジェスチャーイベントが決定される場合、表示対象となるページを別のページに変更するページ切換ステップと、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合、表示対象となるページ内で表示部分を変更するスクロールステップと、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合において、スクロールステップにおいて表示部分の変更ができない場合、表示対象となるページを別のページに変更する特定状態ページ切換ステップと、を含む。   According to another aspect of the present invention, the content display program is a content display program that is executed by a computer that controls the data processing device. The data processing device includes: a display unit that can display an image; An image of at least a part of a display portion of one page to be displayed among a plurality of pages included in the content. A content display step for displaying the image on the display means, and a gesture event determination for determining at least one of the plurality of gesture events based on the one or more positions in response to the detection of the one or more positions by the position detection means And the step of causing the computer to execute the content display step determines the gesture event. A display image generating step for generating a display image for displaying a display portion based on at least one gesture event determined in step, a display control step for displaying the generated display image on a display means, And when the first gesture event is determined in the gesture event determination step, the display image generation step includes a page switching step for changing the display target page to another page, and a second gesture in the gesture event determination step. When the event is determined, the display portion cannot be changed in the scroll step when the second gesture event is determined in the scroll step for changing the display portion in the page to be displayed and the gesture event determination step. Optionally comprises a specific state page switching step of changing the page to be displayed on a separate page.

この局面に従えば、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なコンテンツ表示プログラムを提供することができる。   According to this aspect, it is possible to provide a content display program capable of reducing erroneous operations by the user and improving operability.

本実施の形態の一つにおけるMFPの外観を示す斜視図である。1 is a perspective view showing an appearance of an MFP in one embodiment of the present invention. 操作パネルの一例を示す平面図である。It is a top view which shows an example of an operation panel. MFPのハードウェア構成の概要の一例を示すブロック図である。2 is a block diagram illustrating an example of an outline of a hardware configuration of an MFP. FIG. MFPが備えるCPUのソフトウェアアーキテクチャの一例を示す図である。2 is a diagram illustrating an example of a software architecture of a CPU provided in an MFP. FIG. MFPが備えるCPUが有する機能の一例を、HDDに記憶される情報とともに示すブロック図である。3 is a block diagram illustrating an example of functions of a CPU included in an MFP, together with information stored in an HDD. FIG. マスターテーブルの一例を示す図である。It is a figure which shows an example of a master table. ジェスチャーイベント決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a gesture event determination process. 複数位置検出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a multiple position detection process. コンテンツ表示処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a content display process. 表示用画像更新処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a display image update process. 優先表示処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a priority display process. 特定状態ページ切換処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a specific state page switching process. 画面の一例を示す第1の図である。It is a 1st figure which shows an example of a screen. 画面の一例を示す第2の図である。It is a 2nd figure which shows an example of a screen. 画面の一例を示す第3の図である。It is a 3rd figure which shows an example of a screen. 画面の一例を示す第4の図である。It is a 4th figure which shows an example of a screen. 画面の一例を示す第5の図である。It is a 5th figure which shows an example of a screen.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本実施の形態の一つにおけるMFPの外観を示す斜視図である。図2は、操作パネルの一例を示す平面図である。図1および図2を参照して、MFP100は、データ処理装置の一例であり、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、ユーザーインターフェースとしての操作パネル160とを含む。   FIG. 1 is a perspective view showing an external appearance of an MFP according to one embodiment. FIG. 2 is a plan view showing an example of the operation panel. Referring to FIGS. 1 and 2, MFP 100 is an example of a data processing device, and includes a document reading unit 130 for reading a document, an automatic document transport device 120 for transporting a document to document reading unit 130, and An image forming unit 140 for forming an image on a sheet or the like based on image data output by the document reading unit 130 reading the document, a sheet feeding unit 150 for supplying the image forming unit 140 with a sheet, and a user interface As an operation panel 160.

操作パネル160は、MFP100の上面に設けられる。操作パネル160は、表示部161と、タッチパネル165と、ハードキー部167とを含む。表示部161は、例えば、液晶表示装置(LCD)であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。ユーザーがMFP100を操作する場合は直立した姿勢となるので、表示部161の表示面およびタッチパネル165の操作面は、上方を向いて配置される。ユーザーが表示部161の表示面を容易に視認することができ、ユーザーが指でタッチパネルを指示する動作を容易にするためである。   Operation panel 160 is provided on the upper surface of MFP 100. Operation panel 160 includes a display unit 161, a touch panel 165, and a hard key unit 167. The display unit 161 is, for example, a liquid crystal display device (LCD), and displays an instruction menu for a user, information about acquired image data, and the like. When the user operates the MFP 100, the user is in an upright posture, so that the display surface of the display unit 161 and the operation surface of the touch panel 165 are arranged facing upward. This is because the user can easily visually recognize the display surface of the display unit 161 and the user can easily perform an operation of pointing the touch panel with a finger.

ハードキー部167は、「BOX」、「FAX」、「COPY」、「ECO」の文字がそれぞれ表された4つのハードキー167A〜167Dを含む。タッチパネル165は、表示部161の上面または下面に表示部161に重畳して設けられたマルチタッチ対応のタッチパネルであり、表示部161の表示面中でユーザーにより指示された位置を検出する。ユーザーがタッチパネル165を指示する操作は、タッチパネル165を、同時に複数個所を指で指示するマルチタッチ操作と、一度に1つの個所を指で指示するシングルタッチ操作と、を含む。   The hard key portion 167 includes four hard keys 167A to 167D each representing characters of “BOX”, “FAX”, “COPY”, and “ECO”. The touch panel 165 is a multi-touch compatible touch panel provided on the upper surface or the lower surface of the display unit 161 so as to overlap the display unit 161, and detects a position designated by the user on the display surface of the display unit 161. The operation in which the user instructs the touch panel 165 includes a multi-touch operation for instructing the touch panel 165 with a finger at the same time, and a single touch operation for instructing one place with a finger at a time.

自動原稿搬送装置120は、原稿給紙トレイ上にセットされた複数枚の原稿を1枚ずつ自動的に原稿読取部130のプラテンガラス上に設定された所定の原稿読み取り位置まで搬送し、原稿読取部130により原稿画像が読み取られた原稿を原稿排紙トレイ上に排出する。原稿読取部130は、原稿読取位置に搬送されてきた原稿に光を照射する光源と、原稿で反射した光を受光する光電変換素子とを含み、原稿のサイズに応じた原稿画像を走査する。光電変換素子は、受光した光を電気信号である画像データに変換して、画像形成部140に出力する。給紙部150は、給紙トレイに収納された用紙を画像形成部140に搬送する。   The automatic document feeder 120 automatically conveys a plurality of documents set on the document feeding tray one by one to a predetermined document reading position set on the platen glass of the document reading unit 130, and reads the document. The document whose document image is read by the unit 130 is discharged onto a document discharge tray. The document reading unit 130 includes a light source that irradiates light to the document conveyed to the document reading position and a photoelectric conversion element that receives light reflected from the document, and scans a document image corresponding to the size of the document. The photoelectric conversion element converts the received light into image data that is an electrical signal and outputs the image data to the image forming unit 140. The paper feed unit 150 conveys the paper stored in the paper feed tray to the image forming unit 140.

画像形成部140は、周知の電子写真方式により画像を形成するものであって、原稿読取部130から入力される画像データにシェーディング補正などの各種のデータ処理を施した、データ処理後の画像データまたは、外部から受信された画像データに基づいて、給紙部150により搬送される用紙に画像を形成する。   The image forming unit 140 forms an image by a well-known electrophotographic method, and the image data after data processing is obtained by performing various data processing such as shading correction on the image data input from the document reading unit 130. Alternatively, an image is formed on a sheet conveyed by the sheet feeding unit 150 based on image data received from the outside.

図3は、MFPのハードウェア構成の概要の一例を示すブロック図である。図3を参照して、MFP100は、メイン回路110を含む。メイン回路110は、CPU111と、通信インターフェース(I/F)部112と、ROM(Read Only Memory)113と、RAM(Random Access Memory)114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、外部記憶装置117と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150および操作パネル160と接続され、MFP100の全体を制御する。   FIG. 3 is a block diagram illustrating an example of an outline of the hardware configuration of the MFP. Referring to FIG. 3, MFP 100 includes a main circuit 110. The main circuit 110 includes a CPU 111, a communication interface (I / F) unit 112, a ROM (Read Only Memory) 113, a RAM (Random Access Memory) 114, and a hard disk drive (HDD) 115 as a mass storage device. A facsimile unit 116 and an external storage device 117. CPU 111 is connected to automatic document feeder 120, document reading unit 130, image forming unit 140, sheet feeding unit 150, and operation panel 160, and controls the entire MFP 100.

ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる読取画像を一時的に記憶する。   The ROM 113 stores a program executed by the CPU 111 or data necessary for executing the program. The RAM 114 is used as a work area when the CPU 111 executes a program. Further, the RAM 114 temporarily stores the read images continuously sent from the document reading unit 130.

ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶するか、または、画像形成部140でプリント可能なプリントデータに変換して、画像形成部140に出力する。これにより、画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙に画像を形成する。また、ファクシミリ部116は、原稿読取部130によって読み取られたデータ、またはHDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。   The facsimile unit 116 is connected to the public switched telephone network (PSTN) and transmits facsimile data to the PSTN or receives facsimile data from the PSTN. The facsimile unit 116 stores the received facsimile data in the HDD 115 or converts the received facsimile data into print data that can be printed by the image forming unit 140 and outputs the print data to the image forming unit 140. As a result, the image forming unit 140 forms an image on a sheet of facsimile data received by the facsimile unit 116. Further, the facsimile unit 116 converts the data read by the document reading unit 130 or the data stored in the HDD 115 into facsimile data, and transmits the facsimile data to a facsimile machine connected to the PSTN.

通信I/F部112は、ネットワークにMFP100を接続するためのインターフェースである。通信I/F部112は、TCP(Transmission Control Protocol)またはFTP(File Transfer Protocol)等の通信プロトコルで、ネットワークに接続された他のコンピューターと通信する。なお、通信のためのプロトコルは、特に限定されることはなく、任意のプロトコルを用いることができる。また、通信I/F部112が接続されるネットワークは、例えば、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワークは、LANに限らず、ワイドエリアネットワーク(WAN)、公衆交換電話網(Public Switched Telephone Networks)を用いたネットワーク等であってもよい。さらに、ネットワークは、インターネットに接続されている。このため、MFP100は、インターネットに接続されたサーバー等のコンピューターと通信が可能である。   Communication I / F unit 112 is an interface for connecting MFP 100 to a network. The communication I / F unit 112 communicates with other computers connected to the network using a communication protocol such as TCP (Transmission Control Protocol) or FTP (File Transfer Protocol). Note that the protocol for communication is not particularly limited, and an arbitrary protocol can be used. The network to which the communication I / F unit 112 is connected is, for example, a local area network (LAN), and the connection form may be wired or wireless. The network is not limited to the LAN, and may be a network using a wide area network (WAN), a public switched telephone network, or the like. Furthermore, the network is connected to the Internet. Therefore, MFP 100 can communicate with a computer such as a server connected to the Internet.

外部記憶装置117は、CPU111により制御され、CD−ROM(Compact Disk Read Only Memory)118、または半導体メモリーが装着される。CPU111は、外部記憶装置117を介してCD−ROM118または半導体メモリーにアクセス可能である。CPU111は、外部記憶装置117に装表されたCD−ROM118または半導体メモリーに記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムは、CD−ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、通信I/F部112に接続されるネットワークを介して、ネットワークに接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワークに接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The external storage device 117 is controlled by the CPU 111, and a CD-ROM (Compact Disk Read Only Memory) 118 or a semiconductor memory is mounted. The CPU 111 can access the CD-ROM 118 or the semiconductor memory via the external storage device 117. The CPU 111 loads the program recorded in the CD-ROM 118 or semiconductor memory mounted on the external storage device 117 into the RAM 114 and executes it. Note that the program executed by the CPU 111 is not limited to the program recorded on the CD-ROM 118, and the program stored in the HDD 115 may be loaded into the RAM 114 and executed. In this case, another computer connected to the network rewrites the program stored in HDD 115 of MFP 100 or adds a new program and writes it via the network connected to communication I / F unit 112. You may do it. Further, MFP 100 may download a program from another computer connected to the network and store the program in HDD 115. The program here includes not only a program directly executable by the CPU 111 but also a source program, a compressed program, an encrypted program, and the like.

なお、CPU111が実行するプログラムを記憶する媒体としては、CD−ROM118に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programable ROM)、EEPROM(Electrically EPROM)などの半導体メモリーであってもよい。   The medium for storing the program executed by the CPU 111 is not limited to the CD-ROM 118, but an optical disc (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)), IC card, optical card, It may be a semiconductor memory such as a mask ROM, EPROM (Erasable Programmable ROM), or EEPROM (Electrically EPROM).

操作パネル160は、表示部161と操作部163とを含む。表示部161は、液晶表示装置(LCD)、有機ELD(Electro−Luminescence Display)等のディスプレイであり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、タッチパネル165と、複数のキーからなるハードキー部167と、を含む。ハードキー部167が含む複数のキーそれぞれは、接点スイッチを含み、CPU111に接続される。ハードキーは、操作ユーザーにより押下されると接点を閉じて、CPU111に接続される回路を閉じる。ハードキーは、MFP100を操作する操作ユーザーにより押下されている間は回路を閉じ、操作ユーザーにより押下されていない間は回路を開く。   Operation panel 160 includes a display unit 161 and an operation unit 163. The display unit 161 is a display such as a liquid crystal display (LCD) or an organic ELD (Electro-Luminescence Display), and displays an instruction menu for the user, information about acquired image data, and the like. The operation unit 163 includes a touch panel 165 and a hard key unit 167 including a plurality of keys. Each of the plurality of keys included in the hard key unit 167 includes a contact switch and is connected to the CPU 111. When the hard key is pressed by the operation user, the contact is closed and the circuit connected to the CPU 111 is closed. The hard key closes the circuit while being pressed by the operating user who operates the MFP 100, and opens the circuit when not pressed by the operating user.

操作部163は、ハードキー部167が有する複数のキーが押下されると、押下されたキーに対応する指示、文字、数字などのデータの入力を受け付ける。タッチパネル165は、表示部161の上面または下面に設けられ、操作ユーザーにより指示された位置の座標をCPU111に出力する。タッチパネル165は、操作ユーザーが指またはスタイラスペンで指示した位置を検出し、検出した位置の座標をCPU111に出力する。タッチパネル165は、マルチタッチ対応のタッチパネルであり、ユーザーがマルチタッチ操作を入力する場合、ユーザーにより同時に指示された複数の位置にそれぞれ対応する複数の座標をCPU111に出力する。また、タッチパネル165は、ユーザーがシングルタッチ操作を入力する場合に、ユーザーにより指示された単一の位置に対応する座標をCPU111に出力する。   When a plurality of keys included in the hard key unit 167 are pressed, the operation unit 163 receives input of data such as instructions, characters, and numbers corresponding to the pressed keys. The touch panel 165 is provided on the upper surface or the lower surface of the display unit 161, and outputs the coordinates of the position designated by the operation user to the CPU 111. The touch panel 165 detects a position designated by the operation user with a finger or a stylus pen, and outputs the coordinates of the detected position to the CPU 111. The touch panel 165 is a multi-touch compatible touch panel, and outputs a plurality of coordinates corresponding to a plurality of positions simultaneously designated by the user to the CPU 111 when the user inputs a multi-touch operation. Further, the touch panel 165 outputs coordinates corresponding to a single position designated by the user to the CPU 111 when the user inputs a single touch operation.

タッチパネル165は、表示部161の表示面と同じまたはそれ以上のサイズであるのが好ましい。タッチパネル165は、表示部161に重畳して設けられるので、タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、表示部161の表示面中で操作ユーザーが指示した位置の座標をCPU111に出力する。タッチパネル165は、例えば、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式を用いることができ、その方式は限定されない。操作部163が受け付け可能な操作は、ハードキー部167が有する複数のキーを押下する操作、タッチパネル165を指示するシングルタッチ操作およびマルチタッチ操作を含む。   The touch panel 165 is preferably the same size or larger than the display surface of the display unit 161. Since the touch panel 165 is provided so as to overlap the display unit 161, the touch panel 165 indicates the coordinates of the position indicated by the operation user on the display surface of the display unit 161 when the operation user indicates the display surface of the display unit 161. It outputs to CPU111. For the touch panel 165, for example, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, or a capacitance method can be used, and the method is not limited. The operations that can be accepted by the operation unit 163 include an operation of pressing a plurality of keys of the hard key unit 167, a single touch operation that instructs the touch panel 165, and a multi-touch operation.

図4は、MFPが備えるCPUのソフトウェアアーキテクチャの一例を示す図である。図4を参照して、CPU111には、オペレーティングシステム(OS)層が形成され、その上の階層に、MFPプロセス層が形成される。MFPプロセス層の上層に、アプリケーションプラットフォーム(PF)層、アプリケーション層の順に形成される。   FIG. 4 is a diagram illustrating an example of a software architecture of a CPU provided in the MFP. Referring to FIG. 4, an operating system (OS) layer is formed in CPU 111, and an MFP process layer is formed in a layer above it. An application platform (PF) layer and an application layer are formed in this order on the MFP process layer.

OS層は、CPU111がOSプログラムを実行するタスクが属する。OS層に属するタスクは、MFP100のハードウェア資源を制御する処理を実行する。ハードウェア資源は、ここでは、通信I/F部112、ROM113、RAM114、HDD115、ファクシミリ部116、外部記憶装置117、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150、操作パネル160を含む。OS層に属するタスクは、MFPプロセス層から入力されるオペレーティングコマンドに従って、ハードウェア資源を制御する。また、OS層は、MFPプロセス層との間で、ハードウェア資源の1つである操作部163が受け付け可能な複数種類の操作それぞれを識別するための操作識別情報を共有しており、OS層に属するタスクは、操作部163によって操作ユーザーによる操作が検出されることに応じて、検出された操作を示す操作識別情報をMFPプロセス層に出力する。   The OS layer includes a task for the CPU 111 to execute the OS program. A task belonging to the OS layer executes processing for controlling hardware resources of the MFP 100. Here, the hardware resources include the communication I / F unit 112, the ROM 113, the RAM 114, the HDD 115, the facsimile unit 116, the external storage device 117, the automatic document feeder 120, the document reading unit 130, the image forming unit 140, and the paper feeding unit 150. The operation panel 160 is included. A task belonging to the OS layer controls hardware resources in accordance with an operating command input from the MFP process layer. Further, the OS layer shares operation identification information for identifying each of a plurality of types of operations that can be accepted by the operation unit 163, which is one of hardware resources, with the MFP process layer. When the operation unit 163 detects an operation by the operating user, the task belonging to the group outputs operation identification information indicating the detected operation to the MFP process layer.

アプリケーション層は、CPU111がアプリケーションプログラムを実行するタスクが属する。複数種類のアプリケーションプログラムがMFP100にインストールされる場合、アプリケーション層に、複数種類のアプリケーションプログラムをそれぞれ実行する複数のタスクが属する場合がある。   The application layer includes a task for the CPU 111 to execute an application program. When a plurality of types of application programs are installed in MFP 100, a plurality of tasks that respectively execute the plurality of types of application programs may belong to the application layer.

アプリケーションプログラムを実行するタスクは、アプリケーションプログラムによって定められた複数種類の処理を実行する。複数種類の処理は、MFPプロセス層において実行される処理をMFPプロセス層に属するタスクに実行させる処理を含む。アプリケーションプログラムを実行するタスクは、MFPプロセス層に属するタスクに処理を実行させる場合、アプリコマンドを出力する。アプリコマンドは、API(Application Program Interface)として、公開されたコマンドである。このため、MFP100に処理を実行させるアプリケーションプログラムを容易に作成することができる。公開とは、MFP100を製造するメーカー以外の第三者が使用可能な状態をいう。このため、第三者は、アプリコマンドを用いてMFP100にインストール可能なアプリケーションプログラムを開発することができる。   The task for executing the application program executes a plurality of types of processing determined by the application program. The multiple types of processing include processing for causing a task belonging to the MFP process layer to execute processing executed in the MFP process layer. The task that executes the application program outputs an application command when the task belonging to the MFP process layer executes processing. The application command is a command published as an API (Application Program Interface). Therefore, an application program that causes MFP 100 to execute processing can be easily created. “Public” means a state in which a third party other than the manufacturer that manufactures the MFP 100 can use it. Therefore, a third party can develop an application program that can be installed in MFP 100 using an application command.

さらに、アプリケーションプログラムを実行するタスクは、MFP100を操作する操作ユーザーが入力する操作に基づいて、アプリケーションプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、処理を実行する。MFP100を操作する操作ユーザーが入力する操作は、操作ユーザーが操作部163を操作して入力することにより、OS層において受け付けられる。   Further, the task for executing the application program specifies a process to be executed from among a plurality of types of processes defined by the application program based on an operation input by an operation user operating MFP 100, and executes the process. An operation input by an operation user who operates MFP 100 is accepted in the OS layer when the operation user operates operation unit 163 to input.

アプリケーションPF層は、アプリケーション層とMFPプロセス層との間に配置され、アプリケーション層に属する複数のタスクを調停するとともに、アプリケーション層に属する複数のタスクが出力するアプリコマンドを制御するタスクが属する。具体的には、アプリケーションPF層は、アプリケーション層に属する複数のタスクそれぞれが出力するアプリコマンドを受け付け、受け付けられたアプリコマンドを、予め定められた規則に従って内部コマンドに変換することにより標準化し、内部コマンドをMFPプロセス層に出力する。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。また、アプリケーションPF層は、アプリケーション層に属する複数のタスクのいずれか1つをカレント状態に決定する。そして、OS層において受け付けられ、MFPプロセス層に属するタスクから入力される操作を、アプリケーション層に属する複数のタスクのうちカレント状態に決定したカレントタスクに出力する。   The application PF layer is arranged between the application layer and the MFP process layer, and arbitrates a plurality of tasks belonging to the application layer, and a task for controlling an application command output by the plurality of tasks belonging to the application layer belongs. Specifically, the application PF layer accepts application commands output by each of a plurality of tasks belonging to the application layer, standardizes the received application commands by converting them into internal commands according to a predetermined rule, The command is output to the MFP process layer. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. In addition, the application PF layer determines any one of a plurality of tasks belonging to the application layer as a current state. Then, an operation received from the task belonging to the MFP process layer and received from the OS layer is output to the current task determined as the current state among a plurality of tasks belonging to the application layer.

OS層において受け付けられるユーザーが入力する操作は、1本の指でタッチパネル165を指示するシングルタッチ操作と、2本以上の指で同時にタッチパネル165を指示するマルチタッチ操作とを含む。シングルタッチ操作およびマルチタッチ操作は、それぞれマウスイベントとしてオペレーティングシステムによって検出され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。また、1以上のマウスイベントは、MFPプロセス層においてジェスチャーイベントに変換され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。このため、アプリケーション層は、MFPプロセス層との間で、アプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントを共有しており、アプリケーションプログラムを実行するタスクは、アプリケーションPF層に属するタスクからアプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントが入力される。アプリケーションプログラムを実行するタスクは、複数種類の処理のうちジェスチャーイベントに対応する処理を実行する。   The operations input by the user accepted in the OS layer include a single touch operation in which the touch panel 165 is instructed with one finger and a multi-touch operation in which the touch panel 165 is instructed simultaneously with two or more fingers. The single touch operation and the multi-touch operation are detected by the operating system as mouse events, respectively, and input from the application PF layer to the current task among a plurality of tasks belonging to the application layer. One or more mouse events are converted into gesture events in the MFP process layer, and input from the application PF layer to the current task among a plurality of tasks belonging to the application layer. For this reason, the application layer shares one or more gesture events that can be accepted by the application program with the MFP process layer, and the task for executing the application program is executed from the task belonging to the application PF layer by the application program. One or more acceptable gesture events are input. The task for executing the application program executes a process corresponding to the gesture event among a plurality of types of processes.

アプリコマンドと内部コマンドとは予め対応付けられている。例えば、アプリコマンドと内部コマンドとを対応付けたコマンド対応テーブルを記憶しておくようにすればよい。アプリコマンドと内部コマンドとは、1対1に対応してもよいし、1つのアプリコマンドに2以上の内部コマンドの組が対応していてもよい。さらに、バージョンの異なる複数のアプリコマンドに対して、1つの内部コマンド、または複数の内部コマンドからなる1組が対応していてもよい。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。内部コマンドは、MFP100のハードウェア資源に依存するコマンドである。内部コマンドは、通常は、公開されていないが、公開されていてもよい。   Application commands and internal commands are associated in advance. For example, a command correspondence table in which application commands and internal commands are associated with each other may be stored. An application command and an internal command may correspond one-to-one, or a set of two or more internal commands may correspond to one application command. Furthermore, one internal command or a set of a plurality of internal commands may correspond to a plurality of application commands having different versions. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. The internal command is a command that depends on the hardware resources of MFP 100. The internal command is not normally disclosed, but may be disclosed.

MFPプロセス層は、アプリケーションPF層とOS層との間に配置され、CPU111がMFPプロセスプログラムを実行するタスクが属する。MFPプロセス層は、アプリケーションPF層に属するタスクが出力する内部コマンドを、OS層に属するタスクが解釈可能なオペレーティングコマンドに変換し、ハードウェア資源を制御するためにオペレーティングコマンドをOS層に属するタスクに出力する。なお、実際には、内部コマンドを、OS層に属するタスクが実行可能な1以上のオペレーティングコマンドに変換する場合があるが、ここでは説明のために、内部コマンドとOS層に属するタスクが実行可能な1以上のオペレーティングコマンドとの関係は1対1として、説明する。   The MFP process layer is arranged between the application PF layer and the OS layer, and a task for the CPU 111 to execute the MFP process program belongs to it. The MFP process layer converts an internal command output by a task belonging to the application PF layer into an operating command interpretable by the task belonging to the OS layer, and converts the operating command to a task belonging to the OS layer in order to control hardware resources. Output. In actuality, internal commands may be converted into one or more operating commands that can be executed by tasks belonging to the OS layer, but for the sake of explanation, internal commands and tasks belonging to the OS layer can be executed. The relationship with one or more operating commands will be described as one-to-one.

上述したように、アプリケーションプログラムは、MFP100に、Webページ、画像データ等のコンテンツを表示するコンテンツ表示処理、コピー処理、スキャン処理、プリント処理、ファクシミリ送受信処理、データ送信処理等を実行させるためのアプリケーションプログラムであるが、以下の説明では、アプリケーションプログラムがCPU111に実行させる処理のうちで、操作パネル160を制御する処理に関連する部分を主に説明する。   As described above, the application program causes MFP 100 to execute content display processing for displaying content such as Web pages and image data, copy processing, scan processing, print processing, facsimile transmission / reception processing, data transmission processing, and the like. Although it is a program, in the following description, the part relevant to the process which controls the operation panel 160 is mainly demonstrated among the processes which an application program makes CPU111 perform.

図5は、MFPが備えるCPUが有する機能の一例を、HDDに記憶される情報とともに示すブロック図である。図5に示す機能は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたプログラムを実行することにより、CPU111により実現される機能である。具体的には、CPU111が、OSプログラム、MFPプロセスプログラム、操作受付プログラム、およびアプリケーションプログラムを実行することにより、CPU111により実現される。ここでは、MFP100に、アプリケーションプログラムとして、コンテンツ表示プログラムがインストールされている場合におけるCPU111の機能を示している。   FIG. 5 is a block diagram illustrating an example of functions of the CPU included in the MFP, together with information stored in the HDD. The functions shown in FIG. 5 are functions realized by CPU 111 when CPU 111 provided in MFP 100 executes a program stored in ROM 113, HDD 115, or CD-ROM 118. Specifically, the CPU 111 is realized by the CPU 111 by executing an OS program, an MFP process program, an operation reception program, and an application program. Here, the function of CPU 111 when a content display program is installed as an application program in MFP 100 is shown.

図5を参照して、CPU111は、コンテンツ表示部51と、調停部53と、操作変換部55と、オペレーティング部57と、を含む。コンテンツ表示部51は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーション層に属する。コンテンツ表示部51は、CPU111がコンテンツ表示プログラムを実行することによってCPU111に形成される機能である。   Referring to FIG. 5, CPU 111 includes a content display unit 51, an arbitration unit 53, an operation conversion unit 55, and an operating unit 57. The content display unit 51 belongs to the application layer in the software architecture shown in FIG. The content display unit 51 is a function formed in the CPU 111 when the CPU 111 executes a content display program.

調停部53および操作変換部55は、CPU111が操作受付プログラムを実行するタスクによってCPU111に形成される機能である。調停部53は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。操作変換部55は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。なお、操作変換部55が有する機能のすべてをアプリケーションPF層の機能としたが、操作変換部55が有する機能の少なくとも一部をアプリケーションPF層の機能とし、他の部分をMFPプロセス層の機能としてもよい。   The arbitration unit 53 and the operation conversion unit 55 are functions formed in the CPU 111 by a task in which the CPU 111 executes the operation reception program. The arbitration unit 53 belongs to the application PF layer in the software architecture shown in FIG. The operation conversion unit 55 belongs to the application PF layer in the software architecture shown in FIG. Although all the functions of the operation conversion unit 55 are functions of the application PF layer, at least some of the functions of the operation conversion unit 55 are functions of the application PF layer, and other parts are functions of the MFP process layer. Also good.

調停部53は、コンテンツ表示部51の他にCPU111が別のアプリケーションプログラムを実行することによって、アプリケーション層に複数のタスクが形成される場合、複数のタスクのうちいずれか1つをカレント状態に決定する。以下、調停部53が、カレント状態に決定しているタスクをカレントタスクという。本実施の形態においては、アプリケーション層にコンテンツ表示プログラムを実行するコンテンツ表示部51のみが含まれるので、コンテンツ表示部51をカレント状態に決定する。   When the CPU 111 executes another application program in addition to the content display unit 51 to form a plurality of tasks in the application layer, the arbitration unit 53 determines any one of the plurality of tasks as the current state. To do. Hereinafter, the task that the arbitration unit 53 has determined to be in the current state is referred to as a current task. In the present embodiment, since only the content display unit 51 that executes the content display program is included in the application layer, the content display unit 51 is determined to be in the current state.

調停部53は、コンテンツ表示部51が出力するアプリコマンドが入力され、アプリコマンドを出力したタスクを識別するためのアプリ識別情報とアプリコマンドとを操作変換部55に出力する。   The arbitration unit 53 receives the application command output from the content display unit 51, and outputs application identification information for identifying the task that has output the application command and the application command to the operation conversion unit 55.

調停部53は、コンテンツ表示部51から複数のアプリコマンドが出力される場合、それらの順番を決定し、順に操作変換部55に出力する。例えば、複数のアプリコマンドを同時に実行できない場合に、一方のアプリコマンドの操作変換部55による実行が終了するのを待って他方のアプリコマンドを操作変換部55に出力する。また、一方のアプリコマンドを実行した後でなければ、他方のアプリコマンドを実行できない場合には、他方のアプリコマンドが一方のアプリコマンドより先に入力される場合であっても、一方のアプリコマンドを先に出力する。   When a plurality of application commands are output from the content display unit 51, the arbitration unit 53 determines their order and outputs them to the operation conversion unit 55 in order. For example, when a plurality of application commands cannot be executed simultaneously, the other application command is output to the operation conversion unit 55 after the execution of one application command by the operation conversion unit 55 is completed. Also, if the other app command cannot be executed until after one app command has been executed, the other app command can be executed even if the other app command is input prior to the other app command. Is output first.

操作変換部55は、調停部53からアプリコマンドが入力され、アプリコマンドをコマンド対応テーブルに従って内部コマンドに変換することにより標準化する。コマンド対応テーブルは、1つのアプリコマンドに1以上の内部コマンドを対応付ける。コマンド対応テーブルに含まれるアプリコマンドは、バージョンの異なる同種類のアプリコマンドを含む場合があり、この場合、異なるバージョンのアプリコマンドそれぞれを1以上の内部コマンドに対応付ける。このため、異なるバージョンのアプリコマンドを記述したアプリケーションプログラムをインストールすることを可能としている。コマンド対応テーブルは、新しいアプリコマンドが登場する場合に、新たに登場したアプリコマンドに1以上の内部コマンドを対応付けたコマンド対応テーブルで更新される。このため、新しいアプリコマンドを記述したアプリケーションプログラムをインストールすることができる。   The operation conversion unit 55 receives the application command from the arbitration unit 53 and standardizes the application command by converting the application command into an internal command according to the command correspondence table. The command correspondence table associates one or more internal commands with one application command. The application commands included in the command correspondence table may include the same type of application commands with different versions. In this case, each different version of the application command is associated with one or more internal commands. For this reason, it is possible to install an application program in which application commands of different versions are described. When a new application command appears, the command correspondence table is updated with a command correspondence table in which one or more internal commands are associated with the newly appeared application command. Therefore, an application program describing a new application command can be installed.

さらに、操作変換部55は、標準化された内部コマンドを、オペレーティングコマンドに変換し、オペレーティングコマンドをオペレーティング部57に出力する。オペレーティングコマンドは、操作変換部55とオペレーティング部57との間で予め定められた、オペレーティング部57が解釈可能なコマンドである。   Further, the operation conversion unit 55 converts the standardized internal command into an operating command, and outputs the operating command to the operating unit 57. The operating command is a command that is predetermined between the operation conversion unit 55 and the operating unit 57 and that can be interpreted by the operating unit 57.

オペレーティング部57は、CPU111がOSプログラムを実行することによってCPU111に形成される機能である。オペレーティング部57は、図4に示したソフトウェアアーキテクチャにおいて、OS層に属する。   The operating unit 57 is a function formed in the CPU 111 when the CPU 111 executes the OS program. The operating unit 57 belongs to the OS layer in the software architecture shown in FIG.

オペレーティング部57は、操作変換部55が出力するオペレーティングコマンドが入力され、オペレーティングコマンドに従って、ハードウェア資源を制御する。ハードウェア資源として、ここでは、表示部161、操作部163のタッチパネル165およびHDD115を例に説明する。オペレーティング部57は、表示部161を制御して、表示部161に画像を表示させる。また、オペレーティング部57は、HDD115を制御して、HDD115にデータを記憶させ、また、HDD115に記憶されたデータを読み出す。さらに、オペレーティング部57は、所定時間間隔でタッチパネル165にユーザーにより指示された位置を検出させ、タッチパネル165から所定時間間隔で位置情報を取得する。   The operating unit 57 receives an operating command output from the operation conversion unit 55 and controls hardware resources according to the operating command. As the hardware resources, here, the display unit 161, the touch panel 165 of the operation unit 163, and the HDD 115 will be described as an example. The operating unit 57 controls the display unit 161 to display an image on the display unit 161. In addition, the operating unit 57 controls the HDD 115 to store data in the HDD 115 and reads data stored in the HDD 115. Further, the operating unit 57 causes the touch panel 165 to detect a position designated by the user at a predetermined time interval, and acquires position information from the touch panel 165 at a predetermined time interval.

タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、操作ユーザーにより指示された位置を検出し、表示部161の表示面の位置を示す位置情報をCPU111に出力する。オペレーティング部57は、タッチパネル165から位置情報が入力される場合、位置情報を操作変換部55に出力する。オペレーティング部57は、タッチパネル165から同時に2以上の位置情報が入力される場合がある。例えば、操作ユーザーが、表示部161の表示面の異なる2つの部分を、2つの指で同時に指示する場合、指示された表示面の2つの位置をそれぞれ示す2つの位置情報を受け付ける。オペレーティング部57は、タッチパネル165から同時に2以上の位置情報を受け付ける場合、2以上の位置情報を、操作変換部55に出力する。   Touch panel 165 detects the position instructed by the operation user when the operation user indicates the display surface of display unit 161, and outputs position information indicating the position of the display surface of display unit 161 to CPU 111. When the position information is input from the touch panel 165, the operating unit 57 outputs the position information to the operation conversion unit 55. The operating unit 57 may receive two or more pieces of position information from the touch panel 165 at the same time. For example, when the operating user designates two different parts of the display surface of the display unit 161 with two fingers at the same time, two pieces of position information indicating the two positions of the designated display surface are received. When the operating unit 57 simultaneously receives two or more pieces of position information from the touch panel 165, the operating unit 57 outputs the two or more pieces of position information to the operation conversion unit 55.

操作変換部55は、関連付部91と、ジェスチャーイベント決定部93と、マウスイベント生成部95と、表示部制御部97と、を含む。関連付部91は、コンテンツ表示プログラムがインストールされる段階で、コンテンツ表示プログラムが定める複数種類の処理それぞれを、複数のジェスチャーイベントのいずれかと関連付ける。具体的には、関連付部91は、コンテンツ表示プログラムが定める複数の処理識別情報それぞれに、コンテンツ表示プログラムが受け付け可能なジェスチャーイベントを関連付けたマスターテーブルを生成し、HDD115に記憶する。   The operation conversion unit 55 includes an association unit 91, a gesture event determination unit 93, a mouse event generation unit 95, and a display unit control unit 97. The associating unit 91 associates each of a plurality of types of processes defined by the content display program with one of a plurality of gesture events at the stage where the content display program is installed. Specifically, the associating unit 91 generates a master table in which a gesture event that can be received by the content display program is associated with each of a plurality of pieces of processing identification information determined by the content display program, and stores the master table in the HDD 115.

図6は、マスターテーブルの一例を示す図である。図6を参照して、マスターテーブル99は、複数の処理識別情報ごとにマスターレコードを含む。マスターレコードは、処理の項目と、ジェスチャーの項目と、を含む。処理の項目には、処理識別情報が設定され、ジェスチャーの項目には、ジェスチャーイベントを識別するためのジェスチャー識別情報が設定される。   FIG. 6 is a diagram illustrating an example of the master table. Referring to FIG. 6, master table 99 includes a master record for each of a plurality of process identification information. The master record includes a process item and a gesture item. Processing identification information is set in the processing item, and gesture identification information for identifying a gesture event is set in the gesture item.

例えば、処理の項目に処理識別情報「ページ送り」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「スワイプ」が設定される。処理識別情報「ページ送り」で特定される処理は、画面を別のページの画面に変更して表示させる処理である。ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指を所定の速さより速い速さで移動させるユーザーの操作に対応する。指を所定の速さより速い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、指を移動させる方向をパラメータとして含む。   For example, in the master record in which the process identification information “page feed” is set in the process item, the gesture identification information “swipe” is set in the gesture item. The process specified by the process identification information “page feed” is a process of changing the screen to a screen of another page and displaying it. The gesture event specified by the gesture identification information “Swipe” corresponds to a user's operation of moving the finger to any one of up, down, left and right at a speed faster than a predetermined speed while instructing the touch panel 165. In the operation of moving the finger at a speed faster than a predetermined speed, the direction in which the finger is moved is determined. Therefore, the gesture event specified by the gesture identification information “swipe” includes the direction in which the finger is moved as a parameter.

処理の項目に処理識別情報「拡大」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチアウト」が設定される。処理識別情報「拡大」で特定される処理は、画面を拡大して表示させる処理である。ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が長くなるように移動させる操作に対応する。2箇所の間隔が長くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、2箇所の間隔が変化の割合を倍率とし、その倍率をパラメータとして含む。   In the master record in which the process identification information “enlarge” is set in the process item, the gesture identification information “pinch out” is set in the gesture item. The process specified by the process identification information “enlargement” is a process for enlarging and displaying the screen. The gesture event specified by the gesture identification information “pinch out” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations becomes long while designating the two locations on the touch panel 165. Since the operation of moving so that the interval between the two locations becomes longer, the interval between the two locations changes, the gesture event specified by the gesture identification information “pinch out” has the ratio of the change between the two locations as a magnification, The magnification is included as a parameter.

処理の項目に処理識別情報「縮小」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチイン」が設定される。処理識別情報「縮小」で特定される処理は、画面を縮小して表示させる処理である。ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が短くなるように移動させる操作に対応する。2箇所の間隔が短くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、2箇所の間隔が変化の割合を倍率とし、その倍率をパラメータとして含む。   In the master record in which the process identification information “reduction” is set in the process item, the gesture identification information “pinch-in” is set in the gesture item. The process specified by the process identification information “reduction” is a process of reducing the screen for display. The gesture event specified by the gesture identification information “pinch-in” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations is shortened while designating the two locations on the touch panel 165. Since the operation of moving so that the interval between the two locations is shortened, the interval between the two locations changes, the gesture event specified by the gesture identification information “pinch-in” has the ratio of the change between the two locations as a magnification. Includes magnification as a parameter.

処理の項目に処理識別情報「回転」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ローテーション」が設定される。処理識別情報「回転」で特定される処理は、画面を回転して画面の方向を変更する処理である。ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所を結ぶ直線の向きが変更されるように移動させる操作が入力される場合に検出される。例えば、2箇所の一方を中心に他方で円弧を描く操作である。円弧を描く方向が時計回りと反時計回りとがあるため、ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、回転方向と、回転角度とをパラメータとして含む。   In the master record in which the process identification information “rotation” is set in the process item, the gesture identification information “rotation” is set in the gesture item. The process specified by the process identification information “rotation” is a process of rotating the screen and changing the screen direction. The gesture event specified by the gesture identification information “Rotation” is an operation to move at least one of the two designated locations while changing the orientation of a straight line connecting the two locations while designating two locations on the touch panel 165. Detected when input. For example, this is an operation of drawing an arc on one of two places as the center. Since there are clockwise and counterclockwise directions for drawing the arc, the gesture event specified by the gesture identification information “rotation” includes the rotation direction and the rotation angle as parameters.

処理の項目に処理識別情報「スクロール」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「フリック」および「ダブルフリック」が設定される。処理識別情報「スクロール」で特定される処理は、画面を上下左右にスクロールさせる処理である。ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指をスワイプのジェスチャーイベントの操作におけるしきい値より遅い速さで移動させる操作に対応する。指をしきい値より遅い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、指を移動させる方向と移動距離とをパラメータとして含む。ジェスチャー識別情報「ダブルフリック」で特定されるジェスチャーイベントは、タッチパネル165を2本の指で指示しながら、上下左右のいずれかに2本の指をスワイプのジェスチャーイベントの操作におけるしきい値より遅い速さで同時に同じ方向に移動させる操作に対応する。2本の指をしきい値より遅い速さで同時に同じ方向に移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「ダブルフリック」で特定されるジェスチャーイベントは、2本の指を同じ方向に移動させる方向と、移動距離とをパラメータに含む。   In the master record in which the process identification information “scroll” is set in the process item, the gesture identification information “flick” and “double flick” are set in the gesture item. The process specified by the process identification information “scroll” is a process of scrolling the screen up / down / left / right. The gesture event specified by the gesture identification information “flick” corresponds to an operation in which the finger is moved at a speed slower than the threshold value in the operation of the swipe gesture event while instructing the touch panel 165, either vertically or horizontally. . The operation to move the finger at a speed slower than the threshold value determines the direction in which the finger is moved. Therefore, the gesture event specified by the gesture identification information “flick” uses the direction in which the finger is moved and the movement distance as parameters. Including. The gesture event specified by the gesture identification information “double flick” is slower than the threshold value in the gesture event operation of swiping two fingers either up, down, left, or right while pointing the touch panel 165 with two fingers. It corresponds to the operation to move in the same direction at the same time at the speed. The operation of moving two fingers simultaneously in the same direction at a speed slower than the threshold value determines the direction in which the finger is moved. Therefore, the gesture event specified by the gesture identification information “double flick” The parameters include the direction in which the two are moved in the same direction and the movement distance.

図5に戻って、表示部制御部97は、コンテンツ表示部51から入力されるアプリコマンドを、表示部161に画像を表示させるためのオペレーティングコマンドに変換し、オペレーティング部57に出力する。これにより、コンテンツ表示部51によって生成された表示画像が、表示部161のVRAMに記憶され、表示部161に表示画像の少なくとも一部が表示される。   Returning to FIG. 5, the display control unit 97 converts the application command input from the content display unit 51 into an operating command for causing the display unit 161 to display an image, and outputs the operating command to the operating unit 57. Thereby, the display image generated by the content display unit 51 is stored in the VRAM of the display unit 161, and at least a part of the display image is displayed on the display unit 161.

マウスイベント生成部95は、オペレーティング部57から位置情報が入力されることに応じてマウスイベントを生成する。さらに、マウスイベント生成部95は、マウスイベントを生成するごとに、生成されたマウスイベントをジェスチャーイベント決定部93に出力する。マウスイベント生成部95は、オペレーティング部57から複数の位置情報が同時に入力される場合、複数の位置情報それぞれに対応する複数のマウスイベントを生成する。マウスイベント生成部95は、1以上のマウスイベントを生成する場合、生成された1以上のマウスイベントをジェスチャーイベント決定部93に出力する。位置情報は、操作ユーザーが指示した表示部161の表示面中の位置を示す。   The mouse event generation unit 95 generates a mouse event in response to position information input from the operating unit 57. Further, every time a mouse event is generated, the mouse event generation unit 95 outputs the generated mouse event to the gesture event determination unit 93. When a plurality of pieces of position information are simultaneously input from the operating unit 57, the mouse event generation unit 95 generates a plurality of mouse events corresponding to the plurality of pieces of position information. When generating one or more mouse events, the mouse event generation unit 95 outputs the generated one or more mouse events to the gesture event determination unit 93. The position information indicates a position on the display surface of the display unit 161 instructed by the operation user.

操作ユーザーが表示部161の表示面を指示する操作は、ユーザーが表示部161の表示面の任意の位置を指示する指示開始操作、ユーザーが表示部161の表示面を指示しながら、換言すれば、表示部161の表示面に触れながら指示する位置を移動させる移動操作、ユーザーが表示部161の表示面の指示を終了する終了操作、を含む。マウスイベント生成部95は、オペレーティング部57から位置情報が入力されると、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。上述したように、オペレーティング部57は、タッチパネル165から位置情報が出力されるごとに、その位置情報を出力するので、時間の経過とともに連続して入力される位置情報の連続性に基づいて、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。   In other words, the operation of the operation user instructing the display surface of the display unit 161 is an instruction start operation in which the user specifies an arbitrary position on the display surface of the display unit 161, in other words, while the user indicates the display surface of the display unit 161. , A moving operation for moving the position to be instructed while touching the display surface of the display unit 161, and an ending operation for the user to end the instruction on the display surface of the display unit 161. When the position information is input from the operating unit 57, the mouse event generation unit 95 determines whether the operation by the operating user is an instruction start operation, a movement operation, or an end operation. As described above, the operating unit 57 outputs the position information every time the position information is output from the touch panel 165. Therefore, based on the continuity of the position information that is continuously input as time passes, It is determined whether the operation by the user is an instruction start operation, a move operation, or an end operation.

マウスイベント生成部95は、オペレーティング部57から位置情報が入力されていない状態が所定時間経過した後に入力される位置情報に対して、操作ユーザーによる操作が指示開始操作と判断し、位置情報と、指示開始操作を識別するための状態識別情報「Press」とを含むマウスイベントを生成する。   The mouse event generation unit 95 determines that the operation by the operating user is an instruction start operation with respect to the position information input after a predetermined time has passed without the position information being input from the operating unit 57, and the position information, A mouse event including state identification information “Press” for identifying the instruction start operation is generated.

マウスイベント生成部95は、状態識別情報「Press」のマウスイベントを検出した後、オペレーティング部57から連続して1以上位置情報が入力される場合、1以上の位置情報それぞれに対して、操作ユーザーによる操作が移動操作と判断する。マウスイベント生成部95は、オペレーティング部57から連続して入力される1以上の位置情報それぞれに対して、その位置情報と移動操作を識別するための状態識別情報「Move」とを含むマウスイベントを生成する。   When one or more pieces of position information are continuously input from the operating unit 57 after detecting the mouse event of the state identification information “Press”, the mouse event generation unit 95 operates the operation user for each piece of one or more pieces of position information. The operation according to is determined as a moving operation. For each of one or more pieces of position information continuously input from the operating unit 57, the mouse event generation unit 95 generates a mouse event including the position information and state identification information “Move” for identifying the moving operation. Generate.

マウスイベント生成部95は、状態識別情報「Move」のマウスイベントを検出した後、オペレーティング部57から位置情報が入力されなくなる場合、最後に入力された位置情報に対して、操作ユーザーによる操作が終了操作と判断し、最後に入力された位置情報と、終了操作を識別するための状態識別情報「Release」とを含むマウスイベントを生成する。   When the mouse event generation unit 95 detects the mouse event of the state identification information “Move” and the position information is no longer input from the operating unit 57, the operation by the operating user is completed for the last input position information. It is determined as an operation, and a mouse event including the position information last input and state identification information “Release” for identifying the end operation is generated.

より具体的には、マウスイベント生成部95は、オペレーティング部57から第1の時に入力される位置情報と、第1の時よりも所定時間後の第2の時に入力される位置情報とに基づいて、マウスイベントの状態を決定する。マウスイベント生成部95は、第1の時に入力される位置情報に対して、第1の時よりも所定時間前に、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置を示す位置情報が入力されていない場合には、第1の時に入力される位置情報に対するマウスイベントの状態を「Press」に決定する。マウスイベント生成部95は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在しない場合には、第2の時に入力される位置情報に対するマウスイベントの状態を「Press」に決定する。   More specifically, the mouse event generation unit 95 is based on position information input from the operating unit 57 at the first time and position information input at a second time after a predetermined time from the first time. To determine the state of the mouse event. The mouse event generation unit 95 has a predetermined distance from the position specified by the position information input at the first time before the first time with respect to the position information input at the first time. If position information indicating a position within the range is not input, the state of the mouse event for the position information input at the first time is determined as “Press”. When the position specified by the position information input at the first time does not exist within a predetermined distance from the position specified by the position information input at the second time, the mouse event generation unit 95 The state of the mouse event for the position information input at the second time is determined as “Press”.

また、マウスイベント生成部95は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在する場合には、第2の時に入力される位置情報に対するマウスイベントの状態を「Move」に決定する。さらに、マウスイベント生成部95は、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置情報が、第2の時に入力されない場合には、第2の時において第1の時に入力されていた位置情報に対するマウスイベントの状態を「Release」に決定する。   In addition, the mouse event generation unit 95 is configured such that the position specified by the position information input at the first time is within a predetermined distance from the position specified by the position information input at the second time. The mouse event state for the position information input at the second time is determined as “Move”. Further, the mouse event generation unit 95 determines that the position information within a predetermined distance from the position specified by the position information input at the first time is not input at the second time. The state of the mouse event for the position information input at the first time is determined as “Release”.

ジェスチャーイベント決定部93は、マウスイベント生成部95から連続して入力される複数のマウスイベントに基づいてジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、マウスイベント生成部95から同時に1つのマウスイベントが連続して入力される場合、最初の第1のマウスイベントが入力されてから所定時間経過後に入力される第2のマウスイベントを特定し、第1のマウスイベントで特定される位置と、第2のマウスイベントで特定される位置との間の距離が所定の距離以上の場合に、ジェスチャーイベントを決定するが、2つの位置の間の距離が所定の距離より小さい場合にはジェスチャーイベントを決定しない。所定の時間は、任意に定めることができる。所定の時間は、たとえば、タッチパネル165が位置を検出する間隔の数倍とすることができる。また、所定の距離は、任意に定めることができるが、たとえば、40ピクセルとするのが好ましい。   The gesture event determination unit 93 determines a gesture event based on a plurality of mouse events input continuously from the mouse event generation unit 95. When one mouse event is continuously input from the mouse event generating unit 95 simultaneously, the gesture event determining unit 93 is a second mouse that is input after a predetermined time has elapsed since the first first mouse event was input. When an event is specified and the distance between the position specified by the first mouse event and the position specified by the second mouse event is equal to or greater than a predetermined distance, the gesture event is determined. If the distance between the positions is smaller than the predetermined distance, no gesture event is determined. The predetermined time can be arbitrarily determined. The predetermined time can be, for example, several times the interval at which the touch panel 165 detects the position. The predetermined distance can be arbitrarily determined, but is preferably 40 pixels, for example.

ジェスチャーイベント決定部93は、マウスイベント生成部95から同時に2以上のマウスイベントが入力される場合、2以上のマウスイベントに基づいてジェスチャーイベントを決定する。したがって、ユーザーが、マルチタッチ操作を入力する場合、ジェスチャーイベント決定部93は、ジェスチャーイベントを決定する。具体的には、ジェスチャーイベント決定部93は、マウスイベント生成部95から第1のマウスイベントと第2のマウスイベントの2つが同時に入力される場合、第1のマウスイベントに対して連続して入力される複数のマウスイベントの第1の組と、第2のマウスイベントに対して連続して入力される複数のマウスイベントの第2の組と、に基づいてジェスチャーイベントを決定する。第1の組に含まれる複数のマウスイベントは、位置情報が同じか、または位置情報が連続している。連続とは、2つの位置情報が所定の距離の範囲内の位置を示すことをいう。第2の組に含まれる複数のマウスイベントは、位置情報が同じか、または位置情報が連続している。このため、ジェスチャーイベント決定部93は、同時に入力される複数のマウスイベントが、第1の組と第2の組のいずれに属するかを、それらに含まれる位置情報で判断する。   When two or more mouse events are simultaneously input from the mouse event generating unit 95, the gesture event determining unit 93 determines a gesture event based on the two or more mouse events. Therefore, when the user inputs a multi-touch operation, the gesture event determination unit 93 determines a gesture event. Specifically, when the first mouse event and the second mouse event are simultaneously input from the mouse event generation unit 95, the gesture event determination unit 93 inputs continuously for the first mouse event. The gesture event is determined based on the first set of mouse events to be performed and the second set of mouse events input in succession to the second mouse event. The plurality of mouse events included in the first group have the same position information or continuous position information. Continuous means that two pieces of position information indicate positions within a predetermined distance. The plurality of mouse events included in the second group have the same position information or continuous position information. For this reason, the gesture event determination unit 93 determines whether a plurality of mouse events input simultaneously belong to the first group or the second group based on the position information included in them.

ジェスチャーイベント決定部93は、マウスイベント生成部95から連続してマウスイベントが入力される場合、最初に入力されるマウスイベントの状態識別情報は「Press」である。そして、ジェスチャーイベント決定部93は、状態識別情報が「Move」のマウスイベントが入力されると、状態識別情報が「Press」のマウスイベントの位置情報と、状態識別情報が「Move」のマウスイベントの位置情報とから2点間の距離を算出し、状態識別情報が「Press」のマウスイベントが検出されてから状態識別情報が「Move」のマウスイベントが検出されるまでの時間と、算出された距離とから指示速度を算出する。そして指示速度が所定のしきい値TV以上ならばユーザーによるスワイプ操作を検出し、移動速度が所定のしきい値TVより小さければユーザーによるフリック操作を検出する。また、複数のマウスイベントが入力される場合は、最初の複数のマウスイベントによってユーザーによるフリック操作が検出され、後の複数のマウスイベントによってユーザーによるスワイプ操作が検出される場合がある。ジェスチャーイベント決定部93は、フリック操作およびスワイプ操作を検出する場合、最初の位置情報で特定される位置から後の位置情報で特定される位置に向かう方向を算出し、表示部161の表示面を基準に上下左右の4方向のうち算出された方向に最も近い方向を指示方向として決定し、指示方向をパラメータとして含むジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、スワイプ操作を検出する場合には、ジェスチャー識別情報「スワイプ」と、指示方向のパラメータとを含むジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、フリック操作を検出する場合には、ジェスチャー識別情報「フリック」と、指示方向のパラメータと移動距離を示すパラメータとを含むジェスチャーイベントを出力する。移動距離は、状態識別情報が「Press」のマウスイベントの位置情報と、状態識別情報が「Move」のマウスイベントの位置情報とから算出される2点間の距離である。   When the mouse event is continuously input from the mouse event generation unit 95, the gesture event determination unit 93 has “Press” as the state identification information of the mouse event input first. When the mouse event whose state identification information is “Move” is input, the gesture event determination unit 93 receives the position information of the mouse event whose state identification information is “Press” and the mouse event whose state identification information is “Move”. The distance between the two points is calculated from the position information, and the time from the detection of the mouse event whose state identification information is “Press” until the detection of the mouse event whose state identification information is “Move” is calculated. The command speed is calculated from the measured distance. If the instruction speed is equal to or higher than the predetermined threshold TV, a swipe operation by the user is detected. If the moving speed is lower than the predetermined threshold TV, a flick operation by the user is detected. When a plurality of mouse events are input, a user's flick operation may be detected by the first plurality of mouse events, and a user's swipe operation may be detected by a plurality of subsequent mouse events. When detecting the flick operation and the swipe operation, the gesture event determination unit 93 calculates a direction from the position specified by the first position information to the position specified by the subsequent position information, and displays the display surface of the display unit 161. The direction closest to the calculated direction among the four directions (up, down, left, and right) is determined as a reference direction, and a gesture event including the specified direction as a parameter is determined. When detecting a swipe operation, the gesture event determination unit 93 determines a gesture event including gesture identification information “swipe” and a parameter of the pointing direction. When detecting a flick operation, the gesture event determination unit 93 outputs a gesture event including gesture identification information “flick”, a parameter in a pointing direction, and a parameter indicating a moving distance. The movement distance is a distance between two points calculated from the position information of the mouse event whose state identification information is “Press” and the position information of the mouse event whose state identification information is “Move”.

ジェスチャーイベント決定部93は、マウスイベント生成部95から同時に2つのマウスイベントが入力される場合、最初に入力される2つのマウスイベントそれぞれの状態は「Press」である。この場合に、2つのマウスイベントそれぞれに含まれる位置情報に基づいて、2点間の距離L1および2点間を結ぶ直線の角度R1を算出する。2点間を結ぶ直線の角度は、表示部161の横方向を基準線として、2点間を結ぶ直線が基準線となす角度とすればよい。2点間を結ぶ直線と基準線とのなす角度は、基準線から時計回りになす角度である。そして、ジェスチャーイベント決定部93は、その後に同時に入力される2つのマウスイベントの位置情報に基づいて、2点間の距離L2および2点間を結ぶ直線の角度R2を算出する。   When two mouse events are simultaneously input from the mouse event generation unit 95, the gesture event determination unit 93 has a state of “Press” for each of the two mouse events input first. In this case, the distance L1 between the two points and the angle R1 of the straight line connecting the two points are calculated based on the position information included in each of the two mouse events. The angle of the straight line connecting the two points may be the angle formed by the straight line connecting the two points with the reference line with the horizontal direction of the display unit 161 as the reference line. The angle formed between the straight line connecting the two points and the reference line is an angle formed clockwise from the reference line. Then, the gesture event determination unit 93 calculates the distance L2 between the two points and the angle R2 of the straight line connecting the two points based on the positional information of two mouse events that are input simultaneously.

ジェスチャーイベント決定部93は、距離L2と距離L1とが異なれば、ユーザーによるピンチアウト操作またはピンチイン操作を検出する。距離L2が距離L1より大きければピンチアウト操作を検出し、距離L2が距離L1より小さければピンチイン操作を検出する。ジェスチャーイベント決定部93は、ピンチアウト操作またはピンチイン操作を検出する場合、距離L2を距離L1で除算することによって倍率を算出し、算出された倍率をパラメータとして決定し、倍率のパラメータを含むジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、ピンチアウト操作を検出する場合には、ジェスチャー識別情報「ピンチアウト」と、倍率のパラメータと含むジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、ピンチイン操作を検出する場合には、ジェスチャー識別情報「ピンチイン」と、倍率のパラメータとを含むジェスチャーイベントを決定する。   The gesture event determination unit 93 detects a pinch-out operation or a pinch-in operation by the user if the distance L2 and the distance L1 are different. If the distance L2 is larger than the distance L1, a pinch-out operation is detected. If the distance L2 is smaller than the distance L1, a pinch-in operation is detected. When detecting a pinch-out operation or a pinch-in operation, the gesture event determination unit 93 calculates a magnification by dividing the distance L2 by the distance L1, determines the calculated magnification as a parameter, and includes a gesture event including the magnification parameter To decide. When detecting a pinch-out operation, the gesture event determination unit 93 determines a gesture event including gesture identification information “pinch-out” and a magnification parameter. When detecting a pinch-in operation, the gesture event determination unit 93 determines a gesture event including gesture identification information “pinch-in” and a magnification parameter.

ジェスチャーイベント決定部93は、角度R1と角度R2との差が所定のしきい値TR以上の場合、ユーザーによるローテーション操作を検出する。しきい値Rは、予め定められた値であり、たとえば、90度以下とするのがよい。ジェスチャーイベント決定部93は、ローテーション操作を検出する場合、角度R2から角度R1を減算することによって回転角度および回転方向を決定し、決定された回転角度および回転方向をパラメータとして決定する。角度R2から角度R1を減算した値がプラスならば回転方向は時計回りであり、角度R2から角度R1を減算した値がマイナスならば回転方向は反時計回りである。ジェスチャーイベント決定部93は、ローテーション操作を検出する場合、ジェスチャー識別情報「ローテーション」と、回転角度のパラメータと、回転方向のパラメータとを含むジェスチャーイベントを決定する。   The gesture event determination unit 93 detects a rotation operation by the user when the difference between the angle R1 and the angle R2 is equal to or greater than a predetermined threshold value TR. The threshold value R is a predetermined value, for example, preferably 90 degrees or less. When detecting the rotation operation, the gesture event determination unit 93 determines the rotation angle and the rotation direction by subtracting the angle R1 from the angle R2, and determines the determined rotation angle and the rotation direction as parameters. If the value obtained by subtracting the angle R1 from the angle R2 is positive, the rotational direction is clockwise. If the value obtained by subtracting the angle R1 from the angle R2 is negative, the rotational direction is counterclockwise. When detecting a rotation operation, the gesture event determination unit 93 determines a gesture event including gesture identification information “rotation”, a rotation angle parameter, and a rotation direction parameter.

また、ジェスチャーイベント決定部93は、状態識別情報が「Move」の第1および第2の2つのマウスイベントが同時に入力されると、第1のマウスイベントの位置情報と第1のマウスイベントに対応する状態識別情報が「Press」のマウスイベントの位置情報とから第1の移動方向を算出し、第2のマウスイベントの位置情報と第2のマウスイベントに対応する状態識別情報が「Press」のマウスイベントの位置情報とから第2の移動方向を算出する。状態識別情報が「Press」のマウスイベントの位置情報で特定される位置から状態識別情報が「Move」のマウスイベントの位置情報で特定される位置に向かう方向を移動方向として算出する。そして、第1のマウスイベントおよび第2のマウスイベントそれぞれに対応する移動方向が同じならばユーザーによるダブルフリック操作を検出する。第1のマウスイベントおよび第2のマウスイベントそれぞれに対応する方向が同じか否かは、第1のマウスイベントおよび第2のマウスイベントそれぞれに対応する移動方向の差が所定の範囲内であればよい。ジェスチャーイベント決定部93は、ダブルフリック操作を検出する場合、ジェスチャー識別情報「ダブルフリック」と、移動方向を示す指示方向のパラメータと移動距離のパラメータとを含むジェスチャーイベントを出力する。移動距離は、第1のマウスイベントの位置情報で特定される位置と第1のマウスイベントに対応する状態識別情報が「Press」のマウスイベントの位置情報で特定される位置との間の距離とすればよい。   In addition, when the first and second mouse events whose state identification information is “Move” are simultaneously input, the gesture event determination unit 93 corresponds to the position information of the first mouse event and the first mouse event. The first movement direction is calculated from the position information of the mouse event whose state identification information is “Press”, and the position information of the second mouse event and the state identification information corresponding to the second mouse event are “Press”. A second movement direction is calculated from the position information of the mouse event. A direction from the position specified by the position information of the mouse event whose state identification information is “Press” to the position specified by the position information of the mouse event whose state identification information is “Move” is calculated as the moving direction. If the movement directions corresponding to the first mouse event and the second mouse event are the same, a double flick operation by the user is detected. Whether the direction corresponding to each of the first mouse event and the second mouse event is the same or not is determined if the difference in the moving direction corresponding to each of the first mouse event and the second mouse event is within a predetermined range. Good. When detecting a double-flick operation, the gesture event determination unit 93 outputs a gesture event including gesture identification information “double-flick”, an instruction direction parameter indicating a movement direction, and a movement distance parameter. The movement distance is a distance between the position specified by the position information of the first mouse event and the position specified by the position information of the mouse event whose state identification information corresponding to the first mouse event is “Press”. do it.

したがって、ジェスチャーイベント決定部93は、同時に2つのマウスイベントの組が入力される場合に、複数種類のジェスチャーイベントを決定する場合がある。ジェスチャー識別情報「ピンチアウト」のジェスチャーイベントと、ジェスチャー識別情報「ローテーション」のジェスチャーイベントの組、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントと、ジェスチャー識別情報「ローテーション」のジェスチャーイベントの組、ジェスチャー識別情報「ピンチアウト」のジェスチャーイベントと、ジェスチャー識別情報「ダブルフリック」のジェスチャーイベントの組、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントと、ジェスチャー識別情報「ダブルフリック」のジェスチャーイベントの組、である。   Therefore, the gesture event determination unit 93 may determine a plurality of types of gesture events when a set of two mouse events is input simultaneously. Gesture event of gesture identification information “Pinch out”, Gesture event of gesture identification information “Rotation”, Gesture event of gesture identification information “Pinch in”, Gesture event of gesture identification information “Rotation”, Gesture identification information A gesture event of “pinch out” and a gesture event of gesture identification information “double flick”, a gesture event of gesture identification information “pinch in”, and a gesture event of gesture identification information “double flick”.

ジェスチャーイベント決定部93は、ジェスチャーイベントを決定する場合、HDD115から、調停部53によって設定されているカレントタスクのアプリ識別情報に対応するマスターテーブル99を読み出す。具体的には、マスターテーブル99を読み出すためのオペレーティングコマンドをオペレーティング部57に出力し、オペレーティング部57がHDD115を制御して読み出すマスターテーブル99を取得する。以下、コンテンツ表示部51がカレントタスクの場合について説明する。   When determining the gesture event, the gesture event determining unit 93 reads the master table 99 corresponding to the application identification information of the current task set by the arbitrating unit 53 from the HDD 115. Specifically, an operating command for reading the master table 99 is output to the operating unit 57, and the operating unit 57 controls the HDD 115 to acquire the master table 99 to be read. Hereinafter, a case where the content display unit 51 is the current task will be described.

ジェスチャーイベント決定部93は、ジェスチャーイベントを決定することに応じて、ジェスチャーイベントに基づいて、マスターテーブル99において定められている複数種類の処理のうちから調停部53によってカレント状態に設定されているカレントタスクに対応して関連付けられた処理を特定する。ここでは、調停部53によってコンテンツ表示部51がカレントタスクに設定されているので、ジェスチャーイベント決定部93は、ジェスチャーイベントと、マスターテーブル99によって関連付けられた処理を特定する。より具体的には、ジェスチャーイベント決定部93は、決定されたジェスチャーイベントのジェスチャー識別情報がジェスチャーの項目に設定されたマスターレコードを、マスターテーブル99から抽出し、抽出されたマスターレコードの処理の項目に設定されている処理識別情報を取得する。ジェスチャーイベント決定部93は、処理識別情報が取得される場合、決定されたジェスチャーイベントを調停部53に出力するが、処理識別情報が取得されない場合、決定されたジェスチャーイベントを調停部53に出力しない。また、ジェスチャーイベント決定部93は、複数のジェスチャーイベントを決定する場合、複数のジェスチャーイベントのうち、処理が特定されるすべてのジェスチャーイベントを調停部53に出力する。ジェスチャーイベント決定部93が出力するジェスチャーイベントは、ジェスチャーイベントを識別するためのジェスチャー識別情報を含む。また、ジェスチャーイベント決定部93は、マウスイベント生成部95からマウスイベントが連続して入力される場合であって、ジェスチャーイベントを決定しない場合、ジェスチャーイベントを決定しないことを示す未決定信号を調停部53に出力する。   Based on the gesture event, the gesture event determining unit 93 determines the current that is set in the current state by the arbitrating unit 53 from among a plurality of types of processing defined in the master table 99 based on the gesture event. Identify the process associated with the task. Here, since the content display unit 51 is set as the current task by the arbitration unit 53, the gesture event determination unit 93 specifies the process associated with the gesture event and the master table 99. More specifically, the gesture event determination unit 93 extracts, from the master table 99, a master record in which the gesture identification information of the determined gesture event is set as an item of gesture, and an item of processing of the extracted master record Acquires the process identification information set in. When the process identification information is acquired, the gesture event determination unit 93 outputs the determined gesture event to the arbitration unit 53. However, when the process identification information is not acquired, the gesture event determination unit 93 does not output the determined gesture event to the arbitration unit 53. . In addition, when determining a plurality of gesture events, the gesture event determining unit 93 outputs all the gesture events whose processing is specified among the plurality of gesture events to the arbitrating unit 53. The gesture event output by the gesture event determination unit 93 includes gesture identification information for identifying the gesture event. In addition, the gesture event determination unit 93 is a case where mouse events are continuously input from the mouse event generation unit 95, and when the gesture event is not determined, an undetermined signal indicating that the gesture event is not determined is an arbitration unit To 53.

ジェスチャーイベント決定部93は、調停部53によってカレント状態に設定されているカレントタスクであるコンテンツ表示部51が実行可能な処理に対応するジェスチャーイベントのみを調停部53に出力し、調停部53は、ジェスチャーイベントをカレントタスクであるコンテンツ表示部51に出力する。このため、タッチパネル165に入力される操作であって、複数のマウスイベントの組で特定されるジェスチャーイベントを、コンテンツ表示プログラムを実行するコンテンツ表示部51に実行させることができる。換言すれば、コンテンツ表示プログラムを開発する段階で、MFP100においてタッチパネル165で受け付け可能なジェスチャーイベントを意識することなく開発することができる。例えば、ローテーション操作を受け付けないブラウジングプログラムを開発することができる。   The gesture event determination unit 93 outputs only gesture events corresponding to processing that can be executed by the content display unit 51, which is the current task set in the current state by the arbitration unit 53, to the arbitration unit 53. The gesture event is output to the content display unit 51 which is the current task. For this reason, it is possible to cause the content display unit 51 that executes the content display program to execute a gesture event that is an operation input to the touch panel 165 and is specified by a set of a plurality of mouse events. In other words, at the stage of developing the content display program, the MFP 100 can be developed without being aware of the gesture events that can be received by the touch panel 165 in the MFP 100. For example, a browsing program that does not accept rotation operations can be developed.

調停部53は、ジェスチャーイベント決定部93からジェスチャーイベントが入力され、ジェスチャーイベントをカレント状態に設定されたコンテンツ表示部51に出力する。調停部53は、ジェスチャーイベント決定部93からジェスチャーイベントが入力されることに応じて、ジェスチャーイベントをコンテンツ表示部51に出力する。なお、コンテンツ表示部51の他にCPU111が別のアプリケーションプログラムを実行することによって、アプリケーション層に複数のタスクが形成される場合、調停部53は、複数のタスクのうちカレント状態のタスクにジェスチャーイベント決定部93からジェスチャーイベントを出力する。   The arbitration unit 53 receives the gesture event from the gesture event determination unit 93 and outputs the gesture event to the content display unit 51 set to the current state. The arbitration unit 53 outputs the gesture event to the content display unit 51 in response to the gesture event input from the gesture event determination unit 93. When a plurality of tasks are formed in the application layer by the CPU 111 executing another application program in addition to the content display unit 51, the arbitration unit 53 sets the gesture event to the task in the current state among the plurality of tasks. A gesture event is output from the determination unit 93.

コンテンツ表示部51は、コンテンツ取得部61と、ジェスチャー期間検出部63と、表示用画像生成部65と、表示制御部67と、を含む。   The content display unit 51 includes a content acquisition unit 61, a gesture period detection unit 63, a display image generation unit 65, and a display control unit 67.

コンテンツ取得部61は、コンテンツを取得し、取得されたコンテンツを表示用画像生成部65に出力する。コンテンツは、外部のサーバーに記憶されたデータ、HDD115に記憶されたデータを含み、データの種類は制限されない。たとえば、コンテンツを、外部のWebサーバーに記憶され、HTML(HyperText Markup Language)等のマークアップ言語で記述されたWebページとする場合、コンテンツ取得部61は、通信I/F部112を制御してWebサーバーからWebページを受信することによってWebページを取得する。コンテンツ取得部61は、Webページに別のコンテンツがリンクされている場合、その別のコンテンツを取得する。コンテンツ取得部61が取得するコンテンツは、MFP100を操作する操作ユーザーが指定したURL(Uniform Resource Locator)で識別されるWebページであってもよいし、コンテンツ表示プログラムにおいて予め定められたURLで識別されるWebページであってもよい。また、コンテンツをHDD116に記憶されたアプリケーションデータまたは画像データとする場合、コンテンツ取得部61は、HDD116からアプリケーションデータまたは画像データを読み出すことによってコンテンツを取得する。   The content acquisition unit 61 acquires content and outputs the acquired content to the display image generation unit 65. The content includes data stored in an external server and data stored in the HDD 115, and the type of data is not limited. For example, when the content is a web page stored in an external web server and described in a markup language such as HTML (HyperText Markup Language), the content acquisition unit 61 controls the communication I / F unit 112. A web page is acquired by receiving a web page from a web server. If another content is linked to the Web page, the content acquisition unit 61 acquires the other content. The content acquired by the content acquisition unit 61 may be a Web page identified by a URL (Uniform Resource Locator) specified by an operation user operating the MFP 100, or may be identified by a URL predetermined in the content display program. Web page may be used. When the content is application data or image data stored in the HDD 116, the content acquisition unit 61 acquires the content by reading the application data or image data from the HDD 116.

ジェスチャー期間検出部63は、ジェスチャーイベント決定部93からジェスチャーイベントが入力される。ジェスチャー期間検出部63は、ジェスチャーイベント決定部93から入力されるジェスチャーイベントに基づいてジェスチャー期間を検出し、ジェスチャー期間を検出している間、ジェスチャー期間であることを示すジェスチャー期間信号を表示用画像生成部65に出力する。ジェスチャー期間は、ジェスチャーイベント決定部93によってジェスチャーイベントが連続して決定される期間である。ジェスチャーイベント決定部93から入力されるジェスチャーイベントは、ジェスチャー識別情報が、「スワイプ」、「フリック」、「ピンチアウト」、「ピンチイン」、「ローテーション」、「ダブルフリック」および「ダブルタップ」の1以上である。   The gesture period detection unit 63 receives a gesture event from the gesture event determination unit 93. The gesture period detection unit 63 detects the gesture period based on the gesture event input from the gesture event determination unit 93, and displays the gesture period signal indicating the gesture period while detecting the gesture period. The data is output to the generation unit 65. The gesture period is a period in which gesture events are continuously determined by the gesture event determination unit 93. The gesture event input from the gesture event determination unit 93 has a gesture identification information of “swipe”, “flick”, “pinch out”, “pinch in”, “rotation”, “double flick”, and “double tap”. That's it.

具体的には、ジェスチャーイベント決定部93は、1以上のマウスイベントに基づいてジェスチャーイベントを決定するが、ジェスチャーイベント決定部93によってジェスチャーイベントが決定された後に、マウスイベント生成部95によって連続してマウスイベントが生成される場合がある。たとえば、ユーザーが、ピンチイン操作を入力する場合、ユーザーが2つの指を移動させている途中で、ジェスチャーイベント決定部93によってジェスチャーイベントが決定される。この場合には、ユーザーが指をタッチパネル165から離すまで、マウスイベント生成部95によって状態識別情報「Move」のマウスイベントが生成され、ユーザーが指をタッチパネル165から離すと、マウスイベント生成部95によって状態識別情報「Release」のマウスイベントが生成される。ジェスチャーイベント決定部93は、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントを決定した後は、マウスイベント生成部95から状態識別情報「Release」のマウスイベントが入力されるまで、状態識別情報「Move」のマウスイベントが入力されるごとに、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントを出力する。ジェスチャー期間検出部63は、ジェスチャーイベント決定部93から同じジェスチャーイベントが連続して入力されている間、ジェスチャー期間を検出する。   Specifically, the gesture event determining unit 93 determines a gesture event based on one or more mouse events. After the gesture event determining unit 93 determines a gesture event, the mouse event generating unit 95 continuously Mouse events may be generated. For example, when a user inputs a pinch-in operation, a gesture event is determined by the gesture event determination unit 93 while the user is moving two fingers. In this case, a mouse event of the state identification information “Move” is generated by the mouse event generation unit 95 until the user releases the finger from the touch panel 165, and when the user releases the finger from the touch panel 165, the mouse event generation unit 95 A mouse event of the state identification information “Release” is generated. After the gesture event determination unit 93 determines the gesture event of the gesture identification information “Pinch-in”, the gesture event determination unit 93 stores the state identification information “Move” until the mouse event of the state identification information “Release” is input from the mouse event generation unit 95. Each time a mouse event is input, a gesture event with gesture identification information “Pinch In” is output. The gesture period detection unit 63 detects the gesture period while the same gesture event is continuously input from the gesture event determination unit 93.

また、ユーザーが、ローテーション操作を入力する場合、2つのユーザーが2つの指を移動させている途中で、ジェスチャーイベント決定部93によってジェスチャー識別情報「ローテーション」のジェスチャーイベントが決定されるが、ローテーション操作の途中で指の間隔が変動する場合がある。たとえば、指の間隔が狭くなる場合、ジェスチャーイベント決定部93によってジェスチャー識別情報「ピンチイン」のジェスチャーイベントが決定される。ジェスチャーイベント決定部93は、ジェスチャー期間が開始してから2つのジェスチャーイベントを決定する場合、2つのジェスチャーイベントを出力する。この場合においても、ジェスチャー期間検出部63は、ジェスチャーイベント決定部93から最初のジェスチャーイベントが入力されるとジェスチャー期間の開始を検出し、ジェスチャーイベント決定部93から1以上のジェスチャーイベントが入力されなくなる場合、ジェスチャー期間の終了を検出する。   When the user inputs a rotation operation, the gesture event having the gesture identification information “rotation” is determined by the gesture event determination unit 93 while the two users are moving two fingers. In some cases, the interval between fingers may fluctuate. For example, when the finger interval is narrowed, the gesture event determining unit 93 determines the gesture event having the gesture identification information “Pinch In”. The gesture event determination unit 93 outputs two gesture events when determining two gesture events after the gesture period starts. Even in this case, the gesture period detection unit 63 detects the start of the gesture period when the first gesture event is input from the gesture event determination unit 93, and one or more gesture events are not input from the gesture event determination unit 93. The end of the gesture period is detected.

表示用画像生成部65は、コンテンツ取得部61からコンテンツが入力され、ジェスチャー期間検出部63からジェスチャー期間信号が入力され、ジェスチャーイベント決定部93から1以上のジェスチャーイベントが入力される。表示用画像生成部65は、ジェスチャーイベント決定部93から入力される1以上のジェスチャーイベントに基づいてコンテンツを表示するための表示用画像を生成する。表示用画像生成部65は、コンテンツが複数ページで構成される場合、複数ページのうち表示対象となるページの少なくとも一部の画像を表示用画像として生成する。換言すれば、表示用画像生成部65が生成する表示用画像は、単一のページの一部または全部の画像を含み、複数ページの画像を含まない。表示用画像生成部65は、表示対象変更部71と、表示方向変更部73と、状態記憶部75と、優先表示部77と、を含む。   The display image generation unit 65 receives content from the content acquisition unit 61, receives a gesture period signal from the gesture period detection unit 63, and receives one or more gesture events from the gesture event determination unit 93. The display image generation unit 65 generates a display image for displaying content based on one or more gesture events input from the gesture event determination unit 93. When the content is composed of a plurality of pages, the display image generation unit 65 generates at least a part of an image of a page to be displayed among the plurality of pages as a display image. In other words, the display image generated by the display image generation unit 65 includes a part or all of a single page, and does not include a plurality of pages. The display image generation unit 65 includes a display target change unit 71, a display direction change unit 73, a state storage unit 75, and a priority display unit 77.

表示用画像生成部65は、コンテンツ取得部61からコンテンツが入力されると、コンテンツの少なくとも一部を表示部分に決定し、表示部分を表示するための表示用画像を生成する。表示用画像生成部65が、コンテンツ取得部61からコンテンツが入力される時点において決定する表示部分は、予め定めておけばよい。たとえば、コンテンツの全部をデフォルトの表示部分に設定すればよい。また、コンテンツが複数ページで構成される場合、最初のページの全部をデフォルトの表示部分に設定すればよい。   When the content is input from the content acquisition unit 61, the display image generation unit 65 determines at least a part of the content as a display part, and generates a display image for displaying the display part. The display portion that the display image generation unit 65 determines at the time when content is input from the content acquisition unit 61 may be determined in advance. For example, the entire content may be set as a default display portion. If the content is composed of a plurality of pages, the entire first page may be set as the default display portion.

状態記憶部75は、ジェスチャー期間が開始するジェスチャー開始時点における表示部分を特定するための状態情報を、RAM114に一時記憶する。状態情報は、コンテンツ中の表示部分の位置およびサイズ(倍率)を含む。また、コンテンツが複数ページで構成される場合、状態情報は、ページを特定するページ番号を含む。   The state storage unit 75 temporarily stores in the RAM 114 state information for specifying a display portion at the start of the gesture when the gesture period starts. The state information includes the position and size (magnification) of the display part in the content. When the content is composed of a plurality of pages, the state information includes a page number that identifies the page.

表示対象変更部71は、ジェスチャーイベント決定部93から第1の種類のジェスチャーイベントが入力される場合、表示部分を変更し、変更後の表示部分を表示するための表示用画像を生成する。第1の種類のジェスチャーイベントは、ジェスチャー識別情報「ピンチイン」、「ピンチアウト」、「スワイプ」、「フリック」および「ダブルフリック」のジェスチャーイベントである。表示対象変更部71は、変倍部81と、ページ切換部83と、スクロール部85と、特定状態ページ切換部86と、を含む。   When the first type of gesture event is input from the gesture event determining unit 93, the display target changing unit 71 changes the display part and generates a display image for displaying the changed display part. The first type of gesture events are gesture events of gesture identification information “Pinch In”, “Pinch Out”, “Swipe”, “Flick”, and “Double Flick”. Display target changing unit 71 includes a scaling unit 81, a page switching unit 83, a scroll unit 85, and a specific state page switching unit 86.

変倍部81は、ジェスチャーイベント決定部93からジェスチャー識別情報「ピンチイン」または「ピンチアウト」のジェスチャーイベントが入力される場合、表示部分のサイズを変更する。ジェスチャー識別情報「ピンチイン」または「ピンチアウト」のジェスチャーイベントは、パラメータとして倍率を含む。変倍部81は、ジェスチャー識別情報「ピンチイン」または「ピンチアウト」のジェスチャーイベントにパラメータとして含まれる倍率で、表示部分のサイズを変更する。   When the gesture event having the gesture identification information “Pinch In” or “Pinch Out” is input from the gesture event determination unit 93, the scaling unit 81 changes the size of the display part. The gesture event of the gesture identification information “Pinch In” or “Pinch Out” includes a magnification as a parameter. The scaling unit 81 changes the size of the display part at a magnification included as a parameter in the gesture event of the gesture identification information “Pinch In” or “Pinch Out”.

ページ切換部83は、コンテンツが複数のページを含む場合であって、ジェスチャーイベント決定部93からジェスチャー識別情報「スワイプ」のジェスチャーイベントが入力される場合、表示部分が属するページの前後のページを新たな表示部分が属するページに決定する。表示部分が属するページの前のページは、表示部分が属するページが最初の第1ページの場合は、最終ページである。表示部分が属するページの後のページは、表示部分が属するページが最終ページの場合は、最初の第1ページである。ページ切換部83は、表示部分が属するページを状態情報で特定する。ジェスチャー識別情報「スワイプ」のジェスチャーイベントは、パラメータとして指示方向を含む。ページ切換部83は、ジェスチャー識別情報「スワイプ」のジェスチャーイベントにパラメータとして含まれる指示方向で定まるページを決定する。ここで一例として、コンテンツが第1ページ〜第Nページ(Nは2以上の整数)を含み、表示部分が第Mページ(Mは、1以上N以下の整数)に含まれる場合を例に説明する。ページ切換部83は、ジェスチャー識別情報「スワイプ」のジェスチャーイベントに含まれる指示方向が「上」または「左」を示す場合、第(M−1)ページを新たな表示部分が属するページに決定する。ページ切換部83は、ジェスチャー識別情報「スワイプ」のジェスチャーイベントに含まれる指示方向が「下」または「右」を示す場合、第(M+1)ページを新たな表示部分が属するページに決定する。   When the content includes a plurality of pages, and the gesture event of the gesture identification information “swipe” is input from the gesture event determination unit 93, the page switching unit 83 newly adds pages before and after the page to which the display portion belongs. The page to which the correct display part belongs is determined. The page before the page to which the display part belongs is the last page when the page to which the display part belongs is the first first page. The page after the page to which the display part belongs is the first page when the page to which the display part belongs is the last page. The page switching unit 83 specifies the page to which the display part belongs by the status information. The gesture event of the gesture identification information “Swipe” includes an instruction direction as a parameter. The page switching unit 83 determines a page determined by the instruction direction included as a parameter in the gesture event of the gesture identification information “Swipe”. Here, as an example, a case where the content includes the first to Nth pages (N is an integer of 2 or more) and the display portion is included in the Mth page (M is an integer of 1 to N) will be described as an example. To do. When the pointing direction included in the gesture event of the gesture identification information “Swipe” indicates “up” or “left”, the page switching unit 83 determines the (M−1) th page as the page to which the new display portion belongs. . When the pointing direction included in the gesture event of the gesture identification information “Swipe” indicates “down” or “right”, the page switching unit 83 determines the (M + 1) th page as the page to which the new display portion belongs.

スクロール部85は、ジェスチャーイベント決定部93からジェスチャー識別情報「フリック」または「ダブルフリック」のジェスチャーイベントが入力される場合、コンテンツ中で表示部分を移動させる。ジェスチャー識別情報「フリック」または「ダブルフリック」のジェスチャーイベントは、方向を示すパラメータと移動距離を示すパラメータとを含む。スクロール部85は、ジェスチャー識別情報「フリック」または「ダブルフリック」のジェスチャーイベントにパラメータとして含まれる方向に、移動距離だけ表示部分を平行移動させる。なお、表示部分がコンテンツの端部に位置する場合等には、表示部分を移動可能な距離がパラメータで定められる移動距離より短い場合がある。この場合、スクロール部85は、表示部分をパラメータとして含まれる方向に移動可能な距離だけ移動させるとともに、移動距離だけ移動できなかったことを示す特定状態信号を特定状態ページ切換部86に出力する。特定状態信号は、ジェスチャー識別情報「フリック」または「ダブルフリック」のジェスチャーイベントにパラメータとして含まれる指示方向を含む。   When the gesture event having the gesture identification information “flick” or “double flick” is input from the gesture event determination unit 93, the scroll unit 85 moves the display part in the content. The gesture event of the gesture identification information “flick” or “double flick” includes a parameter indicating a direction and a parameter indicating a moving distance. The scroll unit 85 translates the display portion by the movement distance in the direction included as a parameter in the gesture event of the gesture identification information “flick” or “double flick”. When the display part is located at the end of the content, the distance that the display part can be moved may be shorter than the movement distance determined by the parameter. In this case, the scroll unit 85 moves the display portion by a movable distance in the direction included as a parameter, and outputs a specific state signal indicating that the display portion has not been moved by the moving distance to the specific state page switching unit 86. The specific state signal includes a pointing direction included as a parameter in the gesture event of the gesture identification information “flick” or “double flick”.

特定状態ページ切換部86は、コンテンツが複数のページを含む場合であって、ジェスチャー期間の間にスクロール部85から特定状態信号が入力される場合、ジェスチャー期間が終了するジェスチャー期間終了時に、表示部分が属するページの前後のページを新たな表示部分が属するページに決定する。ジェスチャー期間検出部63からジェスチャー期間信号が入力されていた状態からジェスチャー期間信号が入力されない状態に変化すると、ジェスチャー期間終了時を検出する。特定状態ページ切換部86は、表示部分が属するページを状態情報で特定する。特定状態ページ切換部86は、特定状態信号に含まれる指示方向で定まるページを決定する。具体的には、特定状態信号に含まれる方向が「上」または「左」を示す場合、表示部分が属するページの前のページを新たな表示部分が属するページに決定する。特定状態信号に含まれる方向が「下」または「右」を示す場合、表示部分が属するページの後のページを新たな表示部分が属するページに決定する。   When the content includes a plurality of pages and the specific state signal is input from the scroll unit 85 during the gesture period, the specific state page switching unit 86 displays the display portion at the end of the gesture period when the gesture period ends. The pages before and after the page to which the page belongs belong to the page to which the new display portion belongs. When the gesture period detection unit 63 changes from the state in which the gesture period signal is input to the state in which no gesture period signal is input, the end of the gesture period is detected. The specific state page switching unit 86 specifies the page to which the display part belongs by the state information. The specific state page switching unit 86 determines a page determined by the instruction direction included in the specific state signal. Specifically, when the direction included in the specific state signal indicates “up” or “left”, the page before the page to which the display portion belongs is determined as the page to which the new display portion belongs. When the direction included in the specific state signal indicates “down” or “right”, the page after the page to which the display portion belongs is determined as the page to which the new display portion belongs.

表示方向変更部73は、ジェスチャーイベント決定部93からジェスチャー識別情報「ローテーション」のジェスチャーイベントが入力される場合、表示部分の方向を変更する。ジェスチャー識別情報「ローテーション」のジェスチャーイベントは、回転角度のパラメータと、回転方向のパラメータとを含む。表示方向変更部73は、ジェスチャー識別情報「ローテーション」のジェスチャーイベントにパラメータとして含まれる回転方向に、回転角度だけ表示部分を回転させることによって、表示部分の方向を変更する。   When the gesture event having the gesture identification information “Rotation” is input from the gesture event determining unit 93, the display direction changing unit 73 changes the direction of the display part. The gesture event of the gesture identification information “Rotation” includes a rotation angle parameter and a rotation direction parameter. The display direction changing unit 73 changes the direction of the display part by rotating the display part by the rotation angle in the rotation direction included as a parameter in the gesture event of the gesture identification information “Rotation”.

優先表示部77は、ジェスチャー期間にジェスチャーイベント決定部93から第1の種類のジェスチャーイベントと第2の種類のジェスチャーイベントとが入力される場合、第2の種類のジェスチャーイベントに基づいて状態情報により特定される表示部分を変更する。第1の種類のジェスチャーイベントは、ジェスチャー識別情報「ピンチイン」、「ピンチアウト」、「スワイプ」、「フリック」および「ダブルフリック」のジェスチャーイベントである。第2の種類のジェスチャーイベントは、ジェスチャー識別情報「ローテーション」のジェスチャーイベントである。優先表示部77は、状態情報で定まる表示部分の方向を変更する。ジェスチャー期間にジェスチャーイベント決定部93から最後に入力されたジェスチャー識別情報「ローテーション」のジェスチャーイベントにパラメータとして含まれる回転方向に、回転角度だけ表示部分を回転させることによって、表示部分の方向を変更する
<ジェスチャー期間>
表示用画像生成部65は、ジェスチャー期間の間、ページ切換部83によってページが切り換えられる場合には変更後のページを処理対象とし、ページ切換部83によってページが切り換えられない場合には状態情報によって特定されるページを処理対象とする。また、表示用画像生成部65は、変倍部81およびスクロール部85によって表示部分が変更される場合には処理対象のページにおける変更後の表示部分を表示するための表示用画像を生成する。また、表示用画像生成部65は、表示方向変更部73によって表示部分の方向が変更される場合には、処理対象のページにおける表示部分を、方向を変更して表示するための表示用画像を生成する。さらに、表示用画像生成部65は、変倍部81およびスクロール部85によって表示部分が変更される場合、および表示方向変更部73によって表示部分の方向が変更される場合には、処理対象のページにおける変更後の表示部分を、方向を変更して表示するための表示用画像を生成する。
When the first type gesture event and the second type gesture event are input from the gesture event determination unit 93 during the gesture period, the priority display unit 77 uses the state information based on the second type gesture event. Change the identified display part. The first type of gesture events are gesture events of gesture identification information “Pinch In”, “Pinch Out”, “Swipe”, “Flick”, and “Double Flick”. The second type of gesture event is a gesture event having gesture identification information “Rotation”. The priority display unit 77 changes the direction of the display part determined by the state information. The direction of the display portion is changed by rotating the display portion by the rotation angle in the rotation direction included as a parameter in the gesture event of the gesture identification information “Rotation” last input from the gesture event determination unit 93 during the gesture period. <Gesture period>
The display image generation unit 65 sets the changed page as a processing target when the page is switched by the page switching unit 83 during the gesture period, and uses the state information when the page is not switched by the page switching unit 83. The specified page is the target of processing. In addition, when the display portion is changed by the scaling unit 81 and the scroll unit 85, the display image generation unit 65 generates a display image for displaying the changed display portion in the processing target page. In addition, when the display direction changing unit 73 changes the direction of the display portion, the display image generating unit 65 displays a display image for changing the direction of the display portion on the processing target page. Generate. Furthermore, the display image generation unit 65 is configured to process the page to be processed when the display portion is changed by the scaling unit 81 and the scroll unit 85 and when the display direction change unit 73 changes the direction of the display portion. The display image for displaying the display part after the change in is changed in direction.

<ジェスチャー期間終了時>
表示用画像生成部65は、ジェスチャー期間が終了するジェスチャー期間終了時において、特定状態ページ切換部86によってページが切り換えられる場合には変更後のページを処理対象とし、表示部分を表示するための表示用画像を生成する。表示部分は、ページの予め定められた部分とすればよい。また、ジェスチャー期間終了時に決定されている表示部分のページ中の位置およびサイズを用いるようにしてもよい。
<At the end of the gesture period>
The display image generation unit 65 displays a display part for displaying the display portion with the changed page as a processing target when the page is switched by the specific state page switching unit 86 at the end of the gesture period when the gesture period ends. An image is generated. The display part may be a predetermined part of the page. Further, the position and size in the page of the display portion determined at the end of the gesture period may be used.

表示用画像生成部65は、ジェスチャー期間が終了するジェスチャー期間終了時において、優先表示部77によって表示部分の方向が変更される場合は、処理対象のページにおける表示部分を、その方向を変更して表示するための表示用画像を生成する。   When the direction of the display part is changed by the priority display part 77 at the end of the gesture period when the gesture period ends, the display image generation unit 65 changes the direction of the display part on the processing target page. A display image for display is generated.

表示制御部67は、表示用画像生成部65から表示用画像が入力されることに応じて、表示用画像を表示部161に表示する。具体的には、表示制御部67は、表示用画像を表示部161に表示するために、アプリコマンドを調停部53に出力する。これにより、オペレーティング部57によって、表示部161が備えるVRAM(Video RAM)に表示用画像が記憶され、表示用画像が表示部161に表示される。   The display control unit 67 displays the display image on the display unit 161 in response to the display image input from the display image generation unit 65. Specifically, the display control unit 67 outputs an application command to the arbitration unit 53 in order to display the display image on the display unit 161. Thus, the operating unit 57 stores the display image in a VRAM (Video RAM) included in the display unit 161, and the display image is displayed on the display unit 161.

図7は、ジェスチャーイベント決定処理の流れの一例を示すフローチャートである。ジェスチャーイベント決定処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶された操作受付プログラムを実行することにより、CPU111により実行される処理である。図7を参照して、CPU111は、マウスイベントが検出されたか否かを判断する(ステップS01)。ユーザーがタッチパネル165を指示すれば、タッチパネル165により検出された位置に基づいてマウスイベントが検出される。マウスイベントが検出されるまで待機状態となり(ステップS01でNO)、マウスイベントが検出されたたならば(ステップS01でYES)、処理をステップS02に進める。換言すれば、ジェスチャーイベント決定処理は、ユーザーがタッチパネル165を指示し、タッチイベントが検出されることを条件に実行される処理である。   FIG. 7 is a flowchart illustrating an exemplary flow of a gesture event determination process. The gesture event determination process is a process executed by CPU 111 when CPU 111 of MFP 100 executes an operation reception program stored in ROM 113, HDD 115, or CD-ROM 118. Referring to FIG. 7, CPU 111 determines whether a mouse event has been detected (step S01). If the user indicates touch panel 165, a mouse event is detected based on the position detected by touch panel 165. The process waits until a mouse event is detected (NO in step S01). If a mouse event is detected (YES in step S01), the process proceeds to step S02. In other words, the gesture event determination process is a process executed on the condition that the user instructs the touch panel 165 and a touch event is detected.

ステップS02においては、検出されたマウスイベントが単数か否かを判断する。単数のマウスイベントが検出されたならば処理をステップS03に進めるが、複数のマウスイベントが検出されたならば処理をステップS21に進める。ステップS21においては、複数位置検出処理を実行し、処理を終了する。複数位置検出処理の詳細は後述する。   In step S02, it is determined whether or not the detected mouse event is single. If a single mouse event is detected, the process proceeds to step S03. If a plurality of mouse events are detected, the process proceeds to step S21. In step S21, a multiple position detection process is executed, and the process ends. Details of the multiple position detection process will be described later.

ステップS03においてはマウスイベントの状態によって処理を分岐させる。マウスイベントの状態が「Press」ならば処理をステップS04に進め、マウスイベントの状態が「Release」ならば処理をステップS05に進め、「Move」ならば処理をステップS12に進める。ステップS04においては、ステップS01において検出されたマウスイベントに含まれる位置情報を開始位置としてRAM114に記憶し、処理を終了する。   In step S03, the process branches depending on the state of the mouse event. If the mouse event state is “Press”, the process proceeds to step S04. If the mouse event state is “Release”, the process proceeds to step S05. If the mouse event state is “Move”, the process proceeds to step S12. In step S04, the position information included in the mouse event detected in step S01 is stored in RAM 114 as a start position, and the process ends.

処理がステップS05に進む場合、ステップS01において検出されたマウスイベントの状態が「Release」である。マウスイベントの状態が「Release」の場合、そのマウスイベントの直前に別のマウスイベントが入力されている。別のマウスイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS05においては、直前に入力された別のマウスイベントの状態によって処理を分岐させる。直前に入力された別のマウスイベントの状態が「Press」ならば処理をステップS06に進めるが、そうでなければ処理をステップS11に進める。ステップS11においては、未決定信号を出力し、処理を終了する。   When the process proceeds to step S05, the state of the mouse event detected in step S01 is “Release”. When the state of the mouse event is “Release”, another mouse event is input immediately before the mouse event. The state of another mouse event may be “Press” or “Move”. In step S05, the process branches depending on the state of another mouse event input immediately before. If the state of another mouse event input immediately before is “Press”, the process proceeds to step S06; otherwise, the process proceeds to step S11. In step S11, an undetermined signal is output and the process ends.

ステップS06においては、ステップS01において検出されたマウスイベントに含まれる位置情報と同じ位置情報がRAM114に記憶されているか否かを判断する。RAM114に記憶されているならば処理をステップS07に進めるが、そうでなければ処理をステップS11に進める。なお、ここでいう同じ位置情報とは、2つの位置情報でそれぞれ特定される2つの位置の間の距離が所定の長さ以内である場合を含む。ユーザーが同じ位置を指示する操作を検出するために、誤差を含む。   In step S06, it is determined whether or not the same position information as the position information included in the mouse event detected in step S01 is stored in RAM 114. If stored in RAM 114, the process proceeds to step S07; otherwise, the process proceeds to step S11. In addition, the same position information here includes the case where the distance between the two positions respectively specified by the two position information is within a predetermined length. In order to detect an operation in which the user points to the same position, an error is included.

ステップS07においては、ジェスチャーイベントをダブルタップに決定し、処理をステップS08に進める。処理がステップS07に進む場合は、直前に入力されたマウスイベントの状態が「Press」で、ステップS01において入力されるマウスイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されている場合である。換言すれば、ユーザーが最初のタップ操作を入力した後に、最初のタップ操作と同じ位置をタップ操作する場合である。   In step S07, the gesture event is determined to be a double tap, and the process proceeds to step S08. When the process proceeds to step S07, the state of the mouse event input immediately before is “Press”, the state of the mouse event input in step S01 is “Release”, and the same position information is stored in the RAM 114. Is stored. In other words, after the user inputs the first tap operation, the user taps the same position as the first tap operation.

ステップS08においては、決定されたジェスチャーイベントに対応する処理が定義されているか否かを判断する。HDD115に記憶されているマスターテーブル99において定められている複数種類の処理のうちに、カレント状態に設定されているアプリケーションプログラムに対応してジェスチャーイベントが関連付けられた処理が存在するか否かで判断する。マスターテーブル99において、決定されたジェスチャーイベントに処理が関連付けられていれば、カレント状態に設定されているアプリケーションプログラムに対応して、決定されたジェスチャーイベントに対応する処理が定義されていると判断する。決定されたジェスチャーイベントに対応する処理が定義されていれば処理をステップS09に進めるが、そうでなければ処理をステップS11に進める。ステップS09においては、ステップS07において決定されたジェスチャー識別情報「ダブルタップ」のジェスチャーイベントを出力し、処理を終了する。ステップS11においては、未決定信号を出力し、処理を終了する。   In step S08, it is determined whether or not a process corresponding to the determined gesture event is defined. Judgment is made based on whether or not there is a process associated with a gesture event corresponding to the application program set in the current state among a plurality of types of processes defined in the master table 99 stored in the HDD 115. To do. If a process is associated with the determined gesture event in the master table 99, it is determined that a process corresponding to the determined gesture event is defined corresponding to the application program set in the current state. . If a process corresponding to the determined gesture event is defined, the process proceeds to step S09; otherwise, the process proceeds to step S11. In step S09, the gesture event of the gesture identification information “double tap” determined in step S07 is output, and the process ends. In step S11, an undetermined signal is output and the process ends.

処理がステップS10に進む場合は、直前に入力されたマウスイベントの状態が「Press」で、次に入力されるマウスイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されていない場合である。換言すれば、ユーザーが最初のタップ操作を入力する場合である。ステップS10においては、ステップS01において検出されたマウスイベントに含まれる位置情報を開始位置としてRAM114に記憶し、処理をステップS11に進める。ステップS11においては、未決定信号を出力し、処理を終了する。   When the process proceeds to step S10, the state of the mouse event input immediately before is “Press”, the state of the next mouse event input is “Release”, and the same position information is stored in the RAM 114. This is the case when it is not stored. In other words, the user inputs the first tap operation. In step S10, the position information included in the mouse event detected in step S01 is stored in RAM 114 as a start position, and the process proceeds to step S11. In step S11, an undetermined signal is output and the process ends.

処理がステップS12に進む場合、マウスイベントの状態が「Move」の場合であり、そのマウスイベントの直前に別のマウスイベントが入力されている。別のマウスイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS12においては、移動距離Lがしきい値TH以上か否かを判断する。移動距離Lがしきい値TL以上ならば処理をステップS13に進めるが、そうでなければ処理を終了する。ステップS04において記憶された開始位置で特定される位置とステップS01において検出されたマウスイベントに含まれる位置情報で特定される位置との間の距離を移動距離Lとして算出する。   When the process proceeds to step S12, the mouse event state is “Move”, and another mouse event is input immediately before the mouse event. The state of another mouse event may be “Press” or “Move”. In step S12, it is determined whether or not the moving distance L is greater than or equal to a threshold value TH. If the movement distance L is greater than or equal to the threshold value TL, the process proceeds to step S13. If not, the process ends. The distance between the position specified by the start position stored in step S04 and the position specified by the position information included in the mouse event detected in step S01 is calculated as the movement distance L.

次のステップS13においては、指示方向を決定する。ステップS04において記憶された開始位置で特定される位置からステップS01において検出されたマウスイベントに含まれる位置情報で特定される位置に向かう方向を指示方向に決定する。指示方向は、表示部161の表示面を基準にした上下左右の4方向のうち最も近い方向である。   In the next step S13, an instruction direction is determined. A direction from the position specified at the start position stored in step S04 to the position specified by the position information included in the mouse event detected in step S01 is determined as the designated direction. The designated direction is the closest direction among the four directions, top, bottom, left, and right, with the display surface of the display unit 161 as a reference.

そして、指示速度を算出する。ステップS12において算出された移動距離に基づいて指示速度を算出する。たとえば、ステップS12において算出された移動距離を、状態が「Press」のマウスイベントが検出されてからステップS01においてマウスイベントが検出されるまでの時間で除算した値を指示速度とする。また、直前に検出されたマウスイベントとステップS01において検出されたマウスイベントとから指示速度を算出するようにしてもよい。   Then, the instruction speed is calculated. An instruction speed is calculated based on the movement distance calculated in step S12. For example, a value obtained by dividing the movement distance calculated in step S12 by the time from when the mouse event having the state “Press” is detected until the mouse event is detected in step S01 is set as the instruction speed. Further, the instruction speed may be calculated from the mouse event detected immediately before and the mouse event detected in step S01.

ステップS15においては、指示速度がしきい値TV以上か否かを判断する。指示速度がしきい値TV以上ならば処理をステップS16に進め、そうでなければ処理をステップS17に進める。ステップS16においては、ジェスチャーイベントをスワイプに決定し、処理をステップS18に進める。ステップS17においては、ジェスチャーイベントをフリックに決定し、処理をステップS18に進める。   In step S15, it is determined whether the indicated speed is equal to or higher than threshold value TV. If the instruction speed is equal to or higher than threshold TV, the process proceeds to step S16; otherwise, the process proceeds to step S17. In step S16, the gesture event is determined to be swipe, and the process proceeds to step S18. In step S17, the gesture event is determined to be flicked, and the process proceeds to step S18.

ステップS18においては、決定されたジェスチャーイベントに対応する処理が、HDD115に記憶されているマスターテーブル99によって定義されているか否かを判断する。ジェスチャーイベントに対応する処理が定義されていれば処理をステップS19に進めるが、そうでなければ処理をステップS20に進める。ステップS19においては、ステップS16において決定されたジェスチャー識別情報「スワイプ」のジェスチャーイベント、またはステップS17において決定されたジェスチャー識別情報「フリック」のジェスチャーイベントを出力し、処理を終了する。ステップS20においては、未決定信号を出力し、処理を終了する。   In step S 18, it is determined whether or not the process corresponding to the determined gesture event is defined by master table 99 stored in HDD 115. If the process corresponding to the gesture event is defined, the process proceeds to step S19. If not, the process proceeds to step S20. In step S19, the gesture event of the gesture identification information “swipe” determined in step S16 or the gesture event of the gesture identification information “flick” determined in step S17 is output, and the process ends. In step S20, an undetermined signal is output and the process ends.

図8は、複数位置検出処理の流れの一例を示すフローチャートである。複数位置検出処理は、図7に示したジェスチャーイベント決定処理のステップS21において実行される処理である。複数位置検出処理は、2つのマウスイベントが検出される場合に実行される処理である。図8を参照して、CPU111は、2つのマウスイベントの状態によって処理を分岐させる。2つのマウスイベントの少なくとも一方の状態が「Release」ならば処理をステップS54に進め、「Press」ならば処理をステップS32に進め、「Move」ならば処理をステップS33に進める。ステップS32においては、2つのマウスイベントそれぞれに含まれる位置情報を開始位置としてRAM114に記憶し、処理を終了する。   FIG. 8 is a flowchart illustrating an example of the flow of the multiple position detection process. The multiple position detection process is a process executed in step S21 of the gesture event determination process shown in FIG. The multiple position detection process is a process executed when two mouse events are detected. Referring to FIG. 8, CPU 111 branches the process depending on the state of two mouse events. If at least one of the two mouse events is “Release”, the process proceeds to step S54. If “Press”, the process proceeds to step S32. If “Move”, the process proceeds to step S33. In step S32, the position information included in each of the two mouse events is stored in the RAM 114 as the start position, and the process ends.

ステップS33においては、2つのマウスイベントの少なくとも一方の状態が「Move」か否かを判断する。2つのマウスイベントの少なくとも一方の状態が「Move」ならば処理をステップS34に進めるが、そうでなければ処理をステップS54に進める。ステップS54においては、未決定信号を出力し、処理をジェスチャーイベント検出処理に戻す。   In step S33, it is determined whether or not the state of at least one of the two mouse events is “Move”. If the state of at least one of the two mouse events is “Move”, the process proceeds to step S34; otherwise, the process proceeds to step S54. In step S54, an undetermined signal is output, and the process returns to the gesture event detection process.

ステップS34においては、回転角度を算出する。表示部161の表示面の所定の基準辺を基準に、ステップS32において記憶された開始位置で特定される2つの位置を結ぶ直線が基準辺となす角度R1を算出する。また、検出された2つのマウスイベントそれぞれに含まれる位置情報で特定される2つの位置を結ぶ直線が基準辺となす角度R2を算出する。そして、角度R2から角度R1を減算することにより回転角度Rを算出する。回転角度Rの絶対値がしきい値TR以上か否かを判断する。回転角度Rの絶対値がしきい値TR以上ならば、処理をステップS36に進めるが、そうでなければ処理をステップS40に進める。ステップS36においては、回転方向と回転角度とを決定する。回転方向は回転角度Rの正負によって決定する。回転角度は回転角度Rに決定する。ステップS37においては、ジェスチャーイベントをローテーションに決定し、処理をステップS38に進める。   In step S34, the rotation angle is calculated. Based on a predetermined reference side of the display surface of the display unit 161, an angle R1 formed by a straight line connecting the two positions specified at the start position stored in step S32 with the reference side is calculated. In addition, an angle R2 is calculated that a straight line connecting two positions specified by position information included in each of the two detected mouse events makes a reference side. Then, the rotation angle R is calculated by subtracting the angle R1 from the angle R2. It is determined whether or not the absolute value of the rotation angle R is greater than or equal to a threshold value TR. If the absolute value of rotation angle R is greater than or equal to threshold value TR, the process proceeds to step S36; otherwise, the process proceeds to step S40. In step S36, a rotation direction and a rotation angle are determined. The rotation direction is determined by the sign of the rotation angle R. The rotation angle is determined as the rotation angle R. In step S37, the gesture event is determined as rotation, and the process proceeds to step S38.

ステップS38においては、決定されたジェスチャーイベントに対応する処理が、HDD115に記憶されているマスターテーブル99によって定義されているか否かを判断する。ジェスチャーイベントに対応する処理が定義されていれば処理をステップS39に進めるが、そうでなければステップS39をスキップして処理をステップS40に進める。ステップS39においては、ステップS37において決定されたジェスチャー識別情報「ローテーション」のジェスチャーイベントを出力する。   In step S38, it is determined whether or not the process corresponding to the determined gesture event is defined by master table 99 stored in HDD 115. If the process corresponding to the gesture event is defined, the process proceeds to step S39. If not, step S39 is skipped and the process proceeds to step S40. In step S39, the gesture event of the gesture identification information “rotation” determined in step S37 is output.

ステップS40においては、指示位置間距離の変化量を算出する。ステップS32において記憶された開始位置で特定される2つの位置の間の距離L1を算出する。また、検出された2つのマウスイベントそれぞれに含まれる位置情報で特定される2つの位置の間の距離L2を算出する。距離L2と距離L1との差を、指示位置間距離の変化量として算出する。   In step S40, the change amount of the distance between the designated positions is calculated. A distance L1 between the two positions specified by the start position stored in step S32 is calculated. In addition, a distance L2 between the two positions specified by the position information included in each of the two detected mouse events is calculated. The difference between the distance L2 and the distance L1 is calculated as the change amount of the distance between the indicated positions.

次のステップS41においては距離が変化したか否かを判断する。指示位置間距離の変化量が所定の長さ以上であれば、距離が変化したと判断する。距離が変化したならば処理をステップS43に進め、そうでなければ処理をステップS48に進める。   In the next step S41, it is determined whether or not the distance has changed. If the change amount of the distance between the indicated positions is equal to or longer than a predetermined length, it is determined that the distance has changed. If the distance has changed, the process proceeds to step S43; otherwise, the process proceeds to step S48.

ステップS43においては、倍率を決定する。距離L2を距離L1で除算した値を倍率に決定する。次のステップS44においては、倍率が1よい大きいか否かを判断する。倍率が1より大きければ処理をステップS44に進めるが、そうでなければ処理をステップS45に進める。   In step S43, the magnification is determined. A value obtained by dividing the distance L2 by the distance L1 is determined as the magnification. In the next step S44, it is determined whether or not the magnification is 1 or larger. If the magnification is greater than 1, the process proceeds to step S44; otherwise, the process proceeds to step S45.

ステップS44においては、ジェスチャーイベントをピンチアウトに決定し、処理をステップS46に進める。ステップS45においては、ジェスチャーイベントをピンチインに決定し、処理をステップS46に進める。   In step S44, the gesture event is determined to be pinch out, and the process proceeds to step S46. In step S45, the gesture event is determined to be pinch-in, and the process proceeds to step S46.

ステップS46においては、決定されたジェスチャーイベントに対応する処理が、HDD115に記憶されているマスターテーブル99によって定義されているか否かを判断する。ジェスチャーイベントに対応する処理が定義されていれば処理をステップS47に進めるが、そうでなければステップS47をスキップして処理をステップS48に進める。ステップS47においては、ステップS44において決定されたジェスチャー識別情報「ピンチアウト」のジェスチャーイベント、または、ステップS45において決定されたジェスチャー識別情報「ピンチイン」のジェスチャーイベントを出力する。   In step S <b> 46, it is determined whether or not the process corresponding to the determined gesture event is defined by master table 99 stored in HDD 115. If the process corresponding to the gesture event is defined, the process proceeds to step S47. If not, step S47 is skipped and the process proceeds to step S48. In step S47, the gesture event of the gesture identification information “pinch out” determined in step S44 or the gesture event of the gesture identification information “pinch in” determined in step S45 is output.

ステップS48においては、2点の移動方向が同じか否かを判断する。2つのジェスチャーイベントそれぞれに含まれる位置情報で特定される位置が移動する方向を比較する。具体的には、ステップS32において記憶された開始位置で特定される2つの位置の一方から、検出された2つのマウスイベントのうち対応する一方に含まれる位置情報で特定される位置に向かう方向を、一方の移動方向として算出する。また、ステップS32において記憶された開始位置で特定される2つの位置の他方から、検出された2つのマウスイベントのうち対応する他方に含まれる位置情報で特定される位置に向かう方向を他方の移動方向として算出する。算出された両方向が同じならば処理をステップS49に進めるが、そうでなければ処理をステップS53に進める。   In step S48, it is determined whether the moving directions of the two points are the same. The direction in which the position specified by the position information included in each of the two gesture events moves is compared. Specifically, the direction from one of the two positions specified at the start position stored in step S32 toward the position specified by the position information included in the corresponding one of the two detected mouse events is determined. , One moving direction is calculated. Further, the other direction is moved from the other of the two positions specified at the start position stored in step S32 toward the position specified by the position information included in the corresponding other of the two detected mouse events. Calculate as direction. If the calculated two directions are the same, the process proceeds to step S49; otherwise, the process proceeds to step S53.

ステップS49においては、指示方向を決定する。ステップS48において算出された移動方向を指示方向に決定する。ステップS50は、ジェスチャーイベントをダブルフリックに決定し、処理をステップS51に進める。ステップS51においては、決定されたジェスチャーイベントに対応する処理が、HDD115に記憶されているマスターテーブル99によって定義されているか否かを判断する。ジェスチャーイベントに対応する処理が定義されていれば処理をステップS52に進めるが、そうでなければステップS52をスキップして処理をステップS53に進める。ステップS52においては、ステップS50において決定されたジェスチャー識別情報「ダブルフリック」のジェスチャーイベントを出力する。   In step S49, an instruction direction is determined. The moving direction calculated in step S48 is determined as the designated direction. In step S50, the gesture event is determined to be a double flick, and the process proceeds to step S51. In step S 51, it is determined whether or not the process corresponding to the determined gesture event is defined by master table 99 stored in HDD 115. If the process corresponding to the gesture event is defined, the process proceeds to step S52. If not, step S52 is skipped and the process proceeds to step S53. In step S52, the gesture event of the gesture identification information “double flick” determined in step S50 is output.

ステップS53においては、ジェスチャーイベントを出力したか否かを判断する。ステップS39、ステップS47、ステップS52の少なくとも1つが実行されたならばジェスチャーイベントを出力したと判断する。少なくとも1つのジェスチャーイベントを出力したならば処理をジェスチャーイベント検出処理に戻し、そうでなければ処理をステップS54に進める。ステップS54においては、未決定信号を出力し、処理をジェスチャーイベント検出処理に戻す。   In step S53, it is determined whether a gesture event has been output. If at least one of step S39, step S47, and step S52 is executed, it is determined that a gesture event has been output. If at least one gesture event has been output, the process returns to the gesture event detection process; otherwise, the process proceeds to step S54. In step S54, an undetermined signal is output, and the process returns to the gesture event detection process.

図9は、コンテンツ表示処理の流れの一例を示すフローチャートである。コンテンツ表示処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたコンテンツ表示プログラムを実行することにより、CPU111により実行される処理である。図9を参照して、CPU111は、コンテンツを取得する(ステップS61)。たとえば、コンテンツが、外部のWebサーバーに記憶されたWebページの場合、通信I/F部112を制御してWebサーバーからWebページを受信する。また、また、コンテンツがHDD116に記憶されたアプリケーションデータまたは画像データの場合、HDD116からアプリケーションデータまたは画像データを読み出す。   FIG. 9 is a flowchart illustrating an example of the flow of content display processing. The content display process is a process executed by CPU 111 when CPU 111 provided in MFP 100 executes a content display program stored in ROM 113, HDD 115, or CD-ROM 118. Referring to FIG. 9, CPU 111 acquires content (step S61). For example, when the content is a Web page stored in an external Web server, the communication I / F unit 112 is controlled to receive the Web page from the Web server. If the content is application data or image data stored in the HDD 116, the application data or image data is read from the HDD 116.

ステップS62においては、表示対象ページを決定する。ステップS51において取得されたコンテンツが複数ページならば最初の第1ページを表示対象ページに決定し、コンテンツが単一のページならばコンテンツの全体を表示対象ページに決定する。ステップS63においては、表示部分を決定する。表示対象ページの少なくとも一部を表示部分に決定する。ここでは、表示対象ページの全部を表示部分に決定する場合を例に説明する。   In step S62, a display target page is determined. If the content acquired in step S51 is a plurality of pages, the first first page is determined as the display target page, and if the content is a single page, the entire content is determined as the display target page. In step S63, a display portion is determined. At least a part of the display target page is determined as a display part. Here, a case where the entire display target page is determined as a display portion will be described as an example.

次のステップS64においては、ステップS62において決定された表示対象ページの表示部分に対応する表示用画像を生成する。そして、生成された表示用画像を表示部161に表示し(ステップS65)、処理をステップS66に進める。表示部161のVRAMに表示用画像を格納することによって、表示用画像を表示部161に表示する。   In the next step S64, a display image corresponding to the display portion of the display target page determined in step S62 is generated. Then, the generated display image is displayed on the display unit 161 (step S65), and the process proceeds to step S66. By storing the display image in the VRAM of the display unit 161, the display image is displayed on the display unit 161.

ステップS66においては、状態情報を記憶する。状態情報は、表示対象ページのページ番号、表示部分のページ中の位置およびサイズを含む。次のステップS67においては、スクロール不可フラグをOFFに設定する。そして、ジェスチャーベントが決定されたか否かを判断する(ステップS68)。上述したジェスチャーイベント決定処理において、ジェスチャーイベントが出力される場合にジェスチャーイベントが決定されたと判断する。ジェスチャーイベントが決定されるまで待機状態となり(ステップS68でNO)、ジェスチャーイベントが決定されたならば(ステップS68でYES)、処理をステップS69に進める。   In step S66, the state information is stored. The state information includes the page number of the display target page, the position and size of the display portion in the page. In the next step S67, the non-scrollable flag is set to OFF. Then, it is determined whether or not a gesture vent has been determined (step S68). In the gesture event determination process described above, it is determined that a gesture event has been determined when a gesture event is output. The process waits until a gesture event is determined (NO in step S68). If a gesture event is determined (YES in step S68), the process proceeds to step S69.

ステップS69においては、ジェスチャー期間開始時を設定する。その時の時刻をジェスチャー期間開始時に設定する。そして、表示用画像更新処理を実行し(ステップS70)、処理をステップS71に進める。表示用画像更新処理の詳細は後述するが、ステップS68または、ステップS71において検出されたジェスチャーイベントに基づいて表示用画像を更新する処理である。   In step S69, the start time of the gesture period is set. The time at that time is set at the start of the gesture period. Then, a display image update process is executed (step S70), and the process proceeds to step S71. Although details of the display image update process will be described later, this is a process of updating the display image based on the gesture event detected in step S68 or step S71.

ステップS71においては、ジェスチャーベントが決定されたか否かを判断する。ジェスチャーイベントが決定されたならば処理をステップS70に戻すが、そうでなければ処理をステップS72に進める。ステップS72においては、未決定信号を検出したか否かを判断する。上述したジェスチャーイベント決定処理において出力される未決定信号を検出する。未決定信号を検出したならば処理をステップS73に進めるが、そうでなければ処理をステップS71に戻す。   In step S71, it is determined whether or not a gesture vent has been determined. If a gesture event is determined, the process returns to step S70; otherwise, the process proceeds to step S72. In step S72, it is determined whether an undetermined signal has been detected. An undetermined signal output in the gesture event determination process described above is detected. If an undetermined signal is detected, the process proceeds to step S73; otherwise, the process returns to step S71.

ステップS73においては、ジェスチャー期間終了時を設定する。その時の時刻をジェスチャー期間終了時に設定する。そして、優先表示処理(ステップS74)および特定状態ページ切換処理(ステップS75)を実行し、処理をステップS76に進める。優先表示処理および特定状態ページ切換処理の詳細は後述する。ステップS76においては、コンテンツの表示を終了する指示を受け付けたか否かを判断する。例えば、ハードキー部167に含まれる複数のキーのうち、コンテンツ表示プログラムを終了する指示が割り当てられたキーが指示されたならばコンテンツの表示を終了する指示を受け付ける。コンテンツンの表示を終了する指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS66に戻す。   In step S73, the end of the gesture period is set. The time at that time is set at the end of the gesture period. And a priority display process (step S74) and a specific state page switching process (step S75) are performed, and a process is advanced to step S76. Details of the priority display process and the specific state page switching process will be described later. In step S76, it is determined whether an instruction to end the display of content has been received. For example, if a key to which an instruction to end the content display program is assigned among a plurality of keys included in the hard key unit 167, an instruction to end the display of content is accepted. If an instruction to end display of contenton is received, the process ends. If not, the process returns to step S66.

図10は、表示用画像更新処理の流れの一例を示すフローチャートである。表示用画像更新処理は、図9に示したコンテンツ表示処理のステップS70において実行される処理である。図9において、ステップS70が実行される前の段階で、表示対象ページ、表示部分が決定されており、ジェスチャーイベントが検出されている。図10を参照して、CPU111は、検出されたジェスチャーイベントが、ピンチアウトまたはピンチインのジェスチャーイベントか否かを判断する(ステップS81)。ジェスチャー識別情報「ピンチアウト」のジェスチャーイベントまたはジェスチャー識別情報「ピンチイン」のジェスチャーイベントが検出された場合は、処理をステップS82に進めるが、そうでなければ処理をステップS83に進める。ステップS82においては、表示部分を変更するための倍率を設定する。ジェスチャーイベントにパラメータとして含まれる倍率を、表示部分を変更するための倍率に設定する。   FIG. 10 is a flowchart illustrating an example of the flow of the display image update process. The display image update process is a process executed in step S70 of the content display process shown in FIG. In FIG. 9, the display target page and the display portion are determined and the gesture event is detected before step S70 is executed. Referring to FIG. 10, CPU 111 determines whether the detected gesture event is a pinch-out or pinch-in gesture event (step S81). If a gesture event with the gesture identification information “Pinch Out” or a gesture event with the gesture identification information “Pinch In” is detected, the process proceeds to Step S82; otherwise, the process proceeds to Step S83. In step S82, a magnification for changing the display portion is set. The magnification included as a parameter in the gesture event is set to a magnification for changing the display portion.

ステップS83においては、検出されたジェスチャーイベントが、ローテーションか否かを判断する。ジェスチャー識別情報「ローテーション」のジェスチャーイベントが検出された場合は、処理をステップS84に進めるが、そうでなければ処理をステップS86に進める。ステップS84においては、回転方向および回転角度を取得する。ジェスチャーイベントにパラメータとして含まれる回転方向および回転角度を取得する。次のステップS85においては、取得された回転方向および回転角度を、表示用画像を生成するための回転方向および回転角度に設定し、処理をステップS86に進める。   In step S83, it is determined whether or not the detected gesture event is rotation. If a gesture event having the gesture identification information “Rotation” is detected, the process proceeds to step S84; otherwise, the process proceeds to step S86. In step S84, the rotation direction and rotation angle are acquired. The rotation direction and rotation angle included as parameters in the gesture event are acquired. In the next step S85, the acquired rotation direction and rotation angle are set to the rotation direction and rotation angle for generating the display image, and the process proceeds to step S86.

ステップS86においては、検出されたジェスチャーイベントが、フリックまたはダブルフリックのジェスチャーイベントか否かを判断する。ジェスチャー識別情報「フリック」のジェスチャーイベントまたはジェスチャー識別情報「ダブルフリック」のジェスチャーイベントが検出された場合は、処理をステップS87に進めるが、そうでなければ処理をステップS92に進める。ステップS87においては、スクロール方向および距離を取得する。ジェスチャーイベントにパラメータとして含まれる方向および移動距離を取得する。次のステップS88においては、表示部分を変更可能か否かを判断する。具体的には、表示部分を、ステップS87において取得された方向に取得された移動距離だけ平行移動可能か否かを判断する。表示対象ページにおいて、平行移動させる前の表示部分が配置されている領域に対して、ステップS87で取得された方向に取得された移動距離の幅の領域が存在すれば、表示部分を変更可能と判断する。表示部分を変更可能と判断すれば処理をステップS89に進めるが、そうでなければ処理をステップS90に進める。   In step S86, it is determined whether or not the detected gesture event is a flick or double flick gesture event. If a gesture event with gesture identification information “flick” or a gesture event with gesture identification information “double flick” is detected, the process proceeds to step S87; otherwise, the process proceeds to step S92. In step S87, the scroll direction and distance are acquired. The direction and the movement distance included as parameters in the gesture event are acquired. In the next step S88, it is determined whether or not the display portion can be changed. Specifically, it is determined whether or not the display portion can be translated by the movement distance acquired in the direction acquired in step S87. In the display target page, if there is a region having a width of the movement distance acquired in the direction acquired in step S87 with respect to the region where the display portion before the translation is arranged, the display portion can be changed. to decide. If it is determined that the display portion can be changed, the process proceeds to step S89; otherwise, the process proceeds to step S90.

ステップS89においては、ステップS87において取得された方向および移動距離を、表示部分を変更するためのスクロール方向および移動距離に設定し、処理をステップS92に進める。一方、ステップS90においては、スクロール不可フラグをONに設定し、処理をステップS91に進める。ステップS91においては、ステップS87において取得された方向を、スクロール方向としてRAM114に記憶し、処理をステップS92に進める。   In step S89, the direction and movement distance acquired in step S87 are set to the scroll direction and movement distance for changing the display portion, and the process proceeds to step S92. On the other hand, in step S90, the non-scrollable flag is set to ON, and the process proceeds to step S91. In step S91, the direction acquired in step S87 is stored in RAM 114 as the scroll direction, and the process proceeds to step S92.

ステップS92においては、検出されたジェスチャーイベントが、スワイプか否かを判断する。ジェスチャー識別情報「スワイプ」のジェスチャーイベントが検出された場合は、処理をステップS93に進めるが、そうでなければ処理をステップS94に進める。ステップS93においては、ページ送り方向を設定し、処理をステップS94に進める。する。ジェスチャーイベントにパラメータとして含まれる方向に基づいて、ページ送り方向を決定する。方向が「上」または「左」を示すならば前のページを示すページ送り方向に決定し、方向が「下」または「右」を示すならば後のページを示すページ送り方向に決定する。   In step S92, it is determined whether or not the detected gesture event is a swipe. If a gesture event having the gesture identification information “Swipe” is detected, the process proceeds to step S93; otherwise, the process proceeds to step S94. In step S93, the page feed direction is set, and the process proceeds to step S94. To do. The page turning direction is determined based on the direction included as a parameter in the gesture event. If the direction indicates “up” or “left”, the page turning direction indicating the previous page is determined. If the direction indicates “down” or “right”, the page turning direction indicating the subsequent page is determined.

ステップS94においては、表示部分を変更する。ジェスチャー期間開始時の表示部分を、状態情報から特定し、特定した表示部分を、ステップS82において設定された倍率、ステップS89において設定されたスクロール方向および移動距離、ステップS93において設定されたページ送り方向に基づいて、変更する。状態情報は、表示対象ページを特定するページ番号と、表示部分の位置と、表示部分のサイズと、を含む。   In step S94, the display portion is changed. The display part at the start of the gesture period is specified from the state information, and the specified display part is determined by the magnification set in step S82, the scroll direction and the moving distance set in step S89, and the page feed direction set in step S93. Based on the change. The state information includes a page number for specifying the display target page, the position of the display portion, and the size of the display portion.

ステップS93が実行され、ページ送り方向が設定されている場合には、表示対象ページのページ番号をページ送り方向で定まるページのページ番号に変更する。ページ送り方向が前のページを示すならば前のページのページ番号に変更する。なお、状態情報で定まるページ番号のページが先頭ページの場合は、最終のページのページ番号に変更する。ページ送り方向が後のページを示すならば後のページのページ番号に変更する。なお、状態情報で定まるページ番号のページが最終ページの場合は、先頭の第1ページのページ番号に変更する。   If step S93 is executed and the page feed direction is set, the page number of the display target page is changed to the page number of the page determined by the page feed direction. If the page feed direction indicates the previous page, the page number of the previous page is changed. If the page with the page number determined by the status information is the first page, the page number is changed to the last page. If the page feed direction indicates a subsequent page, the page number of the subsequent page is changed. If the page with the page number determined by the status information is the last page, the page number is changed to the page number of the first first page.

ステップS82が実行され、倍率が設定されている場合には、表示部分のサイズを倍率で定まるサイズに変更する。ステップS89が実行されてスクロール方向および移動距離が設定されている場合には、表示部分の位置をスクロール方向で定める方向に、移動距離だけ平行移動した位置に変更する。   When step S82 is executed and the magnification is set, the size of the display portion is changed to a size determined by the magnification. When step S89 is executed and the scroll direction and the movement distance are set, the position of the display portion is changed to a position translated by the movement distance in the direction determined by the scroll direction.

ステップS95においては、表示用画像を生成する。コンテンツ中で、ステップS95において変更された後の表示部分に相当する部分の画像を表示用画像として生成する。ステップS85が実行され、回転方向および回転角度が設定されている場合には、表示部分の方向を回転方向に回転角度だけ回転さたた画像を表示用画像とする。回転角度を所定の範囲ごとに分類し、表示部分を回転させる角度を分類された範囲ごとに予め定めておき、回転角度が属する範囲に対して定められた角度だけ回転させるようにしてもよい。たとえば、回転角度が0度より大きく30度以下の範囲に表示部分を回転させる角度として90度を定め、回転角度が30度より大きく60度以下の範囲に表示部分を回転させる角度として180度を定めるようにする。そして、回転角度が0度より大きく30度以下の範囲に属する場合に、表示部分を90度だけ回転させた画像を表示用画像とし、回転角度が30度より大きく60度以下の範囲に属する場合に、表示部分を180度だけ回転させた画像を表示用画像とする。   In step S95, a display image is generated. In the content, an image of a portion corresponding to the display portion changed in step S95 is generated as a display image. When step S85 is executed and the rotation direction and rotation angle are set, an image obtained by rotating the direction of the display portion by the rotation angle in the rotation direction is set as a display image. The rotation angle may be classified for each predetermined range, the angle for rotating the display portion may be determined for each classified range in advance, and the rotation angle may be rotated by a predetermined angle with respect to the range to which the rotation angle belongs. For example, 90 degrees is set as an angle for rotating the display part in a range where the rotation angle is greater than 0 degree and 30 degrees or less, and 180 degrees is set as an angle for rotating the display part in a range where the rotation angle is greater than 30 degrees and 60 degrees or less. Make sure to define. When the rotation angle belongs to a range greater than 0 degree and 30 degrees or less, an image obtained by rotating the display portion by 90 degrees is used as a display image, and the rotation angle belongs to a range greater than 30 degrees and 60 degrees or less. Further, an image obtained by rotating the display portion by 180 degrees is set as a display image.

ステップS96においては、生成された表示用画像を、表示部161に表示し、処理をコンテンツ表示処理に戻す。   In step S96, the generated display image is displayed on display unit 161, and the process returns to the content display process.

図11は、優先表示処理の流れの一例を示すフローチャートである。優先表示処理は、図9に示したコンテンツ表示処理のステップS74において実行される処理である。図11を参照して、CPU111は、ジェスチャー期間にローテーション操作が存在したか否かを判断する(ステップS101)。ジェスチャー期間にジェスチャー識別情報「ローテーション」のジェスチャーイベントが検出されていたならばローテーション操作が存在したと判断する。ローテーション操作が存在したならば処理をステップS102に進めるが、そうでなければ処理をコンテンツ表示処理に戻す。   FIG. 11 is a flowchart illustrating an example of the flow of priority display processing. The priority display process is a process executed in step S74 of the content display process shown in FIG. Referring to FIG. 11, CPU 111 determines whether or not a rotation operation exists during the gesture period (step S101). If a gesture event having the gesture identification information “Rotation” is detected during the gesture period, it is determined that a rotation operation has been performed. If there is a rotation operation, the process proceeds to step S102; otherwise, the process returns to the content display process.

ステップS102においては、ジェスチャー期間にピンチアウト操作またはピンチイン操作が存在したか否かを判断する。ジェスチャー期間にジェスチャー識別情報「ピンチアウト」のジェスチャーイベントが検出されていたならばピンチアウト操作が存在したと判断する。ジェスチャー期間にジェスチャー識別情報「ピンチイン」のジェスチャーイベントが検出されていたならばピンチイン操作が存在したと判断する。ジェスチャー期間にピンチアウト操作またはピンチイン操作の少なくとも一方が存在したならば処理をステップS103に進めるが、ピンチアウト操作またはピンチイン操作のいずれも存在しなければ処理をコンテンツ表示処理に戻す。   In step S102, it is determined whether a pinch-out operation or a pinch-in operation exists during the gesture period. If a gesture event having the gesture identification information “pinch out” is detected during the gesture period, it is determined that a pinch out operation has been performed. If a gesture event having the gesture identification information “Pinch-in” is detected during the gesture period, it is determined that a pinch-in operation has been performed. If at least one of the pinch-out operation and the pinch-in operation exists during the gesture period, the process proceeds to step S103. If neither the pinch-out operation or the pinch-in operation exists, the process returns to the content display process.

ステップS103においては、状態情報から表示部分を特定する。ジェスチャー期間開始時の表示部分および倍率に基づいて表示用画像を生成するためである。次のステップS104においては、回転方向および回転角度を設定する。ジェスチャー期間に最後に検出されたジェスチャー識別情報「ローテーション」のジェスチャーイベントにパラメータとして含まれる回転方向および回転角度を、表示用画像を生成するための回転方向および回転角度に設定する。   In step S103, the display part is specified from the state information. This is because a display image is generated based on the display portion and the magnification at the start of the gesture period. In the next step S104, the rotation direction and rotation angle are set. The rotation direction and rotation angle included as parameters in the gesture event of the gesture identification information “rotation” detected last in the gesture period are set to the rotation direction and rotation angle for generating the display image.

ステップS105においては、ステップS103において特定された表示部分、およびステップS104において設定された回転方向に回転角度に基づいて、表示用画像を生成する。具体的には、ステップS103において特定された表示部分の画像を、ステップS104において設定された回転方向に回転角度だけ回転させた画像を表示用画像に設定する。なお、回転角度を所定の範囲ごとに分類し、表示部分を回転させる角度を分類された範囲ごとに予め定めておき、回転角度が属する範囲に対して定められた角度だけ回転させるようにしてもよい。たとえば、回転角度が0度より大きく30度以下の範囲に表示部分を回転させる角度として90度を定め、回転角度が30度より大きく60度以下の範囲に表示部分を回転させる角度として180度を定めるようにする。そして、回転角度が0度より大きく30度以下の範囲に属する場合に、表示部分を90度だけ回転させ、回転角度が30度より大きく60度以下の範囲に属する場合に、表示部分を180度だけ回転させる。   In step S105, a display image is generated based on the display portion specified in step S103 and the rotation angle in the rotation direction set in step S104. Specifically, an image obtained by rotating the image of the display portion specified in step S103 by the rotation angle in the rotation direction set in step S104 is set as a display image. The rotation angle is classified for each predetermined range, the angle for rotating the display portion is determined for each classified range in advance, and the rotation angle is rotated by a predetermined angle with respect to the range to which the rotation angle belongs. Good. For example, 90 degrees is set as an angle for rotating the display part in a range where the rotation angle is greater than 0 degree and 30 degrees or less, and 180 degrees is set as an angle for rotating the display part in a range where the rotation angle is greater than 30 degrees and 60 degrees or less. Make sure to define. When the rotation angle belongs to a range greater than 0 degree and 30 degrees or less, the display portion is rotated by 90 degrees, and when the rotation angle belongs to a range greater than 30 degrees and less than 60 degrees, the display portion is 180 degrees. Just rotate.

次のステップS105においては、生成された表示用画像を、表示部161に表示し、処理をコンテンツ表示処理に戻す。   In the next step S105, the generated display image is displayed on the display unit 161, and the process returns to the content display process.

図12は、特定状態ページ切換処理の流れの一例を示すフローチャートである。特定状態ページ切換処理は、図9に示したコンテンツ表示処理のステップS75において実行される処理である。図12を参照して、CPU111は、スクロール不可フラグがONに設定されているか否かを判断する(ステップS111)。スクロール不可フラグは、図9に示したコンテンツ表示処理のステップS67において、ジェスチャー期間開始時の初期値としてOFFに設定され、図10に示した表示用画像更新処理のステップS90において、スクロールすることができない場合にONに設定される。スクロール不可フラグがONに設定されているならば処理をステップS112に進めるが、そうでなければ処理をコンテンツ表示処理に戻す。   FIG. 12 is a flowchart illustrating an example of the flow of the specific state page switching process. The specific state page switching process is a process executed in step S75 of the content display process shown in FIG. Referring to FIG. 12, CPU 111 determines whether or not the non-scrollable flag is set to ON (step S111). The non-scrollable flag is set to OFF as an initial value at the start of the gesture period in step S67 of the content display process shown in FIG. 9, and scrolling can be performed in step S90 of the display image update process shown in FIG. Set to ON if not possible. If the non-scrollable flag is set to ON, the process proceeds to step S112. If not, the process returns to the content display process.

ステップS112においては、RAM114に記憶されたスクロール方向からページ送り方向を決定する。スクロール方向は、図10に示した表示用画像更新処理のステップS91において、スクロールすることができない場合にRAM114に記憶されている。スクロール方向が「上」または「左」を示すならば前のページを示すページ送り方向に決定し、スクロール方向が「下」または「右」を示すならば後のページを示すページ送り方向に決定する。   In step S112, the page feed direction is determined from the scroll direction stored in the RAM 114. The scroll direction is stored in the RAM 114 when it is not possible to scroll in step S91 of the display image update process shown in FIG. If the scroll direction indicates “up” or “left”, the page feed direction is determined to indicate the previous page. If the scroll direction is “down” or “right”, the page shift direction is determined to indicate the next page. To do.

次のステップS113においては、表示対象ページを変更する。表示対象ページのページ番号をページ送り方向で定めるページのページ番号に変更する。ページ送り方向が前のページを示すならば前のページのページ番号に変更する。なお、状態情報で定まるページ番号のページが先頭ページの場合は、最終のページのページ番号に変更する。ページ送り方向が後のページを示すならば後のページのページ番号に変更する。なお、状態情報で定まるページ番号のページが最終ページの場合は、先頭の第1ページのページ番号に変更する。   In the next step S113, the display target page is changed. The page number of the display target page is changed to the page number of the page determined in the page feed direction. If the page feed direction indicates the previous page, the page number of the previous page is changed. If the page with the page number determined by the status information is the first page, the page number is changed to the last page. If the page feed direction indicates a subsequent page, the page number of the subsequent page is changed. If the page with the page number determined by the status information is the last page, the page number is changed to the page number of the first first page.

次のステップS114においては、表示部分を決定する。表示部分は、ページに対して予め定められた部分としてもよいし、表示対象ページを変更する前に定まっている表示部分の位置およびサイズで定めるようにしてもよい。   In the next step S114, a display portion is determined. The display portion may be a predetermined portion for the page, or may be determined by the position and size of the display portion determined before changing the display target page.

次のステップS115においては、表示用画像を生成する。コンテンツ中で、ステップS113において変更された後の表示対象ページの表示部分に相当する部分の画像を表示用画像として生成する。そして、生成された表示用画像を、表示部161に表示し(ステップS116)、処理をコンテンツ表示処理に戻す。   In the next step S115, a display image is generated. In the content, an image of a portion corresponding to the display portion of the display target page after being changed in step S113 is generated as a display image. Then, the generated display image is displayed on the display unit 161 (step S116), and the process returns to the content display process.

次に、優先表示処理が実行される場合について、表示部161に表示される画面を用いて説明する。図13は、画面の一例を示す第1の図である。図13を参照して、画面301は、表示用画像303を含む。表示用画像303は、アプリケーションデータの1ページの全体の画像としている。図13に示す画面301が表示部161に表示されている状態で、表示用画像303の方向を右方向に90度回転させるためには、ユーザーは、ローテーション操作を入力すればよい。具体的には、ユーザーが親指と人差し指とをタッチパネルに同時に触れ、親指が触れている位置を中心に人差し指が触れている位置を時計回りに回転させるように円弧を描く操作をすればよい。しかしながら、ローテーション操作を入力している途中で、親指が触れている位置と人差し指が触れている位置との間の距離が短くなる場合がある。この場合におけるユーザーの操作は、MFP100によって、ローテーション操作およびピンチイン操作として受け付けられる。   Next, a case where priority display processing is executed will be described using a screen displayed on the display unit 161. FIG. 13 is a first diagram illustrating an example of a screen. Referring to FIG. 13, screen 301 includes a display image 303. The display image 303 is an entire image of one page of application data. In order to rotate the display image 303 to the right by 90 degrees while the screen 301 shown in FIG. 13 is being displayed on the display unit 161, the user may input a rotation operation. Specifically, the user may touch the touch panel with the thumb and index finger at the same time, and perform an operation of drawing an arc so that the position touched by the index finger is rotated clockwise around the position touched by the thumb. However, in the middle of inputting the rotation operation, the distance between the position touched by the thumb and the position touched by the index finger may be shortened. User operations in this case are accepted by MFP 100 as rotation operations and pinch-in operations.

図14は、画面の一例を示す第2の図である。図14に示す画面301Aは、図13に示した画面301が表示されている状態で、ユーザーによる操作としてローテーション操作とピンチイン操作とを受け付けて、それらの両方に対応する処理を実行した場合に表示される画面を示す。図14を参照して、画面301Aは、表示用画像303Aを含む。表示用画像303Aは、図13に示した画面301に含まれる表示用画面303を、時計方向に90度回転し、サイズを50%に縮小した画像である。   FIG. 14 is a second diagram illustrating an example of the screen. The screen 301A shown in FIG. 14 is displayed when the screen 301 shown in FIG. 13 is displayed and a rotation operation and a pinch-in operation are accepted as user operations, and processing corresponding to both of them is executed. Shows the screen. Referring to FIG. 14, screen 301A includes a display image 303A. The display image 303A is an image obtained by rotating the display screen 303 included in the screen 301 illustrated in FIG. 13 by 90 degrees clockwise and reducing the size to 50%.

本実施の形態におけるMFP100は、1つのジェスチャー期間においてローテーション操作とピンチイン操作とを受け付ける場合、ジェスチャー期間が終了した時点で、ローテーション操作を受け付け、ピンチイン操作を受け付けなかったものとして表示用画像を表示する。そのため、途中の画像である図14は、必ずしも表示させる必要はなく、図13に示す画面から直接、後述する図15に示す画面を表示するようにしてもよい。その方が、画面のちらつきが少なくなる場合がある。   When MFP 100 according to the present embodiment accepts a rotation operation and a pinch-in operation in one gesture period, MFP 100 accepts the rotation operation and displays a display image as a result of not accepting the pinch-in operation when the gesture period ends. . Therefore, FIG. 14 that is an intermediate image is not necessarily displayed, and the screen shown in FIG. 15 described later may be displayed directly from the screen shown in FIG. In that case, the screen flicker may be reduced.

図15は、画面の一例を示す第3の図である。図15に示す画面301Bは、図13に示した画面301が表示されている状態で、ユーザーによる操作としてローテーション操作とピンチイン操作とを受け付けた後、ユーザーが操作を終了した後に、表示される画面を示す。図15を参照して、画面301Bは、表示用画像303Bを含む。表示用画像303Bは、図13に示した画面301に含まれる表示用画像303を、時計方向に90度回転した画像である。表示用画像303Bは、表示用画像303とサイズは同じである。   FIG. 15 is a third diagram illustrating an example of the screen. A screen 301B shown in FIG. 15 is a screen that is displayed after the user finishes the operation after accepting a rotation operation and a pinch-in operation as a user operation while the screen 301 shown in FIG. 13 is displayed. Indicates. Referring to FIG. 15, screen 301B includes a display image 303B. The display image 303B is an image obtained by rotating the display image 303 included in the screen 301 illustrated in FIG. 13 by 90 degrees in the clockwise direction. The display image 303B has the same size as the display image 303.

なお、本実施の形態においては、ジェスチャー期間中に、ローテーション操作と、ピンチイン操作またはピンチアウト操作とを受け付ける場合、ジェスチャー期間中は表示部分を変更するとともに変更後の表示部の方向を変更した表示用画像を表示するようにしたが、ジェスチャー期間が開始されてからローテーション操作に対応するジェスチャー識別情報「ローテーション」のジェスチャーイベントが決定された後は、ピンチイン操作またはピンチアウト操作に対応するジェスチャー識別情報「ピンチイン」または「ピンチアウトのジェスチャーイベントに基づいて表示部分を変更しないようにしてもよい。これにより、ローテーション操作がピンチイン操作またはピンチアウト操作よりも優先されることをユーザーに通知することができる。   In the present embodiment, when a rotation operation and a pinch-in operation or a pinch-out operation are accepted during the gesture period, the display portion is changed during the gesture period and the direction of the display unit after the change is changed. The gesture identification information corresponding to the pinch-in operation or the pinch-out operation is determined after the gesture event of the “rotation” gesture identification information corresponding to the rotation operation is determined after the gesture period is started. The display portion may not be changed based on the “pinch-in” or “pinch-out gesture event. This allows the user to be notified that the rotation operation has priority over the pinch-in operation or the pinch-out operation. .

次に、特定状態ページ切換処理が実行される場合について、表示部161に表示される画面を用いて説明する。図16は、画面の一例を示す第4の図である。図16を参照して、画面311は、表示用画像313を含む。表示用画像313は、アプリケーションデータの第1ページの下方の一部の画像としている。図16に示す画面311が表示部161に表示されている状態において、ユーザーが指315でタッチパネルに触れた位置を図面矢印方向に移動させる下方向のスクロール操作を入力する場合、MFP100はスクロール操作を受け付ける。しかしながら、表示用画像313はアプリケーションデータの第1ページの下方の一部なので、下方向にスクロールすることはできない。このため、MFP100は、スクロール操作を受け付けたけれどもスクロールすることができない場合には、スクロール方向に対応する方向にページを切り換え、図17に示す画面を表示する。   Next, a case where the specific state page switching process is executed will be described using a screen displayed on the display unit 161. FIG. 16 is a fourth diagram illustrating an example of the screen. Referring to FIG. 16, screen 311 includes a display image 313. The display image 313 is a partial image below the first page of application data. When the screen 311 shown in FIG. 16 is displayed on the display unit 161, when the user inputs a downward scroll operation for moving the position touched by the finger 315 in the arrow direction in the drawing, the MFP 100 performs the scroll operation. Accept. However, since the display image 313 is a part below the first page of the application data, it cannot be scrolled downward. Therefore, when MFP 100 receives a scroll operation but cannot scroll, the page is switched in a direction corresponding to the scroll direction, and the screen shown in FIG. 17 is displayed.

図17は、画面の一例を示す第5の図である。図17を参照して、画面311Aは、表示用画像313Aを含む。表示用画像313Aは、アプリケーションデータの第2ページの上方の一部の画像としている。   FIG. 17 is a fifth diagram illustrating an example of the screen. Referring to FIG. 17, screen 311A includes a display image 313A. The display image 313A is a partial image above the second page of the application data.

以上説明したように、本実施の形態におけるMFP100は、データ処理装置として機能し、コンテンツの少なくとも一部の表示部分を表示する。そして、ユーザーがタッチパネル165に指を触れて指示すれば、ジェスチャー開始時点における表示部分を特定するための状態情報を一時記憶し、ジェスチャー期間中に表示部分を変化させる処理に対応する第1ジェスチャーイベントと、表示部分を変化させない第2ジェスチャーイベントとが決定される場合、第2ジェスチャーイベントに基づいて、記憶された状態情報で特定される表示部分を表示するための表示用画像を生成し、表示する。ここでの、第1ジェスチャーイベントは、ユーザーによりフリック操作、ダブルフリック操作、ピンチアウト操作、ピンチイン操作およびスワイプ操作によって決定される。また、第2ジェスチャーイベントは、ユーザーによるローテーション操作によって決定される。このため、ジェスチャー期間中に第2ジェスチャーイベントに基づく表示用画像を生成する処理が、第1ジェスチャーイベントに基づく表示用画像を生成する処理よりも優先するので、ユーザーによる1つの操作を1つの処理に対応させることができる。   As described above, MFP 100 according to the present embodiment functions as a data processing device and displays at least a part of a display portion of content. When the user touches and points on the touch panel 165, the first gesture event corresponding to the process of temporarily storing the state information for specifying the display part at the time of starting the gesture and changing the display part during the gesture period When the second gesture event that does not change the display portion is determined, a display image for displaying the display portion specified by the stored state information is generated and displayed based on the second gesture event. To do. Here, the first gesture event is determined by a flick operation, a double flick operation, a pinch-out operation, a pinch-in operation, and a swipe operation by the user. The second gesture event is determined by a rotation operation by the user. For this reason, the process for generating the display image based on the second gesture event during the gesture period has priority over the process for generating the display image based on the first gesture event. It can be made to correspond.

また、MFP100は、第1ジェスチャーイベントを決定する場合はコンテンツ中の表示部分を変更した表示用画像を生成して表示し、第2ジェスチャーイベントを決定する場合は表示部分の方向を変更した表示用画像を生成して表示する。コンテンツ中の表示部分を変更するよりも、表示部分の方向を変更することが優先されるので、ユーザーは、表示部分を変更することなく表示部分の方向を変更する操作を容易に入力することができる。   In addition, when determining the first gesture event, the MFP 100 generates and displays a display image in which the display portion in the content is changed. When determining the second gesture event, the MFP 100 displays the display portion in which the direction of the display portion is changed. Generate and display an image. Since changing the direction of the display part has priority over changing the display part in the content, the user can easily input an operation to change the direction of the display part without changing the display part. it can.

また、ジェスチャー期間中は、コンテンツ中の表示部分を変更するとともに、表示部分の方向を変更した表示用画像を表示するが、ジェスチャー期間が終了すると、表示部分の方向を変更した表示用画像を表示する。このため、ユーザーは、表示用画像を確認しながら操作を継続することができる。   In addition, during the gesture period, the display part in the content is changed and the display image in which the direction of the display part is changed is displayed. When the gesture period ends, the display image in which the direction of the display part is changed is displayed. To do. For this reason, the user can continue the operation while confirming the display image.

また、ジェスチャー期間が開始されてから第2ジェスチャーイベントが決定された後は、表示部分を変更しない。このため、第2ジェスチャーイベントが第1ジェスチャーイベントよりも優先されることをユーザーに通知することができる。   Further, after the second gesture event is determined after the gesture period is started, the display portion is not changed. Therefore, it is possible to notify the user that the second gesture event has priority over the first gesture event.

さらに、ピンチイン操作またはピンチアウト操作が受け付けられると第1ジェスチャーイベントを検出し、表示部分のサイズを変更し、スワイプ操作が受け付けられると第1ジェスチャーイベントを検出し、表示部分のコンテンツ中の位置を変更する。このため表示用画像をコンテンツ中の部分を拡大または縮小した画像、または、コンテンツ中の任意の部分の画像に変更することができる。   Further, when a pinch-in operation or a pinch-out operation is accepted, the first gesture event is detected, the size of the display part is changed, and when a swipe operation is accepted, the first gesture event is detected, and the position of the display part in the content is detected. change. Therefore, the display image can be changed to an image obtained by enlarging or reducing a portion in the content, or an image of an arbitrary portion in the content.

さらに、同時に2つの位置が検出される場合、所定時間間隔で検出される2つの位置の間の距離が変化するピンチイン操作またはピンチアウト操作、または、2つの位置それぞれの移動方向の差が所定の範囲内のダブルフリック操作が受け付けられると第1ジェスチャーイベントを決定し、同時に2つの位置が検出され、所定時間間隔で検出される2つの位置を通る直線の傾きが所定の角度変化するローテーション操作が受け付けられると第2ジェスチャーイベントを決定する。このため、ユーザーは、2本の指で複数種類の操作を入力することができる。   Furthermore, when two positions are detected at the same time, a pinch-in operation or a pinch-out operation in which the distance between the two positions detected at a predetermined time interval changes, or a difference between the movement directions of the two positions is a predetermined value. When a double flick operation within the range is accepted, a first gesture event is determined, two positions are detected at the same time, and a rotation operation in which the slope of a straight line passing through the two positions detected at predetermined time intervals changes by a predetermined angle is performed. If accepted, the second gesture event is determined. For this reason, the user can input a plurality of types of operations with two fingers.

また、スワイプ操作に対応するジェスチャーイベントが決定される場合、ページを切り換え、フリック操作またはダブルフリック操作に対応するジェスチャーイベントが決定される場合、ページ内で表示部分を変更し、フリック操作またはダブルフリック操作に対応するジェスチャーイベントが決定される場合において、ページ内で表示部分を変更できない場合、ページを切り換える。このため、ページ内で表示部分を変更できない場合に、ユーザーが、フリック操作またはダブルフリック操作を入力する場合にページを切り換えるので、ユーザーは、改めてスワイプ操作を入力し直す必要がない。その結果、ユーザーによる操作を簡略にすることができる。   In addition, when a gesture event corresponding to a swipe operation is determined, the page is switched. When a gesture event corresponding to a flick operation or a double flick operation is determined, a display portion is changed in the page, and a flick operation or a double flick is performed. When the gesture event corresponding to the operation is determined, the page is switched when the display portion cannot be changed in the page. For this reason, when the display part cannot be changed in the page, the user switches the page when inputting the flick operation or the double flick operation, and therefore the user does not need to input the swipe operation again. As a result, the operation by the user can be simplified.

また、ジェスチャー開始時点において表示対象となるページ内で表示部分の変更が可能であっても、ジェスチャー終了時点までに表示部分の変更ができない期間が存在する場合、ジェスチャー終了時点で、ページを切り換える。このため、ジェスチャー期間終了時に、別のページの表示部分の表示用画像を表示することができる。   Further, even if the display part can be changed within the page to be displayed at the start of the gesture, if there is a period during which the display part cannot be changed by the end of the gesture, the page is switched at the end of the gesture. For this reason, the display image of the display part of another page can be displayed at the end of the gesture period.

また、ジェスチャー期間において、フリック操作またはダブルフリック操作に対応するジェスチャーイベントが決定されるごとに、表示対象となるページ内で表示部分を変更できなくなるまで表示部分を変更する。このため、ジェスチャー期間においては、表示対象となるページ内で表示部分を変更して表示用画像を表示することができ、ユーザーが入力する1回の操作で、表示対象となるページ内で表示部分を変更した表示用画像と、ページを切り換えた後の表示部分の表示用画像とを表示することができる。   In addition, every time a gesture event corresponding to a flick operation or a double flick operation is determined in the gesture period, the display portion is changed until the display portion cannot be changed in the display target page. For this reason, in the gesture period, the display portion can be changed in the display target page and the display image can be displayed, and the display portion can be displayed in the display target page by one operation input by the user. And the display image of the display portion after the page is switched can be displayed.

なお、上述した実施の形態においては、データ処理装置の一例としてMFP100について説明したが、図8〜図12に示した処理を、MFP100を制御するCPU111に実行させるコンテンツ表示方法、また、そのコンテンツ表示方法をCPU111に実行させるためのコンテンツ表示プログラムとして、発明を捉えることができるのは言うまでもない。   In the above-described embodiment, MFP 100 has been described as an example of a data processing apparatus. However, a content display method that causes CPU 111 that controls MFP 100 to execute the processes illustrated in FIGS. It goes without saying that the invention can be understood as a content display program for causing the CPU 111 to execute the method.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 MFP、51 コンテンツ表示部、53 調停部、55 操作変換部、57 オペレーティング部、61 コンテンツ取得部、63 ジェスチャー期間検出部、65 表示用画像生成部、67 表示制御部、71 表示対象変更部、73 表示方向変更部、75 状態記憶部、77 優先表示部、81 変倍部、83 ページ切換部、85 スクロール部、86 特定状態ページ切換部、91 関連付部、93 ジェスチャーイベント決定部、95 マウスイベント生成部、97 表示部制御部、99 マスターテーブル、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD、116 ファクシミリ部、117 外部記憶装置、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、160 操作パネル、161 表示部、163 操作部、165 タッチパネル、167 ハードキー部。   DESCRIPTION OF SYMBOLS 100 MFP, 51 Content display part, 53 Arbitration part, 55 Operation conversion part, 57 Operating part, 61 Content acquisition part, 63 Gesture period detection part, 65 Display image generation part, 67 Display control part, 71 Display object change part, 73 display direction change unit, 75 status storage unit, 77 priority display unit, 81 scaling unit, 83 page switching unit, 85 scroll unit, 86 specific status page switching unit, 91 association unit, 93 gesture event determination unit, 95 mouse Event generation unit, 97 display unit control unit, 99 master table, 110 main circuit, 111 CPU, 112 communication I / F unit, 113 ROM, 114 RAM, 115 HDD, 116 facsimile unit, 117 external storage device, 120 automatic document conveyance Device, 130 Document reading unit, 140 images Generating unit, 150 a sheet feeding unit, 160 operation panel, 161 display unit, 163 operation unit, 165 touch panel, 167 hard key unit.

Claims (9)

画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、
制御手段と、を備え、
前記制御手段は、コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を前記表示手段に表示するコンテンツ表示手段と、
前記位置検出手段により1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定手段と、を含み、
前記コンテンツ表示手段は、前記ジェスチャーイベント決定手段により決定された少なくとも1つのジェスチャーイベントに基づいて前記表示部分を表示するための表示用画像を生成する表示用画像生成手段と、
前記生成された表示用画像を前記表示手段に表示する表示制御手段と、を含み、
前記表示用画像生成手段は、前記ジェスチャーイベント決定手段により第1ジェスチャーイベントが決定される場合、前記表示対象となるページを別のページに変更するページ切換手段と、
前記ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定される場合、前記表示対象となるページ内で表示部分を変更するスクロール手段と、
前記ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定される場合において、前記スクロール手段による表示部分の変更ができない場合、前記表示対象となるページを別のページに変更する特定状態ページ切換手段と、を含む、データ処理装置。
Display means capable of displaying images;
Position detection means capable of detecting one or more positions designated by a user on the display surface of the display means;
Control means,
The control means includes content display means for displaying an image of at least a part of a display portion of one page to be displayed among a plurality of pages included in the content on the display means,
Gesture event determining means for determining at least one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means;
The content display means includes a display image generation means for generating a display image for displaying the display portion based on at least one gesture event determined by the gesture event determination means;
Display control means for displaying the generated display image on the display means,
The display image generating means, when a first gesture event is determined by the gesture event determining means, a page switching means for changing the display target page to another page;
When a second gesture event is determined by the gesture event determining means, scroll means for changing a display part in the display target page;
In the case where the second gesture event is determined by the gesture event determining means, if the display portion cannot be changed by the scroll means, the specific state page switching means for changing the display target page to another page, Including data processing apparatus.
前記特定状態ページ切換手段は、前記位置検出手段により1以上の位置が連続して検出されるジェスチャー期間が開始するジェスチャー開始時点において前記スクロール手段による表示部分の変更が可能であっても、前記ジェスチャー期間が終了するジェスチャー終了時点までに前記スクロール手段による表示部分の変更ができない期間が存在する場合、前記ジェスチャー終了時点で、前記表示対象となるページを別のページに変更する、請求項1に記載のデータ処理装置。   The specific state page switching unit is configured to display the gesture even if the scroll unit can change a display portion at a gesture start time when a gesture period in which one or more positions are continuously detected by the position detection unit starts. The page to be displayed is changed to another page at the end of the gesture when there is a period during which the display part cannot be changed by the scroll means by the end of the gesture at which the period ends. Data processing equipment. 前記スクロール手段は、前記ジェスチャー期間においては、前記ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定されるごとに、前記表示対象となるページ内で表示部分を変更できなくなるまで前記表示部分を変更する、請求項2に記載のデータ処理装置。   The scroll means changes the display part until the display part cannot be changed in the display target page every time the second gesture event is determined by the gesture event determination means in the gesture period. The data processing apparatus according to claim 2. 前記ジェスチャーイベント決定手段は、前記位置検出手段により検出される1つの位置が移動する速度がしきい値より小さい場合に第1ジェスチャーイベントを決定するフリック決定手段と、
前記位置検出手段により検出される1つの位置が移動する速度がしきい値以上の場合に第2ジェスチャーイベントを決定するスワイプ決定手段と、を含む、請求項1〜3のいずれかに記載のデータ処理装置。
The gesture event determining means is a flick determining means for determining a first gesture event when a moving speed of one position detected by the position detecting means is smaller than a threshold value;
4. The data according to claim 1, further comprising: a swipe determining unit that determines a second gesture event when a moving speed of one position detected by the position detecting unit is equal to or higher than a threshold value. Processing equipment.
データ処理装置で実行されるコンテンツ表示方法であって、
前記データ処理装置は、画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、を備え、
コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を前記表示手段に表示するコンテンツ表示ステップと、
前記位置検出手段により1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定ステップと、を前記データ処理装置に実行させ、
前記コンテンツ表示ステップは、前記ジェスチャーイベント決定ステップにおいて決定された少なくとも1つのジェスチャーイベントに基づいて前記表示部分を表示するための表示用画像を生成する表示用画像生成ステップと、
前記生成された表示用画像を前記表示手段に表示する表示制御ステップと、を含み、
前記表示用画像生成ステップは、前記ジェスチャーイベント決定ステップにおいて第1ジェスチャーイベントが決定される場合、前記表示対象となるページを別のページに変更するページ切換ステップと、
前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合、前記表示対象となるページ内で表示部分を変更するスクロールステップと、
前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合において、前記スクロールステップにおいて表示部分の変更ができない場合、前記表示対象となるページを別のページに変更する特定状態ページ切換ステップと、を含む、コンテンツ表示方法。
A content display method executed by a data processing device,
The data processing device includes display means capable of displaying an image;
Position detection means capable of detecting one or more positions indicated by a user in the display surface of the display means,
A content display step of displaying, on the display means, an image of at least a part of a display portion of one page to be displayed among a plurality of pages included in the content;
A gesture event determining step for determining at least one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means; Let it run
The content display step includes: a display image generation step for generating a display image for displaying the display portion based on at least one gesture event determined in the gesture event determination step;
A display control step of displaying the generated display image on the display means,
The display image generation step includes a page switching step for changing the display target page to another page when the first gesture event is determined in the gesture event determination step;
When a second gesture event is determined in the gesture event determining step, a scrolling step of changing a display part in the display target page;
In the case where the second gesture event is determined in the gesture event determining step, if the display part cannot be changed in the scrolling step, the specific state page switching step for changing the display target page to another page, Including content display method.
前記特定状態ページ切換ステップは、前記位置検出手段により1以上の位置が連続して検出されるジェスチャー期間が開始するジェスチャー開始時点において前記スクロールステップにおいて表示部分の変更が可能であっても、前記ジェスチャー期間が終了するジェスチャー終了時点までに前記スクロールステップにおいて表示部分の変更ができない期間が存在する場合、前記ジェスチャー終了時点で、前記表示対象となるページを別のページに変更するステップを、含む請求項5に記載のコンテンツ表示方法。   In the specific state page switching step, even if the display portion can be changed in the scroll step at the start of a gesture at which a gesture period in which one or more positions are continuously detected by the position detecting unit is started, The method includes a step of changing the page to be displayed to another page at the end of the gesture when there is a period during which the display portion cannot be changed in the scroll step by the end of the gesture when the period ends. 5. The content display method according to 5. 前記スクロールステップは、前記ジェスチャー期間においては、前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定されるごとに、前記表示対象となるページ内で表示部分を変更できなくなるまで前記表示部分を変更するステップを含む、請求項6に記載のコンテンツ表示方法。   The scrolling step is a step of changing the display part in the gesture period until the display part cannot be changed in the display target page every time the second gesture event is determined in the gesture event determining step. The content display method according to claim 6, comprising: 前記ジェスチャーイベント決定ステップは、前記位置検出手段により検出される1つの位置が移動する速度がしきい値より小さい場合に第1ジェスチャーイベントを決定するフリック決定ステップと、
前記位置検出手段により検出される1つの位置が移動する速度がしきい値以上の場合に第2ジェスチャーイベントを決定するスワイプ決定ステップと、を含む、請求項5〜7のいずれかに記載のコンテンツ表示方法。
The gesture event determining step includes a flick determining step of determining a first gesture event when a moving speed of one position detected by the position detecting unit is smaller than a threshold value;
The content according to any one of claims 5 to 7, further comprising: a swipe determining step of determining a second gesture event when a moving speed of one position detected by the position detecting means is equal to or higher than a threshold value. Display method.
データ処理装置を制御するコンピューターで実行されるコンテンツ表示プログラムであって、
前記データ処理装置は、画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、を備え、
コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を前記表示手段に表示するコンテンツ表示ステップと、
前記位置検出手段により1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定ステップと、を前記コンピューターに実行させ、
前記コンテンツ表示ステップは、前記ジェスチャーイベント決定ステップにおいて決定された少なくとも1つのジェスチャーイベントに基づいて前記表示部分を表示するための表示用画像を生成する表示用画像生成ステップと、
前記生成された表示用画像を前記表示手段に表示する表示制御ステップと、を含み、
前記表示用画像生成ステップは、前記ジェスチャーイベント決定ステップにおいて第1ジェスチャーイベントが決定される場合、前記表示対象となるページを別のページに変更するページ切換ステップと、
前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合、前記表示対象となるページ内で表示部分を変更するスクロールステップと、
前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合において、前記スクロールステップにおいて表示部分の変更ができない場合、前記表示対象となるページを別のページに変更する特定状態ページ切換ステップと、を含む、コンテンツ表示プログラム。
A content display program executed by a computer that controls the data processing device,
The data processing device includes display means capable of displaying an image;
Position detection means capable of detecting one or more positions indicated by a user in the display surface of the display means,
A content display step of displaying on the display means an image of at least a part of a display portion of one page to be displayed among a plurality of pages included in the content;
Causing the computer to execute a gesture event determining step of determining at least one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means. ,
The content display step includes: a display image generation step for generating a display image for displaying the display portion based on at least one gesture event determined in the gesture event determination step;
A display control step of displaying the generated display image on the display means,
The display image generation step includes a page switching step for changing the display target page to another page when the first gesture event is determined in the gesture event determination step;
When a second gesture event is determined in the gesture event determining step, a scrolling step of changing a display part in the display target page;
In the case where the second gesture event is determined in the gesture event determining step, if the display part cannot be changed in the scrolling step, the specific state page switching step for changing the display target page to another page, Including content display program.
JP2013031447A 2013-02-20 2013-02-20 Data processing apparatus, content display method, and content display program Active JP6102325B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013031447A JP6102325B2 (en) 2013-02-20 2013-02-20 Data processing apparatus, content display method, and content display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013031447A JP6102325B2 (en) 2013-02-20 2013-02-20 Data processing apparatus, content display method, and content display program

Publications (2)

Publication Number Publication Date
JP2014160426A true JP2014160426A (en) 2014-09-04
JP6102325B2 JP6102325B2 (en) 2017-03-29

Family

ID=51612061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013031447A Active JP6102325B2 (en) 2013-02-20 2013-02-20 Data processing apparatus, content display method, and content display program

Country Status (1)

Country Link
JP (1) JP6102325B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016225669A (en) * 2015-05-27 2016-12-28 京セラドキュメントソリューションズ株式会社 Image formation device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000035842A (en) * 1998-07-17 2000-02-02 Nikon Corp Operation deciding device based on prescribed image operation
JP2005352849A (en) * 2004-06-11 2005-12-22 Fuji Xerox Co Ltd Program and method for screen display control, and portable information device
JP2009294726A (en) * 2008-06-02 2009-12-17 Sharp Corp Information terminal device
JP2011053971A (en) * 2009-09-02 2011-03-17 Sony Corp Apparatus, method and program for processing information
JP2011170603A (en) * 2010-02-18 2011-09-01 Fujitsu Toshiba Mobile Communications Ltd Portable terminal
WO2012030155A2 (en) * 2010-09-02 2012-03-08 Samsung Electronics Co., Ltd. Item display method and apparatus
JP2012173842A (en) * 2011-02-18 2012-09-10 Nec Casio Mobile Communications Ltd Input device, input control method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000035842A (en) * 1998-07-17 2000-02-02 Nikon Corp Operation deciding device based on prescribed image operation
JP2005352849A (en) * 2004-06-11 2005-12-22 Fuji Xerox Co Ltd Program and method for screen display control, and portable information device
JP2009294726A (en) * 2008-06-02 2009-12-17 Sharp Corp Information terminal device
JP2011053971A (en) * 2009-09-02 2011-03-17 Sony Corp Apparatus, method and program for processing information
JP2011170603A (en) * 2010-02-18 2011-09-01 Fujitsu Toshiba Mobile Communications Ltd Portable terminal
WO2012030155A2 (en) * 2010-09-02 2012-03-08 Samsung Electronics Co., Ltd. Item display method and apparatus
JP2012173842A (en) * 2011-02-18 2012-09-10 Nec Casio Mobile Communications Ltd Input device, input control method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016225669A (en) * 2015-05-27 2016-12-28 京セラドキュメントソリューションズ株式会社 Image formation device

Also Published As

Publication number Publication date
JP6102325B2 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
JP5772773B2 (en) Image processing apparatus, operation standardization method, and operation standardization program
JP7342208B2 (en) Image processing device, control method and program for the image processing device
JP5796562B2 (en) Data processing apparatus, setting method, and setting program
JP2010250510A (en) Display control device, display control method and computer program
JP5825277B2 (en) Data processing apparatus, content display method, and content display program
JP6191567B2 (en) Operation screen display device, image forming apparatus, and display program
US9785333B2 (en) Display device, image processing apparatus, non-transitory computer readable medium, and display control method
JP6131072B2 (en) Display control device
US9100519B2 (en) Data processing apparatus, content displaying method, and non-transitory computer-readable recording medium encoded with browsing program
JP5862549B2 (en) Data processing apparatus, operation reception method, and browsing program
JP5958059B2 (en) Flick operation accepting device, flick operation accepting method, and flick operation accepting program
JP6102325B2 (en) Data processing apparatus, content display method, and content display program
JP6043423B2 (en) Terminal device and object selection method
JP2014106807A (en) Data processing apparatus, operation reception method, and browsing program
JP6225625B2 (en) Image display device, image display method, and image display program
JP6552156B2 (en) Data processing apparatus, operation accepting method, and content display program
JP6102593B2 (en) Image forming apparatus, application program generation method, and application program generation program
JP2015215924A (en) Data processor, setting method and setting program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6102325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150