JP2014160426A - Data processing apparatus, content display method, and content display program - Google Patents
Data processing apparatus, content display method, and content display program Download PDFInfo
- Publication number
- JP2014160426A JP2014160426A JP2013031447A JP2013031447A JP2014160426A JP 2014160426 A JP2014160426 A JP 2014160426A JP 2013031447 A JP2013031447 A JP 2013031447A JP 2013031447 A JP2013031447 A JP 2013031447A JP 2014160426 A JP2014160426 A JP 2014160426A
- Authority
- JP
- Japan
- Prior art keywords
- display
- gesture
- gesture event
- page
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 251
- 238000012545 processing Methods 0.000 title claims description 59
- 238000001514 detection method Methods 0.000 claims description 35
- 230000008859 change Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 description 232
- 210000003811 finger Anatomy 0.000 description 37
- 238000006243 chemical reaction Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 239000004065 semiconductor Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000003705 background correction Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Abstract
Description
この発明はデータ処理装置、コンテンツ表示方法およびコンテンツ表示プログラムに関し、特に、タッチパネルを備えたデータ処理装置、そのデータ処理装置で実行されるコンテンツ表示方法およびコンテンツ表示プログラムに関する。 The present invention relates to a data processing device, a content display method, and a content display program, and more particularly to a data processing device provided with a touch panel, a content display method and a content display program executed by the data processing device.
近年、複合機(MFP)で代表されるデータ処理装置において、ユーザーインターフェースとして、タッチパネルを備えた装置がある。タッチパネルによって、ユーザーが指で指示する動作の違いによって、種々の操作を検出することができる。 In recent years, data processing apparatuses represented by MFPs (MFPs) include apparatuses having a touch panel as a user interface. By the touch panel, various operations can be detected based on the difference in the operation that the user designates with a finger.
たとえば、特開2011-170603号公報には、データ情報を表示する表示部と、前記表示部へ接触することにより入力を行う接触入力部と、前記接触入力部での入力のうち、少なくとも1つ以上の同時入力の接触点を検知する接触検知部と、前記接触検知部で検知した同時入力の接触点の数を取得する取得部と、少なくとも接触点の数に応じて異なる処理を行う処理部と、を有し、前記処理部は、前記少なくとも1つ以上の同時入力の接触点が一方向に移動されたことを前記接触検知部が検知した場合、前記表示部に表示されているデータ情報を、前記取得部で取得した前記同時入力の接触点の数に応じた移動量で表示移動するよう構成される、ことを特徴とする携帯端末が記載されている。 For example, Japanese Patent Laid-Open No. 2011-170603 discloses at least one of a display unit that displays data information, a contact input unit that performs input by touching the display unit, and an input from the contact input unit. The contact detection unit that detects the contact point of the simultaneous input described above, the acquisition unit that acquires the number of contact points of the simultaneous input detected by the contact detection unit, and a processing unit that performs different processing at least according to the number of contact points And when the contact detection unit detects that the at least one or more simultaneous input contact points are moved in one direction, the data information displayed on the display unit A portable terminal is described that is configured to display and move with a movement amount corresponding to the number of contact points of the simultaneous input acquired by the acquisition unit.
また、タッチパネルによって、ユーザーが指で指示する位置を移動させる速さの違いによって、異なる操作を検出することができる。たとえば、ユーザーが指で指示する位置を移動させる速さが、所定の速さより遅い場合にフリック操作として検出し、所定の速さ以上の場合にスワイプ操作そして検出する。 Also, different operations can be detected based on the difference in the speed at which the user moves the position indicated by the finger using the touch panel. For example, a flick operation is detected when the speed at which the user moves the position indicated by the finger is lower than a predetermined speed, and a swipe operation is detected when the speed is higher than a predetermined speed.
一方、ユーザーがMFPを操作する場合は直立した姿勢となるので、MFPにタッチパネルを搭載する場合は、タッチパネルの操作面が上側を向いているものが多い。このため、ユーザーがタッチパネルに指を触れる方向は、タッチパネルの上方になる。タッチパネルに上方から指を触れて移動させる動作において、指を移動させる速度を調整することが困難な場合がある。たとえば、タッチパネル上で指を移動させる動作は、手首だけを用いる場合と、手首に加えて腕、腰等を用いる場合とで、移動させる速度が異なる場合があるからである。このため、ユーザーがスワイプ操作を入力しようとする場合に、MFPにおいてフリック操作として検出されてしまう場合があるといった問題があった。
この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なデータ処理装置を提供することである。 The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to provide a data processing apparatus capable of reducing erroneous operations by a user and improving operability. It is.
この発明の他の目的は、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なコンテンツ表示方法を提供することである。 Another object of the present invention is to provide a content display method capable of reducing erroneous operations by a user and improving operability.
この発明のさらに他の目的は、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なコンテンツ表示プログラムを提供することである。 Still another object of the present invention is to provide a content display program capable of reducing erroneous operations by a user and improving operability.
上述した目的を達成するためにこの発明のある局面によれば、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、制御手段と、を備え、制御手段は、コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を表示手段に表示するコンテンツ表示手段と、位置検出手段により1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定手段と、を含み、コンテンツ表示手段は、ジェスチャーイベント決定手段により決定された少なくとも1つのジェスチャーイベントに基づいて表示部分を表示するための表示用画像を生成する表示用画像生成手段と、生成された表示用画像を表示手段に表示する表示制御手段と、を含み、表示用画像生成手段は、ジェスチャーイベント決定手段により第1ジェスチャーイベントが決定される場合、表示対象となるページを別のページに変更するページ切換手段と、ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定される場合、表示対象となるページ内で表示部分を変更するスクロール手段と、ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定される場合において、スクロール手段による表示部分の変更ができない場合、表示対象となるページを別のページに変更する特定状態ページ切換手段と、を含む。 In order to achieve the above-described object, according to one aspect of the present invention, a data processing device detects display means capable of displaying an image, and one or more positions indicated by a user on the display surface of the display means. Content display for displaying at least a part of a display part image of one page to be displayed among a plurality of pages included in the content. And a gesture event determining means for determining at least one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means. The means includes a table for displaying the display portion based on at least one gesture event determined by the gesture event determination means. Display image generating means for generating a display image, and display control means for displaying the generated display image on the display means. The display image generating means determines the first gesture event by the gesture event determining means. When the second gesture event is determined by the page switching means for changing the page to be displayed to another page and the gesture event determining means, the scroll means for changing the display portion in the page to be displayed. And a specific state page switching means for changing the display target page to another page when the display part cannot be changed by the scroll means when the second gesture event is determined by the gesture event determining means. .
この局面に従えば、コンテンツの少なくとも一部の表示部分が表示され、第1ジェスチャーイベントが決定される場合、表示対象となるページを別のページに変更され、第2ジェスチャーイベントが決定される場合、表示対象となるページ内で表示部分が変更され、第2ジェスチャーイベントが決定される場合において、表示対象となるページ内で表示部分が変更できない場合、表示対象となるページが別のページに変更される。このため、第2ジェスチャーイベントが決定される場合に表示用画像を変更できない場合に、第1ジェスチャーイベントが決定される場合と同じ表示用画像を表示することができる。このため、ユーザーは、第1ジェスチャーイベントに対応する操作を改めて入力し直す必要がない。その結果、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なデータ処理装置を提供することができる。 According to this aspect, when at least a part of the display portion of the content is displayed and the first gesture event is determined, the page to be displayed is changed to another page, and the second gesture event is determined When the display part is changed in the display target page and the second gesture event is determined, if the display part cannot be changed in the display target page, the display target page is changed to another page. Is done. For this reason, when the display image cannot be changed when the second gesture event is determined, the same display image as that when the first gesture event is determined can be displayed. For this reason, the user does not need to input again the operation corresponding to the first gesture event. As a result, it is possible to provide a data processing apparatus capable of reducing erroneous operations by the user and improving operability.
好ましくは、特定状態ページ切換手段は、位置検出手段により1以上の位置が連続して検出されるジェスチャー期間が開始するジェスチャー開始時点においてスクロール手段による表示部分の変更が可能であっても、ジェスチャー期間が終了するジェスチャー終了時点までにスクロール手段による表示部分の変更ができない期間が存在する場合、ジェスチャー終了時点で、表示対象となるページを別のページに変更する。 Preferably, the specific state page switching unit is configured to display the gesture period even when the display unit can be changed by the scroll unit at the start of the gesture when the gesture period in which one or more positions are continuously detected by the position detection unit starts. If there is a period during which the display part cannot be changed by the scroll means by the time when the gesture is ended, the page to be displayed is changed to another page when the gesture ends.
この局面に従えば、ジェスチャー開始時点において表示対象となるページ内で表示部分の変更が可能であっても、ジェスチャー終了時点までに表示対象となるページ内で表示部分の変更ができない期間が存在する場合、ジェスチャー終了時点で、表示対象となるページを別のページに変更する。このため、ジェスチャー開始時点において表示対象となるページ内で表示部分の変更が可能であっても、ジェスチャー期間終了時に、別のページの表示部分の表示用画像を表示することができる。その結果、表示部分を変更することができない場合に、ユーザーが、操作表示部分を変更する操作を入力した場合であっても、ページを切り換えた表示用画像を表示をすることができる。 According to this aspect, even if the display part can be changed in the display target page at the start of the gesture, there is a period in which the display part cannot be changed in the display target page by the end of the gesture. In such a case, the page to be displayed is changed to another page when the gesture ends. For this reason, even if the display part can be changed in the page to be displayed at the start of the gesture, the display image of the display part of another page can be displayed at the end of the gesture period. As a result, when the display portion cannot be changed, even when the user inputs an operation for changing the operation display portion, the display image with the page switched can be displayed.
好ましくは、スクロール手段は、ジェスチャー期間においては、ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定されるごとに、表示対象となるページ内で表示部分を変更できなくなるまで表示部分を変更する。 Preferably, in the gesture period, the scroll unit changes the display part until the display part cannot be changed in the display target page every time the second gesture event is determined by the gesture event determination unit.
この局面に従えば、ジェスチャー期間においては、第2ジェスチャーイベントが決定されるごとに、表示対象となるページ内で表示部分を変更できなくなるまで表示部分が変更される。このため、ジェスチャー期間においては、表示対象となるページ内で表示部分を変更して表示用画像を表示することができ、ユーザーが入力する1回の操作で、表示対象となるページ内で表示部分を変更した表示用画像と、ページを切り換えた後の表示部分の表示用画像とを表示することができる。 According to this aspect, in the gesture period, each time the second gesture event is determined, the display portion is changed until the display portion cannot be changed in the display target page. For this reason, in the gesture period, the display portion can be changed in the display target page and the display image can be displayed, and the display portion can be displayed in the display target page by one operation input by the user. And the display image of the display portion after the page is switched can be displayed.
好ましくは、ジェスチャーイベント決定手段は、位置検出手段により検出される1つの位置が移動する速度がしきい値より小さい場合に第1ジェスチャーイベントを決定するフリック決定手段と、位置検出手段により検出される1つの位置が移動する速度がしきい値以上の場合に第2ジェスチャーイベントを決定するスワイプ決定手段と、を含む。 Preferably, the gesture event determining means is detected by the flick determining means for determining the first gesture event when the moving speed of one position detected by the position detecting means is smaller than the threshold, and the position detecting means. Swipe determining means for determining a second gesture event when the speed at which one position moves is equal to or greater than a threshold value.
この局面に従えば、位置検出手段により検出される1つの位置が移動する速度がしきい値より小さい場合に第1ジェスチャーイベントが決定され、しきい値以上の場合に第2ジェスチャーイベントが決定される。このため、ユーザーは、指示する位置を移動する速度を異ならせるだけで、異なる操作を入力することができる。 According to this aspect, the first gesture event is determined when the moving speed of one position detected by the position detecting means is smaller than the threshold value, and the second gesture event is determined when the moving speed is equal to or higher than the threshold value. The Therefore, the user can input different operations only by changing the moving speed of the designated position.
この発明の他の局面によれば、コンテンツ表示方法は、データ処理装置で実行されるコンテンツ表示方法であって、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、を備え、コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を表示手段に表示するコンテンツ表示ステップと、位置検出手段により1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定ステップと、をデータ処理装置に実行させ、コンテンツ表示ステップは、ジェスチャーイベント決定ステップにおいて決定された少なくとも1つのジェスチャーイベントに基づいて表示部分を表示するための表示用画像を生成する表示用画像生成ステップと、生成された表示用画像を表示手段に表示する表示制御ステップと、を含み、表示用画像生成ステップは、ジェスチャーイベント決定ステップにおいて第1ジェスチャーイベントが決定される場合、表示対象となるページを別のページに変更するページ切換ステップと、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合、表示対象となるページ内で表示部分を変更するスクロールステップと、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合において、スクロールステップにおいて表示部分の変更ができない場合、表示対象となるページを別のページに変更する特定状態ページ切換ステップと、を含む。 According to another aspect of the present invention, the content display method is a content display method executed by a data processing device, the data processing device including a display unit capable of displaying an image, and a display surface of the display unit. A position detecting unit capable of detecting one or more positions designated by the user, and displaying at least a part of an image of a display portion of one page to be displayed among a plurality of pages included in the content as the display unit A content display step for displaying, and a gesture event determining step for determining at least one of a plurality of gesture events based on the one or more positions in response to detection of the one or more positions by the position detecting means. The content processing step is executed by the data processing device, and the content display step is at least determined in the gesture event determination step. Display image generation step including a display image generation step for generating a display image for displaying a display portion based on one gesture event, and a display control step for displaying the generated display image on a display means. When the first gesture event is determined in the gesture event determining step, the page switching step for changing the display target page to another page, and the second gesture event is determined in the gesture event determining step, When the second gesture event is determined in the scroll step for changing the display portion in the page to be displayed and the gesture event determining step, if the display portion cannot be changed in the scroll step, the display target page is separated. No ba Including a specific state page switching step of changing the di- and.
この局面に従えば、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なコンテンツ表示方法を提供することができる。 According to this aspect, it is possible to provide a content display method capable of reducing erroneous operations by the user and improving operability.
好ましくは、特定状態ページ切換ステップは、位置検出手段により1以上の位置が連続して検出されるジェスチャー期間が開始するジェスチャー開始時点においてスクロールステップにおいて表示部分の変更が可能であっても、ジェスチャー期間が終了するジェスチャー終了時点までにスクロールステップにおいて表示部分の変更ができない期間が存在する場合、ジェスチャー終了時点で、表示対象となるページを別のページに変更するステップを、含む。 Preferably, the specific state page switching step includes the gesture period even when the display portion can be changed in the scroll step at the gesture start time when the gesture period in which one or more positions are continuously detected by the position detection unit starts. If there is a period during which the display portion cannot be changed in the scroll step by the time when the gesture is ended, the step of changing the page to be displayed to another page at the time of the end of the gesture is included.
好ましくは、スクロールステップは、ジェスチャー期間においては、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定されるごとに、表示対象となるページ内で表示部分を変更できなくなるまで表示部分を変更するステップを含む。 Preferably, the scroll step includes a step of changing the display portion in the gesture period until the display portion cannot be changed in the display target page every time the second gesture event is determined in the gesture event determination step. .
好ましくは、ジェスチャーイベント決定ステップは、位置検出手段により検出される1つの位置が移動する速度がしきい値より小さい場合に第1ジェスチャーイベントを決定するフリック決定ステップと、位置検出手段により検出される1つの位置が移動する速度がしきい値以上の場合に第2ジェスチャーイベントを決定するスワイプ決定ステップと、を含む。 Preferably, the gesture event determining step is detected by the flick determining step of determining the first gesture event when the moving speed of one position detected by the position detecting unit is smaller than the threshold, and the position detecting unit. And a swipe determination step of determining a second gesture event when the speed at which one position moves is equal to or greater than a threshold value.
この発明の他の局面によれば、コンテンツ表示プログラムは、データ処理装置を制御するコンピューターで実行されるコンテンツ表示プログラムであって、データ処理装置は、画像を表示可能な表示手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、を備え、コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を表示手段に表示するコンテンツ表示ステップと、位置検出手段により1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定ステップと、をコンピューターに実行させ、コンテンツ表示ステップは、ジェスチャーイベント決定ステップにおいて決定された少なくとも1つのジェスチャーイベントに基づいて表示部分を表示するための表示用画像を生成する表示用画像生成ステップと、生成された表示用画像を表示手段に表示する表示制御ステップと、を含み、表示用画像生成ステップは、ジェスチャーイベント決定ステップにおいて第1ジェスチャーイベントが決定される場合、表示対象となるページを別のページに変更するページ切換ステップと、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合、表示対象となるページ内で表示部分を変更するスクロールステップと、ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合において、スクロールステップにおいて表示部分の変更ができない場合、表示対象となるページを別のページに変更する特定状態ページ切換ステップと、を含む。 According to another aspect of the present invention, the content display program is a content display program that is executed by a computer that controls the data processing device. The data processing device includes: a display unit that can display an image; An image of at least a part of a display portion of one page to be displayed among a plurality of pages included in the content. A content display step for displaying the image on the display means, and a gesture event determination for determining at least one of the plurality of gesture events based on the one or more positions in response to the detection of the one or more positions by the position detection means And the step of causing the computer to execute the content display step determines the gesture event. A display image generating step for generating a display image for displaying a display portion based on at least one gesture event determined in step, a display control step for displaying the generated display image on a display means, And when the first gesture event is determined in the gesture event determination step, the display image generation step includes a page switching step for changing the display target page to another page, and a second gesture in the gesture event determination step. When the event is determined, the display portion cannot be changed in the scroll step when the second gesture event is determined in the scroll step for changing the display portion in the page to be displayed and the gesture event determination step. Optionally comprises a specific state page switching step of changing the page to be displayed on a separate page.
この局面に従えば、ユーザーによる誤操作を低減し、操作性の向上を図ることが可能なコンテンツ表示プログラムを提供することができる。 According to this aspect, it is possible to provide a content display program capable of reducing erroneous operations by the user and improving operability.
以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
図1は、本実施の形態の一つにおけるMFPの外観を示す斜視図である。図2は、操作パネルの一例を示す平面図である。図1および図2を参照して、MFP100は、データ処理装置の一例であり、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、ユーザーインターフェースとしての操作パネル160とを含む。
FIG. 1 is a perspective view showing an external appearance of an MFP according to one embodiment. FIG. 2 is a plan view showing an example of the operation panel. Referring to FIGS. 1 and 2,
操作パネル160は、MFP100の上面に設けられる。操作パネル160は、表示部161と、タッチパネル165と、ハードキー部167とを含む。表示部161は、例えば、液晶表示装置(LCD)であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。ユーザーがMFP100を操作する場合は直立した姿勢となるので、表示部161の表示面およびタッチパネル165の操作面は、上方を向いて配置される。ユーザーが表示部161の表示面を容易に視認することができ、ユーザーが指でタッチパネルを指示する動作を容易にするためである。
ハードキー部167は、「BOX」、「FAX」、「COPY」、「ECO」の文字がそれぞれ表された4つのハードキー167A〜167Dを含む。タッチパネル165は、表示部161の上面または下面に表示部161に重畳して設けられたマルチタッチ対応のタッチパネルであり、表示部161の表示面中でユーザーにより指示された位置を検出する。ユーザーがタッチパネル165を指示する操作は、タッチパネル165を、同時に複数個所を指で指示するマルチタッチ操作と、一度に1つの個所を指で指示するシングルタッチ操作と、を含む。
The hard
自動原稿搬送装置120は、原稿給紙トレイ上にセットされた複数枚の原稿を1枚ずつ自動的に原稿読取部130のプラテンガラス上に設定された所定の原稿読み取り位置まで搬送し、原稿読取部130により原稿画像が読み取られた原稿を原稿排紙トレイ上に排出する。原稿読取部130は、原稿読取位置に搬送されてきた原稿に光を照射する光源と、原稿で反射した光を受光する光電変換素子とを含み、原稿のサイズに応じた原稿画像を走査する。光電変換素子は、受光した光を電気信号である画像データに変換して、画像形成部140に出力する。給紙部150は、給紙トレイに収納された用紙を画像形成部140に搬送する。
The
画像形成部140は、周知の電子写真方式により画像を形成するものであって、原稿読取部130から入力される画像データにシェーディング補正などの各種のデータ処理を施した、データ処理後の画像データまたは、外部から受信された画像データに基づいて、給紙部150により搬送される用紙に画像を形成する。
The
図3は、MFPのハードウェア構成の概要の一例を示すブロック図である。図3を参照して、MFP100は、メイン回路110を含む。メイン回路110は、CPU111と、通信インターフェース(I/F)部112と、ROM(Read Only Memory)113と、RAM(Random Access Memory)114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、外部記憶装置117と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150および操作パネル160と接続され、MFP100の全体を制御する。
FIG. 3 is a block diagram illustrating an example of an outline of the hardware configuration of the MFP. Referring to FIG. 3,
ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる読取画像を一時的に記憶する。
The
ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶するか、または、画像形成部140でプリント可能なプリントデータに変換して、画像形成部140に出力する。これにより、画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙に画像を形成する。また、ファクシミリ部116は、原稿読取部130によって読み取られたデータ、またはHDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。
The
通信I/F部112は、ネットワークにMFP100を接続するためのインターフェースである。通信I/F部112は、TCP(Transmission Control Protocol)またはFTP(File Transfer Protocol)等の通信プロトコルで、ネットワークに接続された他のコンピューターと通信する。なお、通信のためのプロトコルは、特に限定されることはなく、任意のプロトコルを用いることができる。また、通信I/F部112が接続されるネットワークは、例えば、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワークは、LANに限らず、ワイドエリアネットワーク(WAN)、公衆交換電話網(Public Switched Telephone Networks)を用いたネットワーク等であってもよい。さらに、ネットワークは、インターネットに接続されている。このため、MFP100は、インターネットに接続されたサーバー等のコンピューターと通信が可能である。
Communication I /
外部記憶装置117は、CPU111により制御され、CD−ROM(Compact Disk Read Only Memory)118、または半導体メモリーが装着される。CPU111は、外部記憶装置117を介してCD−ROM118または半導体メモリーにアクセス可能である。CPU111は、外部記憶装置117に装表されたCD−ROM118または半導体メモリーに記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムは、CD−ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、通信I/F部112に接続されるネットワークを介して、ネットワークに接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワークに接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
The
なお、CPU111が実行するプログラムを記憶する媒体としては、CD−ROM118に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programable ROM)、EEPROM(Electrically EPROM)などの半導体メモリーであってもよい。
The medium for storing the program executed by the
操作パネル160は、表示部161と操作部163とを含む。表示部161は、液晶表示装置(LCD)、有機ELD(Electro−Luminescence Display)等のディスプレイであり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、タッチパネル165と、複数のキーからなるハードキー部167と、を含む。ハードキー部167が含む複数のキーそれぞれは、接点スイッチを含み、CPU111に接続される。ハードキーは、操作ユーザーにより押下されると接点を閉じて、CPU111に接続される回路を閉じる。ハードキーは、MFP100を操作する操作ユーザーにより押下されている間は回路を閉じ、操作ユーザーにより押下されていない間は回路を開く。
操作部163は、ハードキー部167が有する複数のキーが押下されると、押下されたキーに対応する指示、文字、数字などのデータの入力を受け付ける。タッチパネル165は、表示部161の上面または下面に設けられ、操作ユーザーにより指示された位置の座標をCPU111に出力する。タッチパネル165は、操作ユーザーが指またはスタイラスペンで指示した位置を検出し、検出した位置の座標をCPU111に出力する。タッチパネル165は、マルチタッチ対応のタッチパネルであり、ユーザーがマルチタッチ操作を入力する場合、ユーザーにより同時に指示された複数の位置にそれぞれ対応する複数の座標をCPU111に出力する。また、タッチパネル165は、ユーザーがシングルタッチ操作を入力する場合に、ユーザーにより指示された単一の位置に対応する座標をCPU111に出力する。
When a plurality of keys included in the hard
タッチパネル165は、表示部161の表示面と同じまたはそれ以上のサイズであるのが好ましい。タッチパネル165は、表示部161に重畳して設けられるので、タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、表示部161の表示面中で操作ユーザーが指示した位置の座標をCPU111に出力する。タッチパネル165は、例えば、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式を用いることができ、その方式は限定されない。操作部163が受け付け可能な操作は、ハードキー部167が有する複数のキーを押下する操作、タッチパネル165を指示するシングルタッチ操作およびマルチタッチ操作を含む。
The
図4は、MFPが備えるCPUのソフトウェアアーキテクチャの一例を示す図である。図4を参照して、CPU111には、オペレーティングシステム(OS)層が形成され、その上の階層に、MFPプロセス層が形成される。MFPプロセス層の上層に、アプリケーションプラットフォーム(PF)層、アプリケーション層の順に形成される。
FIG. 4 is a diagram illustrating an example of a software architecture of a CPU provided in the MFP. Referring to FIG. 4, an operating system (OS) layer is formed in
OS層は、CPU111がOSプログラムを実行するタスクが属する。OS層に属するタスクは、MFP100のハードウェア資源を制御する処理を実行する。ハードウェア資源は、ここでは、通信I/F部112、ROM113、RAM114、HDD115、ファクシミリ部116、外部記憶装置117、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150、操作パネル160を含む。OS層に属するタスクは、MFPプロセス層から入力されるオペレーティングコマンドに従って、ハードウェア資源を制御する。また、OS層は、MFPプロセス層との間で、ハードウェア資源の1つである操作部163が受け付け可能な複数種類の操作それぞれを識別するための操作識別情報を共有しており、OS層に属するタスクは、操作部163によって操作ユーザーによる操作が検出されることに応じて、検出された操作を示す操作識別情報をMFPプロセス層に出力する。
The OS layer includes a task for the
アプリケーション層は、CPU111がアプリケーションプログラムを実行するタスクが属する。複数種類のアプリケーションプログラムがMFP100にインストールされる場合、アプリケーション層に、複数種類のアプリケーションプログラムをそれぞれ実行する複数のタスクが属する場合がある。
The application layer includes a task for the
アプリケーションプログラムを実行するタスクは、アプリケーションプログラムによって定められた複数種類の処理を実行する。複数種類の処理は、MFPプロセス層において実行される処理をMFPプロセス層に属するタスクに実行させる処理を含む。アプリケーションプログラムを実行するタスクは、MFPプロセス層に属するタスクに処理を実行させる場合、アプリコマンドを出力する。アプリコマンドは、API(Application Program Interface)として、公開されたコマンドである。このため、MFP100に処理を実行させるアプリケーションプログラムを容易に作成することができる。公開とは、MFP100を製造するメーカー以外の第三者が使用可能な状態をいう。このため、第三者は、アプリコマンドを用いてMFP100にインストール可能なアプリケーションプログラムを開発することができる。
The task for executing the application program executes a plurality of types of processing determined by the application program. The multiple types of processing include processing for causing a task belonging to the MFP process layer to execute processing executed in the MFP process layer. The task that executes the application program outputs an application command when the task belonging to the MFP process layer executes processing. The application command is a command published as an API (Application Program Interface). Therefore, an application program that causes
さらに、アプリケーションプログラムを実行するタスクは、MFP100を操作する操作ユーザーが入力する操作に基づいて、アプリケーションプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、処理を実行する。MFP100を操作する操作ユーザーが入力する操作は、操作ユーザーが操作部163を操作して入力することにより、OS層において受け付けられる。
Further, the task for executing the application program specifies a process to be executed from among a plurality of types of processes defined by the application program based on an operation input by an operation
アプリケーションPF層は、アプリケーション層とMFPプロセス層との間に配置され、アプリケーション層に属する複数のタスクを調停するとともに、アプリケーション層に属する複数のタスクが出力するアプリコマンドを制御するタスクが属する。具体的には、アプリケーションPF層は、アプリケーション層に属する複数のタスクそれぞれが出力するアプリコマンドを受け付け、受け付けられたアプリコマンドを、予め定められた規則に従って内部コマンドに変換することにより標準化し、内部コマンドをMFPプロセス層に出力する。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。また、アプリケーションPF層は、アプリケーション層に属する複数のタスクのいずれか1つをカレント状態に決定する。そして、OS層において受け付けられ、MFPプロセス層に属するタスクから入力される操作を、アプリケーション層に属する複数のタスクのうちカレント状態に決定したカレントタスクに出力する。 The application PF layer is arranged between the application layer and the MFP process layer, and arbitrates a plurality of tasks belonging to the application layer, and a task for controlling an application command output by the plurality of tasks belonging to the application layer belongs. Specifically, the application PF layer accepts application commands output by each of a plurality of tasks belonging to the application layer, standardizes the received application commands by converting them into internal commands according to a predetermined rule, The command is output to the MFP process layer. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. In addition, the application PF layer determines any one of a plurality of tasks belonging to the application layer as a current state. Then, an operation received from the task belonging to the MFP process layer and received from the OS layer is output to the current task determined as the current state among a plurality of tasks belonging to the application layer.
OS層において受け付けられるユーザーが入力する操作は、1本の指でタッチパネル165を指示するシングルタッチ操作と、2本以上の指で同時にタッチパネル165を指示するマルチタッチ操作とを含む。シングルタッチ操作およびマルチタッチ操作は、それぞれマウスイベントとしてオペレーティングシステムによって検出され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。また、1以上のマウスイベントは、MFPプロセス層においてジェスチャーイベントに変換され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。このため、アプリケーション層は、MFPプロセス層との間で、アプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントを共有しており、アプリケーションプログラムを実行するタスクは、アプリケーションPF層に属するタスクからアプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントが入力される。アプリケーションプログラムを実行するタスクは、複数種類の処理のうちジェスチャーイベントに対応する処理を実行する。
The operations input by the user accepted in the OS layer include a single touch operation in which the
アプリコマンドと内部コマンドとは予め対応付けられている。例えば、アプリコマンドと内部コマンドとを対応付けたコマンド対応テーブルを記憶しておくようにすればよい。アプリコマンドと内部コマンドとは、1対1に対応してもよいし、1つのアプリコマンドに2以上の内部コマンドの組が対応していてもよい。さらに、バージョンの異なる複数のアプリコマンドに対して、1つの内部コマンド、または複数の内部コマンドからなる1組が対応していてもよい。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。内部コマンドは、MFP100のハードウェア資源に依存するコマンドである。内部コマンドは、通常は、公開されていないが、公開されていてもよい。
Application commands and internal commands are associated in advance. For example, a command correspondence table in which application commands and internal commands are associated with each other may be stored. An application command and an internal command may correspond one-to-one, or a set of two or more internal commands may correspond to one application command. Furthermore, one internal command or a set of a plurality of internal commands may correspond to a plurality of application commands having different versions. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. The internal command is a command that depends on the hardware resources of
MFPプロセス層は、アプリケーションPF層とOS層との間に配置され、CPU111がMFPプロセスプログラムを実行するタスクが属する。MFPプロセス層は、アプリケーションPF層に属するタスクが出力する内部コマンドを、OS層に属するタスクが解釈可能なオペレーティングコマンドに変換し、ハードウェア資源を制御するためにオペレーティングコマンドをOS層に属するタスクに出力する。なお、実際には、内部コマンドを、OS層に属するタスクが実行可能な1以上のオペレーティングコマンドに変換する場合があるが、ここでは説明のために、内部コマンドとOS層に属するタスクが実行可能な1以上のオペレーティングコマンドとの関係は1対1として、説明する。
The MFP process layer is arranged between the application PF layer and the OS layer, and a task for the
上述したように、アプリケーションプログラムは、MFP100に、Webページ、画像データ等のコンテンツを表示するコンテンツ表示処理、コピー処理、スキャン処理、プリント処理、ファクシミリ送受信処理、データ送信処理等を実行させるためのアプリケーションプログラムであるが、以下の説明では、アプリケーションプログラムがCPU111に実行させる処理のうちで、操作パネル160を制御する処理に関連する部分を主に説明する。
As described above, the application program causes
図5は、MFPが備えるCPUが有する機能の一例を、HDDに記憶される情報とともに示すブロック図である。図5に示す機能は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたプログラムを実行することにより、CPU111により実現される機能である。具体的には、CPU111が、OSプログラム、MFPプロセスプログラム、操作受付プログラム、およびアプリケーションプログラムを実行することにより、CPU111により実現される。ここでは、MFP100に、アプリケーションプログラムとして、コンテンツ表示プログラムがインストールされている場合におけるCPU111の機能を示している。
FIG. 5 is a block diagram illustrating an example of functions of the CPU included in the MFP, together with information stored in the HDD. The functions shown in FIG. 5 are functions realized by
図5を参照して、CPU111は、コンテンツ表示部51と、調停部53と、操作変換部55と、オペレーティング部57と、を含む。コンテンツ表示部51は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーション層に属する。コンテンツ表示部51は、CPU111がコンテンツ表示プログラムを実行することによってCPU111に形成される機能である。
Referring to FIG. 5,
調停部53および操作変換部55は、CPU111が操作受付プログラムを実行するタスクによってCPU111に形成される機能である。調停部53は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。操作変換部55は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。なお、操作変換部55が有する機能のすべてをアプリケーションPF層の機能としたが、操作変換部55が有する機能の少なくとも一部をアプリケーションPF層の機能とし、他の部分をMFPプロセス層の機能としてもよい。
The
調停部53は、コンテンツ表示部51の他にCPU111が別のアプリケーションプログラムを実行することによって、アプリケーション層に複数のタスクが形成される場合、複数のタスクのうちいずれか1つをカレント状態に決定する。以下、調停部53が、カレント状態に決定しているタスクをカレントタスクという。本実施の形態においては、アプリケーション層にコンテンツ表示プログラムを実行するコンテンツ表示部51のみが含まれるので、コンテンツ表示部51をカレント状態に決定する。
When the
調停部53は、コンテンツ表示部51が出力するアプリコマンドが入力され、アプリコマンドを出力したタスクを識別するためのアプリ識別情報とアプリコマンドとを操作変換部55に出力する。
The
調停部53は、コンテンツ表示部51から複数のアプリコマンドが出力される場合、それらの順番を決定し、順に操作変換部55に出力する。例えば、複数のアプリコマンドを同時に実行できない場合に、一方のアプリコマンドの操作変換部55による実行が終了するのを待って他方のアプリコマンドを操作変換部55に出力する。また、一方のアプリコマンドを実行した後でなければ、他方のアプリコマンドを実行できない場合には、他方のアプリコマンドが一方のアプリコマンドより先に入力される場合であっても、一方のアプリコマンドを先に出力する。
When a plurality of application commands are output from the
操作変換部55は、調停部53からアプリコマンドが入力され、アプリコマンドをコマンド対応テーブルに従って内部コマンドに変換することにより標準化する。コマンド対応テーブルは、1つのアプリコマンドに1以上の内部コマンドを対応付ける。コマンド対応テーブルに含まれるアプリコマンドは、バージョンの異なる同種類のアプリコマンドを含む場合があり、この場合、異なるバージョンのアプリコマンドそれぞれを1以上の内部コマンドに対応付ける。このため、異なるバージョンのアプリコマンドを記述したアプリケーションプログラムをインストールすることを可能としている。コマンド対応テーブルは、新しいアプリコマンドが登場する場合に、新たに登場したアプリコマンドに1以上の内部コマンドを対応付けたコマンド対応テーブルで更新される。このため、新しいアプリコマンドを記述したアプリケーションプログラムをインストールすることができる。
The
さらに、操作変換部55は、標準化された内部コマンドを、オペレーティングコマンドに変換し、オペレーティングコマンドをオペレーティング部57に出力する。オペレーティングコマンドは、操作変換部55とオペレーティング部57との間で予め定められた、オペレーティング部57が解釈可能なコマンドである。
Further, the
オペレーティング部57は、CPU111がOSプログラムを実行することによってCPU111に形成される機能である。オペレーティング部57は、図4に示したソフトウェアアーキテクチャにおいて、OS層に属する。
The operating
オペレーティング部57は、操作変換部55が出力するオペレーティングコマンドが入力され、オペレーティングコマンドに従って、ハードウェア資源を制御する。ハードウェア資源として、ここでは、表示部161、操作部163のタッチパネル165およびHDD115を例に説明する。オペレーティング部57は、表示部161を制御して、表示部161に画像を表示させる。また、オペレーティング部57は、HDD115を制御して、HDD115にデータを記憶させ、また、HDD115に記憶されたデータを読み出す。さらに、オペレーティング部57は、所定時間間隔でタッチパネル165にユーザーにより指示された位置を検出させ、タッチパネル165から所定時間間隔で位置情報を取得する。
The operating
タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、操作ユーザーにより指示された位置を検出し、表示部161の表示面の位置を示す位置情報をCPU111に出力する。オペレーティング部57は、タッチパネル165から位置情報が入力される場合、位置情報を操作変換部55に出力する。オペレーティング部57は、タッチパネル165から同時に2以上の位置情報が入力される場合がある。例えば、操作ユーザーが、表示部161の表示面の異なる2つの部分を、2つの指で同時に指示する場合、指示された表示面の2つの位置をそれぞれ示す2つの位置情報を受け付ける。オペレーティング部57は、タッチパネル165から同時に2以上の位置情報を受け付ける場合、2以上の位置情報を、操作変換部55に出力する。
操作変換部55は、関連付部91と、ジェスチャーイベント決定部93と、マウスイベント生成部95と、表示部制御部97と、を含む。関連付部91は、コンテンツ表示プログラムがインストールされる段階で、コンテンツ表示プログラムが定める複数種類の処理それぞれを、複数のジェスチャーイベントのいずれかと関連付ける。具体的には、関連付部91は、コンテンツ表示プログラムが定める複数の処理識別情報それぞれに、コンテンツ表示プログラムが受け付け可能なジェスチャーイベントを関連付けたマスターテーブルを生成し、HDD115に記憶する。
The
図6は、マスターテーブルの一例を示す図である。図6を参照して、マスターテーブル99は、複数の処理識別情報ごとにマスターレコードを含む。マスターレコードは、処理の項目と、ジェスチャーの項目と、を含む。処理の項目には、処理識別情報が設定され、ジェスチャーの項目には、ジェスチャーイベントを識別するためのジェスチャー識別情報が設定される。 FIG. 6 is a diagram illustrating an example of the master table. Referring to FIG. 6, master table 99 includes a master record for each of a plurality of process identification information. The master record includes a process item and a gesture item. Processing identification information is set in the processing item, and gesture identification information for identifying a gesture event is set in the gesture item.
例えば、処理の項目に処理識別情報「ページ送り」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「スワイプ」が設定される。処理識別情報「ページ送り」で特定される処理は、画面を別のページの画面に変更して表示させる処理である。ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指を所定の速さより速い速さで移動させるユーザーの操作に対応する。指を所定の速さより速い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、指を移動させる方向をパラメータとして含む。
For example, in the master record in which the process identification information “page feed” is set in the process item, the gesture identification information “swipe” is set in the gesture item. The process specified by the process identification information “page feed” is a process of changing the screen to a screen of another page and displaying it. The gesture event specified by the gesture identification information “Swipe” corresponds to a user's operation of moving the finger to any one of up, down, left and right at a speed faster than a predetermined speed while instructing the
処理の項目に処理識別情報「拡大」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチアウト」が設定される。処理識別情報「拡大」で特定される処理は、画面を拡大して表示させる処理である。ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が長くなるように移動させる操作に対応する。2箇所の間隔が長くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、2箇所の間隔が変化の割合を倍率とし、その倍率をパラメータとして含む。
In the master record in which the process identification information “enlarge” is set in the process item, the gesture identification information “pinch out” is set in the gesture item. The process specified by the process identification information “enlargement” is a process for enlarging and displaying the screen. The gesture event specified by the gesture identification information “pinch out” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations becomes long while designating the two locations on the
処理の項目に処理識別情報「縮小」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチイン」が設定される。処理識別情報「縮小」で特定される処理は、画面を縮小して表示させる処理である。ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が短くなるように移動させる操作に対応する。2箇所の間隔が短くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、2箇所の間隔が変化の割合を倍率とし、その倍率をパラメータとして含む。
In the master record in which the process identification information “reduction” is set in the process item, the gesture identification information “pinch-in” is set in the gesture item. The process specified by the process identification information “reduction” is a process of reducing the screen for display. The gesture event specified by the gesture identification information “pinch-in” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations is shortened while designating the two locations on the
処理の項目に処理識別情報「回転」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ローテーション」が設定される。処理識別情報「回転」で特定される処理は、画面を回転して画面の方向を変更する処理である。ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所を結ぶ直線の向きが変更されるように移動させる操作が入力される場合に検出される。例えば、2箇所の一方を中心に他方で円弧を描く操作である。円弧を描く方向が時計回りと反時計回りとがあるため、ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、回転方向と、回転角度とをパラメータとして含む。
In the master record in which the process identification information “rotation” is set in the process item, the gesture identification information “rotation” is set in the gesture item. The process specified by the process identification information “rotation” is a process of rotating the screen and changing the screen direction. The gesture event specified by the gesture identification information “Rotation” is an operation to move at least one of the two designated locations while changing the orientation of a straight line connecting the two locations while designating two locations on the
処理の項目に処理識別情報「スクロール」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「フリック」および「ダブルフリック」が設定される。処理識別情報「スクロール」で特定される処理は、画面を上下左右にスクロールさせる処理である。ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指をスワイプのジェスチャーイベントの操作におけるしきい値より遅い速さで移動させる操作に対応する。指をしきい値より遅い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、指を移動させる方向と移動距離とをパラメータとして含む。ジェスチャー識別情報「ダブルフリック」で特定されるジェスチャーイベントは、タッチパネル165を2本の指で指示しながら、上下左右のいずれかに2本の指をスワイプのジェスチャーイベントの操作におけるしきい値より遅い速さで同時に同じ方向に移動させる操作に対応する。2本の指をしきい値より遅い速さで同時に同じ方向に移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「ダブルフリック」で特定されるジェスチャーイベントは、2本の指を同じ方向に移動させる方向と、移動距離とをパラメータに含む。
In the master record in which the process identification information “scroll” is set in the process item, the gesture identification information “flick” and “double flick” are set in the gesture item. The process specified by the process identification information “scroll” is a process of scrolling the screen up / down / left / right. The gesture event specified by the gesture identification information “flick” corresponds to an operation in which the finger is moved at a speed slower than the threshold value in the operation of the swipe gesture event while instructing the
図5に戻って、表示部制御部97は、コンテンツ表示部51から入力されるアプリコマンドを、表示部161に画像を表示させるためのオペレーティングコマンドに変換し、オペレーティング部57に出力する。これにより、コンテンツ表示部51によって生成された表示画像が、表示部161のVRAMに記憶され、表示部161に表示画像の少なくとも一部が表示される。
Returning to FIG. 5, the
マウスイベント生成部95は、オペレーティング部57から位置情報が入力されることに応じてマウスイベントを生成する。さらに、マウスイベント生成部95は、マウスイベントを生成するごとに、生成されたマウスイベントをジェスチャーイベント決定部93に出力する。マウスイベント生成部95は、オペレーティング部57から複数の位置情報が同時に入力される場合、複数の位置情報それぞれに対応する複数のマウスイベントを生成する。マウスイベント生成部95は、1以上のマウスイベントを生成する場合、生成された1以上のマウスイベントをジェスチャーイベント決定部93に出力する。位置情報は、操作ユーザーが指示した表示部161の表示面中の位置を示す。
The mouse
操作ユーザーが表示部161の表示面を指示する操作は、ユーザーが表示部161の表示面の任意の位置を指示する指示開始操作、ユーザーが表示部161の表示面を指示しながら、換言すれば、表示部161の表示面に触れながら指示する位置を移動させる移動操作、ユーザーが表示部161の表示面の指示を終了する終了操作、を含む。マウスイベント生成部95は、オペレーティング部57から位置情報が入力されると、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。上述したように、オペレーティング部57は、タッチパネル165から位置情報が出力されるごとに、その位置情報を出力するので、時間の経過とともに連続して入力される位置情報の連続性に基づいて、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。
In other words, the operation of the operation user instructing the display surface of the
マウスイベント生成部95は、オペレーティング部57から位置情報が入力されていない状態が所定時間経過した後に入力される位置情報に対して、操作ユーザーによる操作が指示開始操作と判断し、位置情報と、指示開始操作を識別するための状態識別情報「Press」とを含むマウスイベントを生成する。
The mouse
マウスイベント生成部95は、状態識別情報「Press」のマウスイベントを検出した後、オペレーティング部57から連続して1以上位置情報が入力される場合、1以上の位置情報それぞれに対して、操作ユーザーによる操作が移動操作と判断する。マウスイベント生成部95は、オペレーティング部57から連続して入力される1以上の位置情報それぞれに対して、その位置情報と移動操作を識別するための状態識別情報「Move」とを含むマウスイベントを生成する。
When one or more pieces of position information are continuously input from the operating
マウスイベント生成部95は、状態識別情報「Move」のマウスイベントを検出した後、オペレーティング部57から位置情報が入力されなくなる場合、最後に入力された位置情報に対して、操作ユーザーによる操作が終了操作と判断し、最後に入力された位置情報と、終了操作を識別するための状態識別情報「Release」とを含むマウスイベントを生成する。
When the mouse
より具体的には、マウスイベント生成部95は、オペレーティング部57から第1の時に入力される位置情報と、第1の時よりも所定時間後の第2の時に入力される位置情報とに基づいて、マウスイベントの状態を決定する。マウスイベント生成部95は、第1の時に入力される位置情報に対して、第1の時よりも所定時間前に、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置を示す位置情報が入力されていない場合には、第1の時に入力される位置情報に対するマウスイベントの状態を「Press」に決定する。マウスイベント生成部95は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在しない場合には、第2の時に入力される位置情報に対するマウスイベントの状態を「Press」に決定する。
More specifically, the mouse
また、マウスイベント生成部95は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在する場合には、第2の時に入力される位置情報に対するマウスイベントの状態を「Move」に決定する。さらに、マウスイベント生成部95は、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置情報が、第2の時に入力されない場合には、第2の時において第1の時に入力されていた位置情報に対するマウスイベントの状態を「Release」に決定する。
In addition, the mouse
ジェスチャーイベント決定部93は、マウスイベント生成部95から連続して入力される複数のマウスイベントに基づいてジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、マウスイベント生成部95から同時に1つのマウスイベントが連続して入力される場合、最初の第1のマウスイベントが入力されてから所定時間経過後に入力される第2のマウスイベントを特定し、第1のマウスイベントで特定される位置と、第2のマウスイベントで特定される位置との間の距離が所定の距離以上の場合に、ジェスチャーイベントを決定するが、2つの位置の間の距離が所定の距離より小さい場合にはジェスチャーイベントを決定しない。所定の時間は、任意に定めることができる。所定の時間は、たとえば、タッチパネル165が位置を検出する間隔の数倍とすることができる。また、所定の距離は、任意に定めることができるが、たとえば、40ピクセルとするのが好ましい。
The gesture
ジェスチャーイベント決定部93は、マウスイベント生成部95から同時に2以上のマウスイベントが入力される場合、2以上のマウスイベントに基づいてジェスチャーイベントを決定する。したがって、ユーザーが、マルチタッチ操作を入力する場合、ジェスチャーイベント決定部93は、ジェスチャーイベントを決定する。具体的には、ジェスチャーイベント決定部93は、マウスイベント生成部95から第1のマウスイベントと第2のマウスイベントの2つが同時に入力される場合、第1のマウスイベントに対して連続して入力される複数のマウスイベントの第1の組と、第2のマウスイベントに対して連続して入力される複数のマウスイベントの第2の組と、に基づいてジェスチャーイベントを決定する。第1の組に含まれる複数のマウスイベントは、位置情報が同じか、または位置情報が連続している。連続とは、2つの位置情報が所定の距離の範囲内の位置を示すことをいう。第2の組に含まれる複数のマウスイベントは、位置情報が同じか、または位置情報が連続している。このため、ジェスチャーイベント決定部93は、同時に入力される複数のマウスイベントが、第1の組と第2の組のいずれに属するかを、それらに含まれる位置情報で判断する。
When two or more mouse events are simultaneously input from the mouse
ジェスチャーイベント決定部93は、マウスイベント生成部95から連続してマウスイベントが入力される場合、最初に入力されるマウスイベントの状態識別情報は「Press」である。そして、ジェスチャーイベント決定部93は、状態識別情報が「Move」のマウスイベントが入力されると、状態識別情報が「Press」のマウスイベントの位置情報と、状態識別情報が「Move」のマウスイベントの位置情報とから2点間の距離を算出し、状態識別情報が「Press」のマウスイベントが検出されてから状態識別情報が「Move」のマウスイベントが検出されるまでの時間と、算出された距離とから指示速度を算出する。そして指示速度が所定のしきい値TV以上ならばユーザーによるスワイプ操作を検出し、移動速度が所定のしきい値TVより小さければユーザーによるフリック操作を検出する。また、複数のマウスイベントが入力される場合は、最初の複数のマウスイベントによってユーザーによるフリック操作が検出され、後の複数のマウスイベントによってユーザーによるスワイプ操作が検出される場合がある。ジェスチャーイベント決定部93は、フリック操作およびスワイプ操作を検出する場合、最初の位置情報で特定される位置から後の位置情報で特定される位置に向かう方向を算出し、表示部161の表示面を基準に上下左右の4方向のうち算出された方向に最も近い方向を指示方向として決定し、指示方向をパラメータとして含むジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、スワイプ操作を検出する場合には、ジェスチャー識別情報「スワイプ」と、指示方向のパラメータとを含むジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、フリック操作を検出する場合には、ジェスチャー識別情報「フリック」と、指示方向のパラメータと移動距離を示すパラメータとを含むジェスチャーイベントを出力する。移動距離は、状態識別情報が「Press」のマウスイベントの位置情報と、状態識別情報が「Move」のマウスイベントの位置情報とから算出される2点間の距離である。
When the mouse event is continuously input from the mouse
ジェスチャーイベント決定部93は、マウスイベント生成部95から同時に2つのマウスイベントが入力される場合、最初に入力される2つのマウスイベントそれぞれの状態は「Press」である。この場合に、2つのマウスイベントそれぞれに含まれる位置情報に基づいて、2点間の距離L1および2点間を結ぶ直線の角度R1を算出する。2点間を結ぶ直線の角度は、表示部161の横方向を基準線として、2点間を結ぶ直線が基準線となす角度とすればよい。2点間を結ぶ直線と基準線とのなす角度は、基準線から時計回りになす角度である。そして、ジェスチャーイベント決定部93は、その後に同時に入力される2つのマウスイベントの位置情報に基づいて、2点間の距離L2および2点間を結ぶ直線の角度R2を算出する。
When two mouse events are simultaneously input from the mouse
ジェスチャーイベント決定部93は、距離L2と距離L1とが異なれば、ユーザーによるピンチアウト操作またはピンチイン操作を検出する。距離L2が距離L1より大きければピンチアウト操作を検出し、距離L2が距離L1より小さければピンチイン操作を検出する。ジェスチャーイベント決定部93は、ピンチアウト操作またはピンチイン操作を検出する場合、距離L2を距離L1で除算することによって倍率を算出し、算出された倍率をパラメータとして決定し、倍率のパラメータを含むジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、ピンチアウト操作を検出する場合には、ジェスチャー識別情報「ピンチアウト」と、倍率のパラメータと含むジェスチャーイベントを決定する。ジェスチャーイベント決定部93は、ピンチイン操作を検出する場合には、ジェスチャー識別情報「ピンチイン」と、倍率のパラメータとを含むジェスチャーイベントを決定する。
The gesture
ジェスチャーイベント決定部93は、角度R1と角度R2との差が所定のしきい値TR以上の場合、ユーザーによるローテーション操作を検出する。しきい値Rは、予め定められた値であり、たとえば、90度以下とするのがよい。ジェスチャーイベント決定部93は、ローテーション操作を検出する場合、角度R2から角度R1を減算することによって回転角度および回転方向を決定し、決定された回転角度および回転方向をパラメータとして決定する。角度R2から角度R1を減算した値がプラスならば回転方向は時計回りであり、角度R2から角度R1を減算した値がマイナスならば回転方向は反時計回りである。ジェスチャーイベント決定部93は、ローテーション操作を検出する場合、ジェスチャー識別情報「ローテーション」と、回転角度のパラメータと、回転方向のパラメータとを含むジェスチャーイベントを決定する。
The gesture
また、ジェスチャーイベント決定部93は、状態識別情報が「Move」の第1および第2の2つのマウスイベントが同時に入力されると、第1のマウスイベントの位置情報と第1のマウスイベントに対応する状態識別情報が「Press」のマウスイベントの位置情報とから第1の移動方向を算出し、第2のマウスイベントの位置情報と第2のマウスイベントに対応する状態識別情報が「Press」のマウスイベントの位置情報とから第2の移動方向を算出する。状態識別情報が「Press」のマウスイベントの位置情報で特定される位置から状態識別情報が「Move」のマウスイベントの位置情報で特定される位置に向かう方向を移動方向として算出する。そして、第1のマウスイベントおよび第2のマウスイベントそれぞれに対応する移動方向が同じならばユーザーによるダブルフリック操作を検出する。第1のマウスイベントおよび第2のマウスイベントそれぞれに対応する方向が同じか否かは、第1のマウスイベントおよび第2のマウスイベントそれぞれに対応する移動方向の差が所定の範囲内であればよい。ジェスチャーイベント決定部93は、ダブルフリック操作を検出する場合、ジェスチャー識別情報「ダブルフリック」と、移動方向を示す指示方向のパラメータと移動距離のパラメータとを含むジェスチャーイベントを出力する。移動距離は、第1のマウスイベントの位置情報で特定される位置と第1のマウスイベントに対応する状態識別情報が「Press」のマウスイベントの位置情報で特定される位置との間の距離とすればよい。
In addition, when the first and second mouse events whose state identification information is “Move” are simultaneously input, the gesture
したがって、ジェスチャーイベント決定部93は、同時に2つのマウスイベントの組が入力される場合に、複数種類のジェスチャーイベントを決定する場合がある。ジェスチャー識別情報「ピンチアウト」のジェスチャーイベントと、ジェスチャー識別情報「ローテーション」のジェスチャーイベントの組、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントと、ジェスチャー識別情報「ローテーション」のジェスチャーイベントの組、ジェスチャー識別情報「ピンチアウト」のジェスチャーイベントと、ジェスチャー識別情報「ダブルフリック」のジェスチャーイベントの組、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントと、ジェスチャー識別情報「ダブルフリック」のジェスチャーイベントの組、である。
Therefore, the gesture
ジェスチャーイベント決定部93は、ジェスチャーイベントを決定する場合、HDD115から、調停部53によって設定されているカレントタスクのアプリ識別情報に対応するマスターテーブル99を読み出す。具体的には、マスターテーブル99を読み出すためのオペレーティングコマンドをオペレーティング部57に出力し、オペレーティング部57がHDD115を制御して読み出すマスターテーブル99を取得する。以下、コンテンツ表示部51がカレントタスクの場合について説明する。
When determining the gesture event, the gesture
ジェスチャーイベント決定部93は、ジェスチャーイベントを決定することに応じて、ジェスチャーイベントに基づいて、マスターテーブル99において定められている複数種類の処理のうちから調停部53によってカレント状態に設定されているカレントタスクに対応して関連付けられた処理を特定する。ここでは、調停部53によってコンテンツ表示部51がカレントタスクに設定されているので、ジェスチャーイベント決定部93は、ジェスチャーイベントと、マスターテーブル99によって関連付けられた処理を特定する。より具体的には、ジェスチャーイベント決定部93は、決定されたジェスチャーイベントのジェスチャー識別情報がジェスチャーの項目に設定されたマスターレコードを、マスターテーブル99から抽出し、抽出されたマスターレコードの処理の項目に設定されている処理識別情報を取得する。ジェスチャーイベント決定部93は、処理識別情報が取得される場合、決定されたジェスチャーイベントを調停部53に出力するが、処理識別情報が取得されない場合、決定されたジェスチャーイベントを調停部53に出力しない。また、ジェスチャーイベント決定部93は、複数のジェスチャーイベントを決定する場合、複数のジェスチャーイベントのうち、処理が特定されるすべてのジェスチャーイベントを調停部53に出力する。ジェスチャーイベント決定部93が出力するジェスチャーイベントは、ジェスチャーイベントを識別するためのジェスチャー識別情報を含む。また、ジェスチャーイベント決定部93は、マウスイベント生成部95からマウスイベントが連続して入力される場合であって、ジェスチャーイベントを決定しない場合、ジェスチャーイベントを決定しないことを示す未決定信号を調停部53に出力する。
Based on the gesture event, the gesture
ジェスチャーイベント決定部93は、調停部53によってカレント状態に設定されているカレントタスクであるコンテンツ表示部51が実行可能な処理に対応するジェスチャーイベントのみを調停部53に出力し、調停部53は、ジェスチャーイベントをカレントタスクであるコンテンツ表示部51に出力する。このため、タッチパネル165に入力される操作であって、複数のマウスイベントの組で特定されるジェスチャーイベントを、コンテンツ表示プログラムを実行するコンテンツ表示部51に実行させることができる。換言すれば、コンテンツ表示プログラムを開発する段階で、MFP100においてタッチパネル165で受け付け可能なジェスチャーイベントを意識することなく開発することができる。例えば、ローテーション操作を受け付けないブラウジングプログラムを開発することができる。
The gesture
調停部53は、ジェスチャーイベント決定部93からジェスチャーイベントが入力され、ジェスチャーイベントをカレント状態に設定されたコンテンツ表示部51に出力する。調停部53は、ジェスチャーイベント決定部93からジェスチャーイベントが入力されることに応じて、ジェスチャーイベントをコンテンツ表示部51に出力する。なお、コンテンツ表示部51の他にCPU111が別のアプリケーションプログラムを実行することによって、アプリケーション層に複数のタスクが形成される場合、調停部53は、複数のタスクのうちカレント状態のタスクにジェスチャーイベント決定部93からジェスチャーイベントを出力する。
The
コンテンツ表示部51は、コンテンツ取得部61と、ジェスチャー期間検出部63と、表示用画像生成部65と、表示制御部67と、を含む。
The
コンテンツ取得部61は、コンテンツを取得し、取得されたコンテンツを表示用画像生成部65に出力する。コンテンツは、外部のサーバーに記憶されたデータ、HDD115に記憶されたデータを含み、データの種類は制限されない。たとえば、コンテンツを、外部のWebサーバーに記憶され、HTML(HyperText Markup Language)等のマークアップ言語で記述されたWebページとする場合、コンテンツ取得部61は、通信I/F部112を制御してWebサーバーからWebページを受信することによってWebページを取得する。コンテンツ取得部61は、Webページに別のコンテンツがリンクされている場合、その別のコンテンツを取得する。コンテンツ取得部61が取得するコンテンツは、MFP100を操作する操作ユーザーが指定したURL(Uniform Resource Locator)で識別されるWebページであってもよいし、コンテンツ表示プログラムにおいて予め定められたURLで識別されるWebページであってもよい。また、コンテンツをHDD116に記憶されたアプリケーションデータまたは画像データとする場合、コンテンツ取得部61は、HDD116からアプリケーションデータまたは画像データを読み出すことによってコンテンツを取得する。
The
ジェスチャー期間検出部63は、ジェスチャーイベント決定部93からジェスチャーイベントが入力される。ジェスチャー期間検出部63は、ジェスチャーイベント決定部93から入力されるジェスチャーイベントに基づいてジェスチャー期間を検出し、ジェスチャー期間を検出している間、ジェスチャー期間であることを示すジェスチャー期間信号を表示用画像生成部65に出力する。ジェスチャー期間は、ジェスチャーイベント決定部93によってジェスチャーイベントが連続して決定される期間である。ジェスチャーイベント決定部93から入力されるジェスチャーイベントは、ジェスチャー識別情報が、「スワイプ」、「フリック」、「ピンチアウト」、「ピンチイン」、「ローテーション」、「ダブルフリック」および「ダブルタップ」の1以上である。
The gesture
具体的には、ジェスチャーイベント決定部93は、1以上のマウスイベントに基づいてジェスチャーイベントを決定するが、ジェスチャーイベント決定部93によってジェスチャーイベントが決定された後に、マウスイベント生成部95によって連続してマウスイベントが生成される場合がある。たとえば、ユーザーが、ピンチイン操作を入力する場合、ユーザーが2つの指を移動させている途中で、ジェスチャーイベント決定部93によってジェスチャーイベントが決定される。この場合には、ユーザーが指をタッチパネル165から離すまで、マウスイベント生成部95によって状態識別情報「Move」のマウスイベントが生成され、ユーザーが指をタッチパネル165から離すと、マウスイベント生成部95によって状態識別情報「Release」のマウスイベントが生成される。ジェスチャーイベント決定部93は、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントを決定した後は、マウスイベント生成部95から状態識別情報「Release」のマウスイベントが入力されるまで、状態識別情報「Move」のマウスイベントが入力されるごとに、ジェスチャー識別情報「ピンチイン」のジェスチャーイベントを出力する。ジェスチャー期間検出部63は、ジェスチャーイベント決定部93から同じジェスチャーイベントが連続して入力されている間、ジェスチャー期間を検出する。
Specifically, the gesture
また、ユーザーが、ローテーション操作を入力する場合、2つのユーザーが2つの指を移動させている途中で、ジェスチャーイベント決定部93によってジェスチャー識別情報「ローテーション」のジェスチャーイベントが決定されるが、ローテーション操作の途中で指の間隔が変動する場合がある。たとえば、指の間隔が狭くなる場合、ジェスチャーイベント決定部93によってジェスチャー識別情報「ピンチイン」のジェスチャーイベントが決定される。ジェスチャーイベント決定部93は、ジェスチャー期間が開始してから2つのジェスチャーイベントを決定する場合、2つのジェスチャーイベントを出力する。この場合においても、ジェスチャー期間検出部63は、ジェスチャーイベント決定部93から最初のジェスチャーイベントが入力されるとジェスチャー期間の開始を検出し、ジェスチャーイベント決定部93から1以上のジェスチャーイベントが入力されなくなる場合、ジェスチャー期間の終了を検出する。
When the user inputs a rotation operation, the gesture event having the gesture identification information “rotation” is determined by the gesture
表示用画像生成部65は、コンテンツ取得部61からコンテンツが入力され、ジェスチャー期間検出部63からジェスチャー期間信号が入力され、ジェスチャーイベント決定部93から1以上のジェスチャーイベントが入力される。表示用画像生成部65は、ジェスチャーイベント決定部93から入力される1以上のジェスチャーイベントに基づいてコンテンツを表示するための表示用画像を生成する。表示用画像生成部65は、コンテンツが複数ページで構成される場合、複数ページのうち表示対象となるページの少なくとも一部の画像を表示用画像として生成する。換言すれば、表示用画像生成部65が生成する表示用画像は、単一のページの一部または全部の画像を含み、複数ページの画像を含まない。表示用画像生成部65は、表示対象変更部71と、表示方向変更部73と、状態記憶部75と、優先表示部77と、を含む。
The display
表示用画像生成部65は、コンテンツ取得部61からコンテンツが入力されると、コンテンツの少なくとも一部を表示部分に決定し、表示部分を表示するための表示用画像を生成する。表示用画像生成部65が、コンテンツ取得部61からコンテンツが入力される時点において決定する表示部分は、予め定めておけばよい。たとえば、コンテンツの全部をデフォルトの表示部分に設定すればよい。また、コンテンツが複数ページで構成される場合、最初のページの全部をデフォルトの表示部分に設定すればよい。
When the content is input from the
状態記憶部75は、ジェスチャー期間が開始するジェスチャー開始時点における表示部分を特定するための状態情報を、RAM114に一時記憶する。状態情報は、コンテンツ中の表示部分の位置およびサイズ(倍率)を含む。また、コンテンツが複数ページで構成される場合、状態情報は、ページを特定するページ番号を含む。
The
表示対象変更部71は、ジェスチャーイベント決定部93から第1の種類のジェスチャーイベントが入力される場合、表示部分を変更し、変更後の表示部分を表示するための表示用画像を生成する。第1の種類のジェスチャーイベントは、ジェスチャー識別情報「ピンチイン」、「ピンチアウト」、「スワイプ」、「フリック」および「ダブルフリック」のジェスチャーイベントである。表示対象変更部71は、変倍部81と、ページ切換部83と、スクロール部85と、特定状態ページ切換部86と、を含む。
When the first type of gesture event is input from the gesture
変倍部81は、ジェスチャーイベント決定部93からジェスチャー識別情報「ピンチイン」または「ピンチアウト」のジェスチャーイベントが入力される場合、表示部分のサイズを変更する。ジェスチャー識別情報「ピンチイン」または「ピンチアウト」のジェスチャーイベントは、パラメータとして倍率を含む。変倍部81は、ジェスチャー識別情報「ピンチイン」または「ピンチアウト」のジェスチャーイベントにパラメータとして含まれる倍率で、表示部分のサイズを変更する。
When the gesture event having the gesture identification information “Pinch In” or “Pinch Out” is input from the gesture
ページ切換部83は、コンテンツが複数のページを含む場合であって、ジェスチャーイベント決定部93からジェスチャー識別情報「スワイプ」のジェスチャーイベントが入力される場合、表示部分が属するページの前後のページを新たな表示部分が属するページに決定する。表示部分が属するページの前のページは、表示部分が属するページが最初の第1ページの場合は、最終ページである。表示部分が属するページの後のページは、表示部分が属するページが最終ページの場合は、最初の第1ページである。ページ切換部83は、表示部分が属するページを状態情報で特定する。ジェスチャー識別情報「スワイプ」のジェスチャーイベントは、パラメータとして指示方向を含む。ページ切換部83は、ジェスチャー識別情報「スワイプ」のジェスチャーイベントにパラメータとして含まれる指示方向で定まるページを決定する。ここで一例として、コンテンツが第1ページ〜第Nページ(Nは2以上の整数)を含み、表示部分が第Mページ(Mは、1以上N以下の整数)に含まれる場合を例に説明する。ページ切換部83は、ジェスチャー識別情報「スワイプ」のジェスチャーイベントに含まれる指示方向が「上」または「左」を示す場合、第(M−1)ページを新たな表示部分が属するページに決定する。ページ切換部83は、ジェスチャー識別情報「スワイプ」のジェスチャーイベントに含まれる指示方向が「下」または「右」を示す場合、第(M+1)ページを新たな表示部分が属するページに決定する。
When the content includes a plurality of pages, and the gesture event of the gesture identification information “swipe” is input from the gesture
スクロール部85は、ジェスチャーイベント決定部93からジェスチャー識別情報「フリック」または「ダブルフリック」のジェスチャーイベントが入力される場合、コンテンツ中で表示部分を移動させる。ジェスチャー識別情報「フリック」または「ダブルフリック」のジェスチャーイベントは、方向を示すパラメータと移動距離を示すパラメータとを含む。スクロール部85は、ジェスチャー識別情報「フリック」または「ダブルフリック」のジェスチャーイベントにパラメータとして含まれる方向に、移動距離だけ表示部分を平行移動させる。なお、表示部分がコンテンツの端部に位置する場合等には、表示部分を移動可能な距離がパラメータで定められる移動距離より短い場合がある。この場合、スクロール部85は、表示部分をパラメータとして含まれる方向に移動可能な距離だけ移動させるとともに、移動距離だけ移動できなかったことを示す特定状態信号を特定状態ページ切換部86に出力する。特定状態信号は、ジェスチャー識別情報「フリック」または「ダブルフリック」のジェスチャーイベントにパラメータとして含まれる指示方向を含む。
When the gesture event having the gesture identification information “flick” or “double flick” is input from the gesture
特定状態ページ切換部86は、コンテンツが複数のページを含む場合であって、ジェスチャー期間の間にスクロール部85から特定状態信号が入力される場合、ジェスチャー期間が終了するジェスチャー期間終了時に、表示部分が属するページの前後のページを新たな表示部分が属するページに決定する。ジェスチャー期間検出部63からジェスチャー期間信号が入力されていた状態からジェスチャー期間信号が入力されない状態に変化すると、ジェスチャー期間終了時を検出する。特定状態ページ切換部86は、表示部分が属するページを状態情報で特定する。特定状態ページ切換部86は、特定状態信号に含まれる指示方向で定まるページを決定する。具体的には、特定状態信号に含まれる方向が「上」または「左」を示す場合、表示部分が属するページの前のページを新たな表示部分が属するページに決定する。特定状態信号に含まれる方向が「下」または「右」を示す場合、表示部分が属するページの後のページを新たな表示部分が属するページに決定する。
When the content includes a plurality of pages and the specific state signal is input from the
表示方向変更部73は、ジェスチャーイベント決定部93からジェスチャー識別情報「ローテーション」のジェスチャーイベントが入力される場合、表示部分の方向を変更する。ジェスチャー識別情報「ローテーション」のジェスチャーイベントは、回転角度のパラメータと、回転方向のパラメータとを含む。表示方向変更部73は、ジェスチャー識別情報「ローテーション」のジェスチャーイベントにパラメータとして含まれる回転方向に、回転角度だけ表示部分を回転させることによって、表示部分の方向を変更する。
When the gesture event having the gesture identification information “Rotation” is input from the gesture
優先表示部77は、ジェスチャー期間にジェスチャーイベント決定部93から第1の種類のジェスチャーイベントと第2の種類のジェスチャーイベントとが入力される場合、第2の種類のジェスチャーイベントに基づいて状態情報により特定される表示部分を変更する。第1の種類のジェスチャーイベントは、ジェスチャー識別情報「ピンチイン」、「ピンチアウト」、「スワイプ」、「フリック」および「ダブルフリック」のジェスチャーイベントである。第2の種類のジェスチャーイベントは、ジェスチャー識別情報「ローテーション」のジェスチャーイベントである。優先表示部77は、状態情報で定まる表示部分の方向を変更する。ジェスチャー期間にジェスチャーイベント決定部93から最後に入力されたジェスチャー識別情報「ローテーション」のジェスチャーイベントにパラメータとして含まれる回転方向に、回転角度だけ表示部分を回転させることによって、表示部分の方向を変更する
<ジェスチャー期間>
表示用画像生成部65は、ジェスチャー期間の間、ページ切換部83によってページが切り換えられる場合には変更後のページを処理対象とし、ページ切換部83によってページが切り換えられない場合には状態情報によって特定されるページを処理対象とする。また、表示用画像生成部65は、変倍部81およびスクロール部85によって表示部分が変更される場合には処理対象のページにおける変更後の表示部分を表示するための表示用画像を生成する。また、表示用画像生成部65は、表示方向変更部73によって表示部分の方向が変更される場合には、処理対象のページにおける表示部分を、方向を変更して表示するための表示用画像を生成する。さらに、表示用画像生成部65は、変倍部81およびスクロール部85によって表示部分が変更される場合、および表示方向変更部73によって表示部分の方向が変更される場合には、処理対象のページにおける変更後の表示部分を、方向を変更して表示するための表示用画像を生成する。
When the first type gesture event and the second type gesture event are input from the gesture
The display
<ジェスチャー期間終了時>
表示用画像生成部65は、ジェスチャー期間が終了するジェスチャー期間終了時において、特定状態ページ切換部86によってページが切り換えられる場合には変更後のページを処理対象とし、表示部分を表示するための表示用画像を生成する。表示部分は、ページの予め定められた部分とすればよい。また、ジェスチャー期間終了時に決定されている表示部分のページ中の位置およびサイズを用いるようにしてもよい。
<At the end of the gesture period>
The display
表示用画像生成部65は、ジェスチャー期間が終了するジェスチャー期間終了時において、優先表示部77によって表示部分の方向が変更される場合は、処理対象のページにおける表示部分を、その方向を変更して表示するための表示用画像を生成する。
When the direction of the display part is changed by the
表示制御部67は、表示用画像生成部65から表示用画像が入力されることに応じて、表示用画像を表示部161に表示する。具体的には、表示制御部67は、表示用画像を表示部161に表示するために、アプリコマンドを調停部53に出力する。これにより、オペレーティング部57によって、表示部161が備えるVRAM(Video RAM)に表示用画像が記憶され、表示用画像が表示部161に表示される。
The
図7は、ジェスチャーイベント決定処理の流れの一例を示すフローチャートである。ジェスチャーイベント決定処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶された操作受付プログラムを実行することにより、CPU111により実行される処理である。図7を参照して、CPU111は、マウスイベントが検出されたか否かを判断する(ステップS01)。ユーザーがタッチパネル165を指示すれば、タッチパネル165により検出された位置に基づいてマウスイベントが検出される。マウスイベントが検出されるまで待機状態となり(ステップS01でNO)、マウスイベントが検出されたたならば(ステップS01でYES)、処理をステップS02に進める。換言すれば、ジェスチャーイベント決定処理は、ユーザーがタッチパネル165を指示し、タッチイベントが検出されることを条件に実行される処理である。
FIG. 7 is a flowchart illustrating an exemplary flow of a gesture event determination process. The gesture event determination process is a process executed by
ステップS02においては、検出されたマウスイベントが単数か否かを判断する。単数のマウスイベントが検出されたならば処理をステップS03に進めるが、複数のマウスイベントが検出されたならば処理をステップS21に進める。ステップS21においては、複数位置検出処理を実行し、処理を終了する。複数位置検出処理の詳細は後述する。 In step S02, it is determined whether or not the detected mouse event is single. If a single mouse event is detected, the process proceeds to step S03. If a plurality of mouse events are detected, the process proceeds to step S21. In step S21, a multiple position detection process is executed, and the process ends. Details of the multiple position detection process will be described later.
ステップS03においてはマウスイベントの状態によって処理を分岐させる。マウスイベントの状態が「Press」ならば処理をステップS04に進め、マウスイベントの状態が「Release」ならば処理をステップS05に進め、「Move」ならば処理をステップS12に進める。ステップS04においては、ステップS01において検出されたマウスイベントに含まれる位置情報を開始位置としてRAM114に記憶し、処理を終了する。
In step S03, the process branches depending on the state of the mouse event. If the mouse event state is “Press”, the process proceeds to step S04. If the mouse event state is “Release”, the process proceeds to step S05. If the mouse event state is “Move”, the process proceeds to step S12. In step S04, the position information included in the mouse event detected in step S01 is stored in
処理がステップS05に進む場合、ステップS01において検出されたマウスイベントの状態が「Release」である。マウスイベントの状態が「Release」の場合、そのマウスイベントの直前に別のマウスイベントが入力されている。別のマウスイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS05においては、直前に入力された別のマウスイベントの状態によって処理を分岐させる。直前に入力された別のマウスイベントの状態が「Press」ならば処理をステップS06に進めるが、そうでなければ処理をステップS11に進める。ステップS11においては、未決定信号を出力し、処理を終了する。 When the process proceeds to step S05, the state of the mouse event detected in step S01 is “Release”. When the state of the mouse event is “Release”, another mouse event is input immediately before the mouse event. The state of another mouse event may be “Press” or “Move”. In step S05, the process branches depending on the state of another mouse event input immediately before. If the state of another mouse event input immediately before is “Press”, the process proceeds to step S06; otherwise, the process proceeds to step S11. In step S11, an undetermined signal is output and the process ends.
ステップS06においては、ステップS01において検出されたマウスイベントに含まれる位置情報と同じ位置情報がRAM114に記憶されているか否かを判断する。RAM114に記憶されているならば処理をステップS07に進めるが、そうでなければ処理をステップS11に進める。なお、ここでいう同じ位置情報とは、2つの位置情報でそれぞれ特定される2つの位置の間の距離が所定の長さ以内である場合を含む。ユーザーが同じ位置を指示する操作を検出するために、誤差を含む。
In step S06, it is determined whether or not the same position information as the position information included in the mouse event detected in step S01 is stored in
ステップS07においては、ジェスチャーイベントをダブルタップに決定し、処理をステップS08に進める。処理がステップS07に進む場合は、直前に入力されたマウスイベントの状態が「Press」で、ステップS01において入力されるマウスイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されている場合である。換言すれば、ユーザーが最初のタップ操作を入力した後に、最初のタップ操作と同じ位置をタップ操作する場合である。
In step S07, the gesture event is determined to be a double tap, and the process proceeds to step S08. When the process proceeds to step S07, the state of the mouse event input immediately before is “Press”, the state of the mouse event input in step S01 is “Release”, and the same position information is stored in the
ステップS08においては、決定されたジェスチャーイベントに対応する処理が定義されているか否かを判断する。HDD115に記憶されているマスターテーブル99において定められている複数種類の処理のうちに、カレント状態に設定されているアプリケーションプログラムに対応してジェスチャーイベントが関連付けられた処理が存在するか否かで判断する。マスターテーブル99において、決定されたジェスチャーイベントに処理が関連付けられていれば、カレント状態に設定されているアプリケーションプログラムに対応して、決定されたジェスチャーイベントに対応する処理が定義されていると判断する。決定されたジェスチャーイベントに対応する処理が定義されていれば処理をステップS09に進めるが、そうでなければ処理をステップS11に進める。ステップS09においては、ステップS07において決定されたジェスチャー識別情報「ダブルタップ」のジェスチャーイベントを出力し、処理を終了する。ステップS11においては、未決定信号を出力し、処理を終了する。
In step S08, it is determined whether or not a process corresponding to the determined gesture event is defined. Judgment is made based on whether or not there is a process associated with a gesture event corresponding to the application program set in the current state among a plurality of types of processes defined in the master table 99 stored in the
処理がステップS10に進む場合は、直前に入力されたマウスイベントの状態が「Press」で、次に入力されるマウスイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されていない場合である。換言すれば、ユーザーが最初のタップ操作を入力する場合である。ステップS10においては、ステップS01において検出されたマウスイベントに含まれる位置情報を開始位置としてRAM114に記憶し、処理をステップS11に進める。ステップS11においては、未決定信号を出力し、処理を終了する。
When the process proceeds to step S10, the state of the mouse event input immediately before is “Press”, the state of the next mouse event input is “Release”, and the same position information is stored in the
処理がステップS12に進む場合、マウスイベントの状態が「Move」の場合であり、そのマウスイベントの直前に別のマウスイベントが入力されている。別のマウスイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS12においては、移動距離Lがしきい値TH以上か否かを判断する。移動距離Lがしきい値TL以上ならば処理をステップS13に進めるが、そうでなければ処理を終了する。ステップS04において記憶された開始位置で特定される位置とステップS01において検出されたマウスイベントに含まれる位置情報で特定される位置との間の距離を移動距離Lとして算出する。 When the process proceeds to step S12, the mouse event state is “Move”, and another mouse event is input immediately before the mouse event. The state of another mouse event may be “Press” or “Move”. In step S12, it is determined whether or not the moving distance L is greater than or equal to a threshold value TH. If the movement distance L is greater than or equal to the threshold value TL, the process proceeds to step S13. If not, the process ends. The distance between the position specified by the start position stored in step S04 and the position specified by the position information included in the mouse event detected in step S01 is calculated as the movement distance L.
次のステップS13においては、指示方向を決定する。ステップS04において記憶された開始位置で特定される位置からステップS01において検出されたマウスイベントに含まれる位置情報で特定される位置に向かう方向を指示方向に決定する。指示方向は、表示部161の表示面を基準にした上下左右の4方向のうち最も近い方向である。
In the next step S13, an instruction direction is determined. A direction from the position specified at the start position stored in step S04 to the position specified by the position information included in the mouse event detected in step S01 is determined as the designated direction. The designated direction is the closest direction among the four directions, top, bottom, left, and right, with the display surface of the
そして、指示速度を算出する。ステップS12において算出された移動距離に基づいて指示速度を算出する。たとえば、ステップS12において算出された移動距離を、状態が「Press」のマウスイベントが検出されてからステップS01においてマウスイベントが検出されるまでの時間で除算した値を指示速度とする。また、直前に検出されたマウスイベントとステップS01において検出されたマウスイベントとから指示速度を算出するようにしてもよい。 Then, the instruction speed is calculated. An instruction speed is calculated based on the movement distance calculated in step S12. For example, a value obtained by dividing the movement distance calculated in step S12 by the time from when the mouse event having the state “Press” is detected until the mouse event is detected in step S01 is set as the instruction speed. Further, the instruction speed may be calculated from the mouse event detected immediately before and the mouse event detected in step S01.
ステップS15においては、指示速度がしきい値TV以上か否かを判断する。指示速度がしきい値TV以上ならば処理をステップS16に進め、そうでなければ処理をステップS17に進める。ステップS16においては、ジェスチャーイベントをスワイプに決定し、処理をステップS18に進める。ステップS17においては、ジェスチャーイベントをフリックに決定し、処理をステップS18に進める。 In step S15, it is determined whether the indicated speed is equal to or higher than threshold value TV. If the instruction speed is equal to or higher than threshold TV, the process proceeds to step S16; otherwise, the process proceeds to step S17. In step S16, the gesture event is determined to be swipe, and the process proceeds to step S18. In step S17, the gesture event is determined to be flicked, and the process proceeds to step S18.
ステップS18においては、決定されたジェスチャーイベントに対応する処理が、HDD115に記憶されているマスターテーブル99によって定義されているか否かを判断する。ジェスチャーイベントに対応する処理が定義されていれば処理をステップS19に進めるが、そうでなければ処理をステップS20に進める。ステップS19においては、ステップS16において決定されたジェスチャー識別情報「スワイプ」のジェスチャーイベント、またはステップS17において決定されたジェスチャー識別情報「フリック」のジェスチャーイベントを出力し、処理を終了する。ステップS20においては、未決定信号を出力し、処理を終了する。
In
図8は、複数位置検出処理の流れの一例を示すフローチャートである。複数位置検出処理は、図7に示したジェスチャーイベント決定処理のステップS21において実行される処理である。複数位置検出処理は、2つのマウスイベントが検出される場合に実行される処理である。図8を参照して、CPU111は、2つのマウスイベントの状態によって処理を分岐させる。2つのマウスイベントの少なくとも一方の状態が「Release」ならば処理をステップS54に進め、「Press」ならば処理をステップS32に進め、「Move」ならば処理をステップS33に進める。ステップS32においては、2つのマウスイベントそれぞれに含まれる位置情報を開始位置としてRAM114に記憶し、処理を終了する。
FIG. 8 is a flowchart illustrating an example of the flow of the multiple position detection process. The multiple position detection process is a process executed in step S21 of the gesture event determination process shown in FIG. The multiple position detection process is a process executed when two mouse events are detected. Referring to FIG. 8,
ステップS33においては、2つのマウスイベントの少なくとも一方の状態が「Move」か否かを判断する。2つのマウスイベントの少なくとも一方の状態が「Move」ならば処理をステップS34に進めるが、そうでなければ処理をステップS54に進める。ステップS54においては、未決定信号を出力し、処理をジェスチャーイベント検出処理に戻す。 In step S33, it is determined whether or not the state of at least one of the two mouse events is “Move”. If the state of at least one of the two mouse events is “Move”, the process proceeds to step S34; otherwise, the process proceeds to step S54. In step S54, an undetermined signal is output, and the process returns to the gesture event detection process.
ステップS34においては、回転角度を算出する。表示部161の表示面の所定の基準辺を基準に、ステップS32において記憶された開始位置で特定される2つの位置を結ぶ直線が基準辺となす角度R1を算出する。また、検出された2つのマウスイベントそれぞれに含まれる位置情報で特定される2つの位置を結ぶ直線が基準辺となす角度R2を算出する。そして、角度R2から角度R1を減算することにより回転角度Rを算出する。回転角度Rの絶対値がしきい値TR以上か否かを判断する。回転角度Rの絶対値がしきい値TR以上ならば、処理をステップS36に進めるが、そうでなければ処理をステップS40に進める。ステップS36においては、回転方向と回転角度とを決定する。回転方向は回転角度Rの正負によって決定する。回転角度は回転角度Rに決定する。ステップS37においては、ジェスチャーイベントをローテーションに決定し、処理をステップS38に進める。
In step S34, the rotation angle is calculated. Based on a predetermined reference side of the display surface of the
ステップS38においては、決定されたジェスチャーイベントに対応する処理が、HDD115に記憶されているマスターテーブル99によって定義されているか否かを判断する。ジェスチャーイベントに対応する処理が定義されていれば処理をステップS39に進めるが、そうでなければステップS39をスキップして処理をステップS40に進める。ステップS39においては、ステップS37において決定されたジェスチャー識別情報「ローテーション」のジェスチャーイベントを出力する。
In step S38, it is determined whether or not the process corresponding to the determined gesture event is defined by master table 99 stored in
ステップS40においては、指示位置間距離の変化量を算出する。ステップS32において記憶された開始位置で特定される2つの位置の間の距離L1を算出する。また、検出された2つのマウスイベントそれぞれに含まれる位置情報で特定される2つの位置の間の距離L2を算出する。距離L2と距離L1との差を、指示位置間距離の変化量として算出する。 In step S40, the change amount of the distance between the designated positions is calculated. A distance L1 between the two positions specified by the start position stored in step S32 is calculated. In addition, a distance L2 between the two positions specified by the position information included in each of the two detected mouse events is calculated. The difference between the distance L2 and the distance L1 is calculated as the change amount of the distance between the indicated positions.
次のステップS41においては距離が変化したか否かを判断する。指示位置間距離の変化量が所定の長さ以上であれば、距離が変化したと判断する。距離が変化したならば処理をステップS43に進め、そうでなければ処理をステップS48に進める。 In the next step S41, it is determined whether or not the distance has changed. If the change amount of the distance between the indicated positions is equal to or longer than a predetermined length, it is determined that the distance has changed. If the distance has changed, the process proceeds to step S43; otherwise, the process proceeds to step S48.
ステップS43においては、倍率を決定する。距離L2を距離L1で除算した値を倍率に決定する。次のステップS44においては、倍率が1よい大きいか否かを判断する。倍率が1より大きければ処理をステップS44に進めるが、そうでなければ処理をステップS45に進める。 In step S43, the magnification is determined. A value obtained by dividing the distance L2 by the distance L1 is determined as the magnification. In the next step S44, it is determined whether or not the magnification is 1 or larger. If the magnification is greater than 1, the process proceeds to step S44; otherwise, the process proceeds to step S45.
ステップS44においては、ジェスチャーイベントをピンチアウトに決定し、処理をステップS46に進める。ステップS45においては、ジェスチャーイベントをピンチインに決定し、処理をステップS46に進める。 In step S44, the gesture event is determined to be pinch out, and the process proceeds to step S46. In step S45, the gesture event is determined to be pinch-in, and the process proceeds to step S46.
ステップS46においては、決定されたジェスチャーイベントに対応する処理が、HDD115に記憶されているマスターテーブル99によって定義されているか否かを判断する。ジェスチャーイベントに対応する処理が定義されていれば処理をステップS47に進めるが、そうでなければステップS47をスキップして処理をステップS48に進める。ステップS47においては、ステップS44において決定されたジェスチャー識別情報「ピンチアウト」のジェスチャーイベント、または、ステップS45において決定されたジェスチャー識別情報「ピンチイン」のジェスチャーイベントを出力する。
In step S <b> 46, it is determined whether or not the process corresponding to the determined gesture event is defined by master table 99 stored in
ステップS48においては、2点の移動方向が同じか否かを判断する。2つのジェスチャーイベントそれぞれに含まれる位置情報で特定される位置が移動する方向を比較する。具体的には、ステップS32において記憶された開始位置で特定される2つの位置の一方から、検出された2つのマウスイベントのうち対応する一方に含まれる位置情報で特定される位置に向かう方向を、一方の移動方向として算出する。また、ステップS32において記憶された開始位置で特定される2つの位置の他方から、検出された2つのマウスイベントのうち対応する他方に含まれる位置情報で特定される位置に向かう方向を他方の移動方向として算出する。算出された両方向が同じならば処理をステップS49に進めるが、そうでなければ処理をステップS53に進める。 In step S48, it is determined whether the moving directions of the two points are the same. The direction in which the position specified by the position information included in each of the two gesture events moves is compared. Specifically, the direction from one of the two positions specified at the start position stored in step S32 toward the position specified by the position information included in the corresponding one of the two detected mouse events is determined. , One moving direction is calculated. Further, the other direction is moved from the other of the two positions specified at the start position stored in step S32 toward the position specified by the position information included in the corresponding other of the two detected mouse events. Calculate as direction. If the calculated two directions are the same, the process proceeds to step S49; otherwise, the process proceeds to step S53.
ステップS49においては、指示方向を決定する。ステップS48において算出された移動方向を指示方向に決定する。ステップS50は、ジェスチャーイベントをダブルフリックに決定し、処理をステップS51に進める。ステップS51においては、決定されたジェスチャーイベントに対応する処理が、HDD115に記憶されているマスターテーブル99によって定義されているか否かを判断する。ジェスチャーイベントに対応する処理が定義されていれば処理をステップS52に進めるが、そうでなければステップS52をスキップして処理をステップS53に進める。ステップS52においては、ステップS50において決定されたジェスチャー識別情報「ダブルフリック」のジェスチャーイベントを出力する。
In step S49, an instruction direction is determined. The moving direction calculated in step S48 is determined as the designated direction. In step S50, the gesture event is determined to be a double flick, and the process proceeds to step S51. In
ステップS53においては、ジェスチャーイベントを出力したか否かを判断する。ステップS39、ステップS47、ステップS52の少なくとも1つが実行されたならばジェスチャーイベントを出力したと判断する。少なくとも1つのジェスチャーイベントを出力したならば処理をジェスチャーイベント検出処理に戻し、そうでなければ処理をステップS54に進める。ステップS54においては、未決定信号を出力し、処理をジェスチャーイベント検出処理に戻す。 In step S53, it is determined whether a gesture event has been output. If at least one of step S39, step S47, and step S52 is executed, it is determined that a gesture event has been output. If at least one gesture event has been output, the process returns to the gesture event detection process; otherwise, the process proceeds to step S54. In step S54, an undetermined signal is output, and the process returns to the gesture event detection process.
図9は、コンテンツ表示処理の流れの一例を示すフローチャートである。コンテンツ表示処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたコンテンツ表示プログラムを実行することにより、CPU111により実行される処理である。図9を参照して、CPU111は、コンテンツを取得する(ステップS61)。たとえば、コンテンツが、外部のWebサーバーに記憶されたWebページの場合、通信I/F部112を制御してWebサーバーからWebページを受信する。また、また、コンテンツがHDD116に記憶されたアプリケーションデータまたは画像データの場合、HDD116からアプリケーションデータまたは画像データを読み出す。
FIG. 9 is a flowchart illustrating an example of the flow of content display processing. The content display process is a process executed by
ステップS62においては、表示対象ページを決定する。ステップS51において取得されたコンテンツが複数ページならば最初の第1ページを表示対象ページに決定し、コンテンツが単一のページならばコンテンツの全体を表示対象ページに決定する。ステップS63においては、表示部分を決定する。表示対象ページの少なくとも一部を表示部分に決定する。ここでは、表示対象ページの全部を表示部分に決定する場合を例に説明する。 In step S62, a display target page is determined. If the content acquired in step S51 is a plurality of pages, the first first page is determined as the display target page, and if the content is a single page, the entire content is determined as the display target page. In step S63, a display portion is determined. At least a part of the display target page is determined as a display part. Here, a case where the entire display target page is determined as a display portion will be described as an example.
次のステップS64においては、ステップS62において決定された表示対象ページの表示部分に対応する表示用画像を生成する。そして、生成された表示用画像を表示部161に表示し(ステップS65)、処理をステップS66に進める。表示部161のVRAMに表示用画像を格納することによって、表示用画像を表示部161に表示する。
In the next step S64, a display image corresponding to the display portion of the display target page determined in step S62 is generated. Then, the generated display image is displayed on the display unit 161 (step S65), and the process proceeds to step S66. By storing the display image in the VRAM of the
ステップS66においては、状態情報を記憶する。状態情報は、表示対象ページのページ番号、表示部分のページ中の位置およびサイズを含む。次のステップS67においては、スクロール不可フラグをOFFに設定する。そして、ジェスチャーベントが決定されたか否かを判断する(ステップS68)。上述したジェスチャーイベント決定処理において、ジェスチャーイベントが出力される場合にジェスチャーイベントが決定されたと判断する。ジェスチャーイベントが決定されるまで待機状態となり(ステップS68でNO)、ジェスチャーイベントが決定されたならば(ステップS68でYES)、処理をステップS69に進める。 In step S66, the state information is stored. The state information includes the page number of the display target page, the position and size of the display portion in the page. In the next step S67, the non-scrollable flag is set to OFF. Then, it is determined whether or not a gesture vent has been determined (step S68). In the gesture event determination process described above, it is determined that a gesture event has been determined when a gesture event is output. The process waits until a gesture event is determined (NO in step S68). If a gesture event is determined (YES in step S68), the process proceeds to step S69.
ステップS69においては、ジェスチャー期間開始時を設定する。その時の時刻をジェスチャー期間開始時に設定する。そして、表示用画像更新処理を実行し(ステップS70)、処理をステップS71に進める。表示用画像更新処理の詳細は後述するが、ステップS68または、ステップS71において検出されたジェスチャーイベントに基づいて表示用画像を更新する処理である。 In step S69, the start time of the gesture period is set. The time at that time is set at the start of the gesture period. Then, a display image update process is executed (step S70), and the process proceeds to step S71. Although details of the display image update process will be described later, this is a process of updating the display image based on the gesture event detected in step S68 or step S71.
ステップS71においては、ジェスチャーベントが決定されたか否かを判断する。ジェスチャーイベントが決定されたならば処理をステップS70に戻すが、そうでなければ処理をステップS72に進める。ステップS72においては、未決定信号を検出したか否かを判断する。上述したジェスチャーイベント決定処理において出力される未決定信号を検出する。未決定信号を検出したならば処理をステップS73に進めるが、そうでなければ処理をステップS71に戻す。 In step S71, it is determined whether or not a gesture vent has been determined. If a gesture event is determined, the process returns to step S70; otherwise, the process proceeds to step S72. In step S72, it is determined whether an undetermined signal has been detected. An undetermined signal output in the gesture event determination process described above is detected. If an undetermined signal is detected, the process proceeds to step S73; otherwise, the process returns to step S71.
ステップS73においては、ジェスチャー期間終了時を設定する。その時の時刻をジェスチャー期間終了時に設定する。そして、優先表示処理(ステップS74)および特定状態ページ切換処理(ステップS75)を実行し、処理をステップS76に進める。優先表示処理および特定状態ページ切換処理の詳細は後述する。ステップS76においては、コンテンツの表示を終了する指示を受け付けたか否かを判断する。例えば、ハードキー部167に含まれる複数のキーのうち、コンテンツ表示プログラムを終了する指示が割り当てられたキーが指示されたならばコンテンツの表示を終了する指示を受け付ける。コンテンツンの表示を終了する指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS66に戻す。
In step S73, the end of the gesture period is set. The time at that time is set at the end of the gesture period. And a priority display process (step S74) and a specific state page switching process (step S75) are performed, and a process is advanced to step S76. Details of the priority display process and the specific state page switching process will be described later. In step S76, it is determined whether an instruction to end the display of content has been received. For example, if a key to which an instruction to end the content display program is assigned among a plurality of keys included in the hard
図10は、表示用画像更新処理の流れの一例を示すフローチャートである。表示用画像更新処理は、図9に示したコンテンツ表示処理のステップS70において実行される処理である。図9において、ステップS70が実行される前の段階で、表示対象ページ、表示部分が決定されており、ジェスチャーイベントが検出されている。図10を参照して、CPU111は、検出されたジェスチャーイベントが、ピンチアウトまたはピンチインのジェスチャーイベントか否かを判断する(ステップS81)。ジェスチャー識別情報「ピンチアウト」のジェスチャーイベントまたはジェスチャー識別情報「ピンチイン」のジェスチャーイベントが検出された場合は、処理をステップS82に進めるが、そうでなければ処理をステップS83に進める。ステップS82においては、表示部分を変更するための倍率を設定する。ジェスチャーイベントにパラメータとして含まれる倍率を、表示部分を変更するための倍率に設定する。
FIG. 10 is a flowchart illustrating an example of the flow of the display image update process. The display image update process is a process executed in step S70 of the content display process shown in FIG. In FIG. 9, the display target page and the display portion are determined and the gesture event is detected before step S70 is executed. Referring to FIG. 10,
ステップS83においては、検出されたジェスチャーイベントが、ローテーションか否かを判断する。ジェスチャー識別情報「ローテーション」のジェスチャーイベントが検出された場合は、処理をステップS84に進めるが、そうでなければ処理をステップS86に進める。ステップS84においては、回転方向および回転角度を取得する。ジェスチャーイベントにパラメータとして含まれる回転方向および回転角度を取得する。次のステップS85においては、取得された回転方向および回転角度を、表示用画像を生成するための回転方向および回転角度に設定し、処理をステップS86に進める。 In step S83, it is determined whether or not the detected gesture event is rotation. If a gesture event having the gesture identification information “Rotation” is detected, the process proceeds to step S84; otherwise, the process proceeds to step S86. In step S84, the rotation direction and rotation angle are acquired. The rotation direction and rotation angle included as parameters in the gesture event are acquired. In the next step S85, the acquired rotation direction and rotation angle are set to the rotation direction and rotation angle for generating the display image, and the process proceeds to step S86.
ステップS86においては、検出されたジェスチャーイベントが、フリックまたはダブルフリックのジェスチャーイベントか否かを判断する。ジェスチャー識別情報「フリック」のジェスチャーイベントまたはジェスチャー識別情報「ダブルフリック」のジェスチャーイベントが検出された場合は、処理をステップS87に進めるが、そうでなければ処理をステップS92に進める。ステップS87においては、スクロール方向および距離を取得する。ジェスチャーイベントにパラメータとして含まれる方向および移動距離を取得する。次のステップS88においては、表示部分を変更可能か否かを判断する。具体的には、表示部分を、ステップS87において取得された方向に取得された移動距離だけ平行移動可能か否かを判断する。表示対象ページにおいて、平行移動させる前の表示部分が配置されている領域に対して、ステップS87で取得された方向に取得された移動距離の幅の領域が存在すれば、表示部分を変更可能と判断する。表示部分を変更可能と判断すれば処理をステップS89に進めるが、そうでなければ処理をステップS90に進める。 In step S86, it is determined whether or not the detected gesture event is a flick or double flick gesture event. If a gesture event with gesture identification information “flick” or a gesture event with gesture identification information “double flick” is detected, the process proceeds to step S87; otherwise, the process proceeds to step S92. In step S87, the scroll direction and distance are acquired. The direction and the movement distance included as parameters in the gesture event are acquired. In the next step S88, it is determined whether or not the display portion can be changed. Specifically, it is determined whether or not the display portion can be translated by the movement distance acquired in the direction acquired in step S87. In the display target page, if there is a region having a width of the movement distance acquired in the direction acquired in step S87 with respect to the region where the display portion before the translation is arranged, the display portion can be changed. to decide. If it is determined that the display portion can be changed, the process proceeds to step S89; otherwise, the process proceeds to step S90.
ステップS89においては、ステップS87において取得された方向および移動距離を、表示部分を変更するためのスクロール方向および移動距離に設定し、処理をステップS92に進める。一方、ステップS90においては、スクロール不可フラグをONに設定し、処理をステップS91に進める。ステップS91においては、ステップS87において取得された方向を、スクロール方向としてRAM114に記憶し、処理をステップS92に進める。
In step S89, the direction and movement distance acquired in step S87 are set to the scroll direction and movement distance for changing the display portion, and the process proceeds to step S92. On the other hand, in step S90, the non-scrollable flag is set to ON, and the process proceeds to step S91. In step S91, the direction acquired in step S87 is stored in
ステップS92においては、検出されたジェスチャーイベントが、スワイプか否かを判断する。ジェスチャー識別情報「スワイプ」のジェスチャーイベントが検出された場合は、処理をステップS93に進めるが、そうでなければ処理をステップS94に進める。ステップS93においては、ページ送り方向を設定し、処理をステップS94に進める。する。ジェスチャーイベントにパラメータとして含まれる方向に基づいて、ページ送り方向を決定する。方向が「上」または「左」を示すならば前のページを示すページ送り方向に決定し、方向が「下」または「右」を示すならば後のページを示すページ送り方向に決定する。 In step S92, it is determined whether or not the detected gesture event is a swipe. If a gesture event having the gesture identification information “Swipe” is detected, the process proceeds to step S93; otherwise, the process proceeds to step S94. In step S93, the page feed direction is set, and the process proceeds to step S94. To do. The page turning direction is determined based on the direction included as a parameter in the gesture event. If the direction indicates “up” or “left”, the page turning direction indicating the previous page is determined. If the direction indicates “down” or “right”, the page turning direction indicating the subsequent page is determined.
ステップS94においては、表示部分を変更する。ジェスチャー期間開始時の表示部分を、状態情報から特定し、特定した表示部分を、ステップS82において設定された倍率、ステップS89において設定されたスクロール方向および移動距離、ステップS93において設定されたページ送り方向に基づいて、変更する。状態情報は、表示対象ページを特定するページ番号と、表示部分の位置と、表示部分のサイズと、を含む。 In step S94, the display portion is changed. The display part at the start of the gesture period is specified from the state information, and the specified display part is determined by the magnification set in step S82, the scroll direction and the moving distance set in step S89, and the page feed direction set in step S93. Based on the change. The state information includes a page number for specifying the display target page, the position of the display portion, and the size of the display portion.
ステップS93が実行され、ページ送り方向が設定されている場合には、表示対象ページのページ番号をページ送り方向で定まるページのページ番号に変更する。ページ送り方向が前のページを示すならば前のページのページ番号に変更する。なお、状態情報で定まるページ番号のページが先頭ページの場合は、最終のページのページ番号に変更する。ページ送り方向が後のページを示すならば後のページのページ番号に変更する。なお、状態情報で定まるページ番号のページが最終ページの場合は、先頭の第1ページのページ番号に変更する。 If step S93 is executed and the page feed direction is set, the page number of the display target page is changed to the page number of the page determined by the page feed direction. If the page feed direction indicates the previous page, the page number of the previous page is changed. If the page with the page number determined by the status information is the first page, the page number is changed to the last page. If the page feed direction indicates a subsequent page, the page number of the subsequent page is changed. If the page with the page number determined by the status information is the last page, the page number is changed to the page number of the first first page.
ステップS82が実行され、倍率が設定されている場合には、表示部分のサイズを倍率で定まるサイズに変更する。ステップS89が実行されてスクロール方向および移動距離が設定されている場合には、表示部分の位置をスクロール方向で定める方向に、移動距離だけ平行移動した位置に変更する。 When step S82 is executed and the magnification is set, the size of the display portion is changed to a size determined by the magnification. When step S89 is executed and the scroll direction and the movement distance are set, the position of the display portion is changed to a position translated by the movement distance in the direction determined by the scroll direction.
ステップS95においては、表示用画像を生成する。コンテンツ中で、ステップS95において変更された後の表示部分に相当する部分の画像を表示用画像として生成する。ステップS85が実行され、回転方向および回転角度が設定されている場合には、表示部分の方向を回転方向に回転角度だけ回転さたた画像を表示用画像とする。回転角度を所定の範囲ごとに分類し、表示部分を回転させる角度を分類された範囲ごとに予め定めておき、回転角度が属する範囲に対して定められた角度だけ回転させるようにしてもよい。たとえば、回転角度が0度より大きく30度以下の範囲に表示部分を回転させる角度として90度を定め、回転角度が30度より大きく60度以下の範囲に表示部分を回転させる角度として180度を定めるようにする。そして、回転角度が0度より大きく30度以下の範囲に属する場合に、表示部分を90度だけ回転させた画像を表示用画像とし、回転角度が30度より大きく60度以下の範囲に属する場合に、表示部分を180度だけ回転させた画像を表示用画像とする。 In step S95, a display image is generated. In the content, an image of a portion corresponding to the display portion changed in step S95 is generated as a display image. When step S85 is executed and the rotation direction and rotation angle are set, an image obtained by rotating the direction of the display portion by the rotation angle in the rotation direction is set as a display image. The rotation angle may be classified for each predetermined range, the angle for rotating the display portion may be determined for each classified range in advance, and the rotation angle may be rotated by a predetermined angle with respect to the range to which the rotation angle belongs. For example, 90 degrees is set as an angle for rotating the display part in a range where the rotation angle is greater than 0 degree and 30 degrees or less, and 180 degrees is set as an angle for rotating the display part in a range where the rotation angle is greater than 30 degrees and 60 degrees or less. Make sure to define. When the rotation angle belongs to a range greater than 0 degree and 30 degrees or less, an image obtained by rotating the display portion by 90 degrees is used as a display image, and the rotation angle belongs to a range greater than 30 degrees and 60 degrees or less. Further, an image obtained by rotating the display portion by 180 degrees is set as a display image.
ステップS96においては、生成された表示用画像を、表示部161に表示し、処理をコンテンツ表示処理に戻す。
In step S96, the generated display image is displayed on
図11は、優先表示処理の流れの一例を示すフローチャートである。優先表示処理は、図9に示したコンテンツ表示処理のステップS74において実行される処理である。図11を参照して、CPU111は、ジェスチャー期間にローテーション操作が存在したか否かを判断する(ステップS101)。ジェスチャー期間にジェスチャー識別情報「ローテーション」のジェスチャーイベントが検出されていたならばローテーション操作が存在したと判断する。ローテーション操作が存在したならば処理をステップS102に進めるが、そうでなければ処理をコンテンツ表示処理に戻す。
FIG. 11 is a flowchart illustrating an example of the flow of priority display processing. The priority display process is a process executed in step S74 of the content display process shown in FIG. Referring to FIG. 11,
ステップS102においては、ジェスチャー期間にピンチアウト操作またはピンチイン操作が存在したか否かを判断する。ジェスチャー期間にジェスチャー識別情報「ピンチアウト」のジェスチャーイベントが検出されていたならばピンチアウト操作が存在したと判断する。ジェスチャー期間にジェスチャー識別情報「ピンチイン」のジェスチャーイベントが検出されていたならばピンチイン操作が存在したと判断する。ジェスチャー期間にピンチアウト操作またはピンチイン操作の少なくとも一方が存在したならば処理をステップS103に進めるが、ピンチアウト操作またはピンチイン操作のいずれも存在しなければ処理をコンテンツ表示処理に戻す。 In step S102, it is determined whether a pinch-out operation or a pinch-in operation exists during the gesture period. If a gesture event having the gesture identification information “pinch out” is detected during the gesture period, it is determined that a pinch out operation has been performed. If a gesture event having the gesture identification information “Pinch-in” is detected during the gesture period, it is determined that a pinch-in operation has been performed. If at least one of the pinch-out operation and the pinch-in operation exists during the gesture period, the process proceeds to step S103. If neither the pinch-out operation or the pinch-in operation exists, the process returns to the content display process.
ステップS103においては、状態情報から表示部分を特定する。ジェスチャー期間開始時の表示部分および倍率に基づいて表示用画像を生成するためである。次のステップS104においては、回転方向および回転角度を設定する。ジェスチャー期間に最後に検出されたジェスチャー識別情報「ローテーション」のジェスチャーイベントにパラメータとして含まれる回転方向および回転角度を、表示用画像を生成するための回転方向および回転角度に設定する。 In step S103, the display part is specified from the state information. This is because a display image is generated based on the display portion and the magnification at the start of the gesture period. In the next step S104, the rotation direction and rotation angle are set. The rotation direction and rotation angle included as parameters in the gesture event of the gesture identification information “rotation” detected last in the gesture period are set to the rotation direction and rotation angle for generating the display image.
ステップS105においては、ステップS103において特定された表示部分、およびステップS104において設定された回転方向に回転角度に基づいて、表示用画像を生成する。具体的には、ステップS103において特定された表示部分の画像を、ステップS104において設定された回転方向に回転角度だけ回転させた画像を表示用画像に設定する。なお、回転角度を所定の範囲ごとに分類し、表示部分を回転させる角度を分類された範囲ごとに予め定めておき、回転角度が属する範囲に対して定められた角度だけ回転させるようにしてもよい。たとえば、回転角度が0度より大きく30度以下の範囲に表示部分を回転させる角度として90度を定め、回転角度が30度より大きく60度以下の範囲に表示部分を回転させる角度として180度を定めるようにする。そして、回転角度が0度より大きく30度以下の範囲に属する場合に、表示部分を90度だけ回転させ、回転角度が30度より大きく60度以下の範囲に属する場合に、表示部分を180度だけ回転させる。 In step S105, a display image is generated based on the display portion specified in step S103 and the rotation angle in the rotation direction set in step S104. Specifically, an image obtained by rotating the image of the display portion specified in step S103 by the rotation angle in the rotation direction set in step S104 is set as a display image. The rotation angle is classified for each predetermined range, the angle for rotating the display portion is determined for each classified range in advance, and the rotation angle is rotated by a predetermined angle with respect to the range to which the rotation angle belongs. Good. For example, 90 degrees is set as an angle for rotating the display part in a range where the rotation angle is greater than 0 degree and 30 degrees or less, and 180 degrees is set as an angle for rotating the display part in a range where the rotation angle is greater than 30 degrees and 60 degrees or less. Make sure to define. When the rotation angle belongs to a range greater than 0 degree and 30 degrees or less, the display portion is rotated by 90 degrees, and when the rotation angle belongs to a range greater than 30 degrees and less than 60 degrees, the display portion is 180 degrees. Just rotate.
次のステップS105においては、生成された表示用画像を、表示部161に表示し、処理をコンテンツ表示処理に戻す。
In the next step S105, the generated display image is displayed on the
図12は、特定状態ページ切換処理の流れの一例を示すフローチャートである。特定状態ページ切換処理は、図9に示したコンテンツ表示処理のステップS75において実行される処理である。図12を参照して、CPU111は、スクロール不可フラグがONに設定されているか否かを判断する(ステップS111)。スクロール不可フラグは、図9に示したコンテンツ表示処理のステップS67において、ジェスチャー期間開始時の初期値としてOFFに設定され、図10に示した表示用画像更新処理のステップS90において、スクロールすることができない場合にONに設定される。スクロール不可フラグがONに設定されているならば処理をステップS112に進めるが、そうでなければ処理をコンテンツ表示処理に戻す。
FIG. 12 is a flowchart illustrating an example of the flow of the specific state page switching process. The specific state page switching process is a process executed in step S75 of the content display process shown in FIG. Referring to FIG. 12,
ステップS112においては、RAM114に記憶されたスクロール方向からページ送り方向を決定する。スクロール方向は、図10に示した表示用画像更新処理のステップS91において、スクロールすることができない場合にRAM114に記憶されている。スクロール方向が「上」または「左」を示すならば前のページを示すページ送り方向に決定し、スクロール方向が「下」または「右」を示すならば後のページを示すページ送り方向に決定する。
In step S112, the page feed direction is determined from the scroll direction stored in the
次のステップS113においては、表示対象ページを変更する。表示対象ページのページ番号をページ送り方向で定めるページのページ番号に変更する。ページ送り方向が前のページを示すならば前のページのページ番号に変更する。なお、状態情報で定まるページ番号のページが先頭ページの場合は、最終のページのページ番号に変更する。ページ送り方向が後のページを示すならば後のページのページ番号に変更する。なお、状態情報で定まるページ番号のページが最終ページの場合は、先頭の第1ページのページ番号に変更する。 In the next step S113, the display target page is changed. The page number of the display target page is changed to the page number of the page determined in the page feed direction. If the page feed direction indicates the previous page, the page number of the previous page is changed. If the page with the page number determined by the status information is the first page, the page number is changed to the last page. If the page feed direction indicates a subsequent page, the page number of the subsequent page is changed. If the page with the page number determined by the status information is the last page, the page number is changed to the page number of the first first page.
次のステップS114においては、表示部分を決定する。表示部分は、ページに対して予め定められた部分としてもよいし、表示対象ページを変更する前に定まっている表示部分の位置およびサイズで定めるようにしてもよい。 In the next step S114, a display portion is determined. The display portion may be a predetermined portion for the page, or may be determined by the position and size of the display portion determined before changing the display target page.
次のステップS115においては、表示用画像を生成する。コンテンツ中で、ステップS113において変更された後の表示対象ページの表示部分に相当する部分の画像を表示用画像として生成する。そして、生成された表示用画像を、表示部161に表示し(ステップS116)、処理をコンテンツ表示処理に戻す。 In the next step S115, a display image is generated. In the content, an image of a portion corresponding to the display portion of the display target page after being changed in step S113 is generated as a display image. Then, the generated display image is displayed on the display unit 161 (step S116), and the process returns to the content display process.
次に、優先表示処理が実行される場合について、表示部161に表示される画面を用いて説明する。図13は、画面の一例を示す第1の図である。図13を参照して、画面301は、表示用画像303を含む。表示用画像303は、アプリケーションデータの1ページの全体の画像としている。図13に示す画面301が表示部161に表示されている状態で、表示用画像303の方向を右方向に90度回転させるためには、ユーザーは、ローテーション操作を入力すればよい。具体的には、ユーザーが親指と人差し指とをタッチパネルに同時に触れ、親指が触れている位置を中心に人差し指が触れている位置を時計回りに回転させるように円弧を描く操作をすればよい。しかしながら、ローテーション操作を入力している途中で、親指が触れている位置と人差し指が触れている位置との間の距離が短くなる場合がある。この場合におけるユーザーの操作は、MFP100によって、ローテーション操作およびピンチイン操作として受け付けられる。
Next, a case where priority display processing is executed will be described using a screen displayed on the
図14は、画面の一例を示す第2の図である。図14に示す画面301Aは、図13に示した画面301が表示されている状態で、ユーザーによる操作としてローテーション操作とピンチイン操作とを受け付けて、それらの両方に対応する処理を実行した場合に表示される画面を示す。図14を参照して、画面301Aは、表示用画像303Aを含む。表示用画像303Aは、図13に示した画面301に含まれる表示用画面303を、時計方向に90度回転し、サイズを50%に縮小した画像である。
FIG. 14 is a second diagram illustrating an example of the screen. The
本実施の形態におけるMFP100は、1つのジェスチャー期間においてローテーション操作とピンチイン操作とを受け付ける場合、ジェスチャー期間が終了した時点で、ローテーション操作を受け付け、ピンチイン操作を受け付けなかったものとして表示用画像を表示する。そのため、途中の画像である図14は、必ずしも表示させる必要はなく、図13に示す画面から直接、後述する図15に示す画面を表示するようにしてもよい。その方が、画面のちらつきが少なくなる場合がある。
When
図15は、画面の一例を示す第3の図である。図15に示す画面301Bは、図13に示した画面301が表示されている状態で、ユーザーによる操作としてローテーション操作とピンチイン操作とを受け付けた後、ユーザーが操作を終了した後に、表示される画面を示す。図15を参照して、画面301Bは、表示用画像303Bを含む。表示用画像303Bは、図13に示した画面301に含まれる表示用画像303を、時計方向に90度回転した画像である。表示用画像303Bは、表示用画像303とサイズは同じである。
FIG. 15 is a third diagram illustrating an example of the screen. A
なお、本実施の形態においては、ジェスチャー期間中に、ローテーション操作と、ピンチイン操作またはピンチアウト操作とを受け付ける場合、ジェスチャー期間中は表示部分を変更するとともに変更後の表示部の方向を変更した表示用画像を表示するようにしたが、ジェスチャー期間が開始されてからローテーション操作に対応するジェスチャー識別情報「ローテーション」のジェスチャーイベントが決定された後は、ピンチイン操作またはピンチアウト操作に対応するジェスチャー識別情報「ピンチイン」または「ピンチアウトのジェスチャーイベントに基づいて表示部分を変更しないようにしてもよい。これにより、ローテーション操作がピンチイン操作またはピンチアウト操作よりも優先されることをユーザーに通知することができる。 In the present embodiment, when a rotation operation and a pinch-in operation or a pinch-out operation are accepted during the gesture period, the display portion is changed during the gesture period and the direction of the display unit after the change is changed. The gesture identification information corresponding to the pinch-in operation or the pinch-out operation is determined after the gesture event of the “rotation” gesture identification information corresponding to the rotation operation is determined after the gesture period is started. The display portion may not be changed based on the “pinch-in” or “pinch-out gesture event. This allows the user to be notified that the rotation operation has priority over the pinch-in operation or the pinch-out operation. .
次に、特定状態ページ切換処理が実行される場合について、表示部161に表示される画面を用いて説明する。図16は、画面の一例を示す第4の図である。図16を参照して、画面311は、表示用画像313を含む。表示用画像313は、アプリケーションデータの第1ページの下方の一部の画像としている。図16に示す画面311が表示部161に表示されている状態において、ユーザーが指315でタッチパネルに触れた位置を図面矢印方向に移動させる下方向のスクロール操作を入力する場合、MFP100はスクロール操作を受け付ける。しかしながら、表示用画像313はアプリケーションデータの第1ページの下方の一部なので、下方向にスクロールすることはできない。このため、MFP100は、スクロール操作を受け付けたけれどもスクロールすることができない場合には、スクロール方向に対応する方向にページを切り換え、図17に示す画面を表示する。
Next, a case where the specific state page switching process is executed will be described using a screen displayed on the
図17は、画面の一例を示す第5の図である。図17を参照して、画面311Aは、表示用画像313Aを含む。表示用画像313Aは、アプリケーションデータの第2ページの上方の一部の画像としている。
FIG. 17 is a fifth diagram illustrating an example of the screen. Referring to FIG. 17,
以上説明したように、本実施の形態におけるMFP100は、データ処理装置として機能し、コンテンツの少なくとも一部の表示部分を表示する。そして、ユーザーがタッチパネル165に指を触れて指示すれば、ジェスチャー開始時点における表示部分を特定するための状態情報を一時記憶し、ジェスチャー期間中に表示部分を変化させる処理に対応する第1ジェスチャーイベントと、表示部分を変化させない第2ジェスチャーイベントとが決定される場合、第2ジェスチャーイベントに基づいて、記憶された状態情報で特定される表示部分を表示するための表示用画像を生成し、表示する。ここでの、第1ジェスチャーイベントは、ユーザーによりフリック操作、ダブルフリック操作、ピンチアウト操作、ピンチイン操作およびスワイプ操作によって決定される。また、第2ジェスチャーイベントは、ユーザーによるローテーション操作によって決定される。このため、ジェスチャー期間中に第2ジェスチャーイベントに基づく表示用画像を生成する処理が、第1ジェスチャーイベントに基づく表示用画像を生成する処理よりも優先するので、ユーザーによる1つの操作を1つの処理に対応させることができる。
As described above,
また、MFP100は、第1ジェスチャーイベントを決定する場合はコンテンツ中の表示部分を変更した表示用画像を生成して表示し、第2ジェスチャーイベントを決定する場合は表示部分の方向を変更した表示用画像を生成して表示する。コンテンツ中の表示部分を変更するよりも、表示部分の方向を変更することが優先されるので、ユーザーは、表示部分を変更することなく表示部分の方向を変更する操作を容易に入力することができる。
In addition, when determining the first gesture event, the
また、ジェスチャー期間中は、コンテンツ中の表示部分を変更するとともに、表示部分の方向を変更した表示用画像を表示するが、ジェスチャー期間が終了すると、表示部分の方向を変更した表示用画像を表示する。このため、ユーザーは、表示用画像を確認しながら操作を継続することができる。 In addition, during the gesture period, the display part in the content is changed and the display image in which the direction of the display part is changed is displayed. When the gesture period ends, the display image in which the direction of the display part is changed is displayed. To do. For this reason, the user can continue the operation while confirming the display image.
また、ジェスチャー期間が開始されてから第2ジェスチャーイベントが決定された後は、表示部分を変更しない。このため、第2ジェスチャーイベントが第1ジェスチャーイベントよりも優先されることをユーザーに通知することができる。 Further, after the second gesture event is determined after the gesture period is started, the display portion is not changed. Therefore, it is possible to notify the user that the second gesture event has priority over the first gesture event.
さらに、ピンチイン操作またはピンチアウト操作が受け付けられると第1ジェスチャーイベントを検出し、表示部分のサイズを変更し、スワイプ操作が受け付けられると第1ジェスチャーイベントを検出し、表示部分のコンテンツ中の位置を変更する。このため表示用画像をコンテンツ中の部分を拡大または縮小した画像、または、コンテンツ中の任意の部分の画像に変更することができる。 Further, when a pinch-in operation or a pinch-out operation is accepted, the first gesture event is detected, the size of the display part is changed, and when a swipe operation is accepted, the first gesture event is detected, and the position of the display part in the content is detected. change. Therefore, the display image can be changed to an image obtained by enlarging or reducing a portion in the content, or an image of an arbitrary portion in the content.
さらに、同時に2つの位置が検出される場合、所定時間間隔で検出される2つの位置の間の距離が変化するピンチイン操作またはピンチアウト操作、または、2つの位置それぞれの移動方向の差が所定の範囲内のダブルフリック操作が受け付けられると第1ジェスチャーイベントを決定し、同時に2つの位置が検出され、所定時間間隔で検出される2つの位置を通る直線の傾きが所定の角度変化するローテーション操作が受け付けられると第2ジェスチャーイベントを決定する。このため、ユーザーは、2本の指で複数種類の操作を入力することができる。 Furthermore, when two positions are detected at the same time, a pinch-in operation or a pinch-out operation in which the distance between the two positions detected at a predetermined time interval changes, or a difference between the movement directions of the two positions is a predetermined value. When a double flick operation within the range is accepted, a first gesture event is determined, two positions are detected at the same time, and a rotation operation in which the slope of a straight line passing through the two positions detected at predetermined time intervals changes by a predetermined angle is performed. If accepted, the second gesture event is determined. For this reason, the user can input a plurality of types of operations with two fingers.
また、スワイプ操作に対応するジェスチャーイベントが決定される場合、ページを切り換え、フリック操作またはダブルフリック操作に対応するジェスチャーイベントが決定される場合、ページ内で表示部分を変更し、フリック操作またはダブルフリック操作に対応するジェスチャーイベントが決定される場合において、ページ内で表示部分を変更できない場合、ページを切り換える。このため、ページ内で表示部分を変更できない場合に、ユーザーが、フリック操作またはダブルフリック操作を入力する場合にページを切り換えるので、ユーザーは、改めてスワイプ操作を入力し直す必要がない。その結果、ユーザーによる操作を簡略にすることができる。 In addition, when a gesture event corresponding to a swipe operation is determined, the page is switched. When a gesture event corresponding to a flick operation or a double flick operation is determined, a display portion is changed in the page, and a flick operation or a double flick is performed. When the gesture event corresponding to the operation is determined, the page is switched when the display portion cannot be changed in the page. For this reason, when the display part cannot be changed in the page, the user switches the page when inputting the flick operation or the double flick operation, and therefore the user does not need to input the swipe operation again. As a result, the operation by the user can be simplified.
また、ジェスチャー開始時点において表示対象となるページ内で表示部分の変更が可能であっても、ジェスチャー終了時点までに表示部分の変更ができない期間が存在する場合、ジェスチャー終了時点で、ページを切り換える。このため、ジェスチャー期間終了時に、別のページの表示部分の表示用画像を表示することができる。 Further, even if the display part can be changed within the page to be displayed at the start of the gesture, if there is a period during which the display part cannot be changed by the end of the gesture, the page is switched at the end of the gesture. For this reason, the display image of the display part of another page can be displayed at the end of the gesture period.
また、ジェスチャー期間において、フリック操作またはダブルフリック操作に対応するジェスチャーイベントが決定されるごとに、表示対象となるページ内で表示部分を変更できなくなるまで表示部分を変更する。このため、ジェスチャー期間においては、表示対象となるページ内で表示部分を変更して表示用画像を表示することができ、ユーザーが入力する1回の操作で、表示対象となるページ内で表示部分を変更した表示用画像と、ページを切り換えた後の表示部分の表示用画像とを表示することができる。 In addition, every time a gesture event corresponding to a flick operation or a double flick operation is determined in the gesture period, the display portion is changed until the display portion cannot be changed in the display target page. For this reason, in the gesture period, the display portion can be changed in the display target page and the display image can be displayed, and the display portion can be displayed in the display target page by one operation input by the user. And the display image of the display portion after the page is switched can be displayed.
なお、上述した実施の形態においては、データ処理装置の一例としてMFP100について説明したが、図8〜図12に示した処理を、MFP100を制御するCPU111に実行させるコンテンツ表示方法、また、そのコンテンツ表示方法をCPU111に実行させるためのコンテンツ表示プログラムとして、発明を捉えることができるのは言うまでもない。
In the above-described embodiment,
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
100 MFP、51 コンテンツ表示部、53 調停部、55 操作変換部、57 オペレーティング部、61 コンテンツ取得部、63 ジェスチャー期間検出部、65 表示用画像生成部、67 表示制御部、71 表示対象変更部、73 表示方向変更部、75 状態記憶部、77 優先表示部、81 変倍部、83 ページ切換部、85 スクロール部、86 特定状態ページ切換部、91 関連付部、93 ジェスチャーイベント決定部、95 マウスイベント生成部、97 表示部制御部、99 マスターテーブル、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD、116 ファクシミリ部、117 外部記憶装置、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、160 操作パネル、161 表示部、163 操作部、165 タッチパネル、167 ハードキー部。
DESCRIPTION OF
Claims (9)
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、
制御手段と、を備え、
前記制御手段は、コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を前記表示手段に表示するコンテンツ表示手段と、
前記位置検出手段により1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定手段と、を含み、
前記コンテンツ表示手段は、前記ジェスチャーイベント決定手段により決定された少なくとも1つのジェスチャーイベントに基づいて前記表示部分を表示するための表示用画像を生成する表示用画像生成手段と、
前記生成された表示用画像を前記表示手段に表示する表示制御手段と、を含み、
前記表示用画像生成手段は、前記ジェスチャーイベント決定手段により第1ジェスチャーイベントが決定される場合、前記表示対象となるページを別のページに変更するページ切換手段と、
前記ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定される場合、前記表示対象となるページ内で表示部分を変更するスクロール手段と、
前記ジェスチャーイベント決定手段により第2ジェスチャーイベントが決定される場合において、前記スクロール手段による表示部分の変更ができない場合、前記表示対象となるページを別のページに変更する特定状態ページ切換手段と、を含む、データ処理装置。 Display means capable of displaying images;
Position detection means capable of detecting one or more positions designated by a user on the display surface of the display means;
Control means,
The control means includes content display means for displaying an image of at least a part of a display portion of one page to be displayed among a plurality of pages included in the content on the display means,
Gesture event determining means for determining at least one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means;
The content display means includes a display image generation means for generating a display image for displaying the display portion based on at least one gesture event determined by the gesture event determination means;
Display control means for displaying the generated display image on the display means,
The display image generating means, when a first gesture event is determined by the gesture event determining means, a page switching means for changing the display target page to another page;
When a second gesture event is determined by the gesture event determining means, scroll means for changing a display part in the display target page;
In the case where the second gesture event is determined by the gesture event determining means, if the display portion cannot be changed by the scroll means, the specific state page switching means for changing the display target page to another page, Including data processing apparatus.
前記位置検出手段により検出される1つの位置が移動する速度がしきい値以上の場合に第2ジェスチャーイベントを決定するスワイプ決定手段と、を含む、請求項1〜3のいずれかに記載のデータ処理装置。 The gesture event determining means is a flick determining means for determining a first gesture event when a moving speed of one position detected by the position detecting means is smaller than a threshold value;
4. The data according to claim 1, further comprising: a swipe determining unit that determines a second gesture event when a moving speed of one position detected by the position detecting unit is equal to or higher than a threshold value. Processing equipment.
前記データ処理装置は、画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、を備え、
コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を前記表示手段に表示するコンテンツ表示ステップと、
前記位置検出手段により1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定ステップと、を前記データ処理装置に実行させ、
前記コンテンツ表示ステップは、前記ジェスチャーイベント決定ステップにおいて決定された少なくとも1つのジェスチャーイベントに基づいて前記表示部分を表示するための表示用画像を生成する表示用画像生成ステップと、
前記生成された表示用画像を前記表示手段に表示する表示制御ステップと、を含み、
前記表示用画像生成ステップは、前記ジェスチャーイベント決定ステップにおいて第1ジェスチャーイベントが決定される場合、前記表示対象となるページを別のページに変更するページ切換ステップと、
前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合、前記表示対象となるページ内で表示部分を変更するスクロールステップと、
前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合において、前記スクロールステップにおいて表示部分の変更ができない場合、前記表示対象となるページを別のページに変更する特定状態ページ切換ステップと、を含む、コンテンツ表示方法。 A content display method executed by a data processing device,
The data processing device includes display means capable of displaying an image;
Position detection means capable of detecting one or more positions indicated by a user in the display surface of the display means,
A content display step of displaying, on the display means, an image of at least a part of a display portion of one page to be displayed among a plurality of pages included in the content;
A gesture event determining step for determining at least one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means; Let it run
The content display step includes: a display image generation step for generating a display image for displaying the display portion based on at least one gesture event determined in the gesture event determination step;
A display control step of displaying the generated display image on the display means,
The display image generation step includes a page switching step for changing the display target page to another page when the first gesture event is determined in the gesture event determination step;
When a second gesture event is determined in the gesture event determining step, a scrolling step of changing a display part in the display target page;
In the case where the second gesture event is determined in the gesture event determining step, if the display part cannot be changed in the scrolling step, the specific state page switching step for changing the display target page to another page, Including content display method.
前記位置検出手段により検出される1つの位置が移動する速度がしきい値以上の場合に第2ジェスチャーイベントを決定するスワイプ決定ステップと、を含む、請求項5〜7のいずれかに記載のコンテンツ表示方法。 The gesture event determining step includes a flick determining step of determining a first gesture event when a moving speed of one position detected by the position detecting unit is smaller than a threshold value;
The content according to any one of claims 5 to 7, further comprising: a swipe determining step of determining a second gesture event when a moving speed of one position detected by the position detecting means is equal to or higher than a threshold value. Display method.
前記データ処理装置は、画像を表示可能な表示手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、を備え、
コンテンツに含まれる複数ページのうち表示対象となる1つのページの少なくとも一部の表示部分の画像を前記表示手段に表示するコンテンツ表示ステップと、
前記位置検出手段により1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントの少なくとも1つを決定するジェスチャーイベント決定ステップと、を前記コンピューターに実行させ、
前記コンテンツ表示ステップは、前記ジェスチャーイベント決定ステップにおいて決定された少なくとも1つのジェスチャーイベントに基づいて前記表示部分を表示するための表示用画像を生成する表示用画像生成ステップと、
前記生成された表示用画像を前記表示手段に表示する表示制御ステップと、を含み、
前記表示用画像生成ステップは、前記ジェスチャーイベント決定ステップにおいて第1ジェスチャーイベントが決定される場合、前記表示対象となるページを別のページに変更するページ切換ステップと、
前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合、前記表示対象となるページ内で表示部分を変更するスクロールステップと、
前記ジェスチャーイベント決定ステップにおいて第2ジェスチャーイベントが決定される場合において、前記スクロールステップにおいて表示部分の変更ができない場合、前記表示対象となるページを別のページに変更する特定状態ページ切換ステップと、を含む、コンテンツ表示プログラム。 A content display program executed by a computer that controls the data processing device,
The data processing device includes display means capable of displaying an image;
Position detection means capable of detecting one or more positions indicated by a user in the display surface of the display means,
A content display step of displaying on the display means an image of at least a part of a display portion of one page to be displayed among a plurality of pages included in the content;
Causing the computer to execute a gesture event determining step of determining at least one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means. ,
The content display step includes: a display image generation step for generating a display image for displaying the display portion based on at least one gesture event determined in the gesture event determination step;
A display control step of displaying the generated display image on the display means,
The display image generation step includes a page switching step for changing the display target page to another page when the first gesture event is determined in the gesture event determination step;
When a second gesture event is determined in the gesture event determining step, a scrolling step of changing a display part in the display target page;
In the case where the second gesture event is determined in the gesture event determining step, if the display part cannot be changed in the scrolling step, the specific state page switching step for changing the display target page to another page, Including content display program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013031447A JP6102325B2 (en) | 2013-02-20 | 2013-02-20 | Data processing apparatus, content display method, and content display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013031447A JP6102325B2 (en) | 2013-02-20 | 2013-02-20 | Data processing apparatus, content display method, and content display program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014160426A true JP2014160426A (en) | 2014-09-04 |
JP6102325B2 JP6102325B2 (en) | 2017-03-29 |
Family
ID=51612061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013031447A Active JP6102325B2 (en) | 2013-02-20 | 2013-02-20 | Data processing apparatus, content display method, and content display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6102325B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016225669A (en) * | 2015-05-27 | 2016-12-28 | 京セラドキュメントソリューションズ株式会社 | Image formation device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000035842A (en) * | 1998-07-17 | 2000-02-02 | Nikon Corp | Operation deciding device based on prescribed image operation |
JP2005352849A (en) * | 2004-06-11 | 2005-12-22 | Fuji Xerox Co Ltd | Program and method for screen display control, and portable information device |
JP2009294726A (en) * | 2008-06-02 | 2009-12-17 | Sharp Corp | Information terminal device |
JP2011053971A (en) * | 2009-09-02 | 2011-03-17 | Sony Corp | Apparatus, method and program for processing information |
JP2011170603A (en) * | 2010-02-18 | 2011-09-01 | Fujitsu Toshiba Mobile Communications Ltd | Portable terminal |
WO2012030155A2 (en) * | 2010-09-02 | 2012-03-08 | Samsung Electronics Co., Ltd. | Item display method and apparatus |
JP2012173842A (en) * | 2011-02-18 | 2012-09-10 | Nec Casio Mobile Communications Ltd | Input device, input control method, and program |
-
2013
- 2013-02-20 JP JP2013031447A patent/JP6102325B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000035842A (en) * | 1998-07-17 | 2000-02-02 | Nikon Corp | Operation deciding device based on prescribed image operation |
JP2005352849A (en) * | 2004-06-11 | 2005-12-22 | Fuji Xerox Co Ltd | Program and method for screen display control, and portable information device |
JP2009294726A (en) * | 2008-06-02 | 2009-12-17 | Sharp Corp | Information terminal device |
JP2011053971A (en) * | 2009-09-02 | 2011-03-17 | Sony Corp | Apparatus, method and program for processing information |
JP2011170603A (en) * | 2010-02-18 | 2011-09-01 | Fujitsu Toshiba Mobile Communications Ltd | Portable terminal |
WO2012030155A2 (en) * | 2010-09-02 | 2012-03-08 | Samsung Electronics Co., Ltd. | Item display method and apparatus |
JP2012173842A (en) * | 2011-02-18 | 2012-09-10 | Nec Casio Mobile Communications Ltd | Input device, input control method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016225669A (en) * | 2015-05-27 | 2016-12-28 | 京セラドキュメントソリューションズ株式会社 | Image formation device |
Also Published As
Publication number | Publication date |
---|---|
JP6102325B2 (en) | 2017-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5772773B2 (en) | Image processing apparatus, operation standardization method, and operation standardization program | |
JP7342208B2 (en) | Image processing device, control method and program for the image processing device | |
JP5796562B2 (en) | Data processing apparatus, setting method, and setting program | |
JP2010250510A (en) | Display control device, display control method and computer program | |
JP5825277B2 (en) | Data processing apparatus, content display method, and content display program | |
JP6191567B2 (en) | Operation screen display device, image forming apparatus, and display program | |
US9785333B2 (en) | Display device, image processing apparatus, non-transitory computer readable medium, and display control method | |
JP6131072B2 (en) | Display control device | |
US9100519B2 (en) | Data processing apparatus, content displaying method, and non-transitory computer-readable recording medium encoded with browsing program | |
JP5862549B2 (en) | Data processing apparatus, operation reception method, and browsing program | |
JP5958059B2 (en) | Flick operation accepting device, flick operation accepting method, and flick operation accepting program | |
JP6102325B2 (en) | Data processing apparatus, content display method, and content display program | |
JP6043423B2 (en) | Terminal device and object selection method | |
JP2014106807A (en) | Data processing apparatus, operation reception method, and browsing program | |
JP6225625B2 (en) | Image display device, image display method, and image display program | |
JP6552156B2 (en) | Data processing apparatus, operation accepting method, and content display program | |
JP6102593B2 (en) | Image forming apparatus, application program generation method, and application program generation program | |
JP2015215924A (en) | Data processor, setting method and setting program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6102325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |