JP2015170228A - Data processor, operation reception method, and content display program - Google Patents

Data processor, operation reception method, and content display program Download PDF

Info

Publication number
JP2015170228A
JP2015170228A JP2014045773A JP2014045773A JP2015170228A JP 2015170228 A JP2015170228 A JP 2015170228A JP 2014045773 A JP2014045773 A JP 2014045773A JP 2014045773 A JP2014045773 A JP 2014045773A JP 2015170228 A JP2015170228 A JP 2015170228A
Authority
JP
Japan
Prior art keywords
display
gesture
determined
unit
gesture event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014045773A
Other languages
Japanese (ja)
Other versions
JP6552156B2 (en
Inventor
伊藤 歩
Ayumi Ito
歩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014045773A priority Critical patent/JP6552156B2/en
Publication of JP2015170228A publication Critical patent/JP2015170228A/en
Application granted granted Critical
Publication of JP6552156B2 publication Critical patent/JP6552156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To diversify a multi-touch operation.SOLUTION: A data processor includes: a gesture event determination section for determining any one of a plurality of gesture events on the basis of one or more positions detected by a touch panel; and a display section determination section 72 for changing a display section on the basis of the gesture event determined during a gesture period in which the gesture events are continuously determined. The display section determination section 72 includes: a scale determination section 13 for determining a scale showing a degree to change the display section on the basis of the interval of two positions detected by the touch panel when a prescribed gesture event determined on the basis of the two positions is detected; and a conversion section 11 for converting the display section corresponding to an image for display displayed on a display at a point of time at which the gesture period is started by the determined scale.

Description

この発明はデータ処理装置、操作受付方法およびコンテンツ表示プログラムに関し、特に、マルチタッチ対応のタッチパネルを備えたデータ処理装置、そのデータ処理装置で実行される操作受付方法およびコンテンツ表示プログラムに関する。   The present invention relates to a data processing device, an operation reception method, and a content display program, and more particularly to a data processing device including a multi-touch touch panel, an operation reception method and a content display program executed by the data processing device.

近年、複合機(MFP)で代表されるデータ処理装置において、ユーザーインターフェースとして、ユーザーが同時に指示する複数の位置を検出可能なマルチタッチ対応のタッチパネルを備えた装置がある。例えば、携帯情報装置ではあるが、特開2000−163031号公報には、地図画像を表示可能な表示部を含む電子ブックであって、表示部に接触させた2本の指を遠ざける動作により地図画像の拡大指示及び拡大量を入力でき、2本の指を近づける動作により地図画像の縮小指示及び縮小量を入力できる電子ブックが記載されている。   In recent years, in a data processing apparatus represented by a multifunction peripheral (MFP), as a user interface, there is an apparatus provided with a multi-touch compatible touch panel capable of detecting a plurality of positions designated by a user at the same time. For example, although it is a portable information device, Japanese Patent Application Laid-Open No. 2000-163031 discloses an electronic book including a display unit capable of displaying a map image, and the map is moved by moving two fingers in contact with the display unit. An electronic book is described in which an image enlargement instruction and an enlargement amount can be input, and a map image reduction instruction and a reduction amount can be input by moving two fingers close together.

2本の指の間隔の最小値と最大値は定まっているため2本の指を移動させる距離には限界がある。このため、従来の携帯情報機器では、ユーザーが所望のサイズに地図画像を拡大または縮小するまでに同一の操作を複数回しなければならない場合がある。例えば、2本の指を移動させる距離に対して拡大量または縮小量が小さい場合には、同一の操作を複数回繰り返さなければならず、逆に、2本の指を移動させる距離に対して拡大量または縮小量が大きい場合には、拡大量または縮小量を微調整するために2本を指を移動させる距離を所望のサイズとなるように調整する操作が困難になるといった問題がある。
特開2000−163031号公報
Since the minimum value and the maximum value of the distance between the two fingers are fixed, there is a limit to the distance to move the two fingers. For this reason, in the conventional portable information device, the user may have to perform the same operation a plurality of times before the map image is enlarged or reduced to a desired size. For example, when the amount of enlargement or reduction is small relative to the distance to move two fingers, the same operation must be repeated several times, and conversely to the distance to move two fingers. When the enlargement amount or the reduction amount is large, there is a problem that it becomes difficult to adjust the distance to move the two fingers to a desired size in order to finely adjust the enlargement amount or reduction amount.
JP 2000-163031 A

この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、マルチタッチ操作を多様化したデータ処理装置を提供することである。   The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to provide a data processing apparatus in which multi-touch operations are diversified.

この発明の他の目的は、マルチタッチ操作を多様化した操作受付方法を提供することである。   Another object of the present invention is to provide an operation receiving method in which multi-touch operations are diversified.

この発明のさらに他の目的は、マルチタッチ操作を多様化した操作受付プログラムを提供することである。   Still another object of the present invention is to provide an operation reception program in which multi-touch operations are diversified.

上述した目的を達成するためにこの発明のある局面によれば、データ処理装置は、画像を表示可能な表示手段と、コンテンツの少なくとも一部である表示部分に対応する表示用画像を表示手段に表示する表示制御手段と、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、位置検出手段により1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、ジェスチャーイベント決定手段によってジェスチャーイベントが連続して決定されるジェスチャー期間の間に決定されるジェスチャーイベントに基づいて、表示部分を変更する表示部分決定手段と、を備え、表示部分決定手段は、ジェスチャーイベント決定手段により決定されるジェスチャーイベントが、位置検出手段により検出される2つの位置に基づいて決定される所定のジェスチャーイベントの場合、2つの位置の間隔に基づいて表示部分を変更する度合いを示すスケールを決定するスケール決定手段と、ジェスチャー期間が開始した時点に表示手段に表示されている表示用画像に対応する表示部分を、決定されたスケールで変換する変換手段と、を含む。   In order to achieve the above-described object, according to one aspect of the present invention, a data processing apparatus uses a display unit capable of displaying an image and a display image corresponding to a display part which is at least a part of the content as the display unit. In response to the display control means for displaying, the position detection means capable of detecting one or more positions indicated by the user on the display surface of the display means, and the one or more positions detected by the position detection means, Gesture event determination means for determining any one of a plurality of gesture events based on one or more positions, and a gesture event determined during a gesture period in which gesture events are continuously determined by the gesture event determination means Display portion determining means for changing the display portion based on the In the case where the gesture event determined by the event determination unit is a predetermined gesture event determined based on the two positions detected by the position detection unit, the degree of change of the display portion based on the interval between the two positions is indicated. Scale determining means for determining a scale, and conversion means for converting a display portion corresponding to the display image displayed on the display means at the time when the gesture period starts, with the determined scale.

この局面に従えば、コンテンツの表示部分に対応する表示用画像が表示され、ユーザーにより指示される1以上の位置が検出されることに応じて、ジェスチャーイベントが決定され、2つの位置に基づいて決定される所定のジェスチャーイベントが決定される場合、2つの位置の間隔に基づいて表示部分を変更する度合いを示すスケールが決定され、表示用画像に対応する表示部分が決定されたスケールで変換される。このため、指示する2つの位置の間隔を異ならせることによって、コンテンツ中で表示する部分を変更することができる。その結果、マルチタッチ操作を多様化したデータ処理装置を提供することができる。   According to this aspect, a display image corresponding to the display portion of the content is displayed, and a gesture event is determined in response to detection of one or more positions indicated by the user, based on the two positions. When a predetermined gesture event to be determined is determined, a scale indicating a degree of changing the display portion is determined based on an interval between two positions, and the display portion corresponding to the display image is converted with the determined scale. The For this reason, the part displayed in content can be changed by changing the space | interval of two positions to instruct | indicate. As a result, it is possible to provide a data processing device in which multi-touch operations are diversified.

好ましくは、スケール決定手段は、2つの位置の間隔が大きいほど大きなスケールに決定する。   Preferably, the scale determining means determines a larger scale as the interval between the two positions is larger.

この局面に従えば、指示する2つの位置の間隔が広いほど、表示部分の変化の割合が大きくなる。このため、操作回数が少なくなる場合がある。   According to this aspect, the wider the interval between the two indicated positions, the greater the rate of change in the display portion. For this reason, the number of operations may be reduced.

好ましくは、スケール決定手段は、2つの位置の間隔が大きいほど小さなスケールに決定する。   Preferably, the scale determining means determines a smaller scale as the interval between the two positions is larger.

この局面に従えば、指示する2つの位置の間隔が広いほど、表示部分の変化の割合が小さくなる。このため、ユーザーは微調整が容易となる。   According to this aspect, the wider the interval between the two indicated positions, the smaller the rate of change in the display portion. For this reason, the user can easily make fine adjustments.

好ましくは、スケール決定手段は、ジェスチャーイベント決定手段により決定されるジェスチャーイベントの種類ごとに異なるスケールを決定する。   Preferably, the scale determining unit determines a different scale for each type of gesture event determined by the gesture event determining unit.

この局面に従えば、ジェスチャーイベントの種類ごとに異なるスケールを決定するので、ジェスチャーイベントごとに、表示部分の変化の種類を異ならせることができる。   According to this aspect, since a different scale is determined for each type of gesture event, the type of change in the display portion can be made different for each gesture event.

好ましくは、スケール決定手段は、ジェスチャーイベント決定手段により2つの位置の間隔の時間的な変化に基づいてジェスチャーイベントが決定される場合、2つの位置の間隔が変化可能な残余距離が大きいほど大きなスケールに決定する。   Preferably, when the gesture event determining unit determines the gesture event based on the temporal change in the interval between the two positions, the scale determining unit has a larger scale as the remaining distance that can change the interval between the two positions is larger. To decide.

この局面に従えば、指示する2つの位置の間隔を変化させる操作に対して、表示部分を変化させる割合を、指示する位置の間隔に応じて異ならせることができる。   According to this aspect, the ratio of changing the display portion can be changed according to the interval between the designated positions with respect to the operation for changing the interval between the two designated positions.

好ましくは、スケール決定手段は、ジェスチャーイベント決定手段により2つの位置の相対的な方向の時間的な変化に基づいてジェスチャーイベントが決定される場合、2つの位置の間隔が大きいほど大きなスケールに決定する。   Preferably, when the gesture event is determined based on a temporal change in the relative direction of the two positions by the gesture event determining unit, the scale determining unit determines a larger scale as the interval between the two positions is larger. .

この局面に従えば、指示する2つの位置の相対的な方向を変化させる操作に対して、表示部分を変化させる割合を、指示する位置の間隔に応じて異ならせることができる。   According to this aspect, it is possible to vary the ratio of changing the display portion according to the interval between the designated positions with respect to the operation of changing the relative direction between the two designated positions.

好ましくは、スケール決定手段は、ジェスチャーイベント決定手段により2つの位置の相対的な方向の時間的な変化に基づいてジェスチャーイベントが決定される場合、2つの位置の間隔が大きいほど小さなスケールに決定する。   Preferably, when the gesture event determination unit determines the gesture event based on a temporal change in the relative direction of the two positions, the scale determination unit determines the smaller scale as the interval between the two positions is larger. .

この局面に従えば、指示する2つの位置の相対的な方向を変化させる操作に対して、表示部分を変化させる割合を、指示する位置の間隔に応じて異ならせることができる。   According to this aspect, it is possible to vary the ratio of changing the display portion according to the interval between the designated positions with respect to the operation of changing the relative direction between the two designated positions.

好ましくは、表示部分決定手段は、ジェスチャー期間が終了した時点で、表示用画像が表の画像を含む場合、表示部分を、コンテンツの画像のうち線で囲まれた領域のうち表示部分と最もサイズが近似する領域に補正する補正手段を、さらに含む。   Preferably, when the display period includes the front image at the end of the gesture period, the display part determining unit determines that the display part is the largest size of the display part in the area surrounded by the line in the content image. Further included is a correcting means for correcting to an area approximated by.

この局面に従えば、表示部分が、コンテンツの画像のうち線で挟まれば領域のうち表示部分と最もサイズが近似する領域に補正される。このため、線と線とで囲まれた部分の全てを表示部分に含めることができる。例えば、線と線とで挟まれた領域に文字が存在する場合は、文字の全部を表示することができる。   According to this aspect, if the display portion is sandwiched between lines in the content image, the region is corrected to a region that is closest in size to the display portion. For this reason, all of the portions surrounded by the lines can be included in the display portion. For example, when a character is present in a region sandwiched between lines, the entire character can be displayed.

好ましくは、ジェスチャーイベント決定手段は、ジェスチャー期間の間は所定時間間隔でジェスチャーイベントを決定し、表示部分決定手段は、ジェスチャーイベント決定手段により所定のジェスチャーイベントが決定される場合、位置検出手段により検出される2つの位置の間隔に基づいて、表示部分を決定するタイミングを所定時間間隔より長い時間間隔に決定するタイミング決定手段を、さらに含む。   Preferably, the gesture event determining means determines a gesture event at a predetermined time interval during the gesture period, and the display portion determining means is detected by the position detecting means when the predetermined gesture event is determined by the gesture event determining means. Timing determining means for determining a timing for determining the display portion at a time interval longer than the predetermined time interval based on the interval between the two positions to be further included.

この局面に従えば、2つの位置の間隔に基づいて、表示部分を決定するタイミングが、ジェスチャーイベントが決定される所定時間間隔より長い時間間隔に決定される。このため、表示用画像を生成する回数が減少するので、処理の負荷を低減して表示用画像を表示するレスポンスタイムを短くすることができる。   According to this aspect, based on the interval between the two positions, the timing for determining the display portion is determined as a time interval longer than a predetermined time interval at which the gesture event is determined. For this reason, since the frequency | count of producing | generating the display image reduces, the response time which reduces the processing load and displays the display image can be shortened.

好ましくは、ジェスチャー期間が開始した時点に表示手段に表示されている表示用画像に対応する表示部分を含むキャプチャー部分を決定するキャプチャー部分決定手段と、キャプチャー部分が決定されることに応じて、コンテンツに基づいて、決定されたキャプチャー部分に対応するキャプチャー画像を生成するキャプチャー画像生成手段と、生成されたキャプチャー画像を一時記憶する一時記憶制御手段と、をさらに備え、表示部分決定手段は、スケールとしてキャプチャー部分のサイズの度合いを示すキャプチャー率を決定するキャプチャー率決定手段を含み、キャプチャー部分決定手段は、決定されたキャプチャー率で定まるサイズのキャプチャー部分を決定し、表示用画像生成手段は、一時記憶されたキャプチャー画像に基づいて表示部分決定手段により決定された新たな表示部分に対応する表示用画像を生成する。   Preferably, the capture portion determining means for determining the capture portion including the display portion corresponding to the display image displayed on the display means at the time when the gesture period starts, and the content according to the determination of the capture portion And a temporary storage control means for temporarily storing the generated captured image, wherein the display part determining means is used as a scale. A capture rate determining means for determining a capture rate indicating a degree of the size of the capture portion; the capture portion determining means determines a capture portion having a size determined by the determined capture rate; and the display image generating means is temporarily stored. Based on captured images It generates a display image corresponding to the new display area determined by radical 113 determining means.

この局面に従えば、2つの位置の間隔に基づいて、キャプチャー画像のサイズの度合い示すキャプチャー率を決定するので、2つの位置の間隔に基づいて表示部分のサイズを変更する度合いを変更する場合にキャプチャー画像のサイズを表示部分のサイズの変更の度合いに伴って変更することができる。換言すれば、キャプチャー画像のサイズが表示部分のサイズよりも小さくなるのを防止するとともに、キャプチャー画像のサイズが表示部分に対して大きくなりすぎないようにすることができる。その結果、キャプチャー画像のサイズを適切なサイズにすることができる。   According to this aspect, since the capture rate indicating the degree of the size of the captured image is determined based on the interval between the two positions, the degree of changing the size of the display portion is changed based on the interval between the two positions. The size of the captured image can be changed according to the degree of change in the size of the display portion. In other words, the size of the captured image can be prevented from becoming smaller than the size of the display portion, and the size of the captured image can be prevented from becoming too large relative to the display portion. As a result, the size of the captured image can be set to an appropriate size.

この発明の他の局面に従えば、操作受付方法は、画像を表示可能な表示手段を備えたデータ処理装置で実行される操作受付方法であって、コンテンツの少なくとも一部である表示部分に対応する表示用画像を表示手段に表示する表示制御ステップと、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出ステップと、位置検出ステップにおいて1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定ステップと、ジェスチャーイベント決定ステップにおいてジェスチャーイベントが連続して決定されるジェスチャー期間の間に決定されるジェスチャーイベントに基づいて、表示部分を変更する表示部分決定ステップと、を含み、表示部分決定ステップは、ジェスチャーイベント決定ステップにおいて決定されるジェスチャーイベントが、位置検出ステップにおいて検出される2つの位置に基づいて決定される所定のジェスチャーイベントの場合、2つの位置の間隔に基づいて表示部分を変更する度合いを示すスケールを決定するスケール決定ステップと、ジェスチャー期間が開始した時点に表示手段に表示されている表示用画像に対応する表示部分を、決定されたスケールで変換する変換ステップと、を含む。   According to another aspect of the present invention, an operation reception method is an operation reception method executed by a data processing apparatus including a display unit capable of displaying an image, and corresponds to a display portion that is at least a part of content. A display control step for displaying an image for display on the display means, a position detection step for detecting one or more positions indicated by the user on the display surface of the display means, and at least one position in the position detection step. A gesture event determining step for determining any one of a plurality of gesture events based on one or more positions in response to detection, and a gesture period in which gesture events are continuously determined in the gesture event determining step The display part determination step for changing the display part based on the gesture event determined during And the display part determining step includes two positions when the gesture event determined in the gesture event determining step is a predetermined gesture event determined based on the two positions detected in the position detecting step. A scale determination step for determining a scale indicating a degree of changing the display portion based on the interval, and a display portion corresponding to the display image displayed on the display means at the time when the gesture period starts with the determined scale. A conversion step for converting.

この局面に従えば、マルチタッチ操作を多様化した操作受付方法を提供することができる。   If this aspect is followed, the operation reception method which diversified multi-touch operation can be provided.

この発明の他の局面に従えば、操作受付プログラムは、画像を表示可能な表示手段を備えたデータ処理装置を制御するコンピューターで実行される操作受付プログラムであって、コンテンツの少なくとも一部である表示部分に対応する表示用画像を表示手段に表示する表示制御ステップと、表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出ステップと、位置検出ステップにおいて1以上の位置が検出されることに応じて、1以上の位置に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定ステップと、ジェスチャーイベント決定ステップにおいてジェスチャーイベントが連続して決定されるジェスチャー期間の間に決定されるジェスチャーイベントに基づいて、表示部分を変更する表示部分決定ステップと、をコンピューターに実行させ、表示部分決定ステップは、ジェスチャーイベント決定ステップにおいて決定されるジェスチャーイベントが、位置検出ステップにおいて検出される2つの位置に基づいて決定される所定のジェスチャーイベントの場合、2つの位置の間隔に基づいて表示部分を変更する度合いを示すスケールを決定するスケール決定ステップと、ジェスチャー期間が開始した時点に表示手段に表示されている表示用画像に対応する表示部分を、決定されたスケールで変換する変換ステップと、を含む。   According to another aspect of the present invention, the operation reception program is an operation reception program that is executed by a computer that controls a data processing device including display means capable of displaying an image, and is at least a part of the content. In the display control step of displaying the display image corresponding to the display portion on the display means, the position detection step capable of detecting one or more positions designated by the user on the display surface of the display means, and 1 in the position detection step In response to detection of the above positions, a gesture event determining step for determining any one of a plurality of gesture events based on one or more positions, and gesture events are continuously determined in the gesture event determining step. Based on gesture events determined during the gesture period to be A display portion determination step for changing the display portion; and causing the computer to execute a display portion determination step, wherein the gesture event determined in the gesture event determination step is determined based on the two positions detected in the position detection step. In the case of a predetermined gesture event, a scale determining step for determining a scale indicating a degree of changing the display portion based on an interval between two positions, and a display image displayed on the display means when the gesture period starts Converting a display portion corresponding to で at a determined scale.

この局面に従えば、マルチタッチ操作を多様化した操作受付プログラムを提供することができる。   If this aspect is followed, the operation reception program which diversified multi-touch operation can be provided.

本実施の形態の一つにおけるMFPの外観を示す斜視図である。1 is a perspective view showing an appearance of an MFP in one embodiment of the present invention. 、操作パネルの一例を示す平面図である。It is a top view which shows an example of an operation panel. MFPのハードウェア構成の概要の一例を示すブロック図である。2 is a block diagram illustrating an example of an outline of a hardware configuration of an MFP. FIG. MFPが備えるCPUのソフトウェアアーキテクチャの一例を示す図である。2 is a diagram illustrating an example of a software architecture of a CPU provided in an MFP. FIG. MFPが備えるCPUが有する機能の一例を、HDDに記憶される情報とともに示すブロック図である。3 is a block diagram illustrating an example of functions of a CPU included in an MFP together with information stored in an HDD. FIG. マスターテーブルの一例を示す図である。It is a figure which shows an example of a master table. 表示部分決定部の詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of a display part determination part. コンテンツの一例を示す第1の図である。It is a 1st figure which shows an example of a content. 表示用画像の一例を示す第1の図である。It is a 1st figure which shows an example of the image for a display. コンテンツの一例を示す第2の図である。It is a 2nd figure which shows an example of a content. 表示用画像の一例を示す第2の図である。It is a 2nd figure which shows an example of the image for a display. ジェスチャーイベント決定処理の流れの一例を示す第1のフローチャートである。It is a 1st flowchart which shows an example of the flow of a gesture event determination process. ジェスチャーイベント決定処理の流れの一例を示す第2のフローチャートである。It is a 2nd flowchart which shows an example of the flow of a gesture event determination process. コンテンツ表示処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a content display process. マルチタッチ対応処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a multi-touch corresponding | compatible process. 回転処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a rotation process. 変倍処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a scaling process. 移動処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a movement process.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本実施の形態の一つにおけるMFPの外観を示す斜視図である。図2は、操作パネルの一例を示す平面図である。図1および図2を参照して、MFP100は、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、ユーザーインターフェースとしての操作パネル160とを含む。   FIG. 1 is a perspective view showing an external appearance of an MFP according to one embodiment. FIG. 2 is a plan view showing an example of the operation panel. Referring to FIGS. 1 and 2, MFP 100 includes a document reading unit 130 for reading a document, an automatic document feeder 120 for conveying a document to document reading unit 130, and document reading unit 130 reads a document. An image forming unit 140 for forming an image on a sheet or the like based on image data to be output, a sheet feeding unit 150 for supplying the sheet to the image forming unit 140, and an operation panel 160 as a user interface. .

操作パネル160は、MFP100の上面に設けられる。操作パネル160は、表示部161と、タッチパネル165と、ハードキー部167とを含む。表示部161は、例えば、液晶表示装置(LCD)であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。ハードキー部167は、「BOX」、「FAX」、「COPY」、「ECO」の文字がそれぞれ表された4つのハードキー167A〜167Dを含む。タッチパネル165は、表示部161の上面または下面に表示部161に重畳して設けられたマルチタッチ対応のタッチパネルであり、表示部161の表示面中でユーザーにより指示された位置を検出する。ユーザーがタッチパネル165を指示する操作は、タッチパネル165を、同時に複数個所を指で指示するマルチタッチ操作と、一度に1つの個所を指で指示するシングルタッチ操作と、を含む。   Operation panel 160 is provided on the upper surface of MFP 100. Operation panel 160 includes a display unit 161, a touch panel 165, and a hard key unit 167. The display unit 161 is, for example, a liquid crystal display device (LCD), and displays an instruction menu for a user, information about acquired image data, and the like. The hard key portion 167 includes four hard keys 167A to 167D each representing characters of “BOX”, “FAX”, “COPY”, and “ECO”. The touch panel 165 is a multi-touch compatible touch panel provided on the upper surface or the lower surface of the display unit 161 so as to overlap the display unit 161, and detects a position designated by the user on the display surface of the display unit 161. The operation in which the user instructs the touch panel 165 includes a multi-touch operation for instructing the touch panel 165 with a finger at the same time, and a single touch operation for instructing one place with a finger at a time.

自動原稿搬送装置120は、原稿給紙トレイ上にセットされた複数枚の原稿を1枚ずつ自動的に原稿読取部130のプラテンガラス上に設定された所定の原稿読み取り位置まで搬送し、原稿読取部130により原稿画像が読み取られた原稿を原稿排紙トレイ上に排出する。原稿読取部130は、原稿読取位置に搬送されてきた原稿に光を照射する光源と、原稿で反射した光を受光する光電変換素子とを含み、原稿のサイズに応じた原稿画像を走査する。光電変換素子は、受光した光を電気信号である画像データに変換して、画像形成部140に出力する。給紙部150は、給紙トレイに収納された用紙を画像形成部140に搬送する。   The automatic document feeder 120 automatically conveys a plurality of documents set on the document feeding tray one by one to a predetermined document reading position set on the platen glass of the document reading unit 130, and reads the document. The document whose document image is read by the unit 130 is discharged onto a document discharge tray. The document reading unit 130 includes a light source that irradiates light to the document conveyed to the document reading position and a photoelectric conversion element that receives light reflected from the document, and scans a document image corresponding to the size of the document. The photoelectric conversion element converts the received light into image data that is an electrical signal and outputs the image data to the image forming unit 140. The paper feed unit 150 conveys the paper stored in the paper feed tray to the image forming unit 140.

画像形成部140は、周知の電子写真方式により画像を形成するものであって、原稿読取部130から入力される画像データにシェーディング補正などの各種のデータ処理を施した、データ処理後の画像データまたは、外部から受信された画像データに基づいて、給紙部150により搬送される用紙に画像を形成する。   The image forming unit 140 forms an image by a well-known electrophotographic method, and the image data after data processing is obtained by performing various data processing such as shading correction on the image data input from the document reading unit 130. Alternatively, an image is formed on a sheet conveyed by the sheet feeding unit 150 based on image data received from the outside.

図3は、MFPのハードウェア構成の概要の一例を示すブロック図である。図3を参照して、MFP100は、メイン回路110を含む。メイン回路110は、CPU111と、通信インターフェース(I/F)部112と、ROM(Read Only Memory)113と、RAM(Random Access Memory)114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、外部記憶装置117と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150および操作パネル160と接続され、MFP100の全体を制御する。   FIG. 3 is a block diagram illustrating an example of an outline of the hardware configuration of the MFP. Referring to FIG. 3, MFP 100 includes a main circuit 110. The main circuit 110 includes a CPU 111, a communication interface (I / F) unit 112, a ROM (Read Only Memory) 113, a RAM (Random Access Memory) 114, and a hard disk drive (HDD) 115 as a mass storage device. A facsimile unit 116 and an external storage device 117. CPU 111 is connected to automatic document feeder 120, document reading unit 130, image forming unit 140, sheet feeding unit 150, and operation panel 160, and controls the entire MFP 100.

ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる読取画像を一時的に記憶する。   The ROM 113 stores a program executed by the CPU 111 or data necessary for executing the program. The RAM 114 is used as a work area when the CPU 111 executes a program. Further, the RAM 114 temporarily stores the read images continuously sent from the document reading unit 130.

ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTN(Public Switched Telephone Networks)にファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶するか、または、画像形成部140でプリント可能なプリントデータに変換して、画像形成部140に出力する。これにより、画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙に画像を形成する。また、ファクシミリ部116は、原稿読取部130によって読み取られたデータ、またはHDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。   The facsimile unit 116 is connected to a public switched telephone network (PSTN), and transmits facsimile data to or receives facsimile data from the PSTN (Public Switched Telephone Networks). The facsimile unit 116 stores the received facsimile data in the HDD 115 or converts the received facsimile data into print data that can be printed by the image forming unit 140 and outputs the print data to the image forming unit 140. As a result, the image forming unit 140 forms an image on a sheet of facsimile data received by the facsimile unit 116. Further, the facsimile unit 116 converts the data read by the document reading unit 130 or the data stored in the HDD 115 into facsimile data, and transmits the facsimile data to a facsimile machine connected to the PSTN.

通信I/F部112は、ネットワークにMFP100を接続するためのインターフェースである。通信I/F部112は、TCP(Transmission Control Protocol)またはFTP(File Transfer Protocol)等の通信プロトコルで、ネットワークに接続された他のコンピューターと通信する。なお、通信のためのプロトコルは、特に限定されることはなく、任意のプロトコルを用いることができる。また、通信I/F部112が接続されるネットワークは、例えば、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワークは、LANに限らず、ワイドエリアネットワーク(WAN)、公衆交換電話網を用いたネットワーク等であってもよい。さらに、ネットワークは、インターネットに接続されている。このため、MFP100は、インターネットに接続されたサーバー等のコンピューターと通信が可能である。   Communication I / F unit 112 is an interface for connecting MFP 100 to a network. The communication I / F unit 112 communicates with other computers connected to the network using a communication protocol such as TCP (Transmission Control Protocol) or FTP (File Transfer Protocol). Note that the protocol for communication is not particularly limited, and an arbitrary protocol can be used. The network to which the communication I / F unit 112 is connected is, for example, a local area network (LAN), and the connection form may be wired or wireless. The network is not limited to a LAN, and may be a wide area network (WAN), a network using a public switched telephone network, or the like. Furthermore, the network is connected to the Internet. Therefore, MFP 100 can communicate with a computer such as a server connected to the Internet.

外部記憶装置117は、CPU111により制御され、CD−ROM(Compact Disk Read Only Memory)118、または半導体メモリが装着される。CPU111は、外部記憶装置117を介してCD−ROM118または半導体メモリにアクセス可能である。CPU111は、外部記憶装置117に装表されたCD−ROM118または半導体メモリに記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムは、CD−ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、通信I/F部112に接続されるネットワークを介して、ネットワークに接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワークに接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The external storage device 117 is controlled by the CPU 111, and a CD-ROM (Compact Disk Read Only Memory) 118 or a semiconductor memory is mounted. The CPU 111 can access the CD-ROM 118 or the semiconductor memory via the external storage device 117. The CPU 111 loads the program recorded in the CD-ROM 118 or semiconductor memory mounted on the external storage device 117 into the RAM 114 and executes it. Note that the program executed by the CPU 111 is not limited to the program recorded on the CD-ROM 118, and the program stored in the HDD 115 may be loaded into the RAM 114 and executed. In this case, another computer connected to the network rewrites the program stored in HDD 115 of MFP 100 or adds a new program and writes it via the network connected to communication I / F unit 112. You may do it. Further, MFP 100 may download a program from another computer connected to the network and store the program in HDD 115. The program here includes not only a program directly executable by the CPU 111 but also a source program, a compressed program, an encrypted program, and the like.

なお、CPU111が実行するプログラムを記憶する媒体としては、CD−ROM118に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programable ROM)、EEPROM(Electrically EPROM)などの半導体メモリであってもよい。   The medium for storing the program executed by the CPU 111 is not limited to the CD-ROM 118, but an optical disc (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)), IC card, optical card, It may be a semiconductor memory such as a mask ROM, an EPROM (Erasable Programmable ROM), or an EEPROM (Electrically EPROM).

操作パネル160は、表示部161と操作部163とを含む。表示部161は、液晶表示装置(LCD)、有機ELD(Electro−Luminescence Display)等のディスプレイであり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、タッチパネル165と、複数のキーからなるハードキー部167と、を含む。ハードキー部167が含む複数のキーそれぞれは、接点スイッチを含み、CPU111に接続される。ハードキーは、操作ユーザーにより押下されると接点を閉じて、CPU111に接続される回路を閉じる。ハードキーは、MFP100を操作する操作ユーザーにより押下されている間は回路を閉じ、操作ユーザーにより押下されていない間は回路を開く。   Operation panel 160 includes a display unit 161 and an operation unit 163. The display unit 161 is a display such as a liquid crystal display (LCD) or an organic ELD (Electro-Luminescence Display), and displays an instruction menu for the user, information about acquired image data, and the like. The operation unit 163 includes a touch panel 165 and a hard key unit 167 including a plurality of keys. Each of the plurality of keys included in the hard key unit 167 includes a contact switch and is connected to the CPU 111. When the hard key is pressed by the operation user, the contact is closed and the circuit connected to the CPU 111 is closed. The hard key closes the circuit while being pressed by the operating user who operates the MFP 100, and opens the circuit when not pressed by the operating user.

操作部163は、ハードキー部167が有する複数のキーが押下されると、押下されたキーに対応する指示、文字、数字などのデータの入力を受け付ける。タッチパネル165は、表示部161の上面または下面に設けられ、操作ユーザーにより指示された位置の座標をCPU111に出力する。タッチパネル165は、操作ユーザーが指またはスタイラスペンで指示した位置を検出し、検出した位置の座標をCPU111に出力する。タッチパネル165は、マルチタッチ対応のタッチパネルであり、ユーザーがマルチタッチ操作を入力する場合、ユーザーにより同時に指示された複数の位置にそれぞれ対応する複数の座標をCPU111に出力する。また、タッチパネル165は、ユーザーがシングルタッチ操作を入力する場合に、ユーザーにより指示された単一の位置に対応する座標をCPU111に出力する。   When a plurality of keys included in the hard key unit 167 are pressed, the operation unit 163 receives input of data such as instructions, characters, and numbers corresponding to the pressed keys. The touch panel 165 is provided on the upper surface or the lower surface of the display unit 161, and outputs the coordinates of the position designated by the operation user to the CPU 111. The touch panel 165 detects a position designated by the operation user with a finger or a stylus pen, and outputs the coordinates of the detected position to the CPU 111. The touch panel 165 is a multi-touch compatible touch panel, and outputs a plurality of coordinates corresponding to a plurality of positions simultaneously designated by the user to the CPU 111 when the user inputs a multi-touch operation. Further, the touch panel 165 outputs coordinates corresponding to a single position designated by the user to the CPU 111 when the user inputs a single touch operation.

タッチパネル165は、表示部161の表示面と同じまたはそれ以上のサイズであるのが好ましい。タッチパネル165は、表示部161に重畳して設けられるので、タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、表示部161の表示面中で操作ユーザーが指示した位置の座標をCPU111に出力する。タッチパネル165は、例えば、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式を用いることができ、その方式は限定されない。   The touch panel 165 is preferably the same size or larger than the display surface of the display unit 161. Since the touch panel 165 is provided so as to overlap the display unit 161, the touch panel 165 indicates the coordinates of the position indicated by the operation user on the display surface of the display unit 161 when the operation user indicates the display surface of the display unit 161. It outputs to CPU111. For the touch panel 165, for example, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, or a capacitance method can be used, and the method is not limited.

操作部163が受け付け可能な操作は、ハードキー部167が有する複数のキーを押下する操作、タッチパネル165を指示するシングルタッチ操作およびマルチタッチ操作を含む。さらに、ハードキー部167は、「BOX」、「FAX」、「COPY」、「ECO」の文字がそれぞれ表された4つのハードキー167A〜167Dを含む。「BOX」、「FAX」、「COPY」の文字がそれぞれ表された3つのハードキー167A,167B,167Cは、MFP100に実行させる処理の切り換えを指示するための処理切換操作が割り当てられた処理切換キーである。「ECO」の文字が表されたハードキー167Dは、MFP100を、通常モードから通常モードよりも消費電力の低い省電力モードへの切換を指示するためのモード切換操作が割り当てられたモード切換キーである。操作部163は、ハードキー167A,167B,167Cのいずれかが押下される場合、処理切換操作を受け付け、ハードキー167Dが押下される場合、モード切換操作を受け付ける。   The operations that can be accepted by the operation unit 163 include an operation of pressing a plurality of keys of the hard key unit 167, a single touch operation that instructs the touch panel 165, and a multi-touch operation. Further, the hard key section 167 includes four hard keys 167A to 167D each representing characters of “BOX”, “FAX”, “COPY”, and “ECO”. Three hard keys 167A, 167B, and 167C, each of which represents the characters “BOX”, “FAX”, and “COPY”, are process switches to which a process switch operation for instructing the MFP 100 to switch processes is assigned. Key. A hard key 167D having characters “ECO” is a mode switching key to which a mode switching operation for instructing the MFP 100 to switch from the normal mode to the power saving mode having lower power consumption than the normal mode is assigned. is there. The operation unit 163 receives a process switching operation when any of the hard keys 167A, 167B, and 167C is pressed, and receives a mode switching operation when the hard key 167D is pressed.

図4は、MFPが備えるCPUのソフトウェアアーキテクチャの一例を示す図である。図4を参照して、CPU111には、オペレーティングシステム(OS)層が形成され、その上の階層に、MFPプロセス層が形成される。MFPプロセス層の上層に、アプリケーションプラットフォーム(PF)層、アプリケーション層の順に形成される。   FIG. 4 is a diagram illustrating an example of a software architecture of a CPU provided in the MFP. Referring to FIG. 4, an operating system (OS) layer is formed in CPU 111, and an MFP process layer is formed in a layer above it. An application platform (PF) layer and an application layer are formed in this order on the MFP process layer.

OS層は、CPU111がOSプログラムを実行するタスクが属する。OS層に属するタスクは、MFP100のハードウェア資源を制御する処理を実行する。ハードウェア資源は、ここでは、通信I/F部112、ROM113、RAM114、HDD115、ファクシミリ部116、外部記憶装置117、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150、操作パネル160を含む。OS層に属するタスクは、MFPプロセス層から入力されるオペレーティングコマンドに従って、ハードウェア資源を制御する。また、OS層は、MFPプロセス層との間で、ハードウェア資源の1つである操作部163が受け付け可能な複数種類の操作それぞれを識別するための操作識別情報を共有しており、OS層に属するタスクは、操作部163によって操作ユーザーによる操作が検出されることに応じて、検出された操作を示す操作識別情報をMFPプロセス層に出力する。   The OS layer includes a task for the CPU 111 to execute the OS program. A task belonging to the OS layer executes processing for controlling hardware resources of the MFP 100. Here, the hardware resources include the communication I / F unit 112, the ROM 113, the RAM 114, the HDD 115, the facsimile unit 116, the external storage device 117, the automatic document feeder 120, the document reading unit 130, the image forming unit 140, and the paper feeding unit 150. The operation panel 160 is included. A task belonging to the OS layer controls hardware resources in accordance with an operating command input from the MFP process layer. Further, the OS layer shares operation identification information for identifying each of a plurality of types of operations that can be accepted by the operation unit 163, which is one of hardware resources, with the MFP process layer. When the operation unit 163 detects an operation by the operating user, the task belonging to the group outputs operation identification information indicating the detected operation to the MFP process layer.

アプリケーション層は、CPU111がアプリケーションプログラムを実行するタスクが属する。複数種類のアプリケーションプログラムがMFP100にインストールされる場合、アプリケーション層に、複数種類のアプリケーションプログラムをそれぞれ実行する複数のタスクが属する場合がある。   The application layer includes a task for the CPU 111 to execute an application program. When a plurality of types of application programs are installed in MFP 100, a plurality of tasks that respectively execute the plurality of types of application programs may belong to the application layer.

アプリケーションプログラムを実行するタスクは、アプリケーションプログラムによって定められた複数種類の処理を実行する。複数種類の処理は、MFPプロセス層において実行される処理をMFPプロセス層に属するタスクに実行させる処理を含む。アプリケーションプログラムを実行するタスクは、MFPプロセス層に属するタスクに処理を実行させる場合、アプリコマンドを出力する。アプリコマンドは、API(Application Program Interface)として、公開されたコマンドである。このため、MFP100に処理を実行させるアプリケーションプログラムを容易に作成することができる。公開とは、MFP100を製造するメーカー以外の第三者が使用可能な状態をいう。このため、第三者は、アプリコマンドを用いてMFP100にインストール可能なアプリケーションプログラムを開発することができる。   The task for executing the application program executes a plurality of types of processing determined by the application program. The multiple types of processing include processing for causing a task belonging to the MFP process layer to execute processing executed in the MFP process layer. The task that executes the application program outputs an application command when the task belonging to the MFP process layer executes processing. The application command is a command published as an API (Application Program Interface). Therefore, an application program that causes MFP 100 to execute processing can be easily created. “Public” means a state in which a third party other than the manufacturer that manufactures the MFP 100 can use it. Therefore, a third party can develop an application program that can be installed in MFP 100 using an application command.

さらに、アプリケーションプログラムを実行するタスクは、MFP100を操作する操作ユーザーが入力する操作に基づいて、アプリケーションプログラムによって定められた複数種類の処理のうちから実行する処理を特定し、処理を実行する。MFP100を操作する操作ユーザーが入力する操作は、操作ユーザーが操作部163を操作して入力することにより、OS層において受け付けられる。   Further, the task for executing the application program specifies a process to be executed from among a plurality of types of processes defined by the application program based on an operation input by an operation user operating MFP 100, and executes the process. An operation input by an operation user who operates MFP 100 is accepted in the OS layer when the operation user operates operation unit 163 to input.

アプリケーションPF層は、アプリケーション層とMFPプロセス層との間に配置され、アプリケーション層に属する複数のタスクを調停するとともに、アプリケーション層に属する複数のタスクが出力するアプリコマンドを制御するタスクが属する。具体的には、アプリケーションPF層は、アプリケーション層に属する複数のタスクそれぞれが出力するアプリコマンドを受け付け、受け付けられたアプリコマンドを、予め定められた規則に従って内部コマンドに変換することにより標準化し、内部コマンドをMFPプロセス層に出力する。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。また、アプリケーションPF層は、アプリケーション層に属する複数のタスクのいずれか1つをカレント状態に決定する。そして、OS層において受け付けられ、MFPプロセス層に属するタスクから入力される操作を、アプリケーション層に属する複数のタスクのうちカレント状態に決定したカレントタスクに出力する。   The application PF layer is arranged between the application layer and the MFP process layer, and arbitrates a plurality of tasks belonging to the application layer, and a task for controlling an application command output by the plurality of tasks belonging to the application layer belongs. Specifically, the application PF layer accepts application commands output by each of a plurality of tasks belonging to the application layer, standardizes the received application commands by converting them into internal commands according to a predetermined rule, The command is output to the MFP process layer. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. In addition, the application PF layer determines any one of a plurality of tasks belonging to the application layer as a current state. Then, an operation received from the task belonging to the MFP process layer and received from the OS layer is output to the current task determined as the current state among a plurality of tasks belonging to the application layer.

OS層において受け付けられるユーザーが入力する操作は、1本の指でタッチパネル165を指示するシングルタッチ操作と、2本以上の指で同時にタッチパネル165を指示するマルチタッチ操作とを含む。シングルタッチ操作およびマルチタッチ操作は、それぞれタッチイベントとしてオペレーティングシステムによって検出され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。また、1以上のタッチイベントは、MFPプロセス層においてジェスチャーイベントに変換され、アプリケーションPF層からアプリケーション層に属する複数のタスクのうちカレントタスクに入力される。このため、アプリケーション層は、MFPプロセス層との間で、アプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントを共有しており、アプリケーションプログラムを実行するタスクは、アプリケーションPF層に属するタスクからアプリケーションプログラムにより受け付け可能な1以上のジェスチャーイベントが入力される。アプリケーションプログラムを実行するタスクは、複数種類の処理のうちジェスチャーイベントまたはタッチイベントのいずれかに対応する処理を実行する。   The operations input by the user accepted in the OS layer include a single touch operation in which the touch panel 165 is instructed with one finger and a multi-touch operation in which the touch panel 165 is instructed simultaneously with two or more fingers. The single touch operation and the multi-touch operation are detected by the operating system as touch events, respectively, and input from the application PF layer to the current task among a plurality of tasks belonging to the application layer. One or more touch events are converted into gesture events in the MFP process layer, and input from the application PF layer to the current task among a plurality of tasks belonging to the application layer. For this reason, the application layer shares one or more gesture events that can be accepted by the application program with the MFP process layer, and the task for executing the application program is executed from the task belonging to the application PF layer by the application program. One or more acceptable gesture events are input. The task that executes the application program executes a process corresponding to either a gesture event or a touch event among a plurality of types of processes.

アプリコマンドと内部コマンドとは予め対応付けられている。例えば、アプリコマンドと内部コマンドとを対応付けたコマンド対応テーブルを記憶しておくようにすればよい。アプリコマンドと内部コマンドとは、1対1に対応してもよいし、1つのアプリコマンドに2以上の内部コマンドの組が対応していてもよい。さらに、バージョンの異なる複数のアプリコマンドに対して、1つの内部コマンド、または複数の内部コマンドからなる1組が対応していてもよい。このため、複数のアプリケーションプログラム間で、バージョンが異なる場合等に対応することができる。内部コマンドは、MFP100のハードウェア資源に依存するコマンドである。内部コマンドは、通常は、公開されていないが、公開されていてもよい。   Application commands and internal commands are associated in advance. For example, a command correspondence table in which application commands and internal commands are associated with each other may be stored. An application command and an internal command may correspond one-to-one, or a set of two or more internal commands may correspond to one application command. Furthermore, one internal command or a set of a plurality of internal commands may correspond to a plurality of application commands having different versions. For this reason, it is possible to cope with a case where versions are different among a plurality of application programs. The internal command is a command that depends on the hardware resources of MFP 100. The internal command is not normally disclosed, but may be disclosed.

MFPプロセス層は、アプリケーションPF層とOS層との間に配置され、CPU111がMFPプロセスプログラムを実行するタスクが属する。MFPプロセス層は、アプリケーションPF層に属するタスクが出力する内部コマンドを、OS層に属するタスクが解釈可能なオペレーティングコマンドに変換し、ハードウェア資源を制御するためにオペレーティングコマンドをOS層に属するタスクに出力する。なお、実際には、内部コマンドを、OS層に属するタスクが実行可能な1以上のオペレーティングコマンドに変換する場合があるが、ここでは説明のために、内部コマンドとOS層に属するタスクが実行可能な1以上のオペレーティングコマンドとの関係は1対1として、説明する。   The MFP process layer is arranged between the application PF layer and the OS layer, and a task for the CPU 111 to execute the MFP process program belongs to it. The MFP process layer converts an internal command output by a task belonging to the application PF layer into an operating command interpretable by the task belonging to the OS layer, and converts the operating command to a task belonging to the OS layer in order to control hardware resources. Output. In actuality, internal commands may be converted into one or more operating commands that can be executed by tasks belonging to the OS layer, but for the sake of explanation, internal commands and tasks belonging to the OS layer can be executed. The relationship with one or more operating commands will be described as one-to-one.

上述したように、アプリケーションプログラムは、MFP100に、ブラウジング処理、コピー処理、スキャン処理、プリント処理、ファクシミリ送受信処理、データ送信処理等を実行させるためのアプリケーションプログラムであるが、以下の説明では、アプリケーションプログラムがCPU111に実行させる処理のうちで、操作パネル160を制御する処理に関連する部分を主に説明する。   As described above, the application program is an application program for causing MFP 100 to execute browsing processing, copy processing, scanning processing, printing processing, facsimile transmission / reception processing, data transmission processing, and the like. Among the processes executed by the CPU 111, the part related to the process for controlling the operation panel 160 will be mainly described.

図5は、MFPが備えるCPUが有する機能の一例を、HDDに記憶される情報とともに示すブロック図である。図5に示す機能は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたプログラムを実行することにより、CPU111により実現される機能である。具体的には、CPU111が、OSプログラム、MFPプロセスプログラム、操作受付プログラム、およびアプリケーションプログラムを実行することにより、CPU111により実現される。   FIG. 5 is a block diagram illustrating an example of functions of the CPU included in the MFP, together with information stored in the HDD. The functions shown in FIG. 5 are functions realized by CPU 111 when CPU 111 provided in MFP 100 executes a program stored in ROM 113, HDD 115, or CD-ROM 118. Specifically, the CPU 111 is realized by the CPU 111 by executing an OS program, an MFP process program, an operation reception program, and an application program.

図5を参照して、CPU111は、アプリケーション部51と、調停部53と、操作変換部55と、オペレーティング部57と、を含む。アプリケーション部51は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーション層に属する。アプリケーション部51は、コンテンツ表示プログラムの一例であるブラウジングプログラムを実行するブラウジング部61を含む。   Referring to FIG. 5, CPU 111 includes an application unit 51, an arbitration unit 53, an operation conversion unit 55, and an operating unit 57. The application unit 51 belongs to the application layer in the software architecture shown in FIG. The application unit 51 includes a browsing unit 61 that executes a browsing program that is an example of a content display program.

調停部53および操作変換部55は、CPU111が操作受付プログラムを実行するタスクによって実現される機能である。調停部53は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。操作変換部55は、図4に示したソフトウェアアーキテクチャにおいて、アプリケーションPF層に属する。なお、操作変換部55が有する機能のすべてをアプリケーションPF層の機能としたが、操作変換部55が有する機能の少なくとも一部をアプリケーションPF層の機能とし、他の部分をMFPプロセス層の機能としてもよい。   The arbitration unit 53 and the operation conversion unit 55 are functions realized by a task in which the CPU 111 executes the operation reception program. The arbitration unit 53 belongs to the application PF layer in the software architecture shown in FIG. The operation conversion unit 55 belongs to the application PF layer in the software architecture shown in FIG. Although all the functions of the operation conversion unit 55 are functions of the application PF layer, at least some of the functions of the operation conversion unit 55 are functions of the application PF layer, and other parts are functions of the MFP process layer. Also good.

調停部53は、アプリケーション部51においてアプリケーションプログラムを実行するタスクが複数の場合、複数のタスクのうちいずれか1つをカレント状態に決定する。以下、調停部53が、カレント状態に決定しているタスクをカレントタスクという。本実施の形態においては、アプリケーション部51がブラウジング部61のみを含ので、ブラウジング部61をカレントタスク状態に決定する。   When there are a plurality of tasks for executing the application program in the application unit 51, the arbitration unit 53 determines any one of the plurality of tasks as the current state. Hereinafter, the task that the arbitration unit 53 has determined to be in the current state is referred to as a current task. In the present embodiment, since the application unit 51 includes only the browsing unit 61, the browsing unit 61 is determined to be in the current task state.

調停部53は、ブラウジング部61が出力するアプリコマンドが入力され、アプリコマンドを出力したタスクを識別するためのアプリ識別情報とアプリコマンドとを操作変換部55に出力する。   The arbitration unit 53 receives the application command output from the browsing unit 61 and outputs application identification information for identifying the task that has output the application command and the application command to the operation conversion unit 55.

調停部53は、ブラウジング部61から複数のアプリコマンドが出力される場合、それらの順番を決定し、決定された順にアプリコマンドを操作変換部55に出力する。例えば、複数のアプリコマンドを同時に実行できない場合に、一方のアプリコマンドの操作変換部55による実行が終了するのを待って他方のアプリコマンドを操作変換部55に出力する。また、一方のアプリコマンドを実行した後でなければ、他方のアプリコマンドを実行できない場合には、他方のアプリコマンドが一方のアプリコマンドより先に入力される場合であっても、一方のアプリコマンドを先に出力する。   When a plurality of application commands are output from the browsing unit 61, the arbitrating unit 53 determines the order of the applications, and outputs the application commands to the operation conversion unit 55 in the determined order. For example, when a plurality of application commands cannot be executed simultaneously, the other application command is output to the operation conversion unit 55 after the execution of one application command by the operation conversion unit 55 is completed. Also, if the other app command cannot be executed until after one app command has been executed, the other app command can be executed even if the other app command is input prior to the other app command. Is output first.

操作変換部55は、調停部53からアプリコマンドが入力され、アプリコマンドをコマンド対応テーブルに従って内部コマンドに変換することにより標準化する。コマンド対応テーブルは、1つのアプリコマンドに1以上の内部コマンドを対応付ける。コマンド対応テーブルに含まれるアプリコマンドは、バージョンの異なる同種類のアプリコマンドを含む場合があり、この場合、異なるバージョンのアプリコマンドそれぞれを1以上の内部コマンドに対応付ける。このため、異なるバージョンのアプリコマンドを記述したアプリケーションプログラムをインストールすることを可能としている。コマンド対応テーブルは、新しいアプリコマンドが登場する場合に、新たに登場したアプリコマンドに1以上の内部コマンドを対応付けたコマンド対応テーブルで更新される。このため、新しいアプリコマンドを記述したアプリケーションプログラムをインストールすることができる。   The operation conversion unit 55 receives the application command from the arbitration unit 53 and standardizes the application command by converting the application command into an internal command according to the command correspondence table. The command correspondence table associates one or more internal commands with one application command. The application commands included in the command correspondence table may include the same type of application commands with different versions. In this case, each different version of the application command is associated with one or more internal commands. For this reason, it is possible to install an application program in which application commands of different versions are described. When a new application command appears, the command correspondence table is updated with a command correspondence table in which one or more internal commands are associated with the newly appeared application command. Therefore, an application program describing a new application command can be installed.

さらに、操作変換部55は、標準化された内部コマンドを、オペレーティングコマンドに変換し、オペレーティングコマンドをオペレーティング部57に出力する。オペレーティングコマンドは、操作変換部55とオペレーティング部57との間で予め定められた、オペレーティング部57が解釈可能なコマンドである。   Further, the operation conversion unit 55 converts the standardized internal command into an operating command, and outputs the operating command to the operating unit 57. The operating command is a command that is predetermined between the operation conversion unit 55 and the operating unit 57 and that can be interpreted by the operating unit 57.

オペレーティング部57は、CPU111がOSプログラムを実行するタスクによって実行される機能である。オペレーティング部57は、図4に示したソフトウェアアーキテクチャにおいて、OS層に属する。   The operating unit 57 is a function executed by a task for the CPU 111 to execute the OS program. The operating unit 57 belongs to the OS layer in the software architecture shown in FIG.

オペレーティング部57は、操作変換部55が出力するオペレーティングコマンドが入力され、オペレーティングコマンドに従って、ハードウェア資源を制御する。ハードウェア資源として、ここでは、表示部161、操作部163のタッチパネル165およびHDD115を例に説明する。オペレーティング部57は、表示部161を制御して、表示部161に画像を表示させる。また、オペレーティング部57は、HDD115を制御して、HDD115にデータを記憶させ、また、HDD115に記憶されたデータを読み出す。さらに、オペレーティング部57は、所定時間間隔でタッチパネル165にユーザーにより指示された位置を検出させ、タッチパネル165から所定時間間隔で位置情報を取得する。   The operating unit 57 receives an operating command output from the operation conversion unit 55 and controls hardware resources according to the operating command. As the hardware resources, here, the display unit 161, the touch panel 165 of the operation unit 163, and the HDD 115 will be described as an example. The operating unit 57 controls the display unit 161 to display an image on the display unit 161. In addition, the operating unit 57 controls the HDD 115 to store data in the HDD 115 and reads data stored in the HDD 115. Further, the operating unit 57 causes the touch panel 165 to detect a position designated by the user at a predetermined time interval, and acquires position information from the touch panel 165 at a predetermined time interval.

タッチパネル165は、操作ユーザーが表示部161の表示面を指示すれば、操作ユーザーにより指示された位置を検出し、表示部161の表示面の位置を示す位置情報をCPU111に出力する。オペレーティング部57は、タッチパネル165から位置情報が入力される場合、位置情報を操作変換部55に出力する。オペレーティング部57は、タッチパネル165から一度に2以上の位置情報が入力される場合がある。例えば、操作ユーザーが、表示部161の表示面の異なる2つの部分を、2つの指で同時に指示する場合、指示された表示面の2つの位置をそれぞれ示す2つの位置情報を受け付ける。オペレーティング部57は、タッチパネル165から一度に2以上の位置情報を受け付ける場合、2以上の位置情報を、操作変換部55に出力する。   Touch panel 165 detects the position instructed by the operation user when the operation user indicates the display surface of display unit 161, and outputs position information indicating the position of the display surface of display unit 161 to CPU 111. When the position information is input from the touch panel 165, the operating unit 57 outputs the position information to the operation conversion unit 55. The operating unit 57 may receive two or more pieces of position information from the touch panel 165 at a time. For example, when the operating user designates two different parts of the display surface of the display unit 161 with two fingers at the same time, two pieces of position information indicating the two positions of the designated display surface are received. When the operating unit 57 receives two or more pieces of position information from the touch panel 165 at a time, the operating unit 57 outputs the two or more pieces of position information to the operation conversion unit 55.

操作変換部55は、関連付部81と、ジェスチャーイベント決定部83と、タッチイベント生成部85と、表示部制御部87と、を含む。関連付部81は、ブラウジングプログラムがインストールされる段階で、ブラウジングプログラムが定める複数種類の処理それぞれを、複数のジェスチャーイベントのいずれかと関連付ける。具体的には、関連付部81は、ブラウジングプログラムが定める複数の処理識別情報それぞれに、ブラウジングプログラムが受け付け可能なジェスチャーイベントを関連付けたマスターテーブルを生成し、HDD115に記憶する。   The operation conversion unit 55 includes an association unit 81, a gesture event determination unit 83, a touch event generation unit 85, and a display unit control unit 87. The associating unit 81 associates each of a plurality of types of processing determined by the browsing program with one of a plurality of gesture events at the stage where the browsing program is installed. Specifically, the associating unit 81 generates a master table in which a gesture event that can be accepted by the browsing program is associated with each of a plurality of pieces of processing identification information determined by the browsing program, and stores the master table in the HDD 115.

図6は、マスターテーブルの一例を示す図である。図6を参照して、マスターテーブル91は、複数の処理識別情報ごとにマスターレコードを含む。マスターレコードは、処理の項目と、ジェスチャーの項目と、を含む。処理の項目には、処理識別情報が設定され、ジェスチャーの項目には、ジェスチャーイベントを識別するためのジェスチャー識別情報が設定される。   FIG. 6 is a diagram illustrating an example of the master table. Referring to FIG. 6, master table 91 includes a master record for each of a plurality of process identification information. The master record includes a process item and a gesture item. Processing identification information is set in the processing item, and gesture identification information for identifying a gesture event is set in the gesture item.

例えば、処理の項目に処理識別情報「ページ送り」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「スワイプ」が設定される。処理識別情報「ページ送り」で特定される処理は、画面を次のページの画面に変更して表示させる処理である。ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指を所定の速さより速い速さで移動させるユーザーの操作に対応する。指を所定の速さより速い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「スワイプ」で特定されるジェスチャーイベントは、指を移動させる方向をパラメータに含む。   For example, in the master record in which the process identification information “page feed” is set in the process item, the gesture identification information “swipe” is set in the gesture item. The process specified by the process identification information “page feed” is a process of changing the screen to the screen of the next page and displaying it. The gesture event specified by the gesture identification information “Swipe” corresponds to a user's operation of moving the finger to any one of up, down, left and right at a speed faster than a predetermined speed while instructing the touch panel 165. In the operation of moving the finger at a speed faster than a predetermined speed, the direction in which the finger is moved is determined. Therefore, the gesture event specified by the gesture identification information “swipe” includes the direction in which the finger is moved as a parameter.

処理の項目に処理識別情報「拡大」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチアウト」が設定される。処理識別情報「拡大」で特定される処理は、画面を拡大して表示させる処理である。ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が長くなるように移動させる操作に対応する。2箇所の間隔が長くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチアウト」で特定されるジェスチャーイベントは、2箇所の間隔の変化の割合を倍率としたパラメータに含む。   In the master record in which the process identification information “enlarge” is set in the process item, the gesture identification information “pinch out” is set in the gesture item. The process specified by the process identification information “enlargement” is a process for enlarging and displaying the screen. The gesture event specified by the gesture identification information “pinch out” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations becomes long while designating the two locations on the touch panel 165. Since the operation of moving so that the interval between the two places becomes longer, the interval between the two places changes, the gesture event specified by the gesture identification information “pinch out” has the ratio of the change between the two places as a magnification. Include in parameter.

処理の項目に処理識別情報「縮小」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ピンチイン」が設定される。処理識別情報「縮小」で特定される処理は、画面を縮小して表示させる処理である。ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所の間隔が短くなるように移動させる操作に対応する。2箇所の間隔が短くなるように移動させる操作は、2箇所の間隔が変化するため、ジェスチャー識別情報「ピンチイン」で特定されるジェスチャーイベントは、2箇所の間隔の変化の割合を倍率としたパラメータに含む。   In the master record in which the process identification information “reduction” is set in the process item, the gesture identification information “pinch-in” is set in the gesture item. The process specified by the process identification information “reduction” is a process of reducing the screen for display. The gesture event specified by the gesture identification information “pinch-in” corresponds to an operation of moving at least one of the designated two locations so that the interval between the two locations is shortened while designating the two locations on the touch panel 165. Since the operation of moving so that the interval between the two places becomes shorter, the interval between the two places changes, the gesture event specified by the gesture identification information “pinch-in” is a parameter with the ratio of the change between the two places as a magnification. Included.

処理の項目に処理識別情報「回転」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ローテーション」が設定される。処理識別情報「回転」で特定される処理は、画面を回転して画面の方向を変更する処理である。ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、タッチパネル165の2箇所を指示しながら、指示した2個所の少なくとも一方を、2箇所を結ぶ直線の向きが変更されるように移動させる操作が入力される場合に検出される。例えば、2箇所の一方を中心に他方で円弧を描く操作である。円弧を描く方向が時計回りと反時計回りとがあるため、ジェスチャー識別情報「ローテーション」で特定されるジェスチャーイベントは、時計回りと反時計回りのいずれかを方向としたパラメータに含む。   In the master record in which the process identification information “rotation” is set in the process item, the gesture identification information “rotation” is set in the gesture item. The process specified by the process identification information “rotation” is a process of rotating the screen and changing the screen direction. The gesture event specified by the gesture identification information “Rotation” is an operation to move at least one of the two designated locations while changing the orientation of a straight line connecting the two locations while designating two locations on the touch panel 165. Detected when input. For example, this is an operation of drawing an arc on one of two places as the center. Since there are clockwise and counterclockwise directions in which the arc is drawn, the gesture event specified by the gesture identification information “rotation” is included in a parameter whose direction is either clockwise or counterclockwise.

処理の項目に処理識別情報「スクロール」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「フリック」が設定される。処理識別情報「スクロール」で特定される処理は、画面を上下左右にスクロールさせる処理である。ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、タッチパネル165を指示しながら、上下左右のいずれかに指をスワイプのジェスチャーイベントの操作におけるしきい値より遅い速さで移動させる操作に対応する。指をしきい値より遅い速さで移動させる操作は、指を移動させる方向が定まるため、ジェスチャー識別情報「フリック」で特定されるジェスチャーイベントは、指を移動させる方向をパラメータに含む。   In the master record in which the process identification information “scroll” is set in the process item, the gesture identification information “flick” is set in the gesture item. The process specified by the process identification information “scroll” is a process of scrolling the screen up / down / left / right. The gesture event specified by the gesture identification information “flick” corresponds to an operation in which the finger is moved at a speed slower than the threshold value in the operation of the swipe gesture event while instructing the touch panel 165, either vertically or horizontally. . Since the operation of moving the finger at a speed slower than the threshold value determines the direction in which the finger is moved, the gesture event specified by the gesture identification information “flick” includes the direction in which the finger is moved as a parameter.

処理の項目に処理識別情報「コンテンツ選択」が設定されたマスターレコードは、ジェスチャーの項目にジェスチャー識別情報「ダブルタップ」が設定される。処理識別情報「コンテンツ選択」で特定される処理は、コンテンツを選択する処理である。   In the master record in which the process identification information “content selection” is set in the process item, the gesture identification information “double tap” is set in the gesture item. The process specified by the process identification information “content selection” is a process of selecting content.

図5に戻って、表示部制御部87は、ブラウジング部61から入力されるアプリコマンドを、表示部161に画像を表示させるためのオペレーティングコマンドに変換し、オペレーティング部57に出力する。これにより、ブラウジング部61によって生成された表示用画像が、表示部161のVRAMに記憶され、表示部161に表示用画像の少なくとも一部が表示される。   Returning to FIG. 5, the display control unit 87 converts the application command input from the browsing unit 61 into an operating command for causing the display unit 161 to display an image, and outputs the operating command to the operating unit 57. Accordingly, the display image generated by the browsing unit 61 is stored in the VRAM of the display unit 161, and at least a part of the display image is displayed on the display unit 161.

タッチイベント生成部85は、オペレーティング部57から位置情報が入力されることに応じてタッチイベントを生成する。さらに、タッチイベント生成部85は、タッチイベントを生成するごとに、生成されたタッチイベントをジェスチャーイベント決定部83に出力する。タッチイベント生成部85は、オペレーティング部57から一度に複数の位置情報が入力される場合、複数の位置情報それぞれに対応する複数のタッチイベントを生成する。タッチイベント生成部85は、1以上のタッチイベントを生成する場合、生成された1以上のタッチイベントをジェスチャーイベント決定部83および調停部53に出力する。位置情報は、操作ユーザーが指示した表示部161の表示面中の位置を示す。   The touch event generation unit 85 generates a touch event in response to position information input from the operating unit 57. Furthermore, the touch event generation unit 85 outputs the generated touch event to the gesture event determination unit 83 every time a touch event is generated. When a plurality of pieces of position information are input from the operating unit 57 at a time, the touch event generation unit 85 generates a plurality of touch events corresponding to the plurality of pieces of position information. When the touch event generation unit 85 generates one or more touch events, the touch event generation unit 85 outputs the generated one or more touch events to the gesture event determination unit 83 and the arbitration unit 53. The position information indicates a position on the display surface of the display unit 161 instructed by the operation user.

操作ユーザーが表示部161の表示面を指示する操作は、ユーザーが表示部161の表示面の任意の位置を指示する指示開始操作、ユーザーが表示部161の表示面を指示しながら、換言すれば、表示部161の表示面に触れながら指示する位置を移動させる移動操作、ユーザーが表示部161の表示面の指示を終了する終了操作、を含む。タッチイベント生成部85は、オペレーティング部57から位置情報が入力されると、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。上述したように、オペレーティング部57は、タッチパネル165から位置情報が出力されるごとに、その位置情報を出力するので、時間の経過とともに連続して入力される位置情報の連続性に基づいて、操作ユーザーによる操作が、指示開始操作、移動操作、終了操作のいずれであるかを判断する。   In other words, the operation of the operation user instructing the display surface of the display unit 161 is an instruction start operation in which the user specifies an arbitrary position on the display surface of the display unit 161, in other words, while the user indicates the display surface of the display unit 161 , A moving operation for moving the position to be instructed while touching the display surface of the display unit 161, and an ending operation for the user to end the instruction on the display surface of the display unit 161. When the position information is input from the operating unit 57, the touch event generation unit 85 determines whether the operation by the operating user is an instruction start operation, a movement operation, or an end operation. As described above, the operating unit 57 outputs the position information every time the position information is output from the touch panel 165. Therefore, based on the continuity of the position information that is continuously input as time passes, It is determined whether the operation by the user is an instruction start operation, a move operation, or an end operation.

タッチイベント生成部85は、オペレーティング部57から位置情報が入力されていない状態が所定時間経過した後に入力される位置情報に対して、操作ユーザーによる操作が指示開始操作と判断し、位置情報と、指示開始操作を識別するための状態識別情報「Press」とを含むタッチイベントを生成する。   The touch event generation unit 85 determines that the operation by the operating user is an instruction start operation with respect to the position information input after a predetermined time has passed without the position information being input from the operating unit 57, and the position information, A touch event including state identification information “Press” for identifying the instruction start operation is generated.

タッチイベント生成部85は、状態識別情報「Press」のタッチイベントを検出した後、オペレーティング部57から連続して1以上位置情報が入力される場合、1以上の位置情報それぞれに対して、操作ユーザーによる操作が移動操作と判断する。タッチイベント生成部85は、オペレーティング部57から連続して入力される1以上の位置情報それぞれに対して、その位置情報と移動操作を識別するための状態識別情報「Move」とを含むタッチイベントを生成する。   When one or more pieces of position information are continuously input from the operating unit 57 after detecting the touch event of the state identification information “Press”, the touch event generation unit 85 operates the operation user for each piece of one or more pieces of position information. The operation according to is determined as a moving operation. The touch event generation unit 85 generates, for each of one or more pieces of position information continuously input from the operating unit 57, a touch event including the position information and state identification information “Move” for identifying the moving operation. Generate.

タッチイベント生成部85は、状態識別情報「Move」のタッチイベントを検出した後、オペレーティング部57から位置情報が入力されなくなる場合、最後に入力された位置情報に対して、操作ユーザーによる操作が終了操作と判断し、最後に入力された位置情報と、終了操作を識別するための状態識別情報「Release」とを含むタッチイベントを生成する。   After the touch event generating unit 85 detects the touch event of the state identification information “Move” and the position information is no longer input from the operating unit 57, the operation by the operating user is completed for the last input position information. The touch event including the position information input last and the state identification information “Release” for identifying the end operation is generated.

より具体的には、タッチイベント生成部85は、オペレーティング部57から第1の時に入力される位置情報と、第1の時よりも所定時間後の第2の時に入力される位置情報とに基づいて、タッチイベントの状態を決定する。タッチイベント生成部85は、第1の時に入力される位置情報に対して、第1の時よりも所定時間前に、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置を示す位置情報が入力されていない場合には、第1の時に入力される位置情報に対するタッチイベントの状態を「Press」に決定する。タッチイベント生成部85は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在しない場合には、第2の時に入力される位置情報に対するタッチイベントの状態を「Press」に決定する。   More specifically, the touch event generation unit 85 is based on position information input from the operating unit 57 at the first time and position information input at a second time after a predetermined time from the first time. To determine the state of the touch event. The touch event generation unit 85 has a predetermined distance from the position specified by the position information input at the first time before the first time with respect to the position information input at the first time. When position information indicating a position within the range is not input, the state of the touch event for the position information input at the first time is determined as “Press”. When the position specified by the position information input at the first time does not exist within a predetermined distance from the position specified by the position information input at the second time, the touch event generation unit 85 The state of the touch event for the position information input at the second time is determined as “Press”.

また、タッチイベント生成部85は、第1の時に入力される位置情報で特定される位置が、第2の時に入力される位置情報で特定される位置から所定の距離の範囲内に存在する場合には、第2の時に入力される位置情報に対するタッチイベントの状態を「Move」に決定する。さらに、タッチイベント生成部85は、第1の時に入力される位置情報で特定される位置から所定の距離の範囲内の位置情報が、第2の時に入力されない場合には、第2の時において第1の時に入力されていた位置情報に対するタッチイベントの状態を「Release」に決定する。   Further, the touch event generation unit 85 has a position specified by the position information input at the first time within a predetermined distance from the position specified by the position information input at the second time. First, the state of the touch event for the position information input at the second time is determined as “Move”. Further, the touch event generation unit 85 determines that the position information within a predetermined distance from the position specified by the position information input at the first time is not input at the second time. The state of the touch event for the position information input at the first time is determined as “Release”.

ジェスチャーイベント決定部83は、タッチイベント生成部85から連続して入力される複数のタッチイベントに基づいてジェスチャーイベントを決定する。ジェスチャーイベント決定部83は、タッチイベント生成部85から一度に1つのタッチイベントが連続して入力される場合、最初の第1のタッチイベントが入力されてから所定時間経過後に入力される第2のタッチイベントを特定し、第1のタッチイベントで特定される位置と、第2のタッチイベントで特定される位置との間の距離が所定の距離以上の場合に、ジェスチャーイベントを決定するが、2つの位置の間の距離が所定の距離より小さい場合にはジェスチャーイベントを決定しない。所定の時間は、任意に定めることができる。所定の時間は、たとえば、タッチパネル165が位置を検出する間隔の数倍とすることができる。また、所定の距離は、任意に定めることができるが、たとえば、40ピクセルとするのが好ましい。   The gesture event determination unit 83 determines a gesture event based on a plurality of touch events that are continuously input from the touch event generation unit 85. When one touch event is continuously input from the touch event generation unit 85 at a time, the gesture event determination unit 83 receives the second input after a predetermined time has elapsed since the first first touch event was input. The touch event is specified, and the gesture event is determined when the distance between the position specified by the first touch event and the position specified by the second touch event is equal to or greater than a predetermined distance. If the distance between the two positions is smaller than the predetermined distance, no gesture event is determined. The predetermined time can be arbitrarily determined. The predetermined time can be, for example, several times the interval at which the touch panel 165 detects the position. The predetermined distance can be arbitrarily determined, but is preferably 40 pixels, for example.

ジェスチャーイベント決定部83は、タッチイベント生成部85から一度に2以上のタッチイベントが入力される場合、2以上のタッチイベントに基づいてジェスチャーイベントを決定する。したがって、ユーザーが、マルチタッチ操作を入力する場合、ジェスチャーイベント決定部83は、ジェスチャーイベントを決定する。具体的には、ジェスチャーイベント決定部83は、タッチイベント生成部85から第1のタッチイベントと第2のタッチイベントの2つが一度に入力される場合、第1のタッチイベントに対して連続して入力される複数のタッチイベントの組と、第2のタッチイベントに対して連続して入力される複数のタッチイベントの組と、に基づいてジェスチャーイベントを決定する。第1のタッチイベントに対して連続して入力される複数のタッチイベントの組に含まれる複数のタッチイベントは、位置情報が同じか、または位置情報が連続している。連続とは、2つの位置情報が隣接または所定の距離内に位置を示すことをいう。第2のタッチイベントに対して連続して入力される複数のタッチイベントは、位置情報が同じか、または位置情報が連続している。このため、ジェスチャーイベント決定部83は、一度に入力される複数のタッチイベントが、第1のタッチイベントに対して連続して入力される組と第2のタッチイベントに対して連続して入力される組のいずれに属するかを、それらに含まれる位置情報で判断する。   The gesture event determination unit 83 determines a gesture event based on two or more touch events when two or more touch events are input from the touch event generation unit 85 at a time. Therefore, when the user inputs a multi-touch operation, the gesture event determination unit 83 determines a gesture event. Specifically, when the first touch event and the second touch event are input from the touch event generation unit 85 at the same time, the gesture event determination unit 83 continues to the first touch event. A gesture event is determined based on a set of a plurality of touch events input and a set of a plurality of touch events input continuously with respect to the second touch event. The plurality of touch events included in the set of the plurality of touch events that are continuously input with respect to the first touch event have the same position information or the position information is continuous. Continuous means that two pieces of position information are adjacent or indicate positions within a predetermined distance. The plurality of touch events that are continuously input with respect to the second touch event have the same position information or the position information is continuous. For this reason, the gesture event determination unit 83 receives a plurality of touch events that are input at a time as a set that is continuously input with respect to the first touch event and a input with respect to the second touch event. The position information included in them is determined.

ジェスチャーイベント決定部83は、タッチイベント生成部85から一度に1つのタッチイベントが連続して入力される場合、第1のタッチイベントが入力される後に第2のタッチイベントが入力される。第1のタッチイベントの状態識別情報は「Press」の場合と、「Move」の場合がある。第2のタッチイベントの状態情報は「Move」の場合と、「Release」の場合がある。ジェスチャーイベント決定部83は、第2のタッチイベントが入力されると、第1のタッチイベントの位置情報と、第2のタッチイベントの位置情報とから2点間の距離を指示距離LB1として算出し、指示距離LB1が所定のしきい値TH以上ならばユーザーによるスワイプ操作を検出し、指示距離LB1が所定のしきい値THより短ければユーザーによるフリック操作を検出する。   When one touch event is continuously input from the touch event generation unit 85 at a time, the gesture event determination unit 83 receives the second touch event after the first touch event is input. The state identification information of the first touch event may be “Press” or “Move”. The state information of the second touch event may be “Move” or “Release”. When the second touch event is input, the gesture event determination unit 83 calculates the distance between the two points as the instruction distance LB1 from the position information of the first touch event and the position information of the second touch event. If the designated distance LB1 is greater than or equal to the predetermined threshold value TH, the user's swipe operation is detected, and if the designated distance LB1 is shorter than the predetermined threshold value TH, the user's flick operation is detected.

ジェスチャーイベント決定部83は、スワイプ操作およびフリック操作を検出する場合、第1のタッチイベントの位置情報で特定される位置から第2のタッチイベントの位置情報で特定される位置に向かう方向を算出し、表示部161の表示面を基準に上下左右の4方向のうち算出された方向に最も近い方向を決定する。ジェスチャーイベント決定部83は、スワイプ操作およびフリック操作を検出する場合、方向および指示距離LB1をパラメータに決定する。ジェスチャーイベント決定部83は、スワイプ操作を検出する場合には、ジェスチャー識別情報「スワイプ」と、方向および指示距離LB1を含むパラメータとを含むジェスチャーイベントを決定し、フリック操作を検出する場合には、ジェスチャー識別情報「フリック」と、方向および指示距離LB1を含むパラメータとを含むジェスチャーイベントを決定する。   When detecting the swipe operation and the flick operation, the gesture event determination unit 83 calculates a direction from the position specified by the position information of the first touch event to the position specified by the position information of the second touch event. The direction closest to the calculated direction is determined from the four directions (up, down, left, and right) with reference to the display surface of the display unit 161. The gesture event determination unit 83 determines the direction and the instruction distance LB1 as parameters when detecting a swipe operation and a flick operation. When detecting a swipe operation, the gesture event determining unit 83 determines a gesture event including gesture identification information “swipe” and a parameter including a direction and an instruction distance LB1, and when detecting a flick operation, A gesture event including the gesture identification information “flick” and a parameter including the direction and the instruction distance LB1 is determined.

また、一度に1つのタッチイベントが連続して入力される場合は、最初の複数のタッチイベントによってユーザーによるスワイプ操作が検出され、後の複数のタッチイベントによってユーザーによるフリック操作が検出される場合がある。換言すれば、ジェスチャーイベント決定部83は、状態識別情報「Press」のタッチイベントが入力されてから状態識別情報「Release」のタッチイベントが入力されるまでに、複数種類のジェスチャーイベントを決定する場合がある。   When one touch event is continuously input at a time, a swipe operation by the user is detected by the first plurality of touch events, and a flick operation by the user is detected by the plurality of subsequent touch events. is there. In other words, when the gesture event determination unit 83 determines a plurality of types of gesture events from when the touch event of the state identification information “Press” is input to when the touch event of the state identification information “Release” is input. There is.

ジェスチャーイベント決定部83は、タッチイベント生成部85から一度に2つのタッチイベントが入力される場合、第1の組の第1のタッチイベントおよび第2のタッチイベントが入力される後に第2の組の第1のタッチイベントおよび第2のタッチイベントが入力される。ここでは、第1の組の第1のタッチイベントと第2の組の第1のタッチイベントが連続した組となり、第1の組の第2のタッチイベントと第2の組の第2のタッチイベントが連続した組としている。この場合、第1の組の第1のタッチイベントおよび第2のタッチイベントそれぞれの状態は「Press」または「Move」である。第2の組の第1のタッチイベントおよび第2のタッチイベントそれぞれの状態は「Move」または「Relese」である。   When two touch events are input from the touch event generation unit 85 at a time, the gesture event determination unit 83 receives the second set after the first set of the first touch event and the second touch event are input. The first touch event and the second touch event are input. Here, the first touch event of the first set and the first touch event of the second set become a continuous set, and the second touch event of the first set and the second touch of the second set. A series of events. In this case, the state of each of the first touch event and the second touch event of the first set is “Press” or “Move”. Each state of the second set of the first touch event and the second touch event is “Move” or “Release”.

この場合に、ジェスチャーイベント決定部83は、第1の組の第1のタッチイベントおよび第2のタッチイベントそれぞれに含まれる位置情報に基づいて、2点間の間隔L1および2点間を結ぶ直線の角度R1を算出する。2点間を結ぶ直線の角度は、表示部161の横方向を基準線として、2点間を結ぶ直線が基準線となす角度とすればよい。2点間を結ぶ直線と基準線とのなす角度は、基準線から時計回りになす角度である。また、ジェスチャーイベント決定部83は、第2の組の第1のタッチイベントおよび第2のタッチイベントそれぞれに含まれる位置情報に基づいて、2点間の間隔L2および2点間を結ぶ直線の角度R2を算出する。   In this case, the gesture event determination unit 83 determines the interval L1 between the two points and the straight line connecting the two points based on the position information included in each of the first touch event and the second touch event of the first set. The angle R1 is calculated. The angle of the straight line connecting the two points may be an angle formed by the straight line connecting the two points with the reference line with the horizontal direction of the display unit 161 as the reference line. The angle formed between the straight line connecting the two points and the reference line is an angle formed clockwise from the reference line. In addition, the gesture event determination unit 83 determines the interval L2 between the two points and the angle of the straight line connecting the two points based on the position information included in each of the first touch event and the second touch event of the second set. R2 is calculated.

ジェスチャーイベント決定部83は、角度R1と角度R2とが同じで、かつ、間隔L1と間隔L2とが異なれば、ユーザーによるピンチアウト操作またはピンチイン操作を検出する。角度R1と角度R2とが同じとは、角度R1と角度R2との差が所定の範囲内の場合を含む。ユーザーの指の動きを検出するために、誤差を含む。ジェスチャーイベント決定部83は、ピンチアウト操作またはピンチイン操作を検出する場合、間隔L1から間隔L2を減算した値を指示距離Dとして算出する。ジェスチャーイベント決定部83は、指示距離Dがプラスならばピンチイン操作を検出し、指示距離Dがマイナスならばピンチアウト操作を検出する。   The gesture event determination unit 83 detects a pinch-out operation or a pinch-in operation by the user if the angle R1 and the angle R2 are the same and the interval L1 and the interval L2 are different. The angle R1 and the angle R2 being the same include the case where the difference between the angle R1 and the angle R2 is within a predetermined range. In order to detect the movement of the user's finger, an error is included. When the gesture event determination unit 83 detects a pinch-out operation or a pinch-in operation, the gesture event determination unit 83 calculates a value obtained by subtracting the interval L2 from the interval L1 as the instruction distance D. The gesture event determination unit 83 detects a pinch-in operation if the designated distance D is positive, and detects a pinch-out operation if the designated distance D is negative.

ジェスチャーイベント決定部83は、ピンチアウト操作またはピンチイン操作を検出する場合、間隔L1と指示距離Dとをパラメータに決定する。ジェスチャーイベント決定部83は、ピンチアウト操作を検出する場合には、ジェスチャー識別情報「ピンチアウト」と、間隔L1および指示距離Dを含むパラメータとを含むジェスチャーイベントを決定し、ピンチイン操作を検出する場合には、ジェスチャー識別情報「ピンチイン」と、間隔L1および指示距離Dを含むパラメータとを含むジェスチャーイベントを決定する。   The gesture event determination unit 83 determines the interval L1 and the designated distance D as parameters when detecting a pinch-out operation or a pinch-in operation. When the gesture event determination unit 83 detects a pinch-out operation, the gesture event determination unit 83 determines a gesture event including the gesture identification information “pinch-out” and a parameter including the interval L1 and the instruction distance D, and detects a pinch-in operation. In this case, a gesture event including the gesture identification information “Pinch In” and a parameter including the interval L1 and the instruction distance D is determined.

ジェスチャーイベント決定部83は、角度R1と角度R2とが異なり、かつ、間隔L1と間隔L2とが同じならば、ユーザーによるローテーション操作を検出する。間隔L1と間隔L2とが同じとは、間隔L1と間隔L2との差が所定の範囲内の場合を含む。角度R1と角度R2とが異なるとは、角度R1と角度R2との差が所定の範囲外の場合である。ユーザーの指の動きを検出するために、誤差を含む。ジェスチャーイベント決定部83は、ローテーション操作を検出する場合、角度R1から角度R2を減算した値を指示角度Rとして算出し、間隔L1と指示角度Rとをパラメータに決定する。指示角度Rがマイナスならば回転方向は時計回りであり、指示角度Rがプラスならば回転方向は反時計回りである。ジェスチャーイベント決定部83は、ローテーション操作を検出する場合、ジェスチャー識別情報「ローテーション」と、間隔L1および指示角度Rを含むパラメータとを含むジェスチャーイベントを決定する。   The gesture event determination unit 83 detects a rotation operation by the user if the angles R1 and R2 are different and the interval L1 and the interval L2 are the same. The same interval L1 and interval L2 includes the case where the difference between the interval L1 and the interval L2 is within a predetermined range. The difference between the angle R1 and the angle R2 is when the difference between the angle R1 and the angle R2 is outside a predetermined range. In order to detect the movement of the user's finger, an error is included. When detecting a rotation operation, the gesture event determination unit 83 calculates a value obtained by subtracting the angle R2 from the angle R1 as the instruction angle R, and determines the interval L1 and the instruction angle R as parameters. If the command angle R is negative, the rotation direction is clockwise. If the command angle R is positive, the rotation direction is counterclockwise. When detecting a rotation operation, the gesture event determination unit 83 determines a gesture event including gesture identification information “rotation” and a parameter including an interval L1 and an instruction angle R.

ジェスチャーイベント決定部83は、角度R1と角度R2とが同じで、かつ、間隔L1と間隔L2とが同じならば、ユーザーによるスワイプ操作またはフリック操作を検出する。角度R1と角度R2とが同じとは、角度R1と角度R2との差が所定の範囲内の場合を含む。間隔L2と間隔L1とが同じとは、間隔L2と間隔L1との差が所定の範囲内の場合を含む。ユーザーの指の動きを検出するために、誤差を含む。ジェスチャーイベント決定部83は、第1の組の第1のタッチイベントおよび第2の組の第1のタッチイベントそれぞれに含まれる位置情報に基づいて、2点間の距離を指示距離LB2として算出する。なお、第1の組の第2のタッチイベントおよび第2の組の第2のタッチイベントそれぞれに含まれる位置情報に基づいて、指示距離LB2を算出してもよい。   The gesture event determination unit 83 detects a swipe operation or a flick operation by the user if the angle R1 and the angle R2 are the same and the interval L1 and the interval L2 are the same. The angle R1 and the angle R2 being the same include the case where the difference between the angle R1 and the angle R2 is within a predetermined range. That the interval L2 and the interval L1 are the same includes the case where the difference between the interval L2 and the interval L1 is within a predetermined range. In order to detect the movement of the user's finger, an error is included. Gesture event determination unit 83 calculates a distance between two points as instruction distance LB2 based on position information included in each of the first set of first touch events and the second set of first touch events. . The indication distance LB2 may be calculated based on position information included in each of the first set of second touch events and the second set of second touch events.

ジェスチャーイベント決定部83は、指示距離LB2が所定のしきい値TH以上ならばユーザーによるスワイプ操作を検出し、指示距離LB2が所定のしきい値THより短ければユーザーによるフリック操作を検出する。ジェスチャーイベント決定部83は、スワイプ操作およびフリック操作を検出する場合、第1の組の第1のタッチイベントに含まれる位置情報で特定される位置から第2の組の第1のタッチイベントに含まれる位置情報で特定される位置に向かう方向を算出し、表示部161の表示面を基準に上下左右の4方向のうち算出された方向に最も近い方向を決定する。ジェスチャーイベント決定部83は、スワイプ操作およびフリック操作を検出する場合、間隔L1、方向および指示距離LB2をパラメータに決定する。ジェスチャーイベント決定部83は、スワイプ操作を検出する場合には、ジェスチャー識別情報「スワイプ」と、間隔L1、方向および指示距離LB2を含むパラメータとを含むジェスチャーイベントを決定し、フリック操作を検出する場合には、ジェスチャー識別情報「フリック」と、間隔L1、方向および指示距離LB2を含むパラメータとを含むジェスチャーイベントを決定する。   The gesture event determination unit 83 detects a swipe operation by the user if the designated distance LB2 is equal to or greater than a predetermined threshold value TH, and detects a flick operation by the user if the designated distance LB2 is shorter than the predetermined threshold value TH. When the gesture event determination unit 83 detects the swipe operation and the flick operation, the gesture event determination unit 83 includes the second set of first touch events from the position specified by the position information included in the first set of first touch events. The direction toward the position specified by the position information to be determined is calculated, and the direction closest to the calculated direction is determined from the four directions of upper, lower, left, and right with reference to the display surface of the display unit 161. When detecting a swipe operation and a flick operation, the gesture event determination unit 83 determines an interval L1, a direction, and an instruction distance LB2 as parameters. When gesture event determination unit 83 detects a swipe operation, gesture event determination unit 83 determines a gesture event including gesture identification information “swipe” and a parameter including interval L1, direction, and instruction distance LB2, and detects a flick operation. Includes determining a gesture event including gesture identification information “flick” and parameters including an interval L1, a direction, and an instruction distance LB2.

ジェスチャーイベント決定部83は、ジェスチャーイベントを決定する場合、HDD115から、調停部53によって設定されているカレントタスクのアプリ識別情報に対応するマスターテーブル91を読み出す。具体的には、マスターテーブル91を読み出すためのオペレーティングコマンドをオペレーティング部57に出力し、オペレーティング部57がHDD115を制御して読み出すマスターテーブル91を取得する。以下、ブラウジング部61がカレントタスクの場合について説明する。   When determining the gesture event, the gesture event determination unit 83 reads the master table 91 corresponding to the application identification information of the current task set by the arbitration unit 53 from the HDD 115. Specifically, an operating command for reading the master table 91 is output to the operating unit 57, and the operating unit 57 controls the HDD 115 to acquire the master table 91 to be read. Hereinafter, a case where the browsing unit 61 is the current task will be described.

ジェスチャーイベント決定部83は、ジェスチャーイベントを決定することに応じて、ジェスチャーイベントに基づいて、マスターテーブル91において定められている複数種類の処理のうちから調停部53によってカレント状態に設定されているアプリケーションプログラムに対応して関連付けられた処理を特定する。ここでは、調停部53によってブラウジング部61がカレントタスクに設定されているので、ジェスチャーイベント決定部83は、ジェスチャーイベントと、マスターテーブル91によって関連付けられた処理を特定する。より具体的には、ジェスチャーイベント決定部83は、決定されたジェスチャーイベントのジェスチャー識別情報がジェスチャーの項目に設定されたマスターレコードを、マスターテーブル91から抽出し、抽出されたマスターレコードの処理の項目に設定されている処理識別情報を取得する。ジェスチャーイベント決定部83は、処理識別情報が取得される場合、決定されたジェスチャーイベントを調停部53に出力するが、処理識別情報が取得されない場合、決定されたジェスチャーイベントを調停部53に出力しない。また、ジェスチャーイベント決定部83は、タッチイベント生成部85から一度に1つのタッチイベントが連続して入力される場合であって、ジェスチャーイベントを決定しない場合、ジェスチャーイベントを決定しないことを示す未決定信号を調停部53に出力する。   The gesture event determination unit 83 determines whether or not the gesture event is determined, and based on the gesture event, the application set in the current state by the arbitration unit 53 from among a plurality of types of processing determined in the master table 91. Identify the process associated with the program. Here, since the browsing unit 61 is set as the current task by the arbitrating unit 53, the gesture event determining unit 83 identifies the gesture event and the process associated with the master table 91. More specifically, the gesture event determination unit 83 extracts the master record in which the gesture identification information of the determined gesture event is set as the item of gesture from the master table 91, and the process item of the extracted master record Acquires the process identification information set in. When the process identification information is acquired, the gesture event determination unit 83 outputs the determined gesture event to the arbitration unit 53. However, when the process identification information is not acquired, the gesture event determination unit 83 does not output the determined gesture event to the arbitration unit 53. . Further, the gesture event determination unit 83 is a case where one touch event is continuously input from the touch event generation unit 85 at a time, and when the gesture event is not determined, the gesture event determination unit 83 indicates that the gesture event is not determined The signal is output to the arbitration unit 53.

ジェスチャーイベント決定部83は、調停部53によってカレント状態に設定されているブラウジング部61が実行可能な処理に対応するジェスチャーイベントのみを調停部53に出力し、調停部53は、ジェスチャーイベントをカレントタスクであるブラウジング部61に出力する。このため、タッチパネル165に入力される操作であって、複数のタッチイベントの組で特定されるジェスチャーイベントを、ブラウジングプログラムを実行するブラウジング部61に実行させることができる。換言すれば、ブラウジングプログラムを開発する段階で、MFP100においてタッチパネル165で受け付け可能なジェスチャーイベントを意識することなく開発することができる。例えば、ローテーション操作を受け付けないブラウジングプログラムを開発することができる。   The gesture event determination unit 83 outputs only the gesture event corresponding to the process executable by the browsing unit 61 set in the current state by the arbitration unit 53 to the arbitration unit 53, and the arbitration unit 53 outputs the gesture event to the current task. Is output to the browsing unit 61. For this reason, it is possible to cause the browsing unit 61 that executes the browsing program to execute a gesture event that is an operation input to the touch panel 165 and is specified by a set of a plurality of touch events. In other words, at the stage of developing a browsing program, the MFP 100 can be developed without being aware of gesture events that can be accepted by the touch panel 165 in the MFP 100. For example, a browsing program that does not accept rotation operations can be developed.

調停部53は、ジェスチャーイベント決定部83からジェスチャーイベントが入力される。調停部53は、ジェスチャーイベントをアプリケーション部51がアプリケーションプログラムを実行する複数のタスクのうちカレントタスクに出力する。ここでは、アプリケーション部51は、ブラウジング部61のみを含むため、調停部53は、ブラウジング部61をカレント状態に設定する。このため、ブラウジング部61がカレントタスクである。調停部53は、ジェスチャーイベント決定部83からジェスチャーイベントが入力されることに応じて、ジェスチャーイベントをブラウジング部61に出力する。   The arbitration unit 53 receives a gesture event from the gesture event determination unit 83. The arbitration unit 53 outputs the gesture event to the current task among a plurality of tasks for which the application unit 51 executes the application program. Here, since the application unit 51 includes only the browsing unit 61, the arbitrating unit 53 sets the browsing unit 61 in the current state. For this reason, the browsing unit 61 is the current task. The arbitration unit 53 outputs the gesture event to the browsing unit 61 in response to the gesture event input from the gesture event determination unit 83.

ブラウジング部61は、コンテンツ取得部71と、表示部分決定部72と、ジェスチャー期間検出部73と、キャプチャー部分決定部75と、キャプチャー画像生成部76と、一時記憶制御部77と、表示用画像生成部78と、補正部74と、表示制御部79と、を含む。   The browsing unit 61 includes a content acquisition unit 71, a display part determination unit 72, a gesture period detection unit 73, a capture part determination unit 75, a capture image generation unit 76, a temporary storage control unit 77, and a display image generation unit. Part 78, correction part 74, and display control part 79.

コンテンツ取得部71は、インターネットに接続されたサーバーからコンテンツを取得し、取得されたコンテンツを表示部分決定部72、キャプチャー画像生成部76および表示用画像生成部78に出力する。コンテンツは、例えば、HTML(HyperText Markup Language)等のマークアップ言語で記述されたWebページである。コンテンツ取得部71は、Webページを取得し、Webページにリンクされている別のWebページや画像データなどの別のコンテンツは取得しない。なお、コンテンツ取得部71は、Webページにリンクされている別のコンテンツを取得するようにしてもよい。コンテンツ取得部71が取得するコンテンツは、MFP100を操作する操作ユーザーが指定したURL(Uniform Resource Locator)で識別されるWebページであってもよいし、ブラウジング部61において予め定められたURLで識別されるWebページであってもよい。   The content acquisition unit 71 acquires content from a server connected to the Internet, and outputs the acquired content to the display part determination unit 72, the capture image generation unit 76, and the display image generation unit 78. The content is, for example, a Web page described in a markup language such as HTML (HyperText Markup Language). The content acquisition unit 71 acquires a Web page and does not acquire another content such as another Web page linked to the Web page or image data. Note that the content acquisition unit 71 may acquire another content linked to the Web page. The content acquired by the content acquisition unit 71 may be a Web page identified by a URL (Uniform Resource Locator) specified by an operation user operating the MFP 100, or may be identified by a URL predetermined by the browsing unit 61. Web page may be used.

ジェスチャー期間検出部73は、ジェスチャーイベント決定部83から入力されるジェスチャーイベントに基づいてジェスチャー期間を検出する。ジェスチャー期間検出部73は、ジェスチャー期間の開始を検出すると、開始信号を表示部分決定部72およびキャプチャー部分決定部75に出力し、ジェスチャー期間を検出している間、ジェスチャー期間であることを示すジェスチャー期間信号を表示用画像生成部78に出力する。ジェスチャー期間は、ジェスチャーイベント決定部83によって所定の時間間隔で連続してジェスチャーイベントが決定される期間である。   The gesture period detection unit 73 detects the gesture period based on the gesture event input from the gesture event determination unit 83. When the gesture period detection unit 73 detects the start of the gesture period, the gesture period detection unit 73 outputs a start signal to the display part determination unit 72 and the capture part determination unit 75, and indicates the gesture period while detecting the gesture period. The period signal is output to the display image generation unit 78. The gesture period is a period in which gesture events are continuously determined by the gesture event determination unit 83 at predetermined time intervals.

具体的には、ジェスチャーイベント決定部83は、1以上のタッチイベントに基づいてジェスチャーイベントを決定するが、ジェスチャーイベント決定部83によってジェスチャーイベントが決定された後に、タッチイベント生成部85によって連続してタッチイベントが生成される場合がある。たとえば、ユーザーが、スワイプ操作を入力する場合、ユーザーが指を移動させている途中で、ジェスチャーイベント決定部83によってジェスチャーイベントが決定される場合である。この場合には、ユーザーが指をタッチパネル165から離すまで、タッチイベント生成部85によって状態識別情報「Move」のタッチイベントが生成され、ユーザーが指をタッチパネル165から離すと、タッチイベント生成部85によって状態識別情報「Release」のタッチイベントが生成される。ジェスチャーイベント決定部83は、ジェスチャー識別情報「スワイプ」のジェスチャーイベントを決定した後は、タッチイベント生成部85から状態識別情報「Release」のタッチイベントが入力されるまで、状態識別情報「Move」のタッチイベントが入力されるごとに、ジェスチャー識別情報「スワイプ」のジェスチャーイベントを出力する。ジェスチャーイベント決定部83は、タッチイベント生成部85からタッチイベントが入力されるごとにジェスチャーイベントを決定する。タッチイベント生成部85は、所定の時間間隔でタッチイベントを生成するので、ジェスチャーイベント決定部83は、所定の時間間隔でジェスチャーイベントを決定する。   Specifically, the gesture event determination unit 83 determines a gesture event based on one or more touch events. After the gesture event determination unit 83 determines a gesture event, the touch event generation unit 85 continuously A touch event may be generated. For example, when the user inputs a swipe operation, a gesture event is determined by the gesture event determination unit 83 while the user is moving his / her finger. In this case, the touch event generation unit 85 generates a touch event of the state identification information “Move” until the user releases the finger from the touch panel 165. When the user releases the finger from the touch panel 165, the touch event generation unit 85 A touch event of state identification information “Release” is generated. After the gesture event determining unit 83 determines the gesture event of the gesture identification information “Swipe”, until the touch event of the state identification information “Release” is input from the touch event generation unit 85, the gesture event determining unit 83 stores the state identification information “Move”. Each time a touch event is input, a gesture event with gesture identification information “Swipe” is output. The gesture event determination unit 83 determines a gesture event every time a touch event is input from the touch event generation unit 85. Since the touch event generation unit 85 generates a touch event at a predetermined time interval, the gesture event determination unit 83 determines a gesture event at a predetermined time interval.

ジェスチャー期間検出部73は、ジェスチャーイベント決定部83からジェスチャーイベントが所定の時間間隔で連続して入力されている間、ジェスチャー期間を検出する。ジェスチャー期間検出部73は、ジェスチャーイベント決定部83からジェスチャーイベントが入力されるとジェスチャー期間の開始を検出し、ジェスチャーイベント決定部83からジェスチャーイベントが入力されなくなる場合、ジェスチャー期間の終了を検出する。なお、ジェスチャー期間検出部73は、タッチイベント生成部85によって状態識別情報「Press」のタッチイベントが生成されるとジェスチャー期間の開始を検出し、状態識別情報「Release」のタッチイベントが生成されるとジェスチャー期間の終了を検出するようにしてもよい。   The gesture period detection unit 73 detects the gesture period while gesture events are continuously input from the gesture event determination unit 83 at predetermined time intervals. The gesture period detection unit 73 detects the start of the gesture period when a gesture event is input from the gesture event determination unit 83, and detects the end of the gesture period when the gesture event is not input from the gesture event determination unit 83. The gesture period detection unit 73 detects the start of the gesture period when the touch event generation unit 85 generates a touch event of the state identification information “Press”, and generates a touch event of the state identification information “Release”. The end of the gesture period may be detected.

表示部分決定部72は、コンテンツ取得部71から入力されるWebページの少なくとも一部を表示部分に決定する。表示部分決定部72は、Webページを解釈して、Webページに対応する画像の少なくとも一部を表示部分に決定する。表示部分決定部72は、コンテンツ取得部71によってコンテンツが取得された時、および、ジェスチャーイベント決定部83からジェスチャーイベントが入力される時に、表示部分を決定する。表示部分決定部72は、コンテンツ取得部71によってコンテンツが取得された時点において、換言すれば、コンテンツ取得部71がWebページをダウンロードした時点において、デフォルトで定められた部分を表示部分に決定する。デフォルトで定められた表示部分は、Webページによって定められていてもよいし、Webページに対応する画像のサイズと表示部161のサイズとから定めるようにしてもよい。表示部分は、矩形の領域であり、2つの対角で特定される。このため表示部分は、コンテンツの画像中で2つの対角の座標を含む。   The display part determination unit 72 determines at least a part of the Web page input from the content acquisition unit 71 as a display part. The display part determination unit 72 interprets the Web page and determines at least a part of an image corresponding to the Web page as a display part. The display part determination unit 72 determines the display part when content is acquired by the content acquisition unit 71 and when a gesture event is input from the gesture event determination unit 83. The display part determination unit 72 determines the part determined by default as the display part when the content is acquired by the content acquisition unit 71, in other words, when the content acquisition unit 71 downloads the Web page. The display portion determined by default may be determined by the Web page, or may be determined from the size of the image corresponding to the Web page and the size of the display unit 161. The display portion is a rectangular area and is specified by two diagonals. Therefore, the display portion includes two diagonal coordinates in the content image.

表示部分決定部72は、ジェスチャーイベント決定部83からジェスチャーイベントが入力される場合、表示部分を決定する。   The display part determination unit 72 determines the display part when a gesture event is input from the gesture event determination unit 83.

図7は、表示部分決定部の詳細な構成の一例を示すブロック図である。図7を参照して、表示部分決定部72は、変換部11と、スケール決定部13と、タイミング決定部15と、キャプチャー率決定部17と、を含む。   FIG. 7 is a block diagram illustrating an example of a detailed configuration of the display portion determination unit. Referring to FIG. 7, display portion determination unit 72 includes a conversion unit 11, a scale determination unit 13, a timing determination unit 15, and a capture rate determination unit 17.

スケール決定部13は、ジェスチャーイベント決定部83からジェスチャーイベントが入力され、ジェスチャー期間検出部73から開始信号が入力される。スケール決定部13は、移動量決定部31と、拡縮率決定部33と、回転量決定部35と、を含む。移動量決定部31は、ジェスチャー識別情報が「スワイプ」または「フリック」のジェスチャーイベントを処理対象とする。拡縮率決定部33は、ジェスチャー識別情報が「ピンチイン」または「ピンチアウト」のジェスチャーイベントを処理対象とする。回転量決定部35は、ジェスチャー識別情報が「ローテーション」のジェスチャーイベントを処理対象とする。タイミング決定部15およびキャプチャー率決定部17は、ジェスチャー識別情報が「ピンチイン」、「ピンチアウト」または「ローテーション」のジェスチャーイベントを処理対象とする。   The scale determination unit 13 receives a gesture event from the gesture event determination unit 83 and receives a start signal from the gesture period detection unit 73. The scale determination unit 13 includes a movement amount determination unit 31, an enlargement / reduction ratio determination unit 33, and a rotation amount determination unit 35. The movement amount determination unit 31 sets a gesture event whose gesture identification information is “swipe” or “flick” as a processing target. The enlargement / reduction ratio determination unit 33 sets a gesture event whose gesture identification information is “pinch-in” or “pinch-out” as a processing target. The rotation amount determination unit 35 sets a gesture event whose gesture identification information is “Rotation” as a processing target. The timing determination unit 15 and the capture rate determination unit 17 process gesture events whose gesture identification information is “pinch in”, “pinch out”, or “rotation”.

移動量決定部31は、開始信号が入力された時点にジェスチャーイベント決定部83から入力されるジェスチャーイベントにパラメータとして含まれる間隔L1に基づいて、移動量を定めるスケールを決定する。移動量を定めるスケールは、表示部分を移動させる距離の度合いを示し、基準移動距離である。基準移動距離は、所定単位の距離に対する移動距離を示す。複数の距離ごとに基準移動距離を定めた移動距離テーブルを予め記憶しており、その移動距離テーブルを参照して、間隔L1に対応して定められた基準移動距離を決定する。基準移動距離は、間隔L1が大きいほど大きな値に設定される。移動量決定部31は、間隔L1に対応する基準移動距離を、変換部11に出力する。   The movement amount determination unit 31 determines a scale for determining the movement amount based on the interval L1 included as a parameter in the gesture event input from the gesture event determination unit 83 when the start signal is input. The scale that determines the amount of movement indicates the degree of distance by which the display portion is moved, and is the reference movement distance. The reference movement distance indicates a movement distance with respect to a predetermined unit distance. A movement distance table in which a reference movement distance is determined for each of a plurality of distances is stored in advance, and a reference movement distance determined corresponding to the interval L1 is determined with reference to the movement distance table. The reference movement distance is set to a larger value as the interval L1 is larger. The movement amount determination unit 31 outputs a reference movement distance corresponding to the interval L1 to the conversion unit 11.

拡縮率決定部33は、開始信号が入力された時点にジェスチャーイベント決定部83から入力されるジェスチャーイベントにパラメータとして含まれる間隔L1に基づいて、倍率を定めるスケールを決定する。倍率を定めるスケールは、倍率の度合いを示し、基準倍率である。拡縮率決定部33は、間隔L1に対応する基準倍率を、変換部11に出力する。基準倍率は、所定単位の距離に対する倍率である。複数の距離ごとに倍率を定めた倍率テーブルを予め記憶しており、その倍率テーブルを参照して、間隔L1に対応して定められた基準倍率を決定する。   The enlargement / reduction ratio determination unit 33 determines a scale for determining a magnification based on the interval L1 included as a parameter in the gesture event input from the gesture event determination unit 83 at the time when the start signal is input. The scale that determines the magnification indicates the degree of magnification and is a reference magnification. The enlargement / reduction ratio determination unit 33 outputs the reference magnification corresponding to the interval L1 to the conversion unit 11. The reference magnification is a magnification with respect to a predetermined unit distance. A magnification table in which a magnification is determined for each of a plurality of distances is stored in advance, and a reference magnification determined corresponding to the interval L1 is determined with reference to the magnification table.

基準倍率は、ジェスチャーイベント識別情報が「ピンチイン」の場合は縮小率であり、ジェスチャーイベント識別情報が「ピンチアウト」の場合は拡大率である。このため、倍率テーブルは、ジェスチャー識別情報「ピンチイン」に対応する倍率テーブルと、ジェスチャー識別情報「ピンチアウト」に対応する倍率テーブルと、を含む。ジェスチャー識別情報「ピンチアウト」に対応する倍率テーブルにおいて、基準倍率は「1」より大きく、間隔L1が大きいほど大きな値に設定される。ジェスチャー識別情報「ピンチイン」に対応する倍率テーブルにおいて、基準倍率は「1」より小さく、間隔L1が大きいほど小さな値に設定される。表示部161のサイズは一定であるため、ユーザーが表示部161に2本の指で指示してから間隔を変更する場合、指を移動させる距離には限界がある。例えば、指の間隔を広くして指示した場合、その状態から間隔を狭くする場合は、指の間隔を狭くして指示した場合に比較して、指を移動させることのできる距離(残余距離)が長くなる。また、指の間隔を広くして指示した場合、その状態から間隔を広くする場合は、指の間隔を狭くして指示した場合に比較して、指を移動させることのできる距離(残余距離)が短くなる。このため、ジェスチャー識別情報「ピンチアウト」に対応する倍率テーブルにおいては、基準倍率は、残余距離が長いほど大きな値に設定され、ジェスチャー識別情報「ピンチイン」に対応する倍率テーブルにおいては、基準倍率は残余距離が長いほど小さな値に設定される。   The reference magnification is a reduction rate when the gesture event identification information is “pinch-in”, and is an enlargement rate when the gesture event identification information is “pinch-out”. For this reason, the magnification table includes a magnification table corresponding to the gesture identification information “pinch-in” and a magnification table corresponding to the gesture identification information “pinch-out”. In the magnification table corresponding to the gesture identification information “pinch out”, the reference magnification is larger than “1”, and a larger value is set as the interval L1 is larger. In the magnification table corresponding to the gesture identification information “Pinch-in”, the reference magnification is smaller than “1”, and the smaller the interval L1, the smaller the value is set. Since the size of the display unit 161 is constant, when the user changes the interval after instructing the display unit 161 with two fingers, there is a limit to the distance to move the finger. For example, when an instruction is given with a wide finger interval, when the interval is narrowed from that state, the distance that the finger can be moved (residual distance) compared to when an instruction is given with a narrow finger interval. Becomes longer. Also, when an instruction is given with a wide finger interval, when the interval is increased from that state, the distance that the finger can be moved (residual distance) compared to when an instruction is given with a narrow finger interval. Becomes shorter. Therefore, in the magnification table corresponding to the gesture identification information “pinch out”, the reference magnification is set to a larger value as the remaining distance is longer, and in the magnification table corresponding to the gesture identification information “pinch in”, the reference magnification is The longer the remaining distance, the smaller the value is set.

回転量決定部35は、開始信号が入力された時点にジェスチャーイベント決定部83から入力されるジェスチャーイベントにパラメータとして含まれる間隔L1に基づいて、回転量を定めるスケールを決定する。回転量を定めるスケールは、回転量の度合いを示し、基準回転角度を示す。基準回転角度は、所定単位の距離に対する回転角度である。複数の距離ごとに基準回転角度を定めた回転角テーブルを予め記憶しており、その回転角テーブルを参照して、間隔L1に対応して定められた基準回転角度を決定する。基準回転角度は、間隔L1が大きいほど大きな値に設定される。回転量決定部35は、間隔L1に対応する基準回転角度を、変換部11に出力する。   The rotation amount determination unit 35 determines a scale for determining the rotation amount based on the interval L1 included as a parameter in the gesture event input from the gesture event determination unit 83 when the start signal is input. The scale that determines the amount of rotation indicates the degree of rotation and indicates the reference rotation angle. The reference rotation angle is a rotation angle with respect to a predetermined unit distance. A rotation angle table in which a reference rotation angle is determined for each of a plurality of distances is stored in advance, and a reference rotation angle determined corresponding to the interval L1 is determined with reference to the rotation angle table. The reference rotation angle is set to a larger value as the interval L1 is larger. The rotation amount determination unit 35 outputs a reference rotation angle corresponding to the interval L1 to the conversion unit 11.

タイミング決定部39は、開始信号が入力された時点にジェスチャーイベント決定部83から入力されるジェスチャーイベントにパラメータとして含まれる間隔L1に基づいて、表示部分を決定するタイミングを決定する。表示部分を決定するタイミングは、デフォルトではジェスチャーイベントが入力されるタイミングである。換言すれば、ジェスチャーイベントは、タッチイベントが生成される時間間隔と同じ時間間隔で入力される。タイミング決定部39は、開始信号が入力された時点にジェスチャーイベント決定部83から入力されるジェスチャーイベントにパラメータとして含まれる間隔L1に基づいて、表示部分を決定する時間間隔を決定する。具体的には、タイミング決定部39は、開始信号が入力された時点にジェスチャーイベント決定部83から入力されるジェスチャーイベントにパラメータとして含まれる間隔L1が所定の値より大きい場合、表示部分を決定する時間間隔をジェスチャーイベントが入力される所定時間間隔よりも長い間隔に決定する。ジェスチャーイベントは、タッチイベントが生成される時間間隔と同じ時間間隔で入力されるので、ここでは、時間間隔をジェスチャーイベントが入力される数で示す。以下、時間間隔を示す値であるジェスチャーイベントが入力される数を間引数という。複数の距離ごとに間引数を定めたタイミングテーブルを予め記憶しており、そのタイミングテーブルを参照して、間隔L1に対応して定められた間引数を決定する。タイミングテーブルは、間隔L1が大きいほど間引数が大きな値に設定される。タイミング決定部39は、間隔L1に対応する間引数を、変換部11に出力する。   The timing determination unit 39 determines the timing for determining the display portion based on the interval L1 included as a parameter in the gesture event input from the gesture event determination unit 83 when the start signal is input. The timing for determining the display portion is the timing at which a gesture event is input by default. In other words, the gesture event is input at the same time interval as the time interval at which the touch event is generated. The timing determination unit 39 determines the time interval for determining the display portion based on the interval L1 included as a parameter in the gesture event input from the gesture event determination unit 83 at the time when the start signal is input. Specifically, the timing determination unit 39 determines the display portion when the interval L1 included as a parameter in the gesture event input from the gesture event determination unit 83 at the time when the start signal is input is larger than a predetermined value. The time interval is determined to be longer than a predetermined time interval at which a gesture event is input. Since the gesture event is input at the same time interval as the time interval at which the touch event is generated, here, the time interval is indicated by the number of gesture events input. Hereinafter, the number of gesture events that are values indicating time intervals is referred to as an inter-argument. A timing table in which an interval argument is determined for each of a plurality of distances is stored in advance, and the interval argument determined corresponding to the interval L1 is determined with reference to the timing table. In the timing table, the interval argument is set to a larger value as the interval L1 is larger. The timing determination unit 39 outputs an argument corresponding to the interval L1 to the conversion unit 11.

キャプチャー率決定部37は、開始信号が入力された時点にジェスチャーイベント決定部83から入力されるジェスチャーイベントにパラメータとして含まれる間隔L1に基づいて、キャプチャー率を決定する。キャプチャー率は、デフォルトで定められたキャプチャーサイズに対する倍率を示す。複数の距離ごとにキャプチャー率を定めたキャプチャーテーブルを予め記憶しており、そのキャプチャーテーブルを参照して、間隔L1に対応して定められたキャプチャー率を決定する。キャプチャーテーブルは、間隔L1が大きいほど大きなキャプチャー率が設定される。キャプチャー率決定部37は、間隔L1に対応するキャプチャー率を、キャプチャー部分決定部75に出力する。   The capture rate determination unit 37 determines the capture rate based on the interval L1 included as a parameter in the gesture event input from the gesture event determination unit 83 when the start signal is input. The capture rate indicates a magnification with respect to a capture size determined by default. A capture table in which a capture rate is determined for each of a plurality of distances is stored in advance, and the capture rate determined in correspondence with the interval L1 is determined with reference to the capture table. In the capture table, a larger capture rate is set as the interval L1 is larger. The capture rate determination unit 37 outputs a capture rate corresponding to the interval L1 to the capture portion determination unit 75.

なお、キャプチャー率決定部37は、開始信号が入力された時点にジェスチャーイベント決定部83から入力されるジェスチャーイベントが、ピンチインの場合に限って、キャプチャー率を決定するようにしてもよい。その他のジェスチャーイベントの場合には、キャプチャー部分のサイズをデフォルトのサイズよりも大きくする必要はないからである。この場合、キャプチャー率は、マルチタッチ操作を最初に入力した時点の指の間隔である間隔L1が大きいほど大きな値とすることができ、換言すれば、ユーザーが指示する2本の指の間隔を広くするほど、キャプチャー部分を大きなサイズとすることができる。   Note that the capture rate determination unit 37 may determine the capture rate only when the gesture event input from the gesture event determination unit 83 is pinch-in when the start signal is input. This is because in the case of other gesture events, the size of the capture portion does not need to be larger than the default size. In this case, the capture rate can be set to a larger value as the interval L1 that is the interval between the fingers when the multi-touch operation is first input is larger, in other words, the interval between the two fingers that the user indicates The larger the size, the larger the capture portion.

変換部11は、移動部21と、変倍部23と、回転部25と、を含む。移動部21は、ジェスチャー識別情報が「スワイプ」または「フリック」のジェスチャーイベントを処理対象とする。変倍部23は、ジェスチャー識別情報が「ピンチイン」または「ピンチアウト」のジェスチャーイベントを処理対象とする。回転部25は、ジェスチャー識別情報が「ローテーション」のジェスチャーイベントを処理対象とする。   The conversion unit 11 includes a moving unit 21, a scaling unit 23, and a rotating unit 25. The moving unit 21 sets a gesture event whose gesture identification information is “swipe” or “flick” as a processing target. The zoom unit 23 processes a gesture event whose gesture identification information is “pinch-in” or “pinch-out”. The rotation unit 25 processes a gesture event whose gesture identification information is “Rotation”.

移動部21は、ジェスチャー識別情報「フリック」のジェスチャーイベントが入力される場合、それ以前に決定されている表示部分を、パラメータに含まれる方向に、パラメータに含まれる指示距離LB1より特定される距離だけ移動させることによって新たな表示部分に決定する。移動部21が表示部分を移動させる距離は、パラメータに含まれる指示距離LB1に予め定められたデフォルト移動距離を乗算した値である。デフォルト移動距離は、単位距離当たりの移動距離を定める。   When the gesture event of the gesture identification information “flick” is input, the moving unit 21 sets the display portion determined before that in the direction included in the parameter from the specified distance LB1 included in the parameter. A new display part is determined by moving only. The distance by which the moving unit 21 moves the display part is a value obtained by multiplying the designated distance LB1 included in the parameter by a predetermined default moving distance. The default moving distance defines a moving distance per unit distance.

移動部21は、移動量決定部31から基準移動距離が入力される場合、換言すれば、マルチタッチ操作の場合、ジェスチャー識別情報「フリック」のジェスチャーイベントに含まれるパラメータに含まれる指示距離LB1に基準移動距離を乗算することにより移動距離を算出し、ジェスチャーイベントが入力される前に決定されている表示部分を、算出された移動距離だけパラメータに含まれる方向に移動することによって表示部分を決定する。   When the reference movement distance is input from the movement amount determination unit 31, in other words, in the case of a multi-touch operation, the movement unit 21 sets the instruction distance LB <b> 1 included in the parameter included in the gesture event of the gesture identification information “flick”. The movement distance is calculated by multiplying the reference movement distance, and the display area determined before the gesture event is input is determined by moving the display area in the direction included in the parameter by the calculated movement distance. To do.

さらに、移動部21は、移動量決定部31から基準移動距離が入力され、かつ、タイミング決定部39から間引数が入力される場合、ジェスチャーイベント決定部83からジェスチャー識別情報「フリック」のジェスチャーイベントが、間引数と同じ数だけ入力されるまで移動距離を算出することなく、ジェスチャー識別情報「フリック」のジェスチャーイベントが入力されるごとに、そのジェスチャーイベントに含まれるパラメータに含まれる指示距離LB2の合計を算出する。そして、移動部21は、間引数と同じ数だけのジェスチャー識別情報「フリック」のジェスチャーイベントが入力されると、指示距離LB2の合計に基準移動距離を乗算することにより移動距離を算出する。移動部21は、パラメータに含まれる指示距離LB2の合計に移動量決定部31から入力される基準移動距離を乗算することにより移動距離を算出し、ジェスチャーイベントが入力される前に決定されている表示部分を、算出された移動距離だけパラメータに含まれる方向に移動することによって表示部分を決定する。   Furthermore, when the reference movement distance is input from the movement amount determination unit 31 and the interval argument is input from the timing determination unit 39, the movement unit 21 receives the gesture event of the gesture identification information “flick” from the gesture event determination unit 83. Each time the gesture event of the gesture identification information “flick” is input without calculating the moving distance until the same number as the interval argument is input, the indication distance LB2 included in the parameter included in the gesture event Calculate the total. Then, when the same number of gesture events having the same number of pieces of gesture identification information “flick” as the interval arguments are input, the moving unit 21 calculates the moving distance by multiplying the total of the designated distances LB2 by the reference moving distance. The moving unit 21 calculates the moving distance by multiplying the total of the designated distance LB2 included in the parameter by the reference moving distance input from the moving amount determining unit 31, and is determined before the gesture event is input. The display part is determined by moving the display part in the direction included in the parameter by the calculated movement distance.

移動部21は、ジェスチャー識別情報「スワイプ」のジェスチャーイベントが入力される場合、それ以前に決定されている表示部分が含まれるページを、パラメータで特定される方向にページ送りし、新たなページ中で表示部分に対応する部分を新たな表示部分に決定する。   When the gesture event of the gesture identification information “Swipe” is input, the moving unit 21 pages the page including the display portion determined before that in the direction specified by the parameter, The part corresponding to the display part is determined as a new display part.

変倍部23は、拡縮率決定部33から基準倍率が入力される。変倍部23は、ジェスチャー識別情報「ピンチアウト」または「ピンチイン」のジェスチャーイベントが入力される場合、パラメータに含まれる指示距離Dに基準倍率を乗算することによって倍率を算出し、ジェスチャーイベントが入力される前に決定されている表示部分を算出された倍率の逆数で拡大または縮小することによって新たな表示部分を決定する。後述するように、表示用画像生成部78によって生成される表示用画像は、キャプチャー画像またはコンテンツの画像中の表示部分から生成され、表示用画像のサイズは表示部161のサイズによって定まり、一定である。このため、表示用画像を縮小する場合は表示部分のサイズを拡大し、表示用画像を拡大する場合は表示部分のサイズを縮小することになる。指示距離Dに基準倍率を乗算することによって算出される倍率は、表示用画像に対する値なので、表示部分のサイズを拡大または縮小する場合には、倍率の逆数で算出する。   The scaling unit 23 receives the reference magnification from the enlargement / reduction ratio determination unit 33. When the gesture event having the gesture identification information “pinch out” or “pinch in” is input, the scaling unit 23 calculates the magnification by multiplying the reference distance D included in the parameter by the reference magnification, and the gesture event is input. A new display portion is determined by enlarging or reducing the display portion that has been determined before being enlarged by the reciprocal of the calculated magnification. As will be described later, the display image generated by the display image generation unit 78 is generated from the display portion in the capture image or the content image, and the size of the display image is determined by the size of the display unit 161 and is constant. is there. For this reason, when the display image is reduced, the size of the display portion is enlarged, and when the display image is enlarged, the size of the display portion is reduced. Since the magnification calculated by multiplying the instruction distance D by the reference magnification is a value for the display image, when the size of the display portion is enlarged or reduced, it is calculated by the reciprocal of the magnification.

変倍部23は、拡縮率決定部33から基準倍率が入力され、かつ、タイミング決定部39から間引数が入力される場合、ジェスチャーイベント決定部83からジェスチャー識別情報「ピンチアウト」または「ピンチイン」のジェスチャーイベントが、間引数と同じ数だけ入力されるまで倍率を算出することなく、ジェスチャー識別情報「ピンチアウト」または「ピンチイン」のジェスチャーイベントが入力されるごとに、そのジェスチャーイベントに含まれるパラメータに含まれる指示距離Dの合計を算出する。そして、変倍部23は、間引数と同じ数だけのジェスチャー識別情報「ピンチアウト」または「ピンチイン」のジェスチャーイベントが入力されると、指示距離Dの合計に基準倍率を乗算することにより倍率を算出し、ジェスチャーイベントが入力される前に決定されている表示部分を算出された倍率の逆数で拡大または縮小することによって新たな表示部分を決定する。   When the reference magnification is input from the enlargement / reduction ratio determination unit 33 and the interval argument is input from the timing determination unit 39, the scaling unit 23 receives the gesture identification information “pinch out” or “pinch in” from the gesture event determination unit 83. Each time a gesture event with the gesture identification information “Pinch out” or “Pinch in” is input without calculating the magnification until the same number of gesture events are input, the parameters included in that gesture event The total of the designated distances D included in is calculated. Then, when the same number of gesture identification information “pinch out” or “pinch in” gesture events as the number of interval arguments are input, the scaling unit 23 multiplies the sum of the indicated distances D by a reference magnification to obtain a magnification. A new display portion is determined by calculating and enlarging or reducing the display portion determined before the gesture event is input by the reciprocal of the calculated magnification.

回転部25は、回転量決定部35から基準回転角度が入力される。回転部25は、ジェスチャー識別情報「ローテーション」のジェスチャーイベントが入力される場合、パラメータに含まれる指示角度Rに基準回転角度を乗算することによって回転角度を算出し、ジェスチャーイベントが入力される前に決定されている表示部分を、算出された回転角度だけ回転させることによって新たな表示部分に決定する。   The rotation unit 25 receives the reference rotation angle from the rotation amount determination unit 35. When a gesture event having the gesture identification information “Rotation” is input, the rotation unit 25 calculates the rotation angle by multiplying the reference angle R included in the parameter by the reference rotation angle, and before the gesture event is input. The determined display portion is determined as a new display portion by rotating the calculated display portion by the calculated rotation angle.

さらに、回転部25は、回転量決定部35から基準回転角度が入力され、かつ、タイミング決定部39から間引数が入力される場合、ジェスチャーイベント決定部83からジェスチャー識別情報「ローテーション」のジェスチャーイベントが、間引数と同じ数だけ入力されるまで回転角度を算出することなく、ジェスチャー識別情報「ローテーション」のジェスチャーイベントが入力されるごとに、そのジェスチャーイベントに含まれるパラメータに含まれる指示角度Rの合計を算出する。そして、変倍部23は、間引数と同じ数だけのジェスチャー識別情報「ローテーション」のジェスチャーイベントが入力されると、指示角度Rの合計に基準回転角度を乗算することにより回転角度を算出し、ジェスチャーイベントが入力される前に決定されている表示部分を算出された回転角度だけ回転させることによって新たな表示部分を決定する。   Furthermore, when the reference rotation angle is input from the rotation amount determination unit 35 and the interval argument is input from the timing determination unit 39, the rotation unit 25 receives the gesture event of the gesture identification information “rotation” from the gesture event determination unit 83. Each time a gesture event of the gesture identification information “Rotation” is input without calculating the rotation angle until the same number as the interval argument is input, the indication angle R included in the parameter included in the gesture event Calculate the total. Then, when the same number of gesture events of the gesture identification information “Rotation” as the interval arguments are input, the zoom unit 23 calculates the rotation angle by multiplying the total of the instruction angles R by the reference rotation angle, A new display portion is determined by rotating the display portion determined before the gesture event is input by the calculated rotation angle.

なお、表示部分決定部72は、ジェスチャー識別情報「ダブルタップ」のジェスチャーイベントが入力される場合、それ以前に決定されている表示部分を、そのまま表示部分に決定する。   When the gesture event having the gesture identification information “double tap” is input, the display part determination unit 72 determines the display part determined before that as the display part.

図5に戻って、キャプチャー部分決定部75は、表示部分決定部72から表示部分が入力され、ジェスチャー期間検出部73から開始信号が入力される。キャプチャー部分決定部75は、ジェスチャー期間が開始する前に決定されている表示部分を含むキャプチャー部分を決定する。ジェスチャー期間が開始する前に決定されている表示部分は、ジェスチャー期間が開始する時点で、表示部161に表示されている表示用画像に対応する表示部分である。キャプチャー部分決定部75は、ジェスチャー期間検出部73から開始信号が入力されると、ジェスチャー期間が開始したと判断する。キャプチャー部分は、コンテンツの画像中の少なくとも一部であって、表示部分を含む。キャプチャー部分は、表示部分よりも面積が大きい。   Returning to FIG. 5, the capture portion determination unit 75 receives the display portion from the display portion determination unit 72 and the start signal from the gesture period detection unit 73. The capture portion determination unit 75 determines a capture portion including a display portion that is determined before the gesture period starts. The display part determined before the start of the gesture period is a display part corresponding to the display image displayed on the display unit 161 when the gesture period starts. When the start signal is input from the gesture period detection unit 73, the capture part determination unit 75 determines that the gesture period has started. The capture portion is at least a part of the content image and includes a display portion. The capture portion has a larger area than the display portion.

キャプチャー部分のサイズの決定方法の一例を説明する。キャプチャー部分のデフォルトサイズは、表示部161のサイズ、コンテンツの画像の倍率、およびRAM114の空容量に基づいて定まる。ここでは、画像のサイズを縦方向および横方向それぞれの画素数で示す。また、表示部161のサイズは、表示部161の縦方向および横方向それぞれの画素数で示す。コンテンツの画像の倍率は、コンテンツの画像の表示部分のサイズと、表示部161のサイズとによって定まり、コンテンツの画像の表示部分の横方向の画素数を表示部161の横方向の画素数で除算した値をとしている。本実施の形態において、コンテンツが取得された段階において、コンテンツの画像の倍率を「1」としており、コンテンツの画像の倍率は、ユーザーによるピンチアウト操作またはピンチイン操作が入力される場合に倍率が変動する値である。   An example of a method for determining the size of the capture portion will be described. The default size of the capture portion is determined based on the size of the display unit 161, the magnification of the content image, and the free space of the RAM 114. Here, the size of the image is indicated by the number of pixels in each of the vertical direction and the horizontal direction. The size of the display portion 161 is indicated by the number of pixels in the vertical direction and the horizontal direction of the display portion 161. The magnification of the content image is determined by the size of the display portion of the content image and the size of the display portion 161, and the horizontal pixel count of the display portion of the content image is divided by the horizontal pixel count of the display portion 161. The value is taken. In the present embodiment, when the content is acquired, the magnification of the content image is “1”, and the magnification of the content image varies when a pinch-out operation or a pinch-in operation is input by the user. Is the value to be

キャプチャー部分決定部75は、表示部161のサイズをS(単位:画素数)、コンテンツの画像の倍率をb、およびRAM114の空容量をm(単位:画素数)とする場合、m/(b*S)以下の最大の整数nを求め、表示部161のサイズSにnを乗じた値をキャプチャー部分のデフォルトサイズに決定する。なお、ここでは、RAM114の空容量の単位を画素数としているが、1画素あたりのバイト数がコンテンツの画像によって変動するためである。記憶容量をバイトで示す場合には、記憶容量M(byt)を1画素あたりのバイト数で除算した値を用いればよい。   When the size of the display unit 161 is S (unit: number of pixels), the magnification of the content image is b, and the free capacity of the RAM 114 is m (unit: number of pixels), the capture portion determination unit 75 is m / (b * S) The following maximum integer n is obtained, and a value obtained by multiplying the size S of the display unit 161 by n is determined as the default size of the capture portion. Here, the unit of the free capacity of the RAM 114 is the number of pixels, but this is because the number of bytes per pixel varies depending on the content image. When the storage capacity is indicated in bytes, a value obtained by dividing the storage capacity M (byte) by the number of bytes per pixel may be used.

キャプチャー部分決定部75は、表示部分決定部72からキャプチャー率が入力される場合、キャプチャー部分のサイズを、デフォルトサイズにキャプチャー率を乗算した値に変更する。   When the capture rate is input from the display portion determination unit 72, the capture portion determination unit 75 changes the size of the capture portion to a value obtained by multiplying the capture size by the default size.

キャプチャー部分決定部75は、キャプチャー部分のサイズを決定すると、決定したサイズの領域であって表示部分を中心に含む領域をキャプチャー部分に決定する。また、表示部分がコンテンツの画像の端部に位置する場合は、キャプチャー部分のすべてがコンテンツの画像の少なくとも一部を含み、かつ、表示部分のすべてを含む位置となるようにキャプチャー部分を決定する。キャプチャー部分決定部75は、決定されたキャプチャー部分をキャプチャー画像生成部76に出力する。キャプチャー部分は、矩形の領域であり、2つの対角で特定される。このためキャプチャー部分は、コンテンツの画像中で2つの対角の座標を含む。   When the capture part determining unit 75 determines the size of the capture part, the capture part determining unit 75 determines an area having the determined size and including the display part as the capture part. When the display part is located at the end of the content image, the capture part is determined so that all of the capture part includes at least part of the content image and includes all of the display part. . The capture part determination unit 75 outputs the determined capture part to the capture image generation unit 76. The capture portion is a rectangular area, and is specified by two diagonals. For this reason, the capture portion includes two diagonal coordinates in the content image.

キャプチャー画像生成部76は、コンテンツ取得部71からコンテンツであるWebページが入力され、キャプチャー部分決定部75からキャプチャー部分が入力され、Webページに基づいてキャプチャー画像を生成する。具体的には、キャプチャー画像生成部76は、キャプチャー部分決定部75からキャプチャー部分が入力されることに応じて、Webページを解析してWebページのキャプチャー部分に対応する画像を生成する。キャプチャー画像生成部76は、生成された画像をキャプチャー画像として、一時記憶制御部77に出力する。キャプチャー部分決定部75は、ジェスチャー期間の開始時にキャプチャー部分を決定するので、キャプチャー画像生成部76は、ジェスチャー期間の開始時にキャプチャー画像を生成する。   The capture image generation unit 76 receives a web page as content from the content acquisition unit 71 and receives a capture portion from the capture portion determination unit 75, and generates a capture image based on the web page. Specifically, the capture image generation unit 76 analyzes the web page and generates an image corresponding to the capture portion of the web page in response to the capture portion input from the capture portion determination unit 75. The captured image generation unit 76 outputs the generated image to the temporary storage control unit 77 as a capture image. Since the capture portion determination unit 75 determines a capture portion at the start of the gesture period, the capture image generation unit 76 generates a capture image at the start of the gesture period.

一時記憶制御部77は、キャプチャー画像生成部76からキャプチャー画像が入力されると、キャプチャー画像をRAM114に記憶するとともに、表示用画像生成部78に、キャプチャー画像が記憶されたことを通知する。たとえば、RAM114に記憶されたキャプチャー画像のアドレス、またはファイル名を通知する。ここでは、キャプチャー画像のファイル名を通知する場合を例に説明する。   When the capture image is input from the capture image generation unit 76, the temporary storage control unit 77 stores the capture image in the RAM 114 and notifies the display image generation unit 78 that the capture image has been stored. For example, the address or file name of the captured image stored in the RAM 114 is notified. Here, a case where the file name of the captured image is notified will be described as an example.

表示用画像生成部78は、コンテンツ取得部71からコンテンツであるWebページが入力され、表示部分決定部72から表示部分が入力され、ジェスチャー期間検出部73からジェスチャー期間信号が入力され、一時記憶制御部77からキャプチャー画像のファイル名が入力される。表示用画像生成部78は、コンテンツ取得部71によってコンテンツが取得された時、ジェスチャー期間信号が入力されるジェスチャー期間の間はジェスチャーイベントが決定される時、およびジェスチャー期間が終了する時に、表示用画像を生成する。表示用画像生成部78は、生成された表示用画像を補正部74に出力する。   The display image generation unit 78 receives a web page as a content from the content acquisition unit 71, receives a display portion from the display portion determination unit 72, receives a gesture period signal from the gesture period detection unit 73, and temporarily stores control. The file name of the captured image is input from the unit 77. The display image generation unit 78 is configured to display the content when the content acquisition unit 71 acquires the content, when the gesture event is determined during the gesture period in which the gesture period signal is input, and when the gesture period ends. Generate an image. The display image generation unit 78 outputs the generated display image to the correction unit 74.

具体的には、表示用画像生成部78は、ジェスチャー期間の間は、RAM114に記憶されたキャプチャー画像に基づいて表示部分に対応する表示用画像を生成する。一時記憶制御部77から入力されるファイル名のキャプチャー画像を、RAM114から読み出し、読み出したキャプチャー画像のうち、ジェスチャー期間に表示部分決定部72から入力される表示部分で特定される領域を表示用画像として抽出する。また、表示用画像生成部78は、コンテンツ取得部71によってWebページが取得された時、またはジェスチャー期間が終了する時は、コンテンツ取得部71から入力されるWebページに基づいて表示用画像を生成する。Webページを解析してWebページの表示部分に対応する画像を表示用画像として生成する。表示用画像生成部78は、ジェスチャー期間検出部73からジェスチャー期間信号が入力されている状態からジェスチャー期間信号が入力されなくなる時を、ジェスチャー期間が終了した時点と判断する。   Specifically, the display image generation unit 78 generates a display image corresponding to the display portion based on the captured image stored in the RAM 114 during the gesture period. A capture image having a file name input from the temporary storage control unit 77 is read from the RAM 114, and a region specified by the display portion input from the display portion determination unit 72 during the gesture period is displayed in the captured image. Extract as The display image generation unit 78 generates a display image based on the Web page input from the content acquisition unit 71 when the Web page is acquired by the content acquisition unit 71 or when the gesture period ends. To do. The web page is analyzed to generate an image corresponding to the display portion of the web page as a display image. The display image generation unit 78 determines that the gesture period ends when the gesture period signal is not input after the gesture period signal is input from the gesture period detection unit 73.

補正部74は、表示用画像を解析して、表示用画像が表の画像を含むか否かを判断する。例えば、表示用画像を二値化し、2以上の直線を検出するならば表の画像を含むと判断する。補正部74は、表示用画像中の直線が表示用画像の境界と重ならない場合、最も周辺に近い直線が境界と重なるように表示部分のサイズを変更する。表示用画像がキャプチャー画像またはコンテンツの画像に含まれる直線で区切られるサイズとなるまで、表示部分を拡大または縮小することによって、表示部分を変更する。補正部74は、変更後の表示部分を表示用画像生成部78に出力する。   The correction unit 74 analyzes the display image and determines whether or not the display image includes a front image. For example, if a display image is binarized and two or more straight lines are detected, it is determined that a table image is included. When the straight line in the display image does not overlap the boundary of the display image, the correction unit 74 changes the size of the display portion so that the straight line closest to the periphery overlaps the boundary. The display portion is changed by enlarging or reducing the display portion until the display image has a size delimited by a straight line included in the captured image or the content image. The correction unit 74 outputs the changed display portion to the display image generation unit 78.

表示用画像生成部78は、補正部74から変更された後の表示部分が入力される場合、ジェスチャー期間の間は、RAM114に記憶されたキャプチャー画像に基づいて変更された後の表示部分に対応する表示用画像を生成する。また、表示用画像生成部78は、コンテンツ取得部71によってWebページが取得された時、またはジェスチャー期間が終了する時は、コンテンツ取得部71から入力されるWebページを解析してWebページの表示部分に対応する画像を表示用画像として生成する。表示用画像生成部78は、生成された表示用画像を表示制御部79に出力する。   When the display portion after the change is input from the correction unit 74, the display image generation unit 78 corresponds to the display portion after the change based on the captured image stored in the RAM 114 during the gesture period. A display image to be generated is generated. Further, the display image generation unit 78 analyzes the Web page input from the content acquisition unit 71 when the Web page is acquired by the content acquisition unit 71 or when the gesture period ends, and displays the Web page. An image corresponding to the portion is generated as a display image. The display image generation unit 78 outputs the generated display image to the display control unit 79.

表示制御部79は、表示用画像生成部78から表示用画像が入力されることに応じて、表示用画像を表示部161に表示する。具体的には、表示制御部79は、表示用画像を表示部161に表示するために、アプリコマンドを調停部53に出力する。これにより、オペレーティング部57によって、表示部161が備えるVRAM(Video RAM)に表示用画像が記憶され、表示用画像が表示部161に表示される。   The display control unit 79 displays the display image on the display unit 161 in response to the display image input from the display image generation unit 78. Specifically, the display control unit 79 outputs an application command to the arbitration unit 53 in order to display the display image on the display unit 161. Thus, the operating unit 57 stores the display image in a VRAM (Video RAM) included in the display unit 161, and the display image is displayed on the display unit 161.

次に、キャプチャー画像について説明する。図8は、コンテンツの一例を示す第1の図である。図8を参照して、コンテンツを、サーバーに記憶される地図の画像データとしている。地図の画像401は、点線で示される領域403、領域405および領域407と、を含む。領域403は、表示部分を示し、領域405は、表示部分である領域403に対応する第1のキャプチャー部分を示し、領域407は、表示部分である領域403に対応する第2のキャプチャー部分を示す。第2のキャプチャー部分に対応する領域407は、第1のキャプチャー部分に対応する領域405よりもサイズが大きい。   Next, the captured image will be described. FIG. 8 is a first diagram illustrating an example of content. Referring to FIG. 8, the content is map image data stored in the server. Map image 401 includes a region 403, a region 405, and a region 407 indicated by dotted lines. A region 403 indicates a display portion, a region 405 indicates a first capture portion corresponding to the region 403 that is a display portion, and a region 407 indicates a second capture portion corresponding to the region 403 that is a display portion. . The region 407 corresponding to the second capture portion is larger in size than the region 405 corresponding to the first capture portion.

図9は、表示用画像の一例を示す第1の図である。図9を参照して、表示用画像413は、図8に示した地図の画像401のうち表示部分403に該当する。   FIG. 9 is a first diagram illustrating an example of a display image. Referring to FIG. 9, display image 413 corresponds to display portion 403 in map image 401 shown in FIG. 8.

再度図8を参照して、表示用画像413が表示部161に表示されている状態で、ユーザーがピンチインのマルチタッチ操作を開始する時点の2本の指の間隔が第1の間隔の場合に、第1のキャプチャー部分の領域405が決定され、2本の指の間隔が第1の間隔より広い第2の間隔の場合に、第2のキャプチャー部分の領域407が決定される。   Referring to FIG. 8 again, when the display image 413 is displayed on the display unit 161 and the interval between the two fingers when the user starts the pinch-in multi-touch operation is the first interval. The first capture portion region 405 is determined, and the second capture portion region 407 is determined when the interval between the two fingers is a second interval wider than the first interval.

また、基準倍率は、ピンチインのマルチタッチ操作を開始する時点の2本の指の間隔が第1の間隔の場合の方が第2の間隔の場合よりも小さな値に設定される。このため、日本の指の間隔を狭くする距離が同じであっても、最初の指示時点の2本の指の間隔が第1の間隔の場合の方が第2の間隔の場合よりも表示用画像413の縮小率が小さくなる。このため、ピンチイン操作における最初の指示時点の2本の指の間隔が第1の間隔の場合に、第1のキャプチャー部分の領域405よりサイズの大きな第2のキャプチャー部分の領域407を決定することにより、表示用画像を縮小する場合に、表示部分のサイズを拡大した後の表示部分が第2のキャプチャー部分の領域407のサイズを超えないようにすることができる。また、ピンチイン操作における最初の指示時点の2本の指の間隔が第1の間隔の場合に第2のキャプチャー部分の領域407よりサイズの小さい第1のキャプチャー部分の領域405を決定することにより、キャプチャー部分のサイズをできるだけ小さくすることができる。このため、処理の対象とするデータ量を小さくすることができるので、CPU111の負荷を低減してレスポンスタイムを早くすることができる。   The reference magnification is set to a smaller value when the interval between the two fingers at the start of the pinch-in multi-touch operation is the first interval than when the interval is the second interval. For this reason, even if the distance between Japanese fingers is the same, the distance between the two fingers at the time of the first instruction is the first interval than the second interval. The reduction ratio of the image 413 is reduced. For this reason, when the interval between the two fingers at the first instruction time in the pinch-in operation is the first interval, the second capture portion region 407 having a size larger than that of the first capture portion region 405 is determined. Thus, when the display image is reduced, the display portion after the display portion is enlarged can be prevented from exceeding the size of the area 407 of the second capture portion. Further, by determining the first capture portion area 405 having a smaller size than the second capture portion area 407 when the interval between the two fingers at the first instruction time in the pinch-in operation is the first interval, The size of the capture part can be made as small as possible. For this reason, since the amount of data to be processed can be reduced, the load on the CPU 111 can be reduced and the response time can be shortened.

図10は、コンテンツの一例を示す第2の図である。図10に示すコンテンツは、表を含む。図11は、表示用画像の一例を示す第2の図である。図11を参照して、表示用画像は、図10に示したコンテンツである表の一部である。また、表示用画像の境界は、周辺が表を構成する直線と重なる。このため、2つの直線で囲まれた文字が表示されるので、文字を認識しやすくすることができるとともに、ピンチイン操作において、文字が表示される位置に指の間隔を調整する操作を容易にすることができる。   FIG. 10 is a second diagram illustrating an example of content. The content shown in FIG. 10 includes a table. FIG. 11 is a second diagram illustrating an example of a display image. Referring to FIG. 11, the display image is a part of the table that is the content shown in FIG. Further, the boundary of the display image overlaps with a straight line whose periphery forms a table. For this reason, since the character surrounded by two straight lines is displayed, it is possible to easily recognize the character, and in the pinch-in operation, it is easy to adjust the distance between the fingers at the position where the character is displayed. be able to.

図12は、ジェスチャーイベント決定処理の流れの一例を示す第1のフローチャートである。図13は、ジェスチャーイベント決定処理の流れの一例を示す第2のフローチャートである。ジェスチャーイベント決定処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶された操作受付プログラムを実行することにより、CPU111により実行される処理である。図12および図13を参照して、CPU111は、タッチイベントを検出したか否かを判断する(ステップS01)。ユーザーがタッチパネル165を指示すれば、タッチパネル165により検出された位置に基づいてタッチイベントを検出する。タッチイベントを検出するまで待機状態となり(ステップS01でNO)、タッチイベントを検出したならば(ステップS01でYES)、処理をステップS02に進める。換言すれば、ジェスチャーイベント決定処理は、ユーザーがタッチパネル165を指示する場合に、タッチイベントを検出することを条件に実行される処理である。   FIG. 12 is a first flowchart illustrating an example of the flow of the gesture event determination process. FIG. 13 is a second flowchart illustrating an example of the flow of the gesture event determination process. The gesture event determination process is a process executed by CPU 111 when CPU 111 of MFP 100 executes an operation reception program stored in ROM 113, HDD 115, or CD-ROM 118. Referring to FIGS. 12 and 13, CPU 111 determines whether a touch event has been detected (step S01). When the user indicates touch panel 165, a touch event is detected based on the position detected by touch panel 165. The process waits until a touch event is detected (NO in step S01). If a touch event is detected (YES in step S01), the process proceeds to step S02. In other words, the gesture event determination process is a process executed on condition that a touch event is detected when the user instructs the touch panel 165.

ステップS02においては、検出されたタッチイベントが単数か否かを判断する。単数のタッチイベントが検出されたならば処理をステップS03に進めるが、複数のタッチイベントが検出されたならば処理をステップS17に進める。   In step S02, it is determined whether or not the detected touch event is single. If a single touch event is detected, the process proceeds to step S03. If a plurality of touch events are detected, the process proceeds to step S17.

ステップS03においてはタッチイベントの状態によって処理を分岐させる。タッチイベントの状態が「Press」ならば処理をステップS04に進め、「Move」ならば処理をステップS09に進め、「Release」ならば処理をステップS05に進める。ステップS04においては、タイマーT1をスタートさせ、処理をステップS01に戻す。タイマーT1は、状態が「Press」のタッチイベントが検出されてからの経過時間を計時する。   In step S03, the process branches depending on the state of the touch event. If the state of the touch event is “Press”, the process proceeds to step S04. If the state is “Move”, the process proceeds to step S09. If the state is “Release”, the process proceeds to step S05. In step S04, timer T1 is started and the process returns to step S01. The timer T1 measures the elapsed time since the touch event whose state is “Press” is detected.

ステップS09においては、タイマーT1の値がしきい値TT1以下か否かを判断する。タイマーT1の値がしきい値TT1以下ならば処理をステップS10に進めるが、そうでなければ処理をステップS16に進める。ステップS10においては、指示距離LB1を算出する。処理がステップS10に進む場合、ステップS01において検出されたタッチイベントより前に、状態情報が「Press」または「Move」のタッチイベントが検出されている。ここでは、ステップS01において検出されたタッチイベントより前に検出されたタッチイベントを第1のタッチイベントといい、ステップS01において検出されたタッチイベントを第2のタッチイベントという。ステップS10においては、第1のタッチイベントおよび第2のタッチイベントそれぞれに含まれる位置情報で特定される2つの位置の間の距離を指示距離LB1として算出する。   In step S09, it is determined whether the value of timer T1 is equal to or less than threshold value TT1. If the value of timer T1 is equal to or smaller than threshold value TT1, the process proceeds to step S10; otherwise, the process proceeds to step S16. In step S10, the designated distance LB1 is calculated. When the process proceeds to step S10, a touch event whose state information is “Press” or “Move” is detected before the touch event detected in step S01. Here, the touch event detected before the touch event detected in step S01 is referred to as a first touch event, and the touch event detected in step S01 is referred to as a second touch event. In step S10, the distance between two positions specified by the position information included in each of the first touch event and the second touch event is calculated as an instruction distance LB1.

ステップS11においては、指示距離LB1がしきい値TL以上か否かを判断する。指示距離LB1がしきい値TL以上ならば処理をステップS12に進めるが、そうでなければ処理をステップS16に進める。ステップS16においては、タッチイベントを決定しないことを示す未決定信号を出力し、処理を終了する。状態が「Press」のタッチイベントが検出されてからの経過時間がしきい値TT1以内に、「Press」のタッチイベントで示される位置からしきい値TL以上離れた位置を示すタッチイベントが検出されない場合は、ジェスチャーイベントを決定することなく、処理を終了する。ユーザーが指示してからしきい値TT1の時間が経過しても指示する位置が移動しない場合には、ジェスチャーイベントを決定しないためである。なお、同じ位置を所定時間指示するジェスチャーイベントを決定するようにしてもよい。   In step S11, it is determined whether or not the designated distance LB1 is greater than or equal to the threshold value TL. If instructed distance LB1 is equal to or greater than threshold value TL, the process proceeds to step S12; otherwise, the process proceeds to step S16. In step S16, an undetermined signal indicating that the touch event is not determined is output, and the process ends. A touch event indicating a position away from the position indicated by the “Press” touch event by the threshold TL or more is not detected within the threshold time TT1 after the touch event having the state “Press” is detected. In the case, the process ends without determining the gesture event. This is because the gesture event is not determined when the position to be instructed does not move even after the time of the threshold value TT1 has elapsed since the user instructed. A gesture event that indicates the same position for a predetermined time may be determined.

処理がステップS12に進む場合、タッチイベントの状態が「Move」の場合であり、そのタッチイベントの直前に別のタッチイベントが入力されている。別のタッチイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS12においては、指示方向を決定する。直前に入力された別のタッチイベントに含まれる位置情報で特定される位置からステップS01において検出されたタッチイベントに含まれる位置情報で特定される位置に向かう方向を決定する。ここで決定する方向は、表示部161の表示面を基準にした上下左右の4方向のうち最も近い方向である。   When the process proceeds to step S12, the state of the touch event is “Move”, and another touch event is input immediately before the touch event. The state of another touch event includes a case of “Press” and a case of “Move”. In step S12, an instruction direction is determined. A direction from the position specified by the position information included in another touch event input immediately before to the position specified by the position information included in the touch event detected in step S01 is determined. The direction determined here is the closest direction among the four directions, top, bottom, left, and right, based on the display surface of the display unit 161.

次のステップS13においては、指示距離LB1がしきい値TH以上か否かを判断する。指示距離LB1がしきい値TH以上ならば処理をステップS14に進めるが、そうでなければ処理をステップS15に進める。   In the next step S13, it is determined whether or not the designated distance LB1 is greater than or equal to a threshold value TH. If instructed distance LB1 is equal to or greater than threshold value TH, the process proceeds to step S14; otherwise, the process proceeds to step S15.

ステップS14においては、ジェスチャーイベントをスワイプに決定し、処理をステップS33に進める。ジェスチャーイベントは、ジェスチャー識別情報「スワイプ」と、ステップS12において決定された方向および、ステップS10において算出された指示距離LB1を含むパラメータと、を含む。ステップS15においては、ジェスチャーイベントをフリックに決定し、処理をステップS33に進める。ジェスチャーイベントは、ジェスチャー識別情報「フリック」と、ステップS12において決定された方向および、ステップS10において算出された指示距離LB1を含むパラメータと、を含む。   In step S14, the gesture event is determined to be swipe, and the process proceeds to step S33. The gesture event includes gesture identification information “swipe”, the parameter determined in step S12, and the parameter including the instruction distance LB1 calculated in step S10. In step S15, the gesture event is determined to be flicked, and the process proceeds to step S33. The gesture event includes gesture identification information “flick”, a parameter determined in step S12, and a parameter including the instruction distance LB1 calculated in step S10.

処理がステップS05に進む場合、ステップS01において検出されたタッチイベントの状態が「Release」である。タッチイベントの状態が「Release」の場合、そのタッチイベントの直前に別のタッチイベントが入力されている。別のタッチイベントの状態は、「Press」の場合と、「Move」の場合とがある。ステップS05においては、直前に入力された別のタッチイベントの状態によって処理を分岐させる。直前に入力された別のタッチイベントの状態が「Press」ならば処理をステップS06に進めるが、そうでなければ処理をステップS01に戻す。   When the process proceeds to step S05, the state of the touch event detected in step S01 is “Release”. When the state of the touch event is “Release”, another touch event is input immediately before the touch event. The state of another touch event includes a case of “Press” and a case of “Move”. In step S05, the process branches depending on the state of another touch event input immediately before. If the state of another touch event input immediately before is “Press”, the process proceeds to step S06; otherwise, the process returns to step S01.

ステップS06においては、ステップS01において検出されたタッチイベントに含まれる位置情報と同じ位置情報がRAM114に記憶されているか否かを判断する。RAM114に記憶されているならば処理をステップS07に進めるが、そうでなければ処理をステップS08に進める。なお、ここでいう同じ位置情報とは、2つの位置情報でそれぞれ特定される2つの位置の間の距離が所定の長さ以内である場合を含む。ユーザーが同じ位置を指示する操作を検出するために、誤差を含む。   In step S06, it is determined whether or not the same position information as the position information included in the touch event detected in step S01 is stored in RAM 114. If stored in RAM 114, the process proceeds to step S07; otherwise, the process proceeds to step S08. In addition, the same position information here includes the case where the distance between the two positions respectively specified by the two position information is within a predetermined length. In order to detect an operation in which the user points to the same position, an error is included.

ステップS08においては、ステップS01において検出されたタッチイベントに含まれる位置情報をRAM114に一時記憶し、処理をステップS34に進める。処理がステップS08に進む場合は、直前に入力されたタッチイベントの状態が「Press」で、次に入力されるタッチイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されていない場合である。換言すれば、ユーザーが最初のタップ操作を入力する場合である。   In step S08, the position information included in the touch event detected in step S01 is temporarily stored in RAM 114, and the process proceeds to step S34. When the process proceeds to step S08, the state of the touch event input immediately before is “Press”, the state of the touch event input next is “Release”, and the same position information is stored in the RAM 114. This is the case when it is not stored. In other words, the user inputs the first tap operation.

ステップS07においては、ジェスチャーイベントをダブルタップに決定し、処理をステップS34に進める。処理がステップS07に進む場合は、直前に入力されたタッチイベントの状態が「Press」で、ステップS01において入力されるタッチイベントの状態が「Release」の場合であり、かつ、RAM114に同じ位置情報が記憶されている場合である。換言すれば、ユーザーが最初のタップ操作を入力した後に、最初のタップ操作と同じ位置をタップ操作する場合である。   In step S07, the gesture event is determined to be a double tap, and the process proceeds to step S34. When the process proceeds to step S07, the state of the touch event input immediately before is “Press”, the state of the touch event input in step S01 is “Release”, and the same position information is stored in the RAM 114. Is stored. In other words, after the user inputs the first tap operation, the user taps the same position as the first tap operation.

処理がステップS16に進む場合は、2つのタッチイベントが検出される場合である。ステップS16においては、2つのタッチイベントの少なくとも一方の状態が「Move」か否かを判断する。2つのタッチイベントの少なくとも一方の状態が「Move」ならば処理をステップS17に進めるが、そうでなければ処理をステップS01に戻す。   The process proceeds to step S16 when two touch events are detected. In step S16, it is determined whether or not the state of at least one of the two touch events is “Move”. If the state of at least one of the two touch events is “Move”, the process proceeds to step S17. If not, the process returns to step S01.

処理がステップS17に進む場合、ステップS01において検出された2つのタッチイベントより前に、状態情報が「Press」または「Move」の2つのタッチイベントが検出されている。ここでは、ステップS01において検出された2つのタッチイベントより前に検出された2つのタッチイベントを、第1の組の第1のタッチイベントおよび第2のタッチイベントといい、ステップS01において検出された2つのタッチイベントを、第2の組の第1のタッチイベントおよび第2のタッチイベントという。ここでは、第1の組の第1のタッチイベントと第2の組の第1のタッチイベントが連続した組とし、第1の組の第2のタッチイベントと第2の組の第2のタッチイベントが連続した組としている。ステップS18においては、間隔L1を算出する。第1の組の第1のタッチイベントおよび第2のタッチイベントそれぞれに含まれる位置情報で特定される2つの位置の間の距離を間隔L1として算出する。   When the process proceeds to step S17, two touch events whose state information is “Press” or “Move” are detected before the two touch events detected in step S01. Here, the two touch events detected before the two touch events detected in step S01 are referred to as a first touch event and a second touch event of the first set, and are detected in step S01. The two touch events are referred to as a second set of first touch events and second touch events. Here, it is assumed that the first touch event of the first set and the first touch event of the second set are consecutive, and the second touch event of the first set and the second touch of the second set. A series of events. In step S18, the interval L1 is calculated. A distance between two positions specified by position information included in each of the first touch event and the second touch event of the first set is calculated as an interval L1.

ステップS19においては、指示角度Rを算出する。第1の組の第1のタッチイベントおよび第2のタッチイベントそれぞれに含まれる位置情報に基づいて、2点間を結ぶ直線の角度R1を算出する。2点間を結ぶ直線の角度は、表示部161の横方向を基準線として、2点間を結ぶ直線が基準線となす角度とすればよい。第2の組の第1のタッチイベントおよび第2のタッチイベントそれぞれに含まれる位置情報に基づいて、2点間を結ぶ直線の角度R2を算出する。そして、角度R1から角度R2を減算した差を指示角度Rとして算出する。   In step S19, an instruction angle R is calculated. An angle R1 of a straight line connecting two points is calculated based on position information included in each of the first and second touch events of the first set. The angle of the straight line connecting the two points may be an angle formed by the straight line connecting the two points with the reference line with the horizontal direction of the display unit 161 as the reference line. An angle R2 of a straight line connecting the two points is calculated based on position information included in each of the second set of the first touch event and the second touch event. Then, a difference obtained by subtracting the angle R2 from the angle R1 is calculated as the instruction angle R.

次のステップS20においては、ステップS19において算出された指示角度Rの絶対値が、所定のしきい値TRより大きいか否かを判断する。角度R1が変化したか否かを判断するためである。指示角度Rの絶対値が、所定のしきい値TRより大きいならば処理をステップS21に進めるが、そうでなければ処理をステップS22に進める。ステップS21においては、ジェスチャーイベントをローテーションに決定し、処理をステップS34に進める。ここで生成されるジェスチャーイベントは、ジェスチャー識別情報「ローテーション」と、ステップS18において算出された間隔L1およびステップS19において算出された指示角度Rを含むパラメータと、を含む。   In the next step S20, it is determined whether or not the absolute value of the indicated angle R calculated in step S19 is larger than a predetermined threshold value TR. This is to determine whether or not the angle R1 has changed. If the absolute value of command angle R is greater than predetermined threshold value TR, the process proceeds to step S21; otherwise, the process proceeds to step S22. In step S21, the gesture event is determined as rotation, and the process proceeds to step S34. The gesture event generated here includes gesture identification information “rotation” and a parameter including the interval L1 calculated in step S18 and the instruction angle R calculated in step S19.

ステップS22においては、指示距離Dを算出する。第2の組の第1のタッチイベントおよび第2のタッチイベントそれぞれに含まれる位置情報に基づいて、2点間の間隔L2を算出し、ステップS18において算出された間隔L1から間隔L2を減算した値を指示距離Dとして算出する。   In step S22, the designated distance D is calculated. Based on the position information included in each of the second set of the first touch event and the second touch event, an interval L2 between the two points is calculated, and the interval L2 is subtracted from the interval L1 calculated in step S18. The value is calculated as the indicated distance D.

次のステップS23においては、ステップS22において算出された指示距離Dの絶対値が、所定のしきい値TDより大きいか否かを判断する。間隔L1が変化したか否かを判断するためである。指示距離Dの絶対値が、所定のしきい値TDより大きいならば処理をステップS24に進めるが、そうでなければ処理をステップS27に進める。ステップS24においては、指示距離Dが正の値か否かを判断する。指示距離Dが正の値ならば処理をステップS25に進めるが、そうでなければ処理をステップS26に進める。ステップS25においては、ジェスチャーイベントをピンチインに決定し、処理をステップS34に進める。ジェスチャーイベントは、ジェスチャー識別情報「ピンチイン」と、ステップS18において算出された間隔L1およびステップS22において算出された指示距離Dを含むパラメータと、を含む。ステップS26においては、ジェスチャーイベントをピンチアウトに決定し、処理をステップS34に進める。ジェスチャーイベントは、ジェスチャー識別情報「ピンチアウト」と、ステップS18において算出された間隔L1およびステップS22において算出された指示距離Dを含むパラメータと、を含む。   In the next step S23, it is determined whether or not the absolute value of the indicated distance D calculated in step S22 is greater than a predetermined threshold value TD. This is to determine whether or not the interval L1 has changed. If the absolute value of indicated distance D is greater than predetermined threshold value TD, the process proceeds to step S24; otherwise, the process proceeds to step S27. In step S24, it is determined whether or not the indicated distance D is a positive value. If the instruction distance D is a positive value, the process proceeds to step S25; otherwise, the process proceeds to step S26. In step S25, the gesture event is determined to be pinch-in, and the process proceeds to step S34. The gesture event includes gesture identification information “Pinch In” and a parameter including the interval L1 calculated in step S18 and the instruction distance D calculated in step S22. In step S26, the gesture event is determined to be pinch out, and the process proceeds to step S34. The gesture event includes gesture identification information “pinch out” and a parameter including the interval L1 calculated in step S18 and the instruction distance D calculated in step S22.

処理がステップS27に進む場合、ステップS01において検出された2つのタッチイベントより前に、状態情報が「Press」または「Move」の2つのタッチイベントが検出されている。ステップS27においては、指示距離LB2を算出する。第1の組の第1のタッチイベントおよび第2の組の第1のタッチイベントそれぞれに含まれる位置情報で特定される2つの位置の間の距離を指示距離LB2として算出する。なお、第1の組の第2のタッチイベントおよび第2の組の第2のタッチイベントそれぞれに含まれる位置情報で特定される2つの位置の間の距離を指示距離LB2として算出するようにしてもよい。   When the process proceeds to step S27, two touch events whose state information is “Press” or “Move” are detected before the two touch events detected in step S01. In step S27, the designated distance LB2 is calculated. A distance between two positions specified by position information included in each of the first touch event of the first group and the first touch event of the second group is calculated as an instruction distance LB2. The distance between the two positions specified by the position information included in the second touch event of the first group and the second touch event of the second group is calculated as the instruction distance LB2. Also good.

ステップS28においては、指示距離LB2がしきい値TL以上か否かを判断する。指示距離LB2がしきい値TL以上ならば処理をステップS29に進めるが、そうでなければ処理をステップS33に進める。ステップS33においては、タッチイベントを決定しないことを示す未決定信号を出力し、処理を終了する。しきい値TL以上離れた位置を示す2つのタッチイベントが検出されない場合は、ジェスチャーイベントを決定することなく、処理を終了する。ユーザーが指示する位置が移動しない場合には、ジェスチャーイベントを決定しないためである。なお、同じ位置を所定時間指示するジェスチャーイベントを決定するようにしてもよい。   In step S28, it is determined whether or not indicated distance LB2 is greater than or equal to threshold value TL. If instructed distance LB2 is greater than or equal to threshold value TL, the process proceeds to step S29; otherwise, the process proceeds to step S33. In step S33, an undetermined signal indicating that the touch event is not determined is output, and the process ends. If two touch events indicating positions separated by the threshold value TL or more are not detected, the process ends without determining a gesture event. This is because the gesture event is not determined when the position designated by the user does not move. A gesture event that indicates the same position for a predetermined time may be determined.

ステップS29においては、指示方向を決定する。第1の組の第1のタッチイベントに含まれる位置情報で特定される位置から第2の組の第1のタッチイベントに含まれる位置情報で特定される位置に向かう方向を決定する。ここで決定する方向は、表示部161の表示面を基準にした上下左右の4方向のうち最も近い方向である。   In step S29, an instruction direction is determined. A direction from the position specified by the position information included in the first touch event of the first set to the position specified by the position information included in the second touch of the first touch event is determined. The direction determined here is the closest direction among the four directions, top, bottom, left, and right, based on the display surface of the display unit 161.

次のステップS30においては、指示距離LB2がしきい値TH以上か否かを判断する。指示距離LB2がしきい値TH以上ならば処理をステップS31に進めるが、そうでなければ処理をステップS32に進める。   In the next step S30, it is determined whether or not the designated distance LB2 is greater than or equal to a threshold value TH. If instructed distance LB2 is equal to or greater than threshold value TH, the process proceeds to step S31; otherwise, the process proceeds to step S32.

ステップS31においては、ジェスチャーイベントをスワイプに決定し、処理をステップS34に進める。ジェスチャーイベントは、ジェスチャー識別情報「スワイプ」と、ステップS18において算出された間隔L1およびステップS27において算出された指示距離LB2を含むパラメータと、を含む。ステップS32においては、ジェスチャーイベントをフリックに決定し、処理をステップS34に進める。ジェスチャーイベントは、ジェスチャー識別情報「フリック」と、ステップS18において算出された間隔L1およびステップS27において算出された指示距離LB2を含むパラメータと、を含む。   In step S31, the gesture event is determined to be swipe, and the process proceeds to step S34. The gesture event includes gesture identification information “swipe” and a parameter including the interval L1 calculated in step S18 and the instruction distance LB2 calculated in step S27. In step S32, the gesture event is determined to be flicked, and the process proceeds to step S34. The gesture event includes gesture identification information “flick” and a parameter including the interval L1 calculated in step S18 and the instruction distance LB2 calculated in step S27.

ステップS34においては、決定されたジェスチャーイベントに対応する処理が定義されているか否かを判断する。HDD115に記憶されているマスターテーブル91において定められている複数種類の処理のうちに、カレント状態に設定されているアプリケーションプログラムに対応してジェスチャーイベントが関連付けられた処理が存在するか否かで判断する。マスターテーブル91において、決定されたジェスチャーイベントに処理が関連付けられていれば、カレント状態に設定されているアプリケーションプログラムに対応して、決定されたジェスチャーイベントに対応する処理が定義されていると判断する。決定されたジェスチャーイベントに対応する処理が定義されていれば処理をステップS35に進めるが、そうでなければ処理をステップS36に進める。ステップS35においては、決定されたジェスチャーイベントを出力し、処理を終了する。ステップS36においては、未決定信号を出力し、処理を終了する。   In step S34, it is determined whether or not a process corresponding to the determined gesture event is defined. Judgment is made based on whether or not there is a process associated with a gesture event corresponding to the application program set in the current state among a plurality of types of processes defined in the master table 91 stored in the HDD 115. To do. If a process is associated with the determined gesture event in the master table 91, it is determined that a process corresponding to the determined gesture event is defined corresponding to the application program set in the current state. . If a process corresponding to the determined gesture event is defined, the process proceeds to step S35; otherwise, the process proceeds to step S36. In step S35, the determined gesture event is output, and the process ends. In step S36, an undetermined signal is output and the process ends.

図14は、コンテンツ表示処理の流れの一例を示すフローチャートである。コンテンツ表示処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118に記憶されたコンテンツ表示プログラムを実行することにより、CPU111により実行される処理である。図14を参照して、CPU111は、コンテンツを取得する(ステップS51)。具体的には、インターネットに接続されたサーバーからWebページをコンテンツとしてダウンロードする。Webページは、MFP100を操作する操作ユーザーが指定したURLで識別されるWebページである。また、予め定められたURLで識別されるWebページであってもよい。また、コンテンツは、Webページに限らず、画像データであってもよい。   FIG. 14 is a flowchart illustrating an example of the flow of content display processing. The content display process is a process executed by CPU 111 when CPU 111 provided in MFP 100 executes a content display program stored in ROM 113, HDD 115, or CD-ROM 118. Referring to FIG. 14, CPU 111 acquires content (step S51). Specifically, a Web page is downloaded as content from a server connected to the Internet. The web page is a web page identified by a URL specified by an operating user who operates MFP 100. Further, it may be a web page identified by a predetermined URL. Further, the content is not limited to a Web page, but may be image data.

ステップS52においては、取得されたWebページ中でデフォルトに定められた表示部分を決定する。ステップS53においては、ステップS51において取得されたWebページに基づいて表示部分に対応する表示用画像を生成する。そして、生成された表示用画像を表示部161に表示し(ステップS54)、処理をステップS55に進める。表示部161のVRAMに表示用画像を格納することによって、表示用画像を表示部161に表示する。   In step S52, a display portion defined as a default in the acquired Web page is determined. In step S53, a display image corresponding to the display portion is generated based on the Web page acquired in step S51. Then, the generated display image is displayed on the display unit 161 (step S54), and the process proceeds to step S55. By storing the display image in the VRAM of the display unit 161, the display image is displayed on the display unit 161.

ステップS55においては、ジェスチャーベントが決定されたか否かを判断する。上述したジェスチャーイベント決定処理において、ジェスチャーイベントが出力される場合にジェスチャーイベントが決定されたと判断する。ジェスチャーイベントが決定されたならば処理をステップS56に進めるが、そうでなければ処理をステップS68に進める。   In step S55, it is determined whether or not a gesture vent has been determined. In the gesture event determination process described above, it is determined that a gesture event has been determined when a gesture event is output. If a gesture event is determined, the process proceeds to step S56; otherwise, the process proceeds to step S68.

ステップS56においては、ジェスチャーイベントがマルチタッチ操作によるものか否かを判断する。マルチタッチ操作に対応するジェスチャーイベントは、パラメータに間隔L1を含むが、シングルタッチ操作に対応するジェスチャーイベントは、パラメータに間隔L1を含まない。ジェスチャーイベントがマルチタッチ操作に対応するならば処理をステップS62に進めるが、そうでなければ処理をステップS57に進める。ステップS62においては、マルチタッチ対応処理を実行し、処理をステップS63に進める。マルチタッチ対応処理の詳細は後述するが、表示用画像を生成する処理である。ステップS63においては、マルチタッチ対応処理が実行された結果、表示用画像が生成されたか否かを判断する。表示用画像が生成されたならば処理をステップS64に進めるが、そうでなければ処理をステップS55に戻す。   In step S56, it is determined whether or not the gesture event is a multi-touch operation. The gesture event corresponding to the multi-touch operation includes the interval L1 in the parameter, but the gesture event corresponding to the single touch operation does not include the interval L1. If the gesture event corresponds to a multi-touch operation, the process proceeds to step S62; otherwise, the process proceeds to step S57. In step S62, a multi-touch compatible process is executed, and the process proceeds to step S63. Although details of the multi-touch compatible process will be described later, this is a process of generating a display image. In step S63, it is determined whether or not a display image has been generated as a result of the multi-touch handling process being executed. If the display image is generated, the process proceeds to step S64. If not, the process returns to step S55.

ステップS57においては、ジェスチャーイベントによって処理を分岐させる。ここでは、シングルタッチ操作に対応するジェスチャーイベントは、フリック操作およびスワイプ操作としている。ジェスチャーイベントがフリック操作に対応する場合処理をステップS58に進め、スワイプ操作に対応する場合処理をステップS59に進める。   In step S57, the process branches depending on the gesture event. Here, the gesture events corresponding to the single touch operation are a flick operation and a swipe operation. If the gesture event corresponds to a flick operation, the process proceeds to step S58. If the gesture event corresponds to a swipe operation, the process proceeds to step S59.

ステップS58においては、移動距離を算出し、処理をステップS60に進める。ジェスチャーイベントのパラメータに含まれる指示距離LB1にデフォルト移動距離を乗算することにより移動距離を算出する。デフォルト移動距離は、デフォルトに定められた移動距離を示し、単位距離当たりの移動距離を示す。次のステップS60においては、表示部分を、ジェスチャーイベントのパラメータに含まれる方向に、移動距離だけ移動させ、処理をステップS61に進める。ステップS59においては、コンテンツを、次のWebページにページを切り換え、処理をステップS61に進める。   In step S58, the movement distance is calculated, and the process proceeds to step S60. The movement distance is calculated by multiplying the instruction distance LB1 included in the parameter of the gesture event by the default movement distance. The default movement distance indicates a movement distance determined as a default, and indicates a movement distance per unit distance. In the next step S60, the display portion is moved by the movement distance in the direction included in the parameter of the gesture event, and the process proceeds to step S61. In step S59, the content is switched to the next Web page, and the process proceeds to step S61.

ステップS61においては、ステップS51において取得されたコンテンツであるWebページから表示用画像を生成し、処理をステップS64に進める。処理がステップS60から進む場合は、Webページ中で、ステップS60において移動された後の表示部分に対応する表示用画像を生成する。処理がステップS59から進む場合は、切換後のWebページ中で、切換前のページ中の表示部分の位置と同じ位置の表示部分に対応する表示用画像を生成する。   In step S61, a display image is generated from the Web page that is the content acquired in step S51, and the process proceeds to step S64. When the process proceeds from step S60, a display image corresponding to the display portion after being moved in step S60 is generated in the Web page. When the process proceeds from step S59, a display image corresponding to the display portion at the same position as the position of the display portion in the page before switching is generated in the Web page after switching.

ステップS64においては、表示用画像が表の画像を含むか否かを判断する。例えば、表示用画像を二値化し、横方向の直線を検出するならば表の画像を含むと判断する。表示用画像が表の画像を含むならば処理をステップS65に進めるが、そうでなければ処理をステップS67に進める。ステップS65においては、表示用画像中の直線が表示用画像の境界か否かを判断する。表示用画像中の直線が表示用画像の境界でなければ処理をステップS66に進めるが、境界ならばステップS66をスキップして処理をステップS67に進める。ステップS66においては、表示用画像中の直線が表示用画像の境界と重なるように表示部分のサイズを変更し、処理をステップS67に進める。表示用画像が後述するキャプチャー画像またはコンテンツの画像に含まれる直線で区切られるサイズとなるまで、表示部分を拡大または縮小することによって、表示部分を変更する。なお、表示部分のサイズを異ならせることなく、表示部分を移動させることによって、表示用画像の境界が表中の直線と重なるようにしてもよい。   In step S64, it is determined whether the display image includes a front image. For example, if a display image is binarized and a straight line in the horizontal direction is detected, it is determined that a table image is included. If the display image includes a front image, the process proceeds to step S65; otherwise, the process proceeds to step S67. In step S65, it is determined whether or not the straight line in the display image is a boundary of the display image. If the straight line in the display image is not the boundary of the display image, the process proceeds to step S66. If the line is a boundary, step S66 is skipped and the process proceeds to step S67. In step S66, the size of the display portion is changed so that the straight line in the display image overlaps the boundary of the display image, and the process proceeds to step S67. The display portion is changed by enlarging or reducing the display portion until the display image has a size delimited by a straight line included in a capture image or content image described later. Note that the boundary of the display image may overlap the straight line in the table by moving the display part without changing the size of the display part.

ステップS67においては、表示用画像を表示部161に表示し、処理をステップS68に進める。表示部161のVRAMに表示用画像を格納することによって、表示用画像を表示部161に表示する。ステップS68においては、コンテンツの表示を終了する指示を受け付けたか否かを判断する。例えば、ハードキー部167に含まれる複数のキーのうち、コンテンツ表示プログラムを終了する指示が割り当てられたキーが指示されたならばコンテンツの表示を終了する指示を受け付ける。コンテンツンの表示を終了する指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS55に戻す。   In step S67, the display image is displayed on display 161, and the process proceeds to step S68. By storing the display image in the VRAM of the display unit 161, the display image is displayed on the display unit 161. In step S68, it is determined whether an instruction to end the display of content has been received. For example, if a key to which an instruction to end the content display program is assigned among a plurality of keys included in the hard key unit 167, an instruction to end the display of content is accepted. If an instruction to end the display of content is accepted, the process ends. If not, the process returns to step S55.

図15は、マルチタッチ対応処理の流れの一例を示すフローチャートである。マルチタッチ対応処理は、図14に示したコンテンツ表示処理のステップS62において実行される処理である。ステップS62が実行される前の段階で、表示用画像が表示されており、マルチタッチ操作に対応するジェスチャーイベントが決定されている。図15を参照して、CPU111は、ジェスチャー期間の開始か否かを判断する(ステップS71)。図14のステップS55においてジェスチャーイベントが決定される前の所定時間にジェスチャーイベントが決定されていなければジェスチャー期間の開始と判断する。ジェスチャー期間の開始ならば処理をステップS72に進めるが、そうでなければ処理をステップS78に進める。   FIG. 15 is a flowchart illustrating an example of the flow of multi-touch compatible processing. The multi-touch handling process is a process executed in step S62 of the content display process shown in FIG. Before the step S62 is executed, the display image is displayed, and the gesture event corresponding to the multi-touch operation is determined. Referring to FIG. 15, CPU 111 determines whether or not a gesture period is started (step S71). If the gesture event is not determined at a predetermined time before the gesture event is determined in step S55 of FIG. 14, it is determined that the gesture period starts. If the gesture period is started, the process proceeds to step S72; otherwise, the process proceeds to step S78.

ステップS72においては、キャプチャー率を決定する。ジェスチャーイベントのパラメータに含まれる間隔L1に基づいて、キャプチャー率を決定する。キャプチャー率は、デフォルトに定められたキャプチャーサイズに対する倍率を示す。複数の距離ごとにキャプチャー率を定めたキャプチャーテーブルを予め記憶しており、そのキャプチャーテーブルを参照して、間隔L1に対応して定められたキャプチャー率を決定する。キャプチャーテーブルは、間隔L1が大きいほど大きなキャプチャー率が設定される。   In step S72, the capture rate is determined. The capture rate is determined based on the interval L1 included in the gesture event parameter. The capture rate indicates a magnification with respect to a capture size determined as a default. A capture table in which a capture rate is determined for each of a plurality of distances is stored in advance, and the capture rate determined in correspondence with the interval L1 is determined with reference to the capture table. In the capture table, a larger capture rate is set as the interval L1 is larger.

ステップS73においては、デフォルトサイズにキャプチャー率を乗算した値のサイズであって、表示用画像に対応する表示部分を含むキャプチャー部分を決定する。次のステップS74においては、ステップS73において決定されたキャプチャー部分に対応するキャプチャー画像を生成する。ステップS51において取得されたWebページのうち、ステップS73において決定されたキャプチャー部分に対応する部分の画像をキャプチャー画像として生成する。そして、生成されたキャプチャー画像をRAM114に一時的に記憶し(ステップS75)、処理をステップS76に進める。   In step S73, the capture portion including the display portion corresponding to the display image, which has a size obtained by multiplying the capture size by the default size, is determined. In the next step S74, a capture image corresponding to the capture portion determined in step S73 is generated. Of the Web page acquired in step S51, an image of a portion corresponding to the capture portion determined in step S73 is generated as a capture image. Then, the generated captured image is temporarily stored in the RAM 114 (step S75), and the process proceeds to step S76.

ステップS76においては、間引数Mを決定する。複数の距離ごとに間引数を定めたタイミングテーブルを参照して、間隔L1に対応して定められた間引数を決定する。タイミングテーブルは、間隔L1が大きいほど間引数が大きな値に設定される。   In step S76, the interval argument M is determined. With reference to the timing table in which the interval argument is determined for each of the plurality of distances, the interval argument determined corresponding to the interval L1 is determined. In the timing table, the interval argument is set to a larger value as the interval L1 is larger.

ステップS77においては、変数Cに初期値「1」を設定し、処理をステップS78に進める。変数Cは、決定されるジェスチャーイベントの数をカウントするための変数である。   In step S77, an initial value “1” is set in variable C, and the process proceeds to step S78. The variable C is a variable for counting the number of gesture events to be determined.

ステップS78においては、ジェスチャーイベントの種類によって処理を分岐させる。ジェスチャーイベントがイベント識別情報「ローテーション」を含むならば処理をステップS79に進め、ジェスチャーイベントがイベント識別情報「ピンチイン」または「ピンチアウト」を含むならば処理をステップS80に進め、ジェスチャーイベントがイベント識別情報「フリック」を含むならば処理をステップS81に進め、ジェスチャーイベントがイベント識別情報「スワイプ」を含むならば処理をステップS82に進める。   In step S78, the process branches depending on the type of gesture event. If the gesture event includes event identification information “rotation”, the process proceeds to step S79. If the gesture event includes event identification information “pinch-in” or “pinch-out”, the process proceeds to step S80. If the information includes “flick”, the process proceeds to step S81. If the gesture event includes event identification information “swipe”, the process proceeds to step S82.

ステップS79においては、回転処理を実行し、処理をコンテンツ表示処理に戻す。ステップS80においては、変倍処理を実行し、処理をコンテンツ表示処理に戻す。ステップS81においては、移動処理を実行し、処理をコンテンツ表示処理に戻す。ステップS82においては、コンテンツのページを切り換え、処理をコンテンツ表示処理に戻す。   In step S79, a rotation process is executed, and the process returns to the content display process. In step S80, the scaling process is executed, and the process returns to the content display process. In step S81, the movement process is executed, and the process returns to the content display process. In step S82, the content page is switched, and the process returns to the content display process.

図16は、回転処理の流れの一例を示すフローチャートである。回転処理は、図15のステップS79において実行される処理である。図16を参照して、変数である回転角合計の値を、回転角合計にジェスチャーイベントのパラメータに含まれる指示角度Rを加算した値に設定する(ステップS101)。回転角合計の初期値は「0」である。次のステップS102においては、変数Cが間引数Mと等しいか否かを判断する。変数Cが間引数Mと等しいならば処理をステップS103に進めるが、そうでなければ処理をステップS107に進める。ステップS107においては、変数Cに1を加算し、処理をマルチタッチ対応に戻す。   FIG. 16 is a flowchart illustrating an example of the flow of the rotation process. The rotation process is a process executed in step S79 of FIG. Referring to FIG. 16, the value of the total rotation angle, which is a variable, is set to a value obtained by adding instruction angle R included in the gesture event parameter to the total rotation angle (step S101). The initial value of the total rotation angle is “0”. In the next step S102, it is determined whether or not the variable C is equal to the interval argument M. If variable C is equal to interval argument M, the process proceeds to step S103; otherwise, the process proceeds to step S107. In step S107, 1 is added to variable C, and the process is returned to the multi-touch support.

ステップS103においては、ジェスチャーイベントのパラメータに含まれる間隔L1から基準回転角を決定する。複数の距離ごとに基準回転角度を定めた回転角テーブルを参照して、間隔L1に対応して定められた基準回転角度を決定する。基準回転角度は、間隔L1が大きいほど大きな値に設定される。   In step S103, the reference rotation angle is determined from the interval L1 included in the gesture event parameter. A reference rotation angle determined in correspondence with the interval L1 is determined with reference to a rotation angle table in which a reference rotation angle is determined for each of a plurality of distances. The reference rotation angle is set to a larger value as the interval L1 is larger.

そして、回転角合計に基準回転角を乗算することにより回転角度を算出する(ステップS104)。次のステップS105においては、表示部分を、ステップS104において算出された回転角度だけ回転させる。次のステップS106においては、RAM114に記憶されたキャプチャー画像の表示部分に対応する画像を表示用画像に設定し、処理をマルチタッチ対応処理に戻す。   Then, the rotation angle is calculated by multiplying the total rotation angle by the reference rotation angle (step S104). In the next step S105, the display portion is rotated by the rotation angle calculated in step S104. In the next step S106, an image corresponding to the display portion of the captured image stored in the RAM 114 is set as a display image, and the process is returned to the multi-touch compatible process.

図17は、変倍処理の流れの一例を示すフローチャートである。変倍処理は、図15のステップS80において実行される処理である。図17を参照して、変数である距離合計の値を、距離合計にジェスチャーイベントのパラメータに含まれる指示距離Dを加算した値に設定する(ステップS111)。距離合計の初期値は「0」である。次のステップS112においては、変数Cが間引数Mと等しいか否かを判断する。変数Cが間引数Mと等しいならば処理をステップS113に進めるが、そうでなければ処理をステップS117に進める。ステップS117においては、変数Cに1を加算し、処理をマルチタッチ対応に戻す。   FIG. 17 is a flowchart illustrating an example of the flow of the scaling process. The scaling process is a process executed in step S80 of FIG. Referring to FIG. 17, the value of the distance total that is a variable is set to a value obtained by adding the instruction distance D included in the parameter of the gesture event to the distance total (step S111). The initial value of the total distance is “0”. In the next step S112, it is determined whether or not the variable C is equal to the interval argument M. If variable C is equal to interval argument M, the process proceeds to step S113; otherwise, the process proceeds to step S117. In step S117, 1 is added to variable C, and the process returns to the multi-touch support.

ステップS113においては、ジェスチャーイベントのパラメータに含まれる間隔L1から基準倍率を決定する。複数の距離ごとに基準倍率を定めた倍率テーブルを参照して、間隔L1に対応して定められた基準倍率を決定する。ジェスチャー識別情報「ピンチイン」に対応する倍率テーブルにおいて、基準倍率は「1」より小さく、間隔L1が大きいほど小さな値に設定される。間隔L1が大きいほど大きな値に設定される。ジェスチャー識別情報「ピンチアウト」に対応する倍率テーブルにおいて、基準倍率は「1」より大きく、間隔L1が大きいほど大きな値に設定される。   In step S113, the reference magnification is determined from the interval L1 included in the gesture event parameter. A reference magnification determined corresponding to the interval L1 is determined with reference to a magnification table that defines a reference magnification for each of a plurality of distances. In the magnification table corresponding to the gesture identification information “Pinch-in”, the reference magnification is smaller than “1”, and the smaller the interval L1, the smaller the value is set. A larger value is set as the interval L1 is larger. In the magnification table corresponding to the gesture identification information “pinch out”, the reference magnification is larger than “1”, and a larger value is set as the interval L1 is larger.

そして、距離合計に基準倍率を乗算することにより倍率を算出する(ステップS114)。次のステップS115においては、表示部分を、ステップS114において算出された倍率で拡大または縮小する。次のステップS116においては、RAM114に記憶されたキャプチャー画像の表示部分に対応する画像を表示用画像に設定し、処理をマルチタッチ対応処理に戻す。   Then, the magnification is calculated by multiplying the total distance by the reference magnification (step S114). In the next step S115, the display portion is enlarged or reduced at the magnification calculated in step S114. In the next step S116, an image corresponding to the display portion of the captured image stored in the RAM 114 is set as a display image, and the process is returned to the multi-touch compatible process.

図18は、移動処理の流れの一例を示すフローチャートである。移動処理は、図15のステップS81において実行される処理である。図18を参照して、変数である移動合計の値を、移動合計にジェスチャーイベントのパラメータに含まれる指示距離LB2を加算した値に設定する(ステップS121)。移動合計の初期値は「0」である。次のステップS122においては、変数Cが間引数Mと等しいか否かを判断する。変数Cが間引数Mと等しいならば処理をステップS123に進めるが、そうでなければ処理をステップS127に進める。ステップS127においては、変数Cに1を加算し、処理をマルチタッチ対応に戻す。   FIG. 18 is a flowchart illustrating an example of the flow of movement processing. The movement process is a process executed in step S81 in FIG. Referring to FIG. 18, the value of the moving total that is a variable is set to a value obtained by adding the designated distance LB2 included in the parameter of the gesture event to the moving total (step S121). The initial value of the moving total is “0”. In the next step S122, it is determined whether or not the variable C is equal to the interval argument M. If variable C is equal to interval argument M, the process proceeds to step S123; otherwise, the process proceeds to step S127. In step S127, 1 is added to the variable C, and the process is returned to the multi-touch correspondence.

ステップS123においては、ジェスチャーイベントのパラメータに含まれる間隔L1から基準移動距離を決定する。複数の距離ごとに基準移動距離を定めた移動距離テーブルを参照して、間隔L1に対応して定められた基準移動距離を決定する。基準移動距離は、間隔L1が大きいほど大きな値に設定される。   In step S123, the reference movement distance is determined from the interval L1 included in the parameters of the gesture event. With reference to a movement distance table in which a reference movement distance is determined for each of a plurality of distances, a reference movement distance determined corresponding to the interval L1 is determined. The reference movement distance is set to a larger value as the interval L1 is larger.

そして、移動合計に基準移動距離を乗算することにより移動距離を算出する(ステップS124)。次のステップS125においては、表示部分を、ステップS124において算出された移動距離だけジェスチャーイベントのパラメータに含まれる方向に移動させる。次のステップS126においては、ステップS51において取得されたコンテンツの画像の表示部分に対応する画像を表示用画像に設定し、処理をマルチタッチ対応処理に戻す。   Then, the movement distance is calculated by multiplying the movement total by the reference movement distance (step S124). In the next step S125, the display portion is moved in the direction included in the parameter of the gesture event by the movement distance calculated in step S124. In the next step S126, an image corresponding to the display portion of the content image acquired in step S51 is set as a display image, and the process returns to the multi-touch compatible process.

なお、上述した実施の形態においては、ローテーション操作において、最初に指示する2本の指の間隔L1が広いほど、指示角度Rに対して表示部分を回転させる角度を大きくしたが、最初に指示する2本の指の間隔L1が広いほど、指示角度Rに対して表示部分を回転させる角度を小さくするようにしてもよい。この場合には、指の移動距離が長い場合であっても表示部分は少ししか回転しない。このため、回転角度を微調整する場合に有効である。間隔L1が広いほど、指示角度Rに対して表示部分を回転させる角度を大きくするか、または小さくするかを、予め設定しておくようにしてもよい。また、間隔L1をしきい値と比較することによって、間隔L1が広いほど、指示角度Rに対して表示部分を回転させる角度を大きくするか、または小さくするかを決定するようにしてもよい。例えば、間隔L1がしきい値以上の場合に、間隔L1が大きいほど指示角度Rに対して表示部分を回転させる角度を小さくし、間隔L1がしきい値より小さい場合に、間隔L1が大きいほど指示角度Rに対して表示部分を回転させる角度を大きくするようにしてもよい。   In the embodiment described above, in the rotation operation, the angle at which the display portion is rotated with respect to the instruction angle R is increased as the distance L1 between the two fingers to be instructed first is larger. You may make it make the angle which rotates a display part with respect to instruction | indication angle R small, so that the space | interval L1 of two fingers is wide. In this case, the display portion rotates only slightly even when the distance of finger movement is long. For this reason, it is effective when finely adjusting the rotation angle. It may be set in advance whether the angle at which the display portion is rotated with respect to the instruction angle R is increased or decreased as the interval L1 is wider. Further, by comparing the interval L1 with a threshold value, it may be determined whether the angle at which the display portion is rotated with respect to the instruction angle R is increased or decreased as the interval L1 is wider. For example, when the interval L1 is equal to or larger than the threshold value, the angle at which the display portion is rotated with respect to the instruction angle R is decreased as the interval L1 is larger. You may make it enlarge the angle which rotates a display part with respect to the instruction | indication angle R. FIG.

また、ピンチイン操作において、最初に指示する2本の指の間隔L1が広いほど、指示距離Dに対して表示部分を拡大する拡大率を大きくしたが、最初に指示する2本の指の間隔L1が広いほど、指示距離Dに対して表示部分を拡大する拡大率を小さくするようにしてもよい。この場合には、指の移動距離が長い場合であっても表示部分は少ししか拡大しない。このため、表示部分のサイズを微調整する場合に有効である。同様に、ピンチアウト操作において、最初に指示する2本の指の間隔L1が狭いほど、指示距離Dに対して表示部分を縮小する縮小率を小さくしたが、最初に指示する2本の指の間隔L1が狭いほど、指示距離Dに対して表示部分を縮小する縮小率を大きくするようにしてもよい。この場合には、指の移動距離が長い場合であっても表示部分は少ししか縮小しない。このため、表示部分のサイズを微調整する場合に有効である。間隔L1が広いほど、指示距離Dに対して拡大率または縮小率を大きくするか、または小さくするかを、予め設定しておくようにしてもよい。また、間隔L1をしきい値と比較することによって、間隔L1が広いほど、指示距離Dに対して表示部分を拡大率または縮小率を大きくするか、または小さくするかを決定するようにしてもよい。例えば、ピンチアウト操作の場合に、間隔L1がしきい値以上の場合に、間隔L1が大きいほど指示距離Dに対する拡大率を小さくし、間隔L1がしきい値より小さい場合に、間隔L1が大きいほど指示距離Dに対する拡大率を大きくするようにしてもよい。間隔L1をしきい値と比較することによって、ピンチイン操作の場合に、間隔L1がしきい値以上の場合に、間隔L1が大きいほど指示距離Dに対する縮小率を大きくし、間隔L1がしきい値より小さい場合に、間隔L1が大きいほど指示距離Dに対する縮小率を小さくするようにしてもよい。   Further, in the pinch-in operation, the enlargement ratio for enlarging the display portion with respect to the designated distance D is increased as the distance L1 between the two fingers designated first is larger, but the distance L1 between the two fingers designated first is increased. The larger the size, the smaller the enlargement ratio for enlarging the display portion with respect to the instruction distance D. In this case, even if the finger movement distance is long, the display portion is enlarged only a little. Therefore, it is effective when finely adjusting the size of the display portion. Similarly, in the pinch-out operation, the reduction ratio for reducing the display portion with respect to the designated distance D is reduced as the distance L1 between the two designated fingers first becomes smaller. As the interval L1 is narrower, the reduction ratio for reducing the display portion with respect to the instruction distance D may be increased. In this case, the display part is reduced only slightly even when the distance of finger movement is long. Therefore, it is effective when finely adjusting the size of the display portion. It may be set in advance whether the enlargement ratio or the reduction ratio is increased or decreased with respect to the instruction distance D as the interval L1 is wider. Further, by comparing the interval L1 with a threshold value, the larger the interval L1, the larger or smaller the enlargement rate or reduction rate of the display portion with respect to the indicated distance D may be determined. Good. For example, in the case of a pinch-out operation, when the interval L1 is greater than or equal to the threshold value, the larger the interval L1 is, the smaller the enlargement ratio with respect to the indicated distance D is. You may make it enlarge the enlargement rate with respect to the instruction | indication distance D so that. By comparing the interval L1 with a threshold value, in the case of a pinch-in operation, when the interval L1 is equal to or greater than the threshold value, the reduction rate with respect to the indicated distance D increases as the interval L1 increases, When the distance is smaller, the reduction ratio with respect to the instruction distance D may be decreased as the interval L1 is increased.

また、フリック操作において、最初に指示する2本の指の間隔L1が広いほど、指示距離LB2に対して表示部分を移動する距離を大きくしたが、最初に指示する2本の指の間隔L1が広いほど、指示距離LB2に対して表示部分を移動する距離を小さくするようにしてもよい。この場合には、指の移動距離が長い場合であっても表示部分は少ししか移動しない。このため、表示部分の位置を微調整する場合に有効である。間隔L1が広いほど、指示距離LB2に対して移動量を大きくするか、または小さくするかを、予め設定しておくようにしてもよい。また、間隔L1をしきい値と比較することによって、間隔L1が広いほど、指示距離LB2に対して表示部分を移動する量を大きくするか、または小さくするかを決定するようにしてもよい。例えば、間隔L1がしきい値以上の場合に、間隔L1が大きいほど指示距離LB2に対して表示部分を移動させる量を小さくし、間隔L1がしきい値より小さい場合に、間隔L1が大きいほど指示距離LB2に対して表示部分を移動させる量を大きくするようにしてもよい。   Further, in the flick operation, the distance to move the display portion with respect to the instruction distance LB2 is increased as the distance L1 between the two fingers specified first is larger. However, the distance L1 between the two fingers specified first is larger. The larger the distance, the smaller the distance to move the display portion relative to the instruction distance LB2. In this case, the display portion moves only slightly even when the distance of finger movement is long. Therefore, it is effective when finely adjusting the position of the display portion. It may be set in advance whether the movement amount is increased or decreased with respect to the instruction distance LB2 as the interval L1 is wider. Further, by comparing the interval L1 with a threshold value, it may be determined whether the amount of movement of the display portion with respect to the instruction distance LB2 is increased or decreased as the interval L1 is wider. For example, when the distance L1 is equal to or greater than the threshold value, the amount of movement of the display portion with respect to the instruction distance LB2 is reduced as the distance L1 is larger. The amount by which the display portion is moved with respect to the instruction distance LB2 may be increased.

以上説明したように、本実施の形態におけるMFP100は、データ処理装置として機能し、コンテンツであるWebページの表示部分に対応する表示用画像を表示し、ユーザーにより指示される1以上の位置が検出されることに応じて、ジェスチャーイベントを決定し、2つの位置に基づいて決定される所定のジェスチャーイベントを決定する場合、2つの位置の間隔L1に基づいて表示部分を変更する度合いを示すスケールを決定し、表示用画像に対応する表示部分を決定したケールで変換する。このため、ユーザーが指示する2つの位置の間隔L1を異ならせることによって、コンテンツ中で表示する部分を変更することができる。その結果、マルチタッチ操作が多様化する。   As described above, MFP 100 according to the present embodiment functions as a data processing device, displays a display image corresponding to a display portion of a Web page that is content, and detects one or more positions designated by the user. When determining a gesture event and determining a predetermined gesture event determined based on two positions, a scale indicating a degree of changing a display portion based on an interval L1 between the two positions The display portion corresponding to the display image is converted with the determined kale. For this reason, the part displayed in content can be changed by changing the space | interval L1 of two positions which a user instruct | indicates. As a result, multi-touch operations are diversified.

また、ユーザーが指示する2つの位置の間隔L1に基づいて、キャプチャー画像のサイズを定めるキャプチャー率を決定するので、間隔L1に基づいて表示部分の拡大率を決定する場合に、キャプチャー画像のサイズを、拡大率に従って変更することができる。換言すれば、キャプチャー画像のサイズが表示部分のサイズよりも小さくなるのを防止するとともに、キャプチャー画像のサイズが表示部分のサイズに対して大きくなりすぎないようにすることができる。その結果、キャプチャー画像のサイズを適切なサイズにすることができる。   In addition, since the capture rate for determining the size of the captured image is determined based on the interval L1 between the two positions designated by the user, the size of the captured image is determined when the enlargement rate of the display portion is determined based on the interval L1. , Can be changed according to magnification. In other words, the size of the captured image can be prevented from becoming smaller than the size of the display portion, and the size of the captured image can be prevented from becoming too large with respect to the size of the display portion. As a result, the size of the captured image can be set to an appropriate size.

なお、上述した実施の形態においては、データ処理装置の一例としてMFP100について説明したが、図12〜図18に示した処理を、MFP100に実行させる操作受付方法、また、その操作受付方法をCPU111に実行させるための操作受付プログラムとして、発明を捉えることができるのは言うまでもない。   In the above-described embodiment, the MFP 100 has been described as an example of the data processing apparatus. However, the operation reception method that causes the MFP 100 to execute the processes illustrated in FIGS. It goes without saying that the invention can be understood as an operation reception program for execution.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

<付記>
(1)前記スケール決定手段は、前記所定のジェスチャーイベントが、前記変換手段に前記表示部分のサイズを拡大させるジェスチャーイベントの場合、前記2つの位置の間隔が変化可能な残余距離が大きな拡大率をスケールとして決定する、請求項5に記載のデータ処理装置。
(2)前記スケール決定手段は、前記所定のジェスチャーイベントが、前記変換手段に前記表示部分のサイズを縮小させるジェスチャーイベントの場合、前記2つの位置の間隔が変化可能な残余距離が大きいほど小さな縮小率をスケールとして決定する、請求項5に記載のデータ処理装置。
(3)(スクロール) 前記スケール決定手段は、前記ジェスチャーイベント決定手段により決定されるジェスチャーイベントが、前記2つの位置が相対的な方向を維持しつつ時間的に位置が変化するジェスチャーイベントの場合、前記2つの位置の間隔が大きいほど大きなスケールに決定する、請求項4〜7のいずれかに記載のデータ処理装置。
(4) 前記表示用画像生成手段は、前記ジェスチャーイベント決定手段によってジェスチャーイベントが決定される前の時、または前記ジェスチャー期間が終了する時は、前記外部に記憶されたコンテンツに基づいて前記表示用画像を生成する、請求項10に記載のデータ処理装置。
<Appendix>
(1) When the predetermined gesture event is a gesture event that causes the conversion unit to enlarge the size of the display portion, the scale determination unit has a large enlargement ratio with a large residual distance that can change the interval between the two positions. The data processing device according to claim 5, wherein the data processing device is determined as a scale.
(2) In the case where the predetermined gesture event is a gesture event that causes the conversion unit to reduce the size of the display portion, the scale determination unit reduces the smaller the larger the remaining distance in which the interval between the two positions can be changed. The data processing apparatus according to claim 5, wherein the rate is determined as a scale.
(3) (Scroll) In the case where the gesture determining event is determined by the gesture event determining unit, the gesture event whose position changes with time while maintaining the relative direction of the two positions, The data processing apparatus according to claim 4, wherein a larger scale is determined as the interval between the two positions is larger.
(4) The display image generating means is configured to display the display image based on the content stored outside before the gesture event is determined by the gesture event determining means or when the gesture period ends. The data processing apparatus according to claim 10, which generates an image.

100 MFP、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD、116 ファクシミリ部、117 外部記憶装置、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、160 操作パネル、161 表示部、163 操作部、165 タッチパネル、167 ハードキー部、21 変換部、23 スケール決定部、25 タイミング決定部、25 移動部、27 キャプチャー率決定部、27 変倍部、29 回転部、31 移動量決定部、33 拡縮率決定部、35 回転量決定部、37 キャプチャー率決定部、39 タイミング決定部、51 アプリケーション部、53 調停部、55 操作変換部、57 オペレーティング部、61 ブラウジング部、71 コンテンツ取得部、72 表示部分決定部、73 ジェスチャー期間検出部、74 補正部、75 キャプチャー部分決定部、76 キャプチャー画像生成部、77 一時記憶制御部、78 表示用画像生成部、79 表示制御部、81 関連付部、83 ジェスチャーイベント決定部、85 タッチイベント生成部、87 表示部制御部、91 マスターテーブル。


100 MFP, 110 Main circuit, 111 CPU, 112 Communication I / F unit, 113 ROM, 114 RAM, 115 HDD, 116 Facsimile unit, 117 External storage device, 120 Automatic document feeder, 130 Document reading unit, 140 Image forming unit , 150 paper feed unit, 160 operation panel, 161 display unit, 163 operation unit, 165 touch panel, 167 hard key unit, 21 conversion unit, 23 scale determination unit, 25 timing determination unit, 25 movement unit, 27 capture rate determination unit, 27 Scaling unit, 29 Rotating unit, 31 Movement amount determining unit, 33 Enlarging / contracting rate determining unit, 35 Rotating amount determining unit, 37 Capture rate determining unit, 39 Timing determining unit, 51 Application unit, 53 Arbitration unit, 55 Operation converting unit , 57 Operating part, 61 Browsing part, 71 Content acquisition 72 Display portion determination unit, 73 Gesture period detection unit, 74 Correction unit, 75 Capture portion determination unit, 76 Capture image generation unit, 77 Temporary storage control unit, 78 Display image generation unit, 79 Display control unit, 81 Part, 83 gesture event determination part, 85 touch event generation part, 87 display part control part, 91 master table.


Claims (12)

画像を表示可能な表示手段と、
コンテンツの少なくとも一部である表示部分に対応する表示用画像を前記表示手段に表示する表示制御手段と、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出手段と、
前記位置検出手段により1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定手段と、
前記ジェスチャーイベント決定手段によってジェスチャーイベントが連続して決定されるジェスチャー期間の間に決定されるジェスチャーイベントに基づいて、前記表示部分を変更する表示部分決定手段と、を備え、
前記表示部分決定手段は、前記ジェスチャーイベント決定手段により決定されるジェスチャーイベントが、前記位置検出手段により検出される2つの位置に基づいて決定される所定のジェスチャーイベントの場合、前記2つの位置の間隔に基づいて前記表示部分を変更する度合いを示すスケールを決定するスケール決定手段と、
前記ジェスチャー期間が開始した時点に前記表示手段に表示されている表示用画像に対応する表示部分を、前記決定されたスケールで変換する変換手段と、を含む、データ処理装置。
Display means capable of displaying images;
Display control means for displaying on the display means a display image corresponding to a display portion which is at least a part of the content;
Position detection means capable of detecting one or more positions designated by a user on the display surface of the display means;
Gesture event determining means for determining any one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions by the position detecting means;
Display part determining means for changing the display part based on a gesture event determined during a gesture period in which gesture events are continuously determined by the gesture event determining means,
When the gesture event determined by the gesture event determination unit is a predetermined gesture event determined based on the two positions detected by the position detection unit, the display portion determination unit determines the interval between the two positions. Scale determining means for determining a scale indicating the degree of change of the display portion based on:
A data processing apparatus comprising: conversion means for converting a display portion corresponding to the display image displayed on the display means at the time when the gesture period starts, with the determined scale.
前記スケール決定手段は、前記2つの位置の間隔が大きいほど大きなスケールに決定する、請求項1に記載のデータ処理装置。   The data processing apparatus according to claim 1, wherein the scale determining unit determines a larger scale as the interval between the two positions is larger. 前記スケール決定手段は、前記2つの位置の間隔が大きいほど小さなスケールに決定する、請求項1に記載のデータ処理装置。   The data processing apparatus according to claim 1, wherein the scale determining unit determines a smaller scale as the interval between the two positions is larger. 前記スケール決定手段は、前記ジェスチャーイベント決定手段により決定されるジェスチャーイベントの種類ごとに異なるスケールを決定する、請求項1に記載のデータ処理装置。   The data processing apparatus according to claim 1, wherein the scale determining unit determines a different scale for each type of gesture event determined by the gesture event determining unit. 前記スケール決定手段は、前記ジェスチャーイベント決定手段により前記2つの位置の間隔の時間的な変化に基づいてジェスチャーイベントが決定される場合、前記2つの位置の間隔が変化可能な残余距離が大きいほど大きなスケールに決定する、請求項4に記載のデータ処理装置。   In the case where a gesture event is determined based on a temporal change in the interval between the two positions by the gesture event determining unit, the scale determining unit is larger as a residual distance that can change the interval between the two positions is larger. The data processing apparatus according to claim 4, wherein a scale is determined. 前記スケール決定手段は、前記ジェスチャーイベント決定手段により前記2つの位置の相対的な方向の時間的な変化に基づいてジェスチャーイベントが決定される場合、前記2つの位置の間隔が大きいほど大きなスケールに決定する、請求項4または5に記載のデータ処理装置。   The scale determining unit determines a larger scale as the interval between the two positions is larger when the gesture event is determined by the gesture event determining unit based on a temporal change in the relative direction of the two positions. The data processing device according to claim 4 or 5. 前記スケール決定手段は、前記ジェスチャーイベント決定手段により前記2つの位置の相対的な方向の時間的な変化に基づいてジェスチャーイベントが決定される場合、前記2つの位置の間隔が大きいほど小さなスケールに決定する、請求項4または5に記載のデータ処理装置。   When the gesture event is determined based on a temporal change in the relative direction of the two positions by the gesture event determining unit, the scale determining unit determines a smaller scale as the interval between the two positions is larger. The data processing device according to claim 4 or 5. 前記表示部分決定手段は、前記ジェスチャー期間が終了した時点で、前記表示用画像が表の画像を含む場合、表示部分を、前記コンテンツの画像のうち線で囲まれた領域のうち前記表示部分と最もサイズが近似する領域に補正する補正手段を、さらに含む、請求項1〜7のいずれかに記載のデータ処理装置。   If the display image includes a front image at the end of the gesture period, the display part determination unit determines the display part as the display part of the area surrounded by a line in the content image. The data processing apparatus according to any one of claims 1 to 7, further comprising correction means for correcting to an area having the closest size. 前記ジェスチャーイベント決定手段は、前記ジェスチャー期間の間は所定時間間隔でジェスチャーイベントを決定し、
前記表示部分決定手段は、前記ジェスチャーイベント決定手段により前記所定のジェスチャーイベントが決定される場合、前記位置検出手段により検出される2つの位置の間隔に基づいて、前記表示部分を決定するタイミングを前記所定時間間隔より長い時間間隔に決定するタイミング決定手段を、さらに含む、請求項1〜8のいずれかに記載のデータ処理装置。
The gesture event determining means determines a gesture event at a predetermined time interval during the gesture period,
When the predetermined gesture event is determined by the gesture event determining unit, the display part determining unit determines a timing for determining the display part based on an interval between two positions detected by the position detecting unit. The data processing device according to claim 1, further comprising timing determination means for determining a time interval longer than the predetermined time interval.
前記ジェスチャー期間が開始した時点に前記表示手段に表示されている表示用画像に対応する表示部分を含むキャプチャー部分を決定するキャプチャー部分決定手段と、
前記キャプチャー部分が決定されることに応じて、前記コンテンツに基づいて、前記決定されたキャプチャー部分に対応するキャプチャー画像を生成するキャプチャー画像生成手段と、
前記生成されたキャプチャー画像を一時記憶する一時記憶制御手段と、をさらに備え、
前記表示部分決定手段は、前記スケールとして前記キャプチャー部分のサイズの度合いを示すキャプチャー率を決定するキャプチャー率決定手段を含み、
前記キャプチャー部分決定手段は、前記決定されたキャプチャー率で定まるサイズのキャプチャー部分を決定し、
前記表示用画像生成手段は、前記一時記憶されたキャプチャー画像に基づいて前記表示部分決定手段により決定された新たな表示部分に対応する表示用画像を生成する、請求項1〜9のいずれかに記載のデータ処理装置。
Capture portion determining means for determining a capture portion including a display portion corresponding to the display image displayed on the display means at the time when the gesture period starts;
Capture image generating means for generating a capture image corresponding to the determined capture portion based on the content in response to the determination of the capture portion;
Temporary storage control means for temporarily storing the generated captured image, and
The display portion determining means includes a capture rate determining means for determining a capture rate indicating a degree of the size of the capture portion as the scale,
The capture portion determining means determines a capture portion having a size determined by the determined capture rate,
The display image generation means generates a display image corresponding to a new display portion determined by the display portion determination means based on the temporarily stored captured image. The data processing apparatus described.
画像を表示可能な表示手段を備えたデータ処理装置で実行される操作受付方法であって、
コンテンツの少なくとも一部である表示部分に対応する表示用画像を前記表示手段に表示する表示制御ステップと、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出ステップと、
前記位置検出ステップにおいて1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定ステップと、
前記ジェスチャーイベント決定ステップにおいてジェスチャーイベントが連続して決定されるジェスチャー期間の間に決定されるジェスチャーイベントに基づいて、前記表示部分を変更する表示部分決定ステップと、を含み、
前記表示部分決定ステップは、前記ジェスチャーイベント決定ステップにおいて決定されるジェスチャーイベントが、前記位置検出ステップにおいて検出される2つの位置に基づいて決定される所定のジェスチャーイベントの場合、前記2つの位置の間隔に基づいて前記表示部分を変更する度合いを示すスケールを決定するスケール決定ステップと、
前記ジェスチャー期間が開始した時点に前記表示手段に表示されている表示用画像に対応する表示部分を、前記決定されたスケールで変換する変換ステップと、を含む、操作受付方法。
An operation receiving method executed by a data processing apparatus having a display means capable of displaying an image,
A display control step of displaying on the display means a display image corresponding to a display portion that is at least a part of the content;
A position detecting step capable of detecting one or more positions designated by a user on the display surface of the display means;
A gesture event determining step of determining any one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions in the position detecting step;
A display part determining step of changing the display part based on a gesture event determined during a gesture period in which gesture events are continuously determined in the gesture event determining step,
In the display portion determination step, when the gesture event determined in the gesture event determination step is a predetermined gesture event determined based on the two positions detected in the position detection step, an interval between the two positions A scale determining step for determining a scale indicating a degree of changing the display portion based on
A conversion step of converting a display portion corresponding to the display image displayed on the display means at the time when the gesture period starts, with the determined scale.
画像を表示可能な表示手段を備えたデータ処理装置を制御するコンピュータで実行される操作受付プログラムであって、
コンテンツの少なくとも一部である表示部分に対応する表示用画像を前記表示手段に表示する表示制御ステップと、
前記表示手段の表示面中で、ユーザーにより指示される1以上の位置を検出可能な位置検出ステップと、
前記位置検出ステップにおいて1以上の位置が検出されることに応じて、前記1以上の位置に基づいて、複数のジェスチャーイベントのいずれか1つを決定するジェスチャーイベント決定ステップと、
前記ジェスチャーイベント決定ステップにおいてジェスチャーイベントが連続して決定されるジェスチャー期間の間に決定されるジェスチャーイベントに基づいて、前記表示部分を変更する表示部分決定ステップと、を前記コンピューターに実行させ、
前記表示部分決定ステップは、前記ジェスチャーイベント決定ステップにおいて決定されるジェスチャーイベントが、前記位置検出ステップにおいて検出される2つの位置に基づいて決定される所定のジェスチャーイベントの場合、前記2つの位置の間隔に基づいて前記表示部分を変更する度合いを示すスケールを決定するスケール決定ステップと、
前記ジェスチャー期間が開始した時点に前記表示手段に表示されている表示用画像に対応する表示部分を、前記決定されたスケールで変換する変換ステップと、を含む、操作受付プログラム。
An operation reception program that is executed by a computer that controls a data processing apparatus including display means capable of displaying an image,
A display control step of displaying on the display means a display image corresponding to a display portion that is at least a part of the content;
A position detecting step capable of detecting one or more positions designated by a user on the display surface of the display means;
A gesture event determining step of determining any one of a plurality of gesture events based on the one or more positions in response to detection of one or more positions in the position detecting step;
Causing the computer to execute a display part determining step of changing the display part based on a gesture event determined during a gesture period in which gesture events are continuously determined in the gesture event determining step,
In the display portion determination step, when the gesture event determined in the gesture event determination step is a predetermined gesture event determined based on the two positions detected in the position detection step, an interval between the two positions A scale determining step for determining a scale indicating a degree of changing the display portion based on
An operation reception program, comprising: a conversion step of converting a display portion corresponding to a display image displayed on the display means at the time when the gesture period starts with the determined scale.
JP2014045773A 2014-03-07 2014-03-07 Data processing apparatus, operation accepting method, and content display program Active JP6552156B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014045773A JP6552156B2 (en) 2014-03-07 2014-03-07 Data processing apparatus, operation accepting method, and content display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014045773A JP6552156B2 (en) 2014-03-07 2014-03-07 Data processing apparatus, operation accepting method, and content display program

Publications (2)

Publication Number Publication Date
JP2015170228A true JP2015170228A (en) 2015-09-28
JP6552156B2 JP6552156B2 (en) 2019-07-31

Family

ID=54202879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014045773A Active JP6552156B2 (en) 2014-03-07 2014-03-07 Data processing apparatus, operation accepting method, and content display program

Country Status (1)

Country Link
JP (1) JP6552156B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5985125B2 (en) * 2014-06-11 2016-09-06 三菱電機株式会社 Display control system and display control method

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266127A (en) * 2008-04-28 2009-11-12 Toshiba Corp Information processing apparatus, display control method and program
JP2010029711A (en) * 2009-11-10 2010-02-12 Nintendo Co Ltd Game machine and game program using touch panel
JP2010086230A (en) * 2008-09-30 2010-04-15 Sony Corp Information processing apparatus, information processing method and program
JP2010271774A (en) * 2009-05-19 2010-12-02 Sony Corp Information processing apparatus, image magnification/reduction method, and program thereof
JP2010287121A (en) * 2009-06-12 2010-12-24 Ricoh Co Ltd Information processor, program, recording medium and display controller
JP2011039709A (en) * 2009-08-07 2011-02-24 Canon Inc Display control apparatus, method, and program
WO2011045861A1 (en) * 2009-10-16 2011-04-21 パイオニア株式会社 Map display device, map display method, and map display program
JP2012053543A (en) * 2010-08-31 2012-03-15 Canon Inc Information processor and control method thereof
JP2012118991A (en) * 2010-12-01 2012-06-21 Adobe Syst Inc Methods and systems for radial input gestures
JP2013510370A (en) * 2009-11-03 2013-03-21 クアルコム,インコーポレイテッド How to perform multi-touch gestures on a single touch touch surface
JP2013120566A (en) * 2011-12-08 2013-06-17 Sharp Corp Display device, display device control method, control program, and recording medium
JP2013127679A (en) * 2011-12-16 2013-06-27 Sharp Corp Information display method, information display device, information display program, and computer-readable recording medium
US20130162569A1 (en) * 2011-12-21 2013-06-27 Kyocera Corporation Device, method, and computer-readable recording medium
JP2013205980A (en) * 2012-03-27 2013-10-07 Sharp Corp Display device

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266127A (en) * 2008-04-28 2009-11-12 Toshiba Corp Information processing apparatus, display control method and program
JP2010086230A (en) * 2008-09-30 2010-04-15 Sony Corp Information processing apparatus, information processing method and program
JP2010271774A (en) * 2009-05-19 2010-12-02 Sony Corp Information processing apparatus, image magnification/reduction method, and program thereof
JP2010287121A (en) * 2009-06-12 2010-12-24 Ricoh Co Ltd Information processor, program, recording medium and display controller
JP2011039709A (en) * 2009-08-07 2011-02-24 Canon Inc Display control apparatus, method, and program
WO2011045861A1 (en) * 2009-10-16 2011-04-21 パイオニア株式会社 Map display device, map display method, and map display program
JP2013510370A (en) * 2009-11-03 2013-03-21 クアルコム,インコーポレイテッド How to perform multi-touch gestures on a single touch touch surface
JP2010029711A (en) * 2009-11-10 2010-02-12 Nintendo Co Ltd Game machine and game program using touch panel
JP2012053543A (en) * 2010-08-31 2012-03-15 Canon Inc Information processor and control method thereof
JP2012118991A (en) * 2010-12-01 2012-06-21 Adobe Syst Inc Methods and systems for radial input gestures
JP2013120566A (en) * 2011-12-08 2013-06-17 Sharp Corp Display device, display device control method, control program, and recording medium
JP2013127679A (en) * 2011-12-16 2013-06-27 Sharp Corp Information display method, information display device, information display program, and computer-readable recording medium
US20130162569A1 (en) * 2011-12-21 2013-06-27 Kyocera Corporation Device, method, and computer-readable recording medium
JP2013205980A (en) * 2012-03-27 2013-10-07 Sharp Corp Display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5985125B2 (en) * 2014-06-11 2016-09-06 三菱電機株式会社 Display control system and display control method
JPWO2015189922A1 (en) * 2014-06-11 2017-04-20 三菱電機株式会社 Display control system and display control method

Also Published As

Publication number Publication date
JP6552156B2 (en) 2019-07-31

Similar Documents

Publication Publication Date Title
US9232094B2 (en) System and method for move and drop of clone image on a touch panel
JP5373836B2 (en) Operation instruction apparatus and image forming apparatus having the same
JP5772773B2 (en) Image processing apparatus, operation standardization method, and operation standardization program
JP7062388B2 (en) A device for setting a file name, etc. on a scanned image, its control method, and a program.
JP5825277B2 (en) Data processing apparatus, content display method, and content display program
US9667831B2 (en) Information processing apparatus, printing method, and non-transitory computer-readable recording medium for generating print data corresponding to a display image
US9100519B2 (en) Data processing apparatus, content displaying method, and non-transitory computer-readable recording medium encoded with browsing program
US20130082960A1 (en) Image display apparatu, display control method, and non-transitory computer-readable recording medium encoded with display control program
US9600162B2 (en) Information processing apparatus, information processing method, and computer readable-recording medium
JP5958059B2 (en) Flick operation accepting device, flick operation accepting method, and flick operation accepting program
US9069464B2 (en) Data processing apparatus, operation accepting method, and non-transitory computer-readable recording medium encoded with browsing program
JP6552156B2 (en) Data processing apparatus, operation accepting method, and content display program
JP2017097814A (en) Information processing apparatus, control method thereof, and program
US20140040827A1 (en) Information terminal having touch screens, control method therefor, and storage medium
JP6225625B2 (en) Image display device, image display method, and image display program
JP6269537B2 (en) Display input device, image forming apparatus including the same, display input device control method, and program
JP6102325B2 (en) Data processing apparatus, content display method, and content display program
US8941856B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable recording medium encoded with image processing program
JP2014106807A (en) Data processing apparatus, operation reception method, and browsing program
JP6112160B2 (en) Data processing apparatus, setting method, and setting program
JP2010003101A (en) Data processor, data processing method, and data processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180518

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180528

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190702

R150 Certificate of patent or registration of utility model

Ref document number: 6552156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150