JP5928245B2 - データ処理装置及びプログラム - Google Patents

データ処理装置及びプログラム Download PDF

Info

Publication number
JP5928245B2
JP5928245B2 JP2012183919A JP2012183919A JP5928245B2 JP 5928245 B2 JP5928245 B2 JP 5928245B2 JP 2012183919 A JP2012183919 A JP 2012183919A JP 2012183919 A JP2012183919 A JP 2012183919A JP 5928245 B2 JP5928245 B2 JP 5928245B2
Authority
JP
Japan
Prior art keywords
gesture
data processing
gesture operation
determined
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012183919A
Other languages
English (en)
Other versions
JP2014041516A (ja
Inventor
博樹 菅野
博樹 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012183919A priority Critical patent/JP5928245B2/ja
Priority to US13/942,896 priority patent/US9524029B2/en
Priority to CN201310371472.3A priority patent/CN103631490B/zh
Publication of JP2014041516A publication Critical patent/JP2014041516A/ja
Application granted granted Critical
Publication of JP5928245B2 publication Critical patent/JP5928245B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ジェスチャ操作を検出してそのジェスチャ操作種に応じたデータ処理を行うデータ処理装置及びプログラムに関する。
従来、携帯端末装置などのデータ処理装置においてタッチパネル上でのジャスチャ操作の動き自体からフリック操作が行われたのかを判定する技術としては、例えば、タッチパネル上での接触開始点と接触終了点との関係からフリック操作かタップ操作かを判定するようにした技術(特許文献1参照)と、タッチ位置の分散状態の閾値からドラッグ操作かフリック操作かを判定するようにした技術(特許文献2参照)と、操作の動きと速度との閾値判定によってフリック操作であると判定するようにした技術(特許文献3参照)とが存在している。
特開2011−118629公報 特開2011−134212公報 特開2006−85703公報
しかしながら、上述した各特許文献1〜3の技術にあっては、ジェスチャそのものの操作の動きから(物理的な操作状態から)フリック操作か否かを判定しているに過ぎないものであり、誤判定の危険性があった。すなわち、同じ種類のジャスチャ操作であっても、その時々によってその動きは微妙に変化してしまうため、ユーザの意図とは反したジャスチャ判定、例えば、フリック操作を行ったつもりでもタップ操作と判定されてしまったり、タップ操作を行ったつもりでもフリック操作と判定されてしまったりするなど、誤判定の危険性があった。
本発明の課題は、ジェスチャ操作を検出してその操作に応じたデータ処理を行う場合に、そのジェスチャ操作を適切に判定できるようにすることである。
請求項1は、ユーザによるジェスチャ操作を検出する検出手段と、前記検出手段によるジェスチャ操作の検出が、所定データを表示した後、あるいは前回のジェスチャ操作の検出後、あるいは画像表示サイズ変更後、における所定時間経過以内での操作か否かを判別する判別手段と、前記判別手段での判別結果に応じて、前記ジェスチャ操作の操作種としてフリック操作種とタップ操作種との内の何れか一つのジェスチャ操作種を優先的に判定する判定手段と、を備えることを特徴とする。
請求項5は、ユーザによるジェスチャ操作を検出する検出手段と、前記検出手段によるジェスチャ操作を検出した際に、所定の表示領域内に表示される対象データ全体が当該表示領域内に収まって表示されているか否か、あるいはそのジェスチャ操作の操作位置各種ジェスチャ操作を検出可能なジェスチャ検出領域内の特定位置か否かを判別する判別手段と、前記判別手段での判別結果に応じて、前記ジェスチャ操作の操作種としてフリック操作種とタップ操作種との内の何れか一つのジェスチャ操作種を判定する判定手段と、を備えることを特徴とする。
本発明によれば、ジェスチャ操作を検出してその操作に応じたデータ処理を行う場合に、そのジェスチャ操作を適切に判定することができ、ユーザの意図に沿った操作が可能となる。
データ処理装置として適用したタッチスクリーン付き家庭用の印刷装置の基本的な構成要素を示したブロック図。 外部供給された写真画像を縮小してタッチ表示部5に一覧表示させた場合のサムネイル画面を示した図。 画像メモリGMを説明するための図。 サムネイル画面の表示指定に応じて実行開始されるフローチャート。 ジェスチャ操作時の処理状態を判別する処理(図4のステップA10)を説明するための図。 フリック優先条件判定処理(図5のステップB7)を詳述するためのフローチャート。 タップ優先条件判定処理(図5のステップB10)を詳述するためのフローチャート。 第2実施形態において、タブレット端末装置の基本的な構成要素を示したブロック図。 第2実施形態において、タッチ表示部15上でジェスチャ操作が行われた場合の操作対象を説明するための図。 第2実施形態において、タッチ表示部15上へのジェスチャ操作に応じて実行開始されるタブレット端末装置の動作を示したフローチャート。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(実施形態1)
先ず、図1〜図7を参照して本発明の第1実施形態を説明する。
本実施形態は、データ処理装置としてタッチスクリーン付き家庭用の印刷装置に適用した場合を例示したもので、図1は、この印刷装置の基本的な構成要素を示したブロック図である。
データ処理装置(印刷装置)は、住所録を作成する機能、画像/文章/宛名などを印刷する印刷機能、写真画像/文章などを編集する編集機能などを備え、年賀状などの宛名や文章を簡単に印刷することが可能なもので、操作性を向上させるためにタッチスクリーンが搭載されている。
CPU1は、電源部(図示省略)からの電力供給によって動作し、記憶部2内の各種のプログラムに応じてこの印刷装置の全体動作を制御する中央演算処理装置である。記憶部2は、後述する図4〜図7のフローチャートに示すプログラムなど各種のプログラムを記憶するプログラム領域2aと、この印刷装置で必要とされる各種のデータ(画像データ、住所録データ、文章データなど)を記憶するデータ領域2bと、フラグなど一時記憶用のワーク領域2cを有する構成で、このデータ領域2bには、後述する画像メモリGM、タップ優先ポインタTP、フリック優先ポインタFPを有している。なお、記憶部2は、SDカードなどの可搬型記録メディアを含む構成であってもよく、他のサーバ装置(図示省略)側の記憶領域を含むものであってもよい。
操作部3は、押しボタン式の各種のキーとして、電源をオン/オフさせる電源スイッチキー、上下左右のカーソルを移動させるカーソルキー、印刷開始を指示するプリントキーなどを備え、CPU1は、操作部3からのキー操作信号に応じた処理を行う。印刷部4は、例えば、色インク(イエロー、マゼンタ、シアン)を用紙に噴射して、高精細な印刷を行うインクジェット方式のプリンタであり、インク残量検出部4aは、色インク別にインク残量(%)を検出して、インク別の残量をCPU1に与え、このインク残量を常時あるいは必要に応じて案内表示させるようにしている。
タッチ表示部5は、タッチスクリーンを構成するもので、表示パネル5aにタッチパネル5bを積層配設した構成で、入力制御部5c、表示制御部5dを有し、ソフトウェアキー(ソフトキー)としての機能名を表示したり、各種のアイコンなどを表示したりする。表示パネル5aは、例えば、縦横比の異なる画面を有した高精細液晶ディスプレイあるいは有機EL(Electro Luminescence)ディスプレイである。入力制御部5cは、タッチパネル5b上で指やペンなどによるジェスチャ操作が行われた場合に、その接触位置などを検知してその座標データを入力するもので、例えば、静電容量方式あるいは抵抗皮膜方式を採用しているが、その他の方式であってもよい。ここで、タッチパネル5b上でのジェスチャ操作とは、指やペンの動きに応じて接触位置、接触移動、接触方向などを指示する操作である。
入力制御部5cは、タッチパネル5bへの接触位置に応じた信号の時間的変化に基づいて指などの移動方向や移動速度を検出したり、指などの接触が離れたことを検出したりして入力イベントをCPU1に与えると、CPU1は、タッチパネル5b上でのジェスチャ操作種を判定して、その種類に応じたデータ処理を行うようにしている。ここで、第1実施形態においは、タッチパネル5b上でのジェスチャ操作種として、タッチパネル5b上の任意の位置を接触してすぐに離すジェスチャ操作(タップ操作)と、タッチパネル5b上を接触移動してからすぐに離すジェスチャ操作(フリック操作)を例示したが、その他の種類のジェスチャ操作も実行可能であることは勿論である。
なお、ジェスチャ操作とは、タッチパネル5b上への接触操作(タッチ操作)に限らず、その接触操作に近似する操作として、例えば、指やペンの接近や接近移動による静電容量変化や明るさ変化などに応じて指やペンの位置を検出する非接触操作を含むことを意味している。つまり、接触操作を検出する接触型タッチパネルに限らず、非接触操作を検出する非接触型タッチパネルや操作検出デバイスであってもよいが、本実施形態にあっては、ジェスチャ操作として、接触型タッチパネル上での接触操作を例示した場合である。
図2は、SDカードなどによって外部供給された写真画像を縮小してタッチ表示部5に一覧表示させた場合のサムネイル画面を示した図である。
図示の例は、複数個の画像(1)〜(12)が3行×4列のマトリックス状に配置表示され、その各画像の右上角部にその画像の拡大表示を指示する拡大プレビューボタンB1が配置表示されているサムネイル画面を示している。また、サムネイル画面内の空き領域には、次ページ切替ボタンB2及び前ページ切替ボタンB3が配置され、かつ、サムネイル表示を終了させる戻るボタンB4が配置されている。なお、次ページ切替ボタンB2と前ページ切替ボタンB3との間には、例えば、1/10のように現在ページ/ページ総数が案内表示されている。
このような構成のサムネイル画面上において、何らかのジェスチャ操作が行われると、CPU1は、そのジェスチャ操作の種類(ジェスチャ操作種)を判定し、タップ操作であれば、画像の選択処理を実行し、フリック操作であれば、ページ切替処理を実行するようにしている。なお、図示の例では、画像(9)の上でタップ操作を行った場合を例示し、また、画像(3)、(4)付近で矢印方向(右方向)へのフリック操作と、矢印方向(左方向)へのフリック操作を行った場合を例示している。このようなジェスチャ操作が行われると、CPU1は、ジェスチャ操作検出時の現在の処理状態を判別すると共に、この処理状態に応じてジェスチャ操作種を判定し、そのジェスチャ操作種に応じたデータ処理を実行するようにしている。
ここで、上述の「処理状態」とは、後で詳述するが、例えば、所定のデータが表示されてから所定時間が経過しているか否かの処理状態、インク残量が不足間近であるか否かの処理状態、画像上へのジェスチャ操作であるか否かの処理状態、ジェスチャ操作を行った操作箇所に所定の画像が存在しているか否かの処理状態、なぞり状態(接触移動状態)を経由しているか否かの処理状態、表示データの加工中であるか否かの処理状態などである。なお、後述するように、上述の処理状態に限らないことは勿論である。また、ジェスチャ操作種に応じたデータ処理とは、ジェスチャ操作種がタップ操作であれば、タップ操作された画像を選択して拡大表示させる画像選択処理であり、フリック操作であれば、そのフリック方向に応じて次のページのサムネイル画面に切り替えたり、一つ前のページのサムネイル画面に切り替えたりするページ切替処理であるが、後述するように、これに限らないことは勿論である。
図3は、画像メモリGMを説明するための図である。
画像メモリGMは、SDカードなどから読み出し取得した各種の写真画像に関する情報を記憶管理するもので、一連番号の「No.」、画像識別情報の「画像ID」のほか、「画像属性」の各項目を有する構成となっている。「画像属性」は、該当する画像の属性として、その画像が格納されているフォルダ先を示す「フォルダ」、印刷済みか否かを示す「印刷」、伸張処理(拡大表示)の有無を示す「伸張」、伸張処理時にエラーの発生有無を示す「伸張エラー」の各項目を有している。なお、図示の例では、例えば、「No.」が“1”の画像は、その「画像ID」が“01001”、「画像属性」の「フォルダ」が“お気に入り”、「印刷」が“未印刷”、「伸張」が“未伸張”、「伸張エラー」が“――(なし)”の場合を示している。
次に、第1実施形態における印刷装置の動作概念を図4〜図7に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。
なお、図4〜図7は、印刷装置の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図4〜図7のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。
図4は、サムネイル画面の表示指定に応じて実行開始されるフローチャートである。
先ず、制御部1は、メニュー画面の中からサムネイル表示の対象とする任意の画像フォルダが選択指定されると(ステップA1)、そのフォルダ(例えば、お気に入りフォルダなど)内の各画像を読み込んで(ステップA2)、図2に示したようなサムレイル画面を作成してタッチ表示部5上に表示させる(ステップA3)。最初は1ページ目のサムレイル画面としてその1枚目の画像から12枚目の画像がマトリックス状に一覧表示される。この状態において、CPU1は、サムレイル画面上で何らかの操作(ボタン接触操作あるいはジェスチャ操作)が行われたかを調べ(ステップA4)、何らかの操作が行われるまで操作待ちと状態となる。
いま、サムレイル画面上で何らかの操作が行われたときには(ステップA4でYES)、その接触位置は各種ボタンB1〜B4の配置位置であるかを調べ(ステップA5)、ボタンの配置位置への接触操作であれば(ステップA5でYES)、その操作ボタンは戻るボタンB4であるかを調べる(ステップA6)。いま、戻るボタンB4が操作されたときには(ステップA6でYES)、サムレイル画面を解除して次の画面(例えば、メニュー画面)に戻るが、戻るボタンB4以外のボタンB1〜B3が操作されたときには(ステップA6でNO)、その操作ボタンB1〜B3に応じた処理を行う(ステップA7)。例えば、拡大プレビューボタンB1が操作されたときには、そのボタン位置の画像を拡大処理してその拡大画像をプレビュー表示させる。また、次ページ切替ボタンB2が操作されたときには、次のページのサムネイル画面に切り替え表示させ、前ページ切替ボタンB3が操作されたときには、前のページのサムネイル画面に切り替え表示させる。その後、上述のステップA4に戻って操作待ち状態となる。
ここで、各種ボタンB1〜B4への操作でなければ(ステップA5AでNO)、入力制御部5cは、ジェスチャ操作が行われたものとして、タッチパネル5bへの接触位置を検出すると共に、その接触位置に応じた信号の時間的変化に基づいて指などの移動方向や移動速度を検出したり、指などの接触が離れたことを検出したりする(ステップA8)。そして、このようなジェスチャ操作内容の検出によってジェスチャ操作の絞り込みを行い(タップ操作であるかフリック操作であるかの絞り込みを行い)、そのジェスチャ操作に応じた入力イベントをCPU1に与える(ステップA9)。CPU1は、ジェスチャ操作を示す入力イベントを受け取ると、そのジェスチャ操作時の処理状態を判別すると共に(ステップA10)、その処理状態に応じてジェスチャ操作種を判定する処理を行う(ステップA11)。すなわち、タッチ表示部5上のジェスチャ操作内容からそのジェスチャ操作を示す入力イベントを取り込むと、その真偽を判定するために現在の処理状態を参照してジェスチャ操作の種類を判定するようにしている。
図5は、ジェスチャ操作時の処理状態を判別する処理(図4のステップA10)を説明するための図である。
先ず、CPU1は、印刷部4のインク残量検出部4aからインク別の残量を取得し、残量不足間際(例えば、1%)であるかを調べ(ステップB1)、残量不足間際の1%以下であれば(ステップB1でYES)、フリック優先ポインタFPの値に「1」を加算する更新処理を行い(ステップB2)、インク残量が1%を超えていれば(ステップB1でNO)、つまり、インク残量に余裕があれば、タップ優先ポインタTPの値に「1」を加算する更新処理を行う(ステップB3)。
ここで、フリック優先ポインタFP及びタップ優先ポインタTPは、複数種の処理状態毎にジェスチャ操作種の判定評価点(評価累計値)を記憶するもので、フリック優先ポインタFPは、ジェスチャ操作時の処理状態が、フリック操作が行われる可能性の高い処理状態の場合にその値(評価累計値)が更新されるポインタであり、タップ優先ポインタTPは、タップ操作が行われる可能性の高い処理状態の場合にその値(評価点累計値)が更新されるポインタである。ここで、インク残量は、常時あるいは必要に応じて案内表示されているので、この残量表示によって不足間際であることをユーザが確認している場合には、画像を選択してその画像を印刷させる可能性が少ないために、この場合でのジェスチャ操作は、画像を選択するタップ操作よりもフリック操作が行われる可能性が高いためにフリック優先ポインタFPの値を更新するが、インク残量に余裕があれば、タップ操作が行われる可能性が高いためにタップ優先ポインタTPの値を更新するようにしている。
次に、入力制御部5cからの入力イベントはフリックであるかを調べ(ステップB4)、フリックの入力イベントを受け取ったときには(ステップB4でYES)、その接触位置の変化に基づいて画像上での接触移動を検出したかを調べる(ステップB5)。ここで、画像上での接触移動を検出しなければ(ステップB4でNO)、画像を選択するタップ操作よりもページめくりを指示するフリック操作が行われる可能性が高いためにフリック優先ポインタFPの値に「1」を加算する更新処理を行うが(ステップB6)、画像上での接触移動を検出したときには(ステップB5でYES)、フリック操作の可能性を優先するが、タップ操作の可能性も残しているために更なる判定処理としてフリック優先条件判定処理に移る(ステップB7)。
図6は、フリック優先条件判定処理(図5のステップB7)を詳述するためのフローチャートである。
先ず、CPU1は、初回表示後(電源投入後、初回のサムネイル画面の表示後)からT1時間(例えば、2秒)以内での接触移動検出であるかを調べる(ステップC1)。ここで、初回のサムネイル画面の表示後から2秒以内であれば(ステップC1でYES)、ページ切り替えのためにフリック操作が行われる可能性が高いためにフリック優先ポインタFPの値に「1」を加算する更新処理を行うが(ステップC2)、初回のサムネイル画面の表示後から2秒を超えていれば(ステップC1でNO)、画像を選択して拡大表示させるタップ操作の可能性が高いためにタップ優先ポインタTPの値に「1」を加算する更新処理を行う(ステップC3)。
次に、前回のフリック操作からT2時間(例えば、2秒)以内での接触移動検出であるかを調べる(ステップC4)。この場合においても前回表示後から2秒以内であれば(ステップC4でYES)、フリック操作が行われる可能性が高いためにフリック優先ポインタFPの値に「1」を加算する更新処理を行うが(ステップC5)、前回表示後から2秒を超えていれば(ステップC4でNO)、画像を選択して拡大表示させるタップ操作の可能性が高いためにタップ優先ポインタTPの値に「1」を加算する更新処理を行う(ステップC6)。
次に、接触移動によってなぞった箇所に所定の画像として、例えば、印刷済み画像、未伸張画像、伸張エラー画像のいずれかが存在しているかを調べる(ステップC7)。すなわち、接触移動した箇所に存在している画像の表示位置からその画像を特定した後は、画像メモリGMを参照することよってその画像の属性を読み出し、その属性に応じて印刷済み画像であるか、未伸張画像であるか、伸張エラー画像であるかを調べる。このように接触移動によってなぞった箇所に存在している画像の属性をチェックするのは次の理由による。
すなわち、印刷済画像は、再度画像選択されて印刷される可能性が低いためであり、未伸張画像は、過去に選択されていない画像は今後も選択される可能性が低いためであり、伸張エラーの画像は、過去に選択して拡大しようとしたが何故かエラーになってしまった画像で、そのことを知っているユーザがそのサムネイル画像を再度選択して伸張する可能性が低いためである。このように画像選択される可能性の低い画像上での接触移動であれば(ステップC7でYES)、フリック優先ポインタFPの値に「1」を加算する更新処理を行うが(ステップC8)、そのような画像上での接触移動でなければ(ステップC7でNO)、タップ優先ポインタTPの値に「1」を加算する更新処理を行う(ステップC9)。
一方、入力イベントがフリックでなければ(図5のステップB4でNO)、つまり、タップ操作の入力イベントの場合には、接触移動状態を経由しての接触検出であるかを調べ(ステップB8)、接触移動状態を経由していない接触検出であれば(ステップB8でNO)、タップ操作の可能性が高いためにタップ優先ポインタTPの値に「1」を加算する更新処理を行う(ステップB9)。また、接触移動状態を経由しての接触検出であれば(ステップB8でYES)、タップ操作の可能性を優先するが、フリック操作の可能性も残しているために更なる判定処理としてタップ優先条件判定処理に移る(ステップB10)。
図7は、タップ優先条件判定処理(図5のステップB10)を詳述するためのフローチャートである。
先ず、CPU1は、拡大プレビュー表示後からT3時間(例えば、2秒)以内での接触検出であるかを調べる(ステップD1)。この場合、拡大プレビュー表示によって画像を確認したユーザは、その画像を選択するタップ操作を行った後に印刷する可能性が高いために拡大表示後から2秒以内の接触検出であれば(ステップD1でYES)、タップ優先ポインタTPの値に「1」を加算する更新処理を行うが(ステップD2)、拡大表示後から2秒を超えた際の接触検出であれば(ステップD1でNO)、フリック優先ポインタFPの値に「1」を加算する更新処理を行う(ステップD3)。
次に、接触位置に配置されている画像がお気に入りフォルダ内の画像であるかを調べる(ステップD4)。この場合、接触された画像の表示位置からその画像を特定した後に、画像メモリGMを参照してその画像の属性を読み出し、お気に入りフォルダ内の画像であるかを調べる。この場合、お気に入りフォルダ内の画像は、画像選択される可能性が高いために、お気に入りフォルダ内の画像であれば(ステップD4でYES)、タップ優先ポインタTPの値に「1」を加算する更新処理を行うが(ステップD5)、お気に入りフォルダ内の画像でなければ(ステップD4でNO)、フリック優先ポインタFPの値に「1」を加算する更新処理を行う(ステップD6)。
次に、接触検出された位置の画像が加工中であるかを調べる(ステップD7)。ここで、画像加工とは、拡大プレビュー表示中やローテイト表示中などであり、画像の加工中での接触検出であれば(ステップD7でYES)、その画像表示を戻すためのタップ操作の可能性が高いために、タップ優先ポインタTPの値に「1」を加算する更新処理を行うが(ステップD8)、画像の加工中での接触検出でなければ(ステップD7でNO)、フリック優先ポインタFPの値に「1」を加算する更新処理を行う(ステップD9)。
上述のように処理状態の判別処理が終わると(図4のステップA10)、その処理状態に応じてジェスチャ操作種を判定する処理を行う(ステップA11)。この場合、フリック優先ポインタFPの値とタップ優先ポインタTPの値との比較結果に応じてジェスチャ操作種を判定する。すなわち、フリック優先ポインタFPの値がタップ優先ポインタTPの値以上であれば、フリック操作が行われたと判定するが、フリック優先ポインタFPの値がタップ優先ポインタTPの値未満であれば、タップ操作が行われたと判定する。
このようにしてジェスチャ操作種(フリック操作/タップ操作)を判定する処理を行うと(ステップA11)、そのジェスチャ操作種は、フリック操作であるかを調べ(ステップA12)、ジェスチャ操作種がフリック操作であれば(ステップA12でYES)、例えば、サムネイル画面のページ切り替えを行うが、その際、検出されたフリック方向(接触移動方向)に応じて次のページのサムネイル画面に切り替えたり、一つ前のページのサムネイル画面に切り替えたりする(ステップA12)。なお、フリック操作によって表示スクロールを行う場合にはフリック方向(接触移動方向)に応じて左方向に表示スクロールさせたり、右方向に表示スクロールさせたりする。また、ジェスチャ操作種がタップ操作であれば(ステップA12でNO)、画像を選択して拡大表示させるための画像選択処理を行う(ステップA13)。その後、上述のステップA4に戻り、サムネイル画面上で何らかの操作が行われる毎に、以下、上述の動作を繰り返す。
以上のように、第1実施形態においてCPU1は、タッチパネル5b上でのジェスチャ操作を検出した際の処理状態を判別すると共に、その処理状態に応じて当該ジェスチャ操作種を判定し、その操作種に応じたデータ処理を行うようにしたので、ジャスチャ操作の判定を、その操作内容の検出結果だけでなく、更に、その時の処理状態をも加味することができ、適切な判定によりユーザの意図に沿った操作が可能となる。
ジェスチャ操作種の判定評価点(評価累計値)をジェスチャ操作種別に記憶するフリック優先ポインタFP及びタップ優先ポインタTPを設け、CPU1は、処理状態毎にジェスチャ操作種を判定評価してフリック優先ポインタFP、タップ優先ポインタTPの値(評価累計値)を更新し、そのフリック優先ポインタFP及びタップ優先ポインタTPの値を比較することによって、いずれか一つのジェスチャ操作種を判定するようにしたので、複数種の処理状態に応じてジェスチャ操作種を適切に判定することが可能となり、より確実な判定が可能となる。
CPU1は、処理状態として、所定のデータが表示されてからの時間の経過状態を判別し、例えば、初回表示後からT1時間以内での接触移動検出であるか、前回のフリック操作からT2時間以内での接触移動検出であるか、拡大プレビュー表示後からT3時間以内での接触検出であるかを判別し、その時間の経過状態に応じていずれか一つのジェスチャ操作種を判定するようにしたので、所定時間以内に操作される可能性の高いジェスチャ操作種のように、時間経過と操作との関係からジェスチャ操作種を適切に判定することができる。
CPU1は、処理状態として、表示画面内に表示されているデータに対してその加工中(例えば、拡大プレビュー表示中やローテイト表示中など)であるかに応じて表示データの状態を判別し、その表示データの状態に応じていずれか一つのジェスチャ操作種を判定するようにしたので、データ加工中に操作される可能性の高いジェスチャ操作種のようにデータ加工と操作との関係からジェスチャ操作種を適切に判定することができる。
CPU1は、処理状態として、ジェスチャ操作の検出時にその操作位置の画像の属性状態(例えば、印刷済画像、未伸張画像、伸張エラー画像、お気に入り画像)を判別し、その属性状態に応じていずれか一つのジェスチャ操作種を判定するようにしたので、例えば、印刷済画像、未伸張画像、伸張エラー画像は、画像選択される可能性が低いが、逆にお気に入り画像は、画像選択される可能性が高くなるなど、画像属性の関係からジェスチャ操作種を適切に判定することができる。
CPU1は、処理状態として、ジェスチャ操作が画像上であるかの操作位置状態を判別し、この操作位置状態に応じていずれか一つのジェスチャ操作種を判定するようにしたので、画像上でのジェスチャ操作であれば、画像選択の可能性が高くなることからジェスチャ操作種を適切に判定することができる。
CPU1は、入力制御部5cによって検出されたタッチ表示部5上の操作内容の検出結果に応じてジェスチャ操作種を判定するようにしたので、タッチ表示部5上でのジェスチャ操作を判定することができる。
なお、上述した第1実施形態においては、タッチ表示部5上での操作内容の検出結果からそのジェスチャ操作種を示す入力イベントを取れ込んだ後に、その真偽を判定するため現在の処理状態を参照してジェスチャ操作種を判定するようにしたが、ジェスチャ操作内容の検出結果に基づいて一つのジェスチャ操作種に絞り込めなかったことを条件として、処理状態に応じてジェスチャ操作種を判定する処理を開始するようにしてもよい。このように処理状態に応じてジェスチャ操作種を判定する処理をジェスチャ操作が行われる毎に行わず、必要に応じて行うようにすれば、無駄な判定を少なくすることができ、より円滑な判定が可能となる。
また、タッチ表示部5上でのジェスチャ操作内容の検出結果から複数のジェスチャ操作種の組み合わせを判定候補とする絞り込みを行った後に、処理状態に応じてジェスチャ操作種を判定する処理を行うようにしてもよい。例えば、似ているジェスチャ操作として、タップ操作とフリック操作との組み合わせ、あるいはフリック操作とスライド操作との組み合わせを判定候補とする絞り込みを行った後、処理状態に応じて判定候補の中からいずれか一つのジェスチャ操作種に絞り込む判定を行うようにしてもよい。
例えば、判定候補がフリック操作とスライド操作との組み合わせの場合において、表示データ全体がタッチ表示部5に収まっているか否かの状態を処理状態とすると、表示データ全体が収まっていなければ、表示スクロールの可能性が高いので、ジェスチャ操作種は接触移動のスライド操作(ドラッグ操作)であると判定し、表示データ全体が収まっていれば、ページめくりの可能性が高いので、ジェスチャ操作種はフリック操作であると判定することができる。このように第1の段階では、似ている複数のジェスチャ操作種(スライド操作、フリック操作)を判定候補として絞り込み、第2の段階では、処理状態に応じて判定候補の中からいずれか一つのジェスチャ操作種に絞り込む判定を行うようにすれば、その判定がより確実なものとなる。
また、このことは、複数のジェスチャ操作種を判定候補とする場合に限らず、1種類のジェスチャ操作種であってもその操作検出時の処理状態に応じて異なるデータ処理を行うようにしてもよい。すなわち、上述した例のように表示データ全体がタッチ表示部5に収まっているか否かの状態を処理状態とした場合に、フリック操作か行われた際に表示データ全体が収まっていなければ、表示スクロール処理を行い、表示データ全体が収まっていれば、ページ切替処理を行うようにしてもよい。
また、上述した第1実施形態においては、接触検出された位置の画像が加工中であるかを調べるようにしたが、加工中に限らず、加工直後であるかをチェックしてもよい。また、画像に限らず、テキスト、ページ、ウインドゥなどの表示データに対してその加工中であるかをチェックしたり、加工直後であるかをチェックしたりするようにしてもよい。
また、上述した第1実施形態においては、画像の属性として、印刷済画像、未伸張画像、伸張エラー画像、お気に入り画像としたが、これに限らず、例えば、画像の選択頻度、選択回数などを画像の属性とするようにしてもよい。これによって選択頻度や選択回数が多い画像は、選択される可能性が高いものとしてタップ操作をジェスチャ操作として判定すればよい。
また、上述した第1実施形態においては、タッチ表示部5上でのジェスチャ操作内容からジェスチャ操作を検出するようにしたが、タッチ表示部5上でのジェスチャ操作に限らず、撮像部(図示省略)によって撮影されたユーザの撮影画像からジェスチャ操作を検出するようにしてもよい。
また、上述した第1実施形態の処理状態としては、ジェスチャ操作の検出時点での現在の処理状態を示したが、ジェスチャ操作の検出時を基準としてそれまでの一連の処理状態(処理過程など)であってもよい。
(第2実施形態)
以下、この発明の第2実施形態について図8〜図10を参照して説明する。
なお、上述した第1実施形態は、印刷装置においてジェスチャ操作を検出した際の処理状態に応じてそのジェスチャ操作種を判定するようにしたが、この第2実施形態は、タブレット端末装置においてジェスチャ操作を検出した際の操作対象(画像、アイコン、ウインドゥなど)の属性に応じてそのジェスチャ操作種を判定するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
図8は、第2実施形態において、タブレット端末装置の基本的な構成要素を示したブロック図である。
タブレット端末装置は、その筐体全体が、例えば、A5サイズの携帯型情報端末装置であり、タッチ入力機能、無線通信機能などの基本機能を備えている。CPU11は、電源部(二次電池)12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこのタブレット端末装置の全体動作を制御するもので、このCPU11には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部13は、例えば、ROM、フラッシュメモリなどを有する構成で、図10に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されている。なお、記憶部13は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては所定のサーバ装置側の記憶領域を含むものであってもよい。
操作部14は、押しボタン式のキーとして、図示省略したが、電源をオン/オフさせる電源キーなどを備えている。タッチ表示部15は、第1実施形態と同様に、表示パネル15a、タッチパネル15b、入力制御部15c、表示制御部15dを備えた構成となっている。無線LAN(Local Area Network)通信部16は、高速大容量の通信が可能な無線通信モジュールで、最寄りの無線LANルータ(図示省略)を介してインターネットなどに接続可能となっている。
図9は、タッチ表示部15上でジェスチャ操作が行われた場合の操作対象を説明するための図である。
第2実施形態において、CPU11は、タッチ表示部15上でのジェスチャ操作を検出すると、タッチ表示部15上の操作対象の属性を判別し、この属性に応じてそのジェスチャ操作種を判定するようにしている。図示の場合、タッチ表示部15上の操作対象とは、表示データ(ページ、画像)、表示オブジェクト(画像、アイコン、ウインドゥ)、画面内の表示領域を示している。ここで、ジェスチャ操作がタッチ表示部15に表示されている表示データ(ページ、画像)上で行われた場合には、表示データ(ページ、画像)が操作対象となり、表示オブジェクト上で行われた場合には、表示オブジェクト(画像、アイコン、ウインドゥ)が操作対象となる。また、タッチ表示部15に表示されている表示データ及び表示オブジェクト以外の表示領域上でジェスチャ操作が行われた場合には、表示領域操作対象となる。
また、操作対象の属性とは、例えば、操作対象が表示データであれば、その表示データ全体が画面内に収まっているか否か、また、画像の場合には、お気に入り画像か否か、印刷済み画像か否か、未伸張画像であるか否か、画像以外のオブジェクト(アイコン、ウインドゥなど)であるか否かを示している。操作対象が表示オブジェクトであれば、画像、アイコン、ウインドゥであるかを示し、操作対象が表示領域であれば、画面端部か画面中央部かを示している。
図10は、タッチ表示部15上へのジェスチャ操作に応じて実行開始されるタブレット端末装置の動作を示したフローチャートである。
先ず、CPU11は、入力制御部15cによってタッチ表示部15上でのジェスチャ操作内容が検出されると(ステップE1)、その接触位置に基づいて操作対象は、表示データ(ページ、画像)、表示オブジェクト(画像、アイコン、ウインドゥ)、画面内の表示領域のいずれであるかを判別すると共に(ステップE2)、その操作対象の属性を判別する(ステップE3)。
そして、この操作対象の属性に基づいてジェスチャ操作種を判定し(ステップE4)、その結果、ジェスチャ操作種はフリック操作であるかを調べ(ステップE5)、ジェスチャ操作種がフリック操作であれば(ステップE5でYES)、表示スクロール処理に移り(ステップE6)、フリック方向(接触移動方向)に応じて左方向に表示スクロールさせたり、右方向に表示スクロールさせたりする。また、ジェスチャ操作種がタップ操作であれば(ステップE5でNO)、データを選択して拡大表示させるためのデータ選択処理を行う(ステップE7)。その後、図10のフローから抜け、以下、ジェスチャ操作が行われる毎に、図10のフローが繰り返される。
このように第2実施形態においては、タッチ表示部15上の操作対象の属性に応じてジェスチャ操作種を判定して、そのジェスチャ操作種に応じたデータ処理を行うが、その具体例としては、以下のとおりである。例えば、操作対象の属性が表示オブジェクトのウインドゥであれば、ジェスチャ操作種はフリック操作であると判定して表示スクロール処理を行い、表示オブジェクトのアイコンであれば、ジェスチャ操作種はタップ操作であると判定して表示オブジェクト選択処理を行う。また、操作対象が表示領域でその属性が画面中央部であれば、ジェスチャ操作種はフリック操作であると判定して表示スクロール処理を行い、画面端部であれば、ジェスチャ操作種はタップ操作であると判定して表示オブジェクト選択処理を行う。
また、操作対象が表示データの画像でその属性がお気に入り画像であれば、ジェスチャ操作種はタップ操作であると判定して画像選択処理を行うが、印刷済み画像、未伸張画像、伸張エラー画像のいずれであれば、ジェスチャ操作種はタップ操作であると判定して画像選択処理を行う。また、操作対象の属性として表示データ(ページ、画像)の全体が画面内に収まっていれば、ジェスチャ操作種はタップ操作であると判定して表示データの選択処理を行うが、画面内に収まっていなければ、ジェスチャ操作種はフリック操作であると判定して表示スクロール処理を行う。
以上のように、第2実施形態においてCPU11は、タッチパネル15b上でのジェスチャ操作を検出した際に、その操作対象の属性を判別すると共に、その操作対象の属性に応じて当該ジェスチャ操作種を判定し、その操作種に応じたデータ処理を行うようにしたので、ジャスチャ操作の判定を、その操作内容の検出結果だけではなく、更に、その時の操作対象の属性をも加味することができ、適切な判定によりユーザの意図に沿った操作が可能となる。
CPU11は、入力制御部15cによって検出されたタッチ表示部15上の操作内容の検出結果に応じてジェスチャ操作種を判定するようにしたので、タッチ表示部15上でのジェスチャ操作を判定することができる。
操作対象は、タッチ表示部15に表示されている画像データであり、CPU11は、画像の属性を判別し、この属性に応じてジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定するようにしたので、例えば、印刷済画像、未伸張画像、伸張エラー画像は、画像選択される可能性が低いが、逆にお気に入り画像は、画像選択される可能性が高くなるなどのように画像属性の関係からジェスチャ操作種を判定することができるなど、適切な判定が可能となる。
操作対象は、タッチ表示部15に表示される表示データであり、CPU11は、操作対象の属性として、表示データの全体がタッチ表示部15内に収まっている否かを判別し、この属性に応じてジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定するようにしたので、例えば、データ全体が収まっていなければ、表示スクロールが指示される可能性が高いためにフリック操作と判定し、データ全体が収まっていれば、データが選択される可能性が高いためにタップ操作と判定することができるなど、適切な判定が可能となる。
操作対象は、タッチ表示部15に表示される表示オブジェクトであり、CPU11は、表示オブジェクトの種類(例えば、画像、アイコン、ウインドゥなど)をその表示オブジェクトの属性として判別し、この属性に応じてジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定するようにしたので、例えば、操作対象が画像、アイコンであれば、データ選択の可能性が高いのでタップ操作として判定し、ウインドゥであれば表示スクロールの可能性が高いのでフリック操作として判定することができるなど、適切な判定が可能となる。
操作対象は、タッチ表示部15内の表示領域であり、CPU11は、表示領域の属性を判別し、この属性に応じてジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定するようにしたので、例えば、表示領域が画面端部であれば、表示オブジェクトを選択する可能性が高いのでタップ操作として判定し、画面中央部であれば、表示オブジェクトの表示スクロールやページめくりが高いのでフリック操作として判定することができるなど、適切な判定が可能となる。
なお、上述した第2実施形態においては、表示オブジェクトの属性として、画像、アイコン、ウインドゥを例示したが、テキスト、空白などを表示オブジェクトとしてもよい。また、上述した第2実施形態においては、表示領域の属性として、画面端部、画面中央部としたが、そのほかに、例えば、上下左右の隅部などを含めるようにしてもよい。
また、上述した各実施形態においては、ジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定するようにしたが、タップ操作、フリック操作以外にも、例えば、接触移動する操作(スライド操作:ドラッグ操作)、接触位置を固定して継続する操作(ホールド操作)、複数本の指で複数の表示位置を同時に接触する操作(ダブルタップ操作)、表示データの拡大を指示する操作(ピンチアウト操作)、表示データの縮小を指示する操作(ピンチイン操作)などをジェスチャ操作種として判定するようにしてもよい。
また、上述した各実施形態においては、指やペンなどの接触や接触移動を検出する接触型タッチパネルを使用する場合を例示したが、上述したように、指やペンの接近や接近移動による静電容量変化や明るさ変化などに応じて指やペンの位置を検出する非接触型タッチパネルや操作検出デバイスを使用したり、ユーザの手振りや身振りを撮影する撮像デバイスを使用したりするようにしてもよい。すなわち、ジェスチャ操作を検出する手段は、任意である。
また、上述した第1実施形態においてはデータ処理装置として印刷装置に適用し、第2実施形態においてはデータ処理装置としてタブレット端末装置に適用した場合を例示したが、データ処理装置は、これに限らず、パーソナルコンピュータ、PDA(個人向け携帯型情報通信機器)、携帯電話機、デジタルカメラ、音楽プレイヤーなどであってもよい。
また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。
以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
ジェスチャ操作を検出する検出手段を備えたデータ処理装置であって、
前記検出手段によるジェスチャ操作の検出時点を基に当該データ処理装置の処理状態を判別する判別手段と、
前記判別手段によって判別された処理状態に応じて、複数のジェスチャ操作種の中からいずれか一つのジェスチャ操作種を判定する判定手段と、
前記判定手段によって判定されたジェスチャ操作種に応じたデータ処理を行うデータ処理手段と、
を備えることを特徴とするデータ処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1記載のデータ処理装置において、
当該データ処理装置の複数種の処理状態毎にジェスチャ操作種を判定評価した評価点をジェスチャ操作種別に記憶する評価点記憶手段を更に備え、
前記判別手段は、前記複数種の処理状態毎にジェスチャ操作種を判定評価してジェスチャ操作種別の評価点を更新し、
前記判定手段は、前記判別手段によって更新されたジェスチャ操作種別の評価点に基づいて複数のジェスチャ操作種の中から前記いずれか一つのジェスチャ操作種を判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項3)
請求項3に記載の発明は、請求項1あるいは請求項2に記載のデータ処理装置において、
前記判別手段は、当該データ処理装置の処理状態として、所定のデータが表示されてからの時間の経過状態を判別し、
前記判定手段は、前記判別手段によって判別された時間の経過状態に応じて前記いずれか一つのジェスチャ操作種を判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項4)
請求項4に記載の発明は、データ処理装置において、
前記判別手段は、当該データ処理装置の処理状態として、表示画面内に表示されているデータに対してその加工中であるか、あるいは加工直後であるかの表示データの状態を判別し、
前記判定手段は、前記判別手段によって判別された表示データの状態に応じて前記いずれか一つのジェスチャ操作種を判定する、
ようにしたことを特徴とする請求項1〜請求項3のいずれかに記載のデータ処理装置である。
(請求項5)
請求項5に記載の発明は、データ処理装置において、
前記判別手段は、当該データ処理装置の処理状態として、表示画面内に表示されているデータに対してその加工中であるか、あるいは加工直後であるかの表示データの状態を判別し、
前記判定手段は、前記判別手段によって判別された表示データの状態に応じて前記いずれか一つのジェスチャ操作種を判定する、
ようにしたことを特徴とする請求項1〜請求項3のいずれかに記載のデータ処理装置である。
(請求項6)
請求項6に記載の発明は、請求項1〜請求項5のいずれかに記載のデータ処理装置において、
前記判別手段は、当該データ処理装置の処理状態として、前記ジェスチャ操作が画像上であるかの操作位置状態を判別し、
前記判定手段は、前記判別手段によって判別された操作位置状態に応じて前記いずれか一つのジェスチャ操作種を判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項7)
請求項7に記載の発明は、請求項1〜請求項6のいずれかに記載のデータ処理装置において、
前記検出手段は、表示画面上での操作内容からジェスチャ操作を検出、あるいは撮像部によって撮影されたユーザの撮影画像からジェスチャ操作を検出する、
ようにしたことを特徴とするデータ処理装置である。
(請求項8)
請求項8に記載の発明は、請求項1に記載のデータ処理装置において、
前記判定手段は、前記検出されたジェスチャ操作の内容を解析すると共に、その解析結果に基づいて一つのジェスチャ操作種に絞り込めなかった場合に、前記判別手段によって判別された処理状態に応じて前記いずれか一つのジェスチャ操作種を判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項9)
請求項9に記載の発明は、請求項1に記載のデータ処理装置において、
前記判定手段は、前記検出されたジェスチャ操作の内容を解析すると共に、その解析結果に基づいて複数のジェスチャ操作種の組み合わせを判定候補とする絞り込みを行った後、前記判別手段によって判別された処理状態に応じて、前記判定候補の中から前記いずれか一つのジェスチャ操作種を判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項10)
請求項10に記載の発明は、
ジェスチャ操作を検出する検出手段を備えたデータ処理装置であって、
前記検出手段によるジェスチャ操作の検出時にその操作対象の属性を判別する判別手段と、
前記判別手段によって判別された操作対象の属性に応じて、複数のジェスチャ操作種の中からいずれか一つのジェスチャ操作種を判定する判定手段と、
前記判定手段によって判定されたジェスチャ操作類に応じたデータ処理を行うデータ処理手段と、
を備えることを特徴とするデータ処理装置である。
(請求項11)
請求項11に記載の発明は、請求項10に記載のデータ処理装置において、
前記検出手段は、表示画面上での操作内容からジェスチャ操作を検出する、
ようにしたことを特徴とするデータ処理装置である。
(請求項12)
請求項12に記載の発明は、請求項10あるいは請求項11に記載のデータ処理装置において、
前記操作対象は、表示画面に表示されている画像データであり、
前記判別手段は、前記画像データの属性を判別し、
前記判定手段は、前記判別手段によって判別された画像データの属性に応じて、前記表示画面上で行われたジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項13)
請求項13に記載の発明は、請求項10あるいは請求項11に記載のデータ処理装置において、
前記操作対象は、表示画面に表示される表示データであり、
前記判別手段は、前記表示データの全体が前記表示画面内に収まっている否かをその表示データの属性として判別し、
前記判定手段は、前記判別手段によって判別された表示データの属性に応じて、前記表示画面上で行われたジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項14)
請求項14に記載の発明は、請求項10あるいは請求項11に記載のデータ処理装置において、
前記操作対象は、表示画面に表示されている表示オブジェクトであり、
前記判別手段は、前記表示オブジェクトの種類をその表示オブジェクトの属性として判別し、
前記判定手段は、前記判別手段によって判別された表示オブジェクトの属性に応じて、前記表示画面上で行われたジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項15)
請求項15に記載の発明は、請求項10あるいは請求項11に記載のデータ処理装置において、
前記操作対象は、表示画面内の表示領域であり、
前記判別手段は、前記表示領域の属性を判別し、
前記判定手段は、前記判別手段によって判別された表示領域の属性に応じて、前記表示画面内の表示領域で行われたジェスチャ操作種としてタップ操作、フリック操作のいずれかを判定する、
ようにしたことを特徴とするデータ処理装置である。
(請求項16)
請求項16に記載の発明は、
コンピュータに対して、
ジェスチャ操作を検出する機能と、
前記ジェスチャ操作の検出時点を基に当該データ処理装置の処理状態を判別する機能と、
前記判別された処理状態に応じて、複数のジェスチャ操作種の中からいずれか一つのジェスチャ操作類を判定する機能と、
前記判定されたジェスチャ操作種に応じたデータ処理を行う機能と、
を実現させるためのプログラムである。
(請求項17)
請求項17に記載の発明は、
コンピュータに対して、
ジェスチャ操作を検出する機能と、
前記ジェスチャ操作の検出時にその操作対象の属性を判別する機能と、
前記判別された操作対象の属性に応じて、複数のジェスチャ操作種の中からいずれか一つのジェスチャ操作種を判定する機能と、
前記判定されたジェスチャ操作種に応じたデータ処理を行う機能と、
を実現させるためのプログラムである。
1、11 CPU
2、13 記憶部
2a プログラム領域
4 印刷部
4a インク残量検出部
5、15 タッチ表示部
5a、15a 表示パネル
5b、15b タッチパネル
5c、15c 入力制御部
GM 画像メモリ
FP フリック優先ポインタ
TP タップ優先ポインタ

Claims (14)

  1. ユーザによるジェスチャ操作を検出する検出手段と、
    前記検出手段によるジェスチャ操作の検出が、所定データを表示した後、あるいは前回のジェスチャ操作の検出後、あるいは画像表示サイズ変更後、における所定時間経過以内での操作か否かを判別する判別手段と、
    前記判別手段での判別結果に応じて、前記ジェスチャ操作の操作種としてフリック操作種とタップ操作種との内の何れか一つのジェスチャ操作種を優先的に判定する判定手段と、
    を備えることを特徴とするデータ処理装置。
  2. 前記判別手段は、所定データを表示した後における所定時間経過以内での操作か否かを判別し、
    前記判定手段は、前記所定時間経過以内での操作と判別された場合に前フリック操作種を優先的に判定し、前記所定時間経過での操作と判別された場合に前タップ操作種を優先的に判定する、
    ことを特徴とする請求項1に記載のデータ処理装置。
  3. 前記判別手段は、前回の特定ジェスチャ操作の検出後における所定時間経過以内での操作か否かを判別し、
    前記判定手段は、前記所定時間経過以内での操作と判別された場合に前フリック操作種を優先的に判定し、前記所定時間経過での操作と判別された場合に前タップ操作種を優先的に判定する、
    ことを特徴とする請求項1に記載のデータ処理装置。
  4. 前記判別手段は、画像表示サイズ変更後における所定時間経過以内での操作か否かを判別し、
    前記判定手段は、前記所定時間経過以内での操作と判別された場合に前タップ操作種を優先的に判定し、前記所定時間経過での操作と判別された場合に前フリック操作種を優先的に判定する、
    ことを特徴とする請求項1に記載のデータ処理装置。
  5. ユーザによるジェスチャ操作を検出する検出手段と、
    前記検出手段によるジェスチャ操作を検出した際に、所定の表示領域内に表示される対象データ全体が当該表示領域内に収まって表示されているか否か、あるいはそのジェスチャ操作の操作位置各種ジェスチャ操作を検出可能なジェスチャ検出領域内の特定位置か否かを判別する判別手段と、
    前記判別手段での判別結果に応じて、前記ジェスチャ操作の操作種としてフリック操作種とタップ操作種との内の何れか一つのジェスチャ操作種を判定する判定手段と、
    を備えることを特徴とするデータ処理装置。
  6. 前記判別手段は、所定の表示領域内に表示される対象データ全体が当該表示領域内に収まって表示されているか否かを判別し、
    前記判定手段は、前記表示領域内に収まっていると判別された場合に前タップ操作種を優先的に判定し、前記表示領域内に収まっていないと判別された場合に前フリック操作種を優先的に判定する、
    ことを特徴とする請求項5に記載のデータ処理装置。
  7. 前記判別手段は、ジェスチャ操作の操作位置が、各種ジェスチャ操作を検出可能なジェスチャ検出領域内の特定位置か否かを判別し、
    前記判定手段は、前記特定位置に対してのジェスチャ操作と判別された場合には前タップ操作種を優先的に判定し、前記特定位置以外の領域に対してのジェスチャ操作と判別された場合には前フリック操作種を優先的に判定する、
    ことを特徴とする請求項5に記載のデータ処理装置。
  8. 前記特定位置は、前記検出領域の内の端部に相当する領域端位置であり、
    前記判定手段は、前記領域端位置に対してのジェスチャ操作と判別された場合には前記タップ操作種を優先的に判定し、前記領域端位置以外のほぼ中央部の領域位置に対してのジェスチャ操作と判別された場合には前記フリック操作種を優先的に判定する、
    ことを特徴とする請求項7に記載のデータ処理装置。
  9. 前記判別手段における前記判別は、前記検出手段により検出されたジェスチャ操作の操作種が複数の操作種に絞り込まれた場合に行い、
    前記判定手段は、前記絞り込まれた前記複数の操作種の内の前記フリック操作種、あるいは前記タップ操作種の何れか一つのジェスチャ操作種を優先的に判定する、
    ことを特徴とする請求項1〜8の何れかに記載のデータ処理装置。
  10. 前記検出手段は、表示画面上での操作内容からジェスチャ操作を検出、あるいは撮像部によって撮影されたユーザの撮影画像からジェスチャ操作を検出する、
    ことを特徴とする請求項1〜9の何れかに記載のデータ処理装置。
  11. 前記判定手段は、前記検出されたジェスチャ操作の内容を解析すると共に、その解析結果に基づいて一つのジェスチャ操作種に絞り込めなかった場合に、前記判別手段での判別結果に応じて前記フリック操作種とタップ操作種との内の何れか一つのジェスチャ操作種を優先的に判定する、
    ことを特徴とする請求項1〜10の何れかに記載のデータ処理装置。
  12. 前記判定手段は、前記検出されたジェスチャ操作の内容を解析すると共に、その解析結果に基づいて複数のジェスチャ操作種の組み合わせを判定候補とする絞り込みを行った後、前記判別手段での判別結果に応じて前記フリック操作種とタップ操作種との内の何れか一つのジェスチャ操作種を優先的に判定する、
    ことを特徴とする請求項1〜11の何れかに記載のデータ処理装置。
  13. データ処理装置のコンピュータを制御するためのプログラムであって、
    前記コンピュータを、
    ユーザによるジェスチャ操作を検出する検出手段、
    前記検出手段によるジェスチャ操作の検出が、所定データを表示した後、あるいは前回のジェスチャ操作の検出後、あるいは画像表示サイズ変更後、における所定時間経過以内での操作か否かを判別する判別手段、
    前記判別手段での判別結果に応じて、前記ジェスチャ操作の操作種としてフリック操作種とタップ操作種との内の何れか一つのジェスチャ操作種を優先的に判定する判定手段、
    として機能させるためのプログラム。
  14. データ処理装置のコンピュータを制御するためのプログラムであって、
    前記コンピュータを、
    ユーザによるジェスチャ操作を検出する検出手段、
    前記検出手段によるジェスチャ操作を検出した際に、所定の表示領域内に表示される対象データ全体が当該表示領域内に収まって表示されているか否か、あるいはそのジェスチャ操作の操作位置が、各種ジェスチャ操作を検出可能なジェスチャ検出領域内の特定位置か否かを判別する判別手段、
    前記判別手段での判別結果に応じて、前記ジェスチャ操作の操作種としてフリック操作種とタップ操作種との内の何れか一つのジェスチャ操作種を判定する判定手段、
    として機能させるためのプログラム。
JP2012183919A 2012-08-23 2012-08-23 データ処理装置及びプログラム Active JP5928245B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012183919A JP5928245B2 (ja) 2012-08-23 2012-08-23 データ処理装置及びプログラム
US13/942,896 US9524029B2 (en) 2012-08-23 2013-07-16 Indeterminable gesture recognition using accumulated probability factors
CN201310371472.3A CN103631490B (zh) 2012-08-23 2013-08-23 进行对应于姿势操作的数据处理的数据处理装置以及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012183919A JP5928245B2 (ja) 2012-08-23 2012-08-23 データ処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2014041516A JP2014041516A (ja) 2014-03-06
JP5928245B2 true JP5928245B2 (ja) 2016-06-01

Family

ID=50149175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012183919A Active JP5928245B2 (ja) 2012-08-23 2012-08-23 データ処理装置及びプログラム

Country Status (3)

Country Link
US (1) US9524029B2 (ja)
JP (1) JP5928245B2 (ja)
CN (1) CN103631490B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6399834B2 (ja) * 2014-07-10 2018-10-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
CN105592261A (zh) * 2014-11-04 2016-05-18 深圳富泰宏精密工业有限公司 辅助拍照系统及方法
JP6332224B2 (ja) * 2015-10-14 2018-05-30 京セラドキュメントソリューションズ株式会社 表示入力装置およびそれを備えた画像形成装置
US10915178B2 (en) * 2015-11-11 2021-02-09 Sony Corporation Communication system, server, storage medium, and communication control method
JP6711017B2 (ja) * 2016-02-29 2020-06-17 ブラザー工業株式会社 表示装置、および制御プログラム
CN108389459A (zh) * 2018-03-15 2018-08-10 湖南工业大学 一种基于虚拟现实的印刷模拟系统
JP7247663B2 (ja) * 2019-03-06 2023-03-29 セイコーエプソン株式会社 電子機器およびプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06208654A (ja) * 1993-01-08 1994-07-26 Hitachi Software Eng Co Ltd ペン入力図形編集システム
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
JP3977684B2 (ja) * 2002-05-21 2007-09-19 株式会社東芝 デジタルスチルカメラ
JP2004355426A (ja) * 2003-05-30 2004-12-16 Hitachi Ltd タッチパネル操作性向上ソフトウェア及び端末
US7437005B2 (en) * 2004-02-17 2008-10-14 Microsoft Corporation Rapid visual sorting of digital files and data
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
JP4779515B2 (ja) * 2005-09-06 2011-09-28 ソニー株式会社 ウィンドウプロセス制御プログラム
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
CN101551723B (zh) * 2008-04-02 2011-03-23 华硕电脑股份有限公司 电子装置以及相关的控制方法
JP5418187B2 (ja) 2009-12-02 2014-02-19 ソニー株式会社 接触操作判定装置、接触操作判定方法およびプログラム
JP5523090B2 (ja) 2009-12-25 2014-06-18 キヤノン株式会社 入力装置、入力装置の制御方法、プログラムおよび記憶媒体
JP5751934B2 (ja) * 2010-10-15 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US9116614B1 (en) * 2011-04-13 2015-08-25 Google Inc. Determining pointer and scroll gestures on a touch-sensitive input device
US20130002601A1 (en) * 2011-07-01 2013-01-03 Mccracken David Harold Touch device gesture recognition
US20130147841A1 (en) * 2011-12-08 2013-06-13 Microsoft Corporation Interactive navigation and view selection in digital cartography
US20130219340A1 (en) * 2012-02-21 2013-08-22 Sap Ag Navigation on a Portable Electronic Device
JP5598737B2 (ja) * 2012-02-27 2014-10-01 カシオ計算機株式会社 画像表示装置、画像表示方法及び画像表示プログラム
JP5783385B2 (ja) * 2013-02-27 2015-09-24 カシオ計算機株式会社 データ処理装置及びプログラム

Also Published As

Publication number Publication date
US9524029B2 (en) 2016-12-20
CN103631490B (zh) 2016-12-28
JP2014041516A (ja) 2014-03-06
CN103631490A (zh) 2014-03-12
US20140059500A1 (en) 2014-02-27

Similar Documents

Publication Publication Date Title
JP5928245B2 (ja) データ処理装置及びプログラム
JP7342208B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
US9372872B2 (en) Display control apparatus, display control method, and storage medium for displaying a content of a file on a display apparatus
US9165534B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
US9310998B2 (en) Electronic device, display method, and display program
US10389895B2 (en) Image processing apparatus, control method for image processing apparatus, and storage medium
US20130139100A1 (en) Information processing apparatus, control method thereof, and storage medium
US9626096B2 (en) Electronic device and display method
US8947464B2 (en) Display control apparatus, display control method, and non-transitory computer readable storage medium
KR101591586B1 (ko) 제스처 조작을 검출하는 데이터 처리 장치
US20190391697A1 (en) Information processing apparatus, method for controlling the same, and storage medium
CN104243749A (zh) 图像形成装置及图像形成装置的控制方法
CN107257424A (zh) 数据处理装置
JP6758921B2 (ja) 電子機器及びその制御方法
US20220276756A1 (en) Display device, display method, and program
US20150009534A1 (en) Operation apparatus, image forming apparatus, method for controlling operation apparatus, and storage medium
US10416870B2 (en) Display control device and non-transitory computer-readable storage medium having program recorded thereon
JP2022179604A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6094638B2 (ja) 処理装置及びプログラム
JP2021036361A (ja) 操作入力装置、画像処理装置、操作入力方法
JP6210664B2 (ja) 情報処理装置とその制御方法、及びプログラムと記憶媒体
US20220171511A1 (en) Device, method for device, and storage medium
JP2017138759A (ja) 電子機器、電子機器の制御プログラム
US20180059890A1 (en) Information processing apparatus, information processing method, and storage medium storing program
JP5953334B2 (ja) 表示入力装置、および表示入力制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160411

R150 Certificate of patent or registration of utility model

Ref document number: 5928245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150