JP6131982B2 - ジェスチャ判別装置 - Google Patents

ジェスチャ判別装置 Download PDF

Info

Publication number
JP6131982B2
JP6131982B2 JP2015077372A JP2015077372A JP6131982B2 JP 6131982 B2 JP6131982 B2 JP 6131982B2 JP 2015077372 A JP2015077372 A JP 2015077372A JP 2015077372 A JP2015077372 A JP 2015077372A JP 6131982 B2 JP6131982 B2 JP 6131982B2
Authority
JP
Japan
Prior art keywords
gesture
user
rule
screen
distance threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015077372A
Other languages
English (en)
Other versions
JP2015158930A (ja
JP2015158930A5 (ja
Inventor
博 杉浦
博 杉浦
博史 岩本
博史 岩本
澤田 健一
健一 澤田
健 日比野
健 日比野
倫子 丸山
倫子 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015077372A priority Critical patent/JP6131982B2/ja
Publication of JP2015158930A publication Critical patent/JP2015158930A/ja
Publication of JP2015158930A5 publication Critical patent/JP2015158930A5/ja
Application granted granted Critical
Publication of JP6131982B2 publication Critical patent/JP6131982B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、例えばタップおよびフリックなどのジェスチャを判別する技術に関する。
近年、タッチパネルの技術が向上し、タップ、ロングタップ、ダブルタップ、フリック、ドラッグ、ピンチイン、およびピンチアウトなど、様々なジェスチャが可能になった。また、「3Dジェスチャ入力機器」または「3Dモーション入力機器」などと呼ばれる、三次元空間でのジェスチャを検知する装置も、普及し始めている。
ユーザは、ジェスチャを使い分けることにより、データおよび指令の入力を従来よりも容易に行うことができるようになった。
一方、ジェスチャの種類が豊富になると、ユーザが意図するジェスチャがコンピュータによって別のジェスチャであると認識されることが、多くなる。
そこで、ジェスチャの区別をより正確に行うために、次のような技術が提案されている。CPUは、タイマが計時する時間Tが所定時間Tmaxを経過する前にタッチアップが行われると、メモリに記録されている各タッチ位置の座標情報に基づいて、タッチ位置の分散Sを算出する。算出した各分散Sx,Syがそれぞれ閾値Sxmax,Symaxより小さい場合、CPUは、入力操作を、ムーブを含まない操作(タップ操作)であると判別する。各分散Sx,Syがそれぞれ閾値Sxmax,Symaxより小さくない場合、CPUは、入力操作を、ムーブを含む操作(ドラック操作またはフリック操作)であると判別する(特許文献1)。
または、操作面に対して行った入力操作の接触時間を取得した後においても、操作体が操作面に置かれているか否かチェックし、置かれている場合にはタッチ操作と判定し、置かれていない場合にはタップ操作と判定する(特許文献2)。
または、スタイラスや指等のポインタの移動量あるいは移動時間に応じた基準速度を設定するようにし、ポインタの移動速度と基準速度とに基づいて、ポインタによるフリック操作の発生を判定する(特許文献3)。
特開2011−134212号公報 特開2007−156634号公報 特開2012−128830号公報
ところが、常に同一の動きを行うことは、人間にとって困難である。したがって、ユーザが同一のジェスチャを行っているつもりでも、同一のジェスチャであると常にコンピュータが判別するとは、限らない。その結果、ユーザが意図しない処理が装置によって実行され、ユーザに不利益が生じることが、あり得る。または、ユーザにとって使いにくいことがある。
本発明は、このような問題点に鑑み、ジェスチャに基づいて処理を行う装置においてユーザにとっての利便性を従来よりも向上させることを目的とする。
本発明の一形態に係るジェスチャ判別装置は、複数の異なる種類の画面のうちの1つを選択的に表示する表示手段と、前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、ユーザのモーションを検出する検出手段と、前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、を有し、前記規則は、所定の規則よりも、スクロール操作に対応するジェスチャおよび選択操作に対応するジェスチャのうちの前記カレント画面を用いて実行される主たる処理の種類に基づいて優先的に実行すべき処理に対応するジェスチャが他方のジェスチャよりも判別されやすくする規則である。
好ましくは、前記表示手段は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが前記選択操作に対応するジェスチャを行うことよって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記所定の規則よりも、前記モーションが表わすジェスチャが前記スクロール操作に対応するジェスチャであると判別されやすい規則である。
または、前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョ
ブを前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示し、前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記所定の規則よりも、前記モーションが表わすジェスチャが前記選択操作に対応するジェスチャであると判別されやすい規則である。
例えば、前記選択操作に対応するジェスチャは、タップであり、前記スクロール操作に対応するジェスチャは、フリップである。または、前記選択操作に対応するジェスチャは、ロングタップであり、前記スクロール操作に対応するジェスチャは、ドラッグである。または、前記選択操作に対応するジェスチャは、エアタップであり、前記スクロール操作に対応するジェスチャは、エアフリックである。
本発明によると、ジェスチャに基づいて処理を行う装置においてユーザにとっての利便性を従来よりも向上させることができる。
イントラネットの全体的な構成の例を示す図である。 画像形成装置のハードウェア構成の例を示す図である。 画像形成装置の機能的構成の例を示す図である。 タップ閾値データの例を示す図である。 タップおよびフリックを区別する処理の流れの例を示すフローチャートである。 ドキュメント送信画面の例を示す図である。 ジョブ履歴確認画面の例を示す図である。 画面ごとのタップおよびフリックの判別結果の例を示す図である。 画像形成装置の機能的構成の変形例を示す図である。 ロングタップ閾値データの例を示す図である。 ロングタップおよびドラッグを区別する処理の流れの例を示すフローチャートである。 ロングタップ前のボックスドキュメント出力画面の例を示す図である。 ロングタップ前のジョブ履歴確認画面の例を示す図である。 ロングタップ後のボックスドキュメント出力画面の例を示す図である。 ロングタップ後のジョブ履歴確認画面の例を示す図である。 画面ごとのロングタップおよびドラッグの判別結果の例を示す図である。 画像形成装置の機能的構成の変形例を示す図である。 エアタップ閾値データの例を示す図である。 エアタップおよびエアフリップを区別する処理の流れの例を示すフローチャートである。 画面ごとのエアタップおよびエアフリップの判別結果の例を示す図である。 タップおよびフリックを区別する処理の流れの変形例を示すフローチャートである。
〔第一の実施形態〕
図1は、イントラネット3の全体的な構成の例を示す図である。図2は、画像形成装置1のハードウェア構成の例を示す図である。図3は、画像形成装置1の機能的構成の例を示す図である。
図1に示すように、イントラネット3は、画像形成装置1、端末装置2、および通信回線3NWなどによって構成される。画像形成装置1と端末装置2とは、通信回線3NWを介して通信を行うことができる。通信回線3NWとして、公衆回線、専用線、インターネット、またはいわゆるLAN(Local Area Network)回線などが用いられる。
画像形成装置1は、一般に複合機またはMFP(Multi Function Peripherals)などと呼ばれる装置であって、コピー、ネットワークプリンティング、スキャン、ファックス、ボックス、およびメーラなどの機能を集約した装置である。
「ネットワークプリンティング機能」は、端末装置2から画像データを受信し、この画像データに基づいて画像を用紙に印刷する機能である。「ネットワークプリント」または「PCプリント」と呼ばれることもある。
「ボックス機能」は、ユーザごとに「ボックス」または「パーソナルボックス」などと呼ばれる記憶領域を与えておき、各ユーザが自分の記憶領域によって画像データなどのデータを保存し管理するための機能である。ボックスは、パーソナルコンピュータにおける「フォルダ」または「ディレクトリ」に相当する。
画像形成装置1は、図2に示すように、中央処理装置10a、RAM(Random Access Memory)10b、ROM(Read Only Memory)10c、大容量記憶装置10d、タッチパネルディスプレイ10e、ハードキーパネル10f、NIC(Network Interface Card)10g、モデム10h、スキャンユニット10i、画像記憶部10j、画像処理ユニット10k、プリントユニット10m、およびビデオカメラ10nなどによって構成される。
タッチパネルディスプレイ10eは、ユーザへメッセージを与えるための画面、処理の結果を示す画面、またはユーザが画像形成装置1に対してデータおよび指令を入力するための画面などを適宜、選択的に表示する。また、タッチパネルディスプレイ10eは、タッチされた位置を検知し、中央処理装置10aへその位置を通知する。
ハードキーパネル10fは、テンキー、スタートキー、ストップキー、およびファンクションキーなど、いわゆるハードウェアキーによって構成される。
ユーザは、タッチパネルディスプレイ10eまたはハードキーパネル10fを操作することによって、画像形成装置1に対して指令を与えたりデータを入力したりすることができる。特に、タップ、ロングタップ、フリック、およびドラッグなどのジェスチャを行うことによって、入力することができる。これらのジェスチャは、タッチパネルディスプレイ10eの表示面にタッチしながら指を所定の通りに動かすことによって行うことができる。
NIC10gは、TCP/IP(Transmission Control Protocol/Internet Protocol
)などのプロトコルによって端末装置2などの装置と通信を行うための装置である。
モデム10hは、G3などのプロトコルでファックス端末と通信を行うための装置である。
スキャンユニット10iは、用紙に記されている文書、写真、絵、または図表などのドキュメントを読み取って画像データを生成する。
画像記憶部10jは、スキャンユニット10iによって得られた画像データを記憶する。また、NIC10gまたはモデム10hによって受信された画像データを記憶することもできる。
画像処理ユニット10kは、画像記憶部10jに記憶されている画像データに対して、天地補正、傾き補正、汚れ除去、または解像度変換などの画像処理を行う。
プリントユニット10mは、画像記憶部10jに記憶されている画像データに基づいて用紙にドキュメントを印刷する。
ビデオカメラ10nは、ユーザの指の動きを撮影する装置であって、エアジェスチャの種類を判別するために用いられる。エアジェスチャは、「3Dジェスチャ」または「三次元ジェスチャ」などと呼ばれることもある。
ROM10cまたは大容量記憶装置10dには、図3に示すジェスチャ判別部101、画面表示制御部102、およびジョブ実行制御部103などの機能を実現するためのプログラムが記憶されている。このプログラムは、必要に応じてRAM10bにロードされ、中央処理装置10aによって実行される。
大容量記憶装置10dとして、ハードディスクまたはSSD(Solid State Drive)な
どの不揮発性の記録媒体が用いられる。中央処理装置10aとして、CPU(Central Processing Unit)またはMPU(Micro Processing Unit)などが用いられる。
ジェスチャ判別部101は、タップ閾値記憶部121、タップ閾値読出部122、モーション特性情報取得部123、距離比較部124、時間比較部125、およびジェスチャ特定部126などによって構成される。そして、ユーザによるタッチパネルディスプレイ10eに対する操作が何のジェスチャであるかを判別する。
特に、第一の実施形態では、ジェスチャ判別部101は、タッチパネルディスプレイ10eに対する操作(モーション)が表わすジェスチャがタップであるのかフリックであるのかを、そのモーションが行われた際に表示されている画面(以下、「カレント画面」と記載する。)に応じた条件に基づいて判別する。
図1の端末装置2は、画像形成装置1が提供する種々の機能を使用するためのクライア
ントである。端末装置2として、パーソナルコンピュータ、スマートフォン、タブレットコンピュータ、または携帯電話端末などが用いられる。
以下、図3に示す画像形成装置1のジェスチャ判別部101の各部の機能を、フローチャートなどを参照しながら説明する。
図4は、タップ閾値データ5PDの例を示す図である。図5は、タップおよびフリックを区別する処理の流れの例を示すフローチャートである。図6は、ドキュメント送信画面61の例を示す図である。図7は、ジョブ履歴確認画面62の例を示す図である。図8は、画面ごとのタップおよびフリックの判別結果の例を示す図である。
タップ閾値記憶部121は、図4に示すように、画面ごとのタップ閾値データ5PDを記憶している。タップ閾値データ5PDには、画面識別子Gi、距離閾値Dmax_a、および時間閾値Tmin_aが示されている。
画面識別子Giは、画面を識別するための識別子である。距離閾値Dmax_aおよび時間閾値Tmin_aは、タップとフリックとを区別する際に用いられる閾値である。
タッチパネルディスプレイ10eが1本の指によるタッチを検知した場合に、タップ閾値読出部122ないしジェスチャ特定部126は、図5に示す手順で処理を行う。
タップ閾値読出部122は、カレント画面のタップ閾値データ5PDをタップ閾値記憶部121から読み出す(#701)。
モーション特性情報取得部123は、タッチパネルディスプレイ10eによるタッチの検出結果から、このタッチが行われていた時間(以下、「タッチ継続時間Ta」と記載する。)および指が移動した距離(以下、「移動距離Da」と記載する。)を示すモーション特性データ5MTを取得する(#702)。
距離比較部124は、このモーション特性データ5MTに示される移動距離Daとこのタップ閾値データ5PDに示される距離閾値Dmax_aとを比較し、この移動距離Daがこの距離閾値Dmax_a未満であるか否かを判別する(#703)。
時間比較部125は、この移動距離Daがこの距離閾値Dmax_a未満である場合に(#704でYes)、このモーション特性データ5MTに示されるタッチ継続時間Taとこのタップ閾値データ5PDに示される時間閾値Tmin_aとを比較し、このタッチ継続時間Taがこの時間閾値Tmin_aを超えているか否かを判別する(#705)。
ジェスチャ特定部126は、距離比較部124および時間比較部125による判別の結果に応じて、タッチパネルディスプレイ10eに対するモーションが表わすジェスチャを次のように特定する。この移動距離Daがこの距離閾値Dmax_a未満であり、かつ、このタッチ継続時間Taがこの時間閾値Tmin_aを超えている場合は(#706でYes)、今回のモーションが表わすジェスチャをタップと判別する(#707)。
この移動距離Daがこの距離閾値Dmax_a以上であり、または、このタッチ継続時間Taがこの時間閾値Tmin_a以下である場合は(#704でNoまたは#706でNo)、今回のモーションが表わすジェスチャをフリックと判別する(#708)。
ここで、図6に示すドキュメント送信画面61が表示されている場合および図7に示すジョブ履歴確認画面62が表示されている場合を比較しながら、ジェスチャの判別の結果の差異を説明する。
ドキュメント送信画面61は、ドキュメント送信ジョブの条件および指令をユーザが入力するための画面である。「ドキュメント送信ジョブ」は、用紙からドキュメントを読み取って電子データ化し、ユーザが指定した宛先へファックスまたは電子メールによって送信するジョブである。
ドキュメント送信画面61には、宛先指定エリア61eが設けられている。宛先指定エリア61eには、アドレス帳に予め登録されている電子メールアドレスおよびファックス番号それぞれの選択ボタン61bが配置されている。アドレス帳に電子メールアドレスおよびファックス番号が多数登録されている場合は、すべての選択ボタン61bを一度に宛先指定エリア61eに配置することができない。この場合は、一部の(図6の例では、15個の)選択ボタン61bのみが配置される。そして、所定のジェスチャが行われるごとに、宛先指定エリア61eがスクロールし、残りの選択ボタン61bが宛先指定エリア61eに順次、配置される。
ユーザは、宛先指定エリア61eの中の任意の位置をフリックすることによって、宛先指定エリア61eをスクロールさせることができる。また、ドキュメントの宛先とする電子メールアドレスまたはファックス番号を、それに対応する選択ボタン61bをタップすることによって指定することができる。
しかし、ユーザがフリックしたつもりであるにも関わらず選択ボタン61bがタップされたと画像形成装置1が認識することは、好ましくない。このことにユーザが気付かなければ、意図しない宛先へドキュメントが送信されてしまうからである。したがって、ユーザがタップしたつもりであってもフリックされたと画像形成装置1が認識するほうが、安全である。
本来、タップを行う場合は、ユーザは、タッチパネルディスプレイのタッチする位置が変化しないようにすべきである。しかし、位置が1ドットでも変化した場合にタップではなくフリックであると判断すると、ユーザにとって、タップが難しくなる。そこで、一般に、タップとして許容する位置の変化の標準的な値(最大値)が、予め設定されている。以下、この最大値を「距離デフォルト最大値Do_a」と記載する。
また、通常、タッチパネルディスプレイのタッチされている時間は、タップの場合よりもフリックの場合のほうが長い。以下、予め設定された、タップの場合のタッチされている時間の一般的な長さとフリックの場合のタッチされている時間の一般的な長さとの中間の値を「時間デフォルト最小値To_a」と記載する。
ドキュメント送信画面61が表示されている際は、上述の理由により、ユーザが行ったジェスチャがフリックであると判別される傾向が通常よりも強い方が、望ましい。
そこで、ドキュメント送信画面61のタップ閾値データ5PD(図4参照)に、距離閾値Dmax_aとして、距離デフォルト最大値Do_aよりも小さい値を設定しておく。また、時間閾値Tmin_aとして、時間デフォルト最小値To_aよりも大きい値を設定しておく。
以下、ドキュメント送信画面61の距離閾値Dmax_aおよび時間閾値Tmin_aをそれぞれ「距離閾値d61」および「時間閾値t61」と記載する。
一方、図7のジョブ履歴確認画面62は、過去に画像形成装置1が実行したジョブの履歴をユーザが確認するための画面である。
ジョブ履歴確認画面62には、ジョブ一覧エリア62eが設けられている。ジョブ一覧エリア62eには、新しい順にジョブごとの選択ボタン62bが上から下へ一列に配置されている。ジョブが多数ある場合は、すべての選択ボタン62bを一度にジョブ一覧エリア62eに配置することができない。この場合は、一部の(図7の例では、7個の)選択ボタン62bのみが配置される。そして、所定の操作が行われるごとに、ジョブ一覧エリア62eがスクロールし、残りの選択ボタン62bがジョブ一覧エリア62eに順次、配置される。
ユーザは、ジョブ一覧エリア62eの中の任意の位置を上または下へフリックすることによって、ジョブ一覧エリア62eをスクロールさせることができる。また、ジョブの属性の詳細(実行条件、指令元など)を示す画面を表示させたい場合は、そのジョブに対応する選択ボタン62bをタップすることによって指令することができる。
一般に、ユーザは、より新しいジョブの詳細を確認することが多い。したがって、ジョブ履歴確認画面62においては主にフリックよりもタップのほうがよく行われると、考えられる。
そこで、ジョブ履歴確認画面62のタップ閾値データ5PDに、距離閾値Dmax_aとして、ドキュメント送信画面61のタップ閾値データ5PDに示される距離閾値Dmax_a(つまり、距離閾値d61)よりも大きい値を設定しておく。または、距離デフォルト最大値Do_aよりも大きい値を設定しておいてもよい。
また、ジョブ履歴確認画面62のタップ閾値データ5PDに、時間閾値Tmin_aとして、ドキュメント送信画面61のタップ閾値データ5PDに示される時間閾値Tmin_a(つまり、時間閾値t61)よりも小さい値を設定しておく。または、時間デフォルト最小値To_aよりも小さい値を設定しておいてもよい。
以下、ジョブ履歴確認画面62の距離閾値Dmax_aおよび時間閾値Tmin_aをそれぞれ「距離閾値d62」および「時間閾値t62」と記載する。
以上の通り、距離閾値d62は、距離閾値d61よりも大きい。また、時間閾値t62は、時間閾値t61よりも小さい。したがって、図5の処理によると、図8(A)と(B)とを比較して分かるように、ドキュメント送信画面61が表示されている場合のほうが、ジョブ履歴確認画面62が表示されている場合よりも、ユーザが行ったジェスチャがフリックであると判別されることが多い。また、ジョブ履歴確認画面62が表示されている場合のほうが、ドキュメント送信画面61が表示されている場合よりも、ユーザが行ったジェスチャがタップであると判別されることが多い。
なお、ジェスチャ判別部101は、タップ閾値データ5PDが与えられていない画面が表示されている場合は、距離デフォルト最大値Do_aまたは時間デフォルト最小値To_aなどに基づいて従来通りの方法によって、タッチパネルディスプレイ10eに対するモーションが何のジェスチャを表わしているのかを判別する。また、ドキュメント送信画面61およびジョブ履歴確認画面62などタップ閾値データ5PDが与えられている画面が表示されている場合において、タップおよびフリック以外のジェスチャも、従来通りの方法によって判別する。
図3に戻って、画面表示制御部102およびジョブ実行制御部103は、ジェスチャ判別部101によって判別されたジェスチャおよびその対象(以下、「操作内容」と記載する。)に基づいて次の通り処理を実行する。
画面表示制御部102は、操作内容に応じてカレント画面をスクロールさせたり変更したりする。
ジョブ実行制御部103は、操作内容に応じて種々のジョブが実行されるように、図2に示す各ハードウェアを制御する。
画面表示制御部102およびジョブ実行制御部103は、既存のオペレーティングシステム、ファームウェア、またはアプリケーションプログラムなどによって実現することができる。
第一の実施形態によると、タップおよびフリップの区別を画面に応じて従来よりも好適に行うことができる。これにより、ユーザにとっての不利益の発生を従来よりも減らすことができる。または、従来よりも使いやすくすることができる。
〔第二の実施形態〕
図9は、画像形成装置1の機能的構成の変形例を示す図である。図10は、ロングタップ閾値データ5PEの例を示す図である。図11は、ロングタップおよびドラッグを区別する処理の流れの例を示すフローチャートである。図12は、ロングタップ前のボックスドキュメント出力画面63の例を示す図である。図13は、ロングタップ前のジョブ履歴確認画面64の例を示す図である。図14は、ロングタップ後のボックスドキュメント出力画面63の例を示す図である。図15は、ロングタップ後のジョブ履歴確認画面64の例を示す図である。図16は、画面ごとのロングタップおよびドラッグの判別結果の例を示す図である。
第一の実施形態では、画像形成装置1は、カレント画面に応じた閾値に基づいてタップおよびフリックを判別した。第二の実施形態では、カレント画面に応じた閾値に基づいてロングタップおよびドラッグを判別する。
第二の実施形態におけるイントラネット3の構成は、第一の実施形態の場合と同様であり、図1に示した通りである。画像形成装置1のハードウェア構成および機能的構成も基本的に、第一の実施形態の場合と同様であり、それぞれ、図2および図3に示した通りである。ただし、ジェスチャ判別部101が、図9に示すように、ロングタップ閾値記憶部131、ロングタップ閾値読出部132、モーション特性情報取得部133、距離比較部134、時間比較部135、およびジェスチャ特定部136などによって構成される。
以下、ジェスチャ判別部101の各部の機能を、図11のフローチャートなどを参照しながら説明する。第一の実施形態と重複する点については、説明を省略する。
ロングタップ閾値記憶部131は、図10に示すように、画面ごとのロングタップ閾値データ5PEを記憶している。ロングタップ閾値データ5PEには、画面識別子Gi、距離閾値Dmax_b、および時間閾値Tmin_bが示されている。距離閾値Dmax_bおよび時間閾値Tmin_bは、ロングタップとドラッグとを区別する際に用いられる閾値である。
タッチパネルディスプレイ10eが1本の指によるタッチを検知した場合に、ロングタップ閾値読出部132ないしジェスチャ特定部136は、図11に示す手順で処理を行う。
ロングタップ閾値読出部132は、カレント画面のロングタップ閾値データ5PEをロ
ングタップ閾値記憶部131から読み出す(#721)。
モーション特性情報取得部133は、このタッチが行われていた時間(以下、「タッチ継続時間Tb」と記載する。)および指が移動した距離(以下、「移動距離Db」と記載する。)を示すモーション特性データ5MUを取得する(#722)。
距離比較部134は、このモーション特性データ5MUに示される移動距離Dbとこのロングタップ閾値データ5PEに示される距離閾値Dmax_bとを比較し、この移動距離Dbがこの距離閾値Dmax_b未満であるか否かを判別する(#723)。
時間比較部135は、この移動距離Dbがこの距離閾値Dmax_b未満である場合に(#724でYes)、このモーション特性データ5MUに示されるタッチ継続時間Tbとこのロングタップ閾値データ5PEに示される時間閾値Tmin_bとを比較し、このタッチ継続時間Tbがこの時間閾値Tmin_bを超えているか否かを判別する(#725)。
ジェスチャ特定部136は、距離比較部134および時間比較部135による判別の結果に応じて、タッチパネルディスプレイ10eに対する操作(モーション)が表わすジェスチャを次のように特定する。この移動距離Dbがこの距離閾値Dmax_b未満であり、かつ、このタッチ継続時間Tbがこの時間閾値Tmin_bを超えている場合は(#726でYes)、今回のモーションが表わすジェスチャをロングタップと判別する(#727)。この移動距離Dbがこの距離閾値Dmax_b以上であり、または、このタッチ継続時間Tbがこの時間閾値Tmin_b以下である場合は(#724でNoまたは#726でNo)、今回のモーションが表わすジェスチャをドラッグと判別する(#728)。
ここで、図12に示すボックスドキュメント出力画面63が表示されている場合および図13に示すジョブ履歴確認画面64が表示されている場合を比較しながら、ジェスチャの判別の結果の差異を説明する。
ボックスドキュメント出力画面63は、ボックスドキュメント送信ジョブまたはボックスドキュメント印刷ジョブの指令をユーザが入力するための画面である。「ボックスドキュメント送信ジョブ」は、ボックスに画像データとして保存されているドキュメントを他の装置へ送信するジョブである。「ボックスドキュメント印刷ジョブ」は、ボックスに画像データとして保存されているドキュメントを用紙に印刷するジョブである。
ボックスドキュメント出力画面63には、ドキュメント指定エリア63eが設けられている。ドキュメント指定エリア63eには、ボックスに画像データとして保存されているドキュメントごとの選択アイコン63bが配置されている。ドキュメントが多数登録されている場合は、すべての選択アイコン63bを一度にドキュメント指定エリア63eに配置することができない。この場合は、一部の(図12の例では、8個の)選択アイコン63bのみが配置される。そして、所定のジェスチャが行われるごとに、ドキュメント指定エリア63eがスクロールし、残りの選択アイコン63bがドキュメント指定エリア63eに順次、配置される。
ユーザは、ドキュメント指定エリア63eの中の任意の位置をドラッグすることによって、ドキュメント指定エリア63eをスクロールさせることができる。
また、ユーザは、次のようにロングタップおよびドラッグ・アンド・ドロップを行うことによって、ボックスドキュメント送信ジョブまたはボックスドキュメント印刷ジョブの
指令を画像形成装置1に与えることができる。
ユーザは、送信しまたは印刷したいドキュメントに対応する選択アイコン63bをロングタップする。ただし、この時点では未だ、指をタッチパネルディスプレイ10eから離さない。つまり、選択アイコン63bを一定の時間以上、タッチし続けたままにする。すると、ドキュメント指定エリア63eの上方に、図14のように2つのジョブアイコン63i1、63i2が現われる。ジョブアイコン63i1は、ボックスドキュメント送信ジョブに対応するアイコンである。ジョブアイコン63i2は、ボックスドキュメント印刷ジョブに対応するアイコンである。そして、ユーザは、その選択アイコン63bを、ボックスドキュメント送信ジョブを実行したい場合はジョブアイコン63i1の上までドラッグしてドロップし、ボックスドキュメント印刷ジョブを実行したい場合はジョブアイコン63i2の上までドラッグしてドロップする。
選択アイコン63bがジョブアイコン63i1にドロップされた場合は、この選択アイコン63bに対応するドキュメントの画像データが他の装置へ送信される。一方、ジョブアイコン63i2にドロップされた場合は、この選択アイコン63bに対応するドキュメントが用紙に印刷される。
しかし、ユーザがドラッグのみを行ったつもりであるにも関わらず、選択アイコン63bがロングタップされ、続けてドラッグが行われたと画像形成装置1が認識することが、あり得る。しかし、このような認識は、好ましくない。ユーザが意図しない宛先へドキュメントが送信されたり無駄な印刷が行われたりすることがあるからである。したがって、ユーザがロングタップの後にドラッグを行ったつもりであっても、ドラッグのみが行われたと画像形成装置1に認識されるほうが、安全である。
本来、ロングタップを行う場合は、タップを行う場合と同様、ユーザは、タッチパネルディスプレイに対してユーザがタッチする位置が変化しないようにすべきである。しかし、位置が1ドットでも変化した場合にロングタップではなくドラッグであると判断すると、ユーザにとって、ロングタップが難しくなる。そこで、一般に、ロングタップとして許容する位置の変化の標準的な値(最大値)が、予め設定されている。以下、この最大値を「距離デフォルト最大値Do_b」と記載する。
また、通常、タッチパネルディスプレイのタッチされている時間は、ロングタップの場合よりもドラッグの場合のほうが長い。以下、予め設定された、ロングタップの場合のタッチされている時間の一般的な長さとドラッグの場合のタッチされている時間の一般的な長さとの中間の値を「時間デフォルト最小値To_b」と記載する。
ボックスドキュメント出力画面63が表示されている際は、上述の理由により、ユーザのモーションが表わすジェスチャがロングタップおよびドラッグと判別されるよりもドラッグのみと判別される傾向が通常よりも強い方が、望ましい。
そこで、ボックスドキュメント出力画面63のロングタップ閾値データ5PE(図10参照)に、距離閾値Dmax_bとして、距離デフォルト最大値Do_bよりも小さい値を設定しておく。また、時間閾値Tmin_bとして、時間デフォルト最小値To_bよりも大きい値を設定しておく。
以下、ボックスドキュメント出力画面63の距離閾値Dmax_bおよび時間閾値Tmin_bをそれぞれ「距離閾値d63」および「時間閾値t63」と記載する。
一方、図13のジョブ履歴確認画面64は、ジョブ履歴確認画面62(図7参照)と同
様、過去に画像形成装置1が実行したジョブの履歴をユーザが確認するための画面である。
ジョブ履歴確認画面64の構成もジョブ履歴確認画面62の構成と基本的に同様である。つまり、ジョブ履歴確認画面64には、ジョブ一覧エリア64eが設けられている。ジョブ一覧エリア64eには、新しい順にジョブごとの選択ボタン64bが上から下へ一列に配置されている。ジョブが多数ある場合は、一部の選択ボタン64bのみが配置される。そして、所定の操作が行われるごとに、ジョブ一覧エリア64eがスクロールし、残りの選択ボタン64bがジョブ一覧エリア64eに順次、配置される。
ただし、ジョブ一覧エリア64eのスクロールのためのジェスチャおよびジョブの選択のためのジェスチャが、ジョブ履歴確認画面62の場合とは異なる。
ユーザは、ジョブ一覧エリア64eの中の任意の位置を上または下へドラッグすることによって、ジョブ一覧エリア64eをスクロールさせる。
また、ジョブの詳細を示す画面を表示させたい場合は、ユーザは、次のように操作を行う。
ユーザは、詳細を確認したジョブに対応する選択ボタン64bをロングタップする。ただし、この時点では未だ、指をタッチパネルディスプレイ10eから離さない。つまり、選択ボタン64bを一定の時間以上、タッチし続けたままにする。すると、ジョブ一覧エリア64eの上方に、図15のように詳細アイコン64iが現われる。そして、ユーザは、その選択ボタン64bを詳細アイコン64iの上までドラッグしてドロップする。
前に述べた通り、一般に、ユーザは、より新しいジョブの詳細を確認することが多い。したがって、ジョブ履歴確認画面64においては、ロングタップのみの操作よりもロングタップとドラッグとを組み合わせた連続の操作のほうが主に行われると、考えられる。
そこで、ジョブ履歴確認画面64のロングタップ閾値データ5PEに、距離閾値Dmax_bとして、ボックスドキュメント出力画面63のロングタップ閾値データ5PEに示される距離閾値Dmax_b(つまり、距離閾値d63)よりも大きい値を設定しておく。または、距離デフォルト最大値Do_bよりも大きい値を設定しておいてもよい。
また、ジョブ履歴確認画面64のロングタップ閾値データ5PEに、時間閾値Tmin_bとして、ボックスドキュメント出力画面63のロングタップ閾値データ5PEに示される時間閾値Tmin_b(つまり、時間閾値t63)よりも小さい値を設定しておく。または、時間デフォルト最小値To_bよりも小さい値を設定しておいてもよい。
以下、ジョブ履歴確認画面64の距離閾値Dmax_bおよび時間閾値Tmin_bをそれぞれ「距離閾値d64」および「時間閾値t64」と記載する。
以上の通り、距離閾値d64は、距離閾値d63よりも大きい。また、時間閾値t64は、時間閾値t63よりも小さい。したがって、図11の処理によると、図16(A)と(B)とを比較して分かるように、ボックスドキュメント出力画面63が表示されている場合のほうが、ジョブ履歴確認画面64が表示されている場合よりも、ユーザが行ったジェスチャがドラッグであると判別されることが多い。また、ジョブ履歴確認画面64が表示されている場合のほうが、ボックスドキュメント出力画面63が表示されている場合よりも、ユーザが行ったジェスチャがロングタップであると判別されることが多い。
図9に戻って、画面表示制御部102およびジョブ実行制御部103は、第一の実施形態の場合と同様に機能する。ただし、ジェスチャの判別結果として、ジェスチャ特定部136による判別の結果が用いられる。
第二の実施形態によると、ロングタップおよびドラッグの区別を画面に応じて従来よりも好適に行うことができる。これにより、ユーザにとっての不利益の発生を従来よりも減らすことができる。または、従来よりも使いやすくすることができる。
〔第三の実施形態〕
図17は、画像形成装置1の機能的構成の変形例を示す図である。図18は、エアタップ閾値データ5PFの例を示す図である。図19は、エアタップおよびエアフリップを区別する処理の流れの例を示すフローチャートである。図20は、画面ごとのエアタップおよびエアフリップの判別結果の例を示す図である。
第一の実施形態および第二の実施形態では、画像形成装置1は、タッチパネルディスプレイ10eの表示面にタッチされる位置の変化に基づいてジェスチャを判別した。第三の実施形態では、画像形成装置1は、エアジェスチャを判別する。「エアジェスチャ」は、タッチパネルディスプレイ10eの正面の空間で指を動かすことによって表現されるジェスチャである。タッチパネルディスプレイ10eには、タッチしない。
特に、第三の実施形態では、画像形成装置1は、エアタップおよびエアフリップを区別する。「エアタップ」は、タップの仕草または真似であって、指をタッチパネルディスプレイ10eへ近づけ直ちに離すジェスチャである。「エアフリップ」は、フリップの仕草または真似であって、指をタッチパネルディスプレイ10eへ近づけ、タッチパネルディスプレイ10eの表示面に平行に払うように指を動かすジェスチャである。
第三の実施形態におけるイントラネット3の構成は、第一の実施形態および第二の実施形態の場合と同様であり、図1に示した通りである。画像形成装置1のハードウェア構成および機能的構成も基本的に、第一の実施形態および第二の実施形態の場合と同様であり、それぞれ、図2および図3に示した通りである。ただし、ジェスチャ判別部101が、図17に示すように、エアタップ閾値記憶部151、エアタップ閾値読出部152、モーション特性情報取得部153、第一の距離比較部154、第二の距離比較部155、およびジェスチャ特定部156などによって構成される。
エアタップ閾値記憶部151は、図18に示すように、画面ごとのエアタップ閾値データ5PFを記憶している。エアタップ閾値データ5PFには、画面識別子Gi、表示面距離閾値Dmax_c、および垂直軸距離閾値Dmin_cが示されている。表示面距離閾値Dmax_cおよび垂直軸距離閾値Dmin_cは、エアタップとエアフリックとを区別する際に用いられる閾値である。
ビデオカメラ10nが指を検知した場合に、エアタップ閾値読出部152ないしジェスチャ特定部156は、図19に示す手順で処理を行う。
エアタップ閾値読出部152は、カレント画面のエアタップ閾値データ5PFをエアタップ閾値記憶部151から読み出す(#731)。
モーション特性情報取得部153は、ビデオカメラ10nから得られる指の画像を解析することによって、タッチパネルディスプレイ10eの表示面に平行な面(XY平面)における指の移動距離Dc1および表示面の垂直方向(Z軸)における指の移動距離Dc2を求める(#732)。
第一の距離比較部154は、移動距離Dc1とこのエアタップ閾値データ5PFに示される表示面距離閾値Dmax_cとを比較し、この移動距離Dc1がこの表示面距離閾値Dmax_c未満であるか否かを判別する(#733)。
第二の距離比較部155は、この移動距離Dc1がこの表示面距離閾値Dmax_c未満である場合に(#734でYes)、移動距離Dc2とこのエアタップ閾値データ5PFに示される垂直軸距離閾値Dmin_cとを比較し、この移動距離Dc2がこの垂直軸距離閾値Dmin_c未満であるか否かを判別する(#735)。
ジェスチャ特定部156は、第一の距離比較部154および第二の距離比較部155による判別の結果に応じて、エアジェスチャの種類を次のように特定する。この移動距離Dc1がこの表示面距離閾値Dmax_c未満であり、かつ、この移動距離Dc2がこの垂直軸距離閾値Dmin_c未満である場合は(#736でYes)、今回のエアジェスチャをエアタップと判別する(#737)。
この移動距離Dc1がこの表示面距離閾値Dmax_c以下であり、または、この移動距離Dc2がこの垂直軸距離閾値Dmin_c以下である場合は(#734でNoまたは#736でNo)、今回のジェスチャをエアフリックと判別する(#738)。
ここで、図6のドキュメント送信画面61が表示されている場合および図7のジョブ履歴確認画面62が表示されている場合を比較しながら、ジェスチャの判別の結果の差異を説明する。
ドキュメント送信画面61およびジョブ履歴確認画面62の構成および用途などは、前に説明した通りである。ただし、第三の実施形態では、タップの代わりにエアタップが用いられ、フリップの代わりにエアフリップが用いられる。
したがって、ドキュメント送信画面61が表示されている際は、ユーザ行ったジェスチャがエアフリックであると判別される傾向が通常よりも強い方が、望ましい。
そこで、ドキュメント送信画面61のエアタップ閾値データ5PF(図18参照)に、表示面距離閾値Dmax_cとして、距離デフォルト値Do_c1(一般に、エアタップとして許容するXY平面上での位置の変化の標準的な値)よりも小さい値を設定しておく。以下、設定した値を「距離閾値d611」と記載する。また、垂直軸距離閾値Dmin_cとして、距離デフォルト値Do_c2(一般に、エアタップとして許容するZ軸方向での位置の変化の標準的な値))よりも小さい値を設定しておく。以下、設定した値を「距離閾値d612」と記載する。
一方、ジョブ履歴確認画面62が表示されている際は、ユーザが行ったジェスチャがエアタップであると判別される傾向が通常よりも強い方が、望ましい。
そこで、ジョブ履歴確認画面62のエアタップ閾値データ5PFに、表示面距離閾値Dmax_cとして、距離閾値d611よりも大きい値または距離デフォルト値Do_c1よりも大きい値を設定しておく。以下、設定した値を「距離閾値d621」と記載する。また、垂直軸距離閾値Dmin_cとして、距離閾値d612よりも大きい値または距離デフォルト値Do_c2よりも大きい値を設定しておく。以下、設定した値を「距離閾値d622」と記載する。
以上の通り、距離閾値d621は、距離閾値d611よりも小さい。また、距離閾値d622は、距離閾値d612よりも小さい。したがって、図19の処理によると、図20
(A)と(B)とを比較して分かるように、ドキュメント送信画面61が表示されている場合のほうが、ジョブ履歴確認画面62が表示されている場合よりも、ユーザが行ったジェスチャがエアドラッグであると判別されることが多い。また、ジョブ履歴確認画面62が表示されている場合のほうが、ドキュメント送信画面61が表示されている場合よりも、ユーザが行ったジェスチャがエアフリックであると判別されることが多い。
図17に戻って、画面表示制御部102およびジョブ実行制御部103は、第一の実施形態および第二の実施形態の場合と同様に機能する。ただし、ジェスチャの判別結果として、ジェスチャ特定部156による判別の結果が用いられる。
第三の実施形態によると、エアタップおよびエアフリップの区別を画面に応じて従来よりも好適に行うことができる。これにより、ユーザにとっての不利益の発生を従来よりも減らすことができる。または、従来よりも使いやすくすることができる。
図21は、タップおよびフリックを区別する処理の流れの変形例を示すフローチャートである。
第一の実施形態ないし第三の実施形態では、閾値を変えることによって、ジェスチャの区別の規則を画面ごとに異ならせたが、閾値以外を変えることによって異ならせてもよい。
例えば、区別のアルゴリズムを変えてもよい。具体的には、第一の実施形態において、ドキュメント送信画面61の、タップとフリップとの区別のアルゴリズムとして、図5に示した通りのアルゴリズムを用いる。一方、ジョブ履歴確認画面62のアルゴリズムとして、図21に示すような、距離の条件および時間の条件のうち少なくとも一方を満たせば(#744でYesまたは#746でYes)タップであると判別するアルゴリズムを用いる。
または、画面ごとに、ジェスチャを区別する際に用いるパラメータ(移動距離、移動時間など)を変えてもよい。例えば、第三の実施形態において、ジョブ履歴確認画面62がカレント画面である場合は、タッチパネルディスプレイ10eの表示面に平行な面の移動距離の条件は用いず、垂直方向の移動距離の条件を参照してもよい。
第一の実施形態ないし第三の実施形態では、それぞれ、2つのパラメータを用いてジェスチャを区別したが、1つのパラメータを用いて区別してもよい。または、3つ以上のパラメータを用いてジェスチャを区別してもよい。
第一の実施形態ではタップとフリックとを区別し、第二の実施形態ではロングタップとドラッグとを区別したが、本発明は、タップとロングタップとを区別する場合にも、フリップとドラッグとを区別する場合にも、適用することができる。これらの場合は、主にタッチの継続時間の閾値を画面ごとに変えればよい。タップまたはフリップと判別される傾向を強くしたいのであれば、閾値を大きくすればよい。
また、複数の指のモーションによって表わされるジェスチャ(マルチタッチジェスチャ)の区別にも、本発明を適用することができる。
例えば、2本指タップと2本指フリックとの区別にも適用することができる。この場合は、第一の実施形態と同様に、移動距離または移動時間を閾値と比較することによって、区別すればよい。
または、2本指スクロール(2本の指を平行に動かすジェスチャ)とピンチとの区別にも適用することができる。この場合は、2本の指同士の距離の変化率を検出し、変化率の絶対値が閾値未満であれば2本指スクロールと判別し、閾値以上であればピンチと判別すればよい。そして、2本指スクロールと判別される傾向を強くしたいのであれば、閾値を上げ、ピンチと判別される傾向を強くしたいのであれば、閾値を下げればよい。
第三の実施形態では、ビデオカメラ10nによって指の移動距離を検出したが、3軸加速度センサを備えたコントローラ(例えば、任天堂社のWiiリモコンまたはAPPLE社のiPhone)、三次元ジェスチャコントローラ(例えば、LEAP社のLeap Motion Controller)などによって検出してもよい。
第一の実施形態ないし第三の実施形態では、ユーザが画像形成装置1を直接操作する場合を例に説明したが、端末装置2によって遠隔的に画像形成装置1を操作する場合にも、本発明を適用することができる。この場合は、ジェスチャの判別の処理を端末装置2に実行させ、判別結果を画像形成装置1へ送信することによって、指令またはデータを画像形成装置1に入力してもよい。または、モーションのデータを端末装置2が画像形成装置1へ送信し、画像形成装置1においてモーション特性情報取得部123、133、153(図3、図9、図17参照)がこのデータを受信する。そして、以下、上述の通りの方法で、ジェスチャ特定部126、136、156などがジェスチャを特定する処理を実行すればよい。
その他、イントラネット3、画像形成装置1の全体または各部の構成、処理内容、処理順序、データの構成、画面の構成などは、本発明の趣旨に沿って適宜変更することができる。
1 画像形成装置(ジェスチャ判別装置)
10e タッチパネルディスプレイ(検出手段、表示手段)
10n ビデオカメラ(検出手段)
121 タップ閾値記憶部(記憶手段)
123 モーション特性情報取得部(検出手段、受信手段)
126 ジェスチャ特定部(判別手段)
131 ロングタップ閾値記憶部(記憶手段)
133 モーション特性情報取得部(検出手段、受信手段)
136 ジェスチャ特定部(判別手段)
151 エアタップ閾値記憶部(記憶手段)
153 モーション特性情報取得部(検出手段、受信手段)
156 ジェスチャ特定部(判別手段)
5PD タップ閾値データ
5PE ロングタップ閾値データ
5PF エアタップ閾値データ
5MT モーション特性データ
5MU モーション特性データ
61 ドキュメント送信画面
62 ジョブ履歴確認画面
63 ボックスドキュメント出力画面
64 ジョブ履歴確認画面

Claims (34)

  1. 複数の異なる種類の画面のうちの1つを選択的に表示する表示手段と、
    前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
    ユーザのモーションを検出する検出手段と、
    前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
    を有し、
    前記規則は、所定の規則よりも、スクロール操作に対応するジェスチャおよび選択操作に対応するジェスチャのうちの前記カレント画面を用いて実行される主たる処理の種類に基づいて優先的に実行すべき処理に対応するジェスチャが他方のジェスチャよりも判別されやすくする規則である、
    ことを特徴とするジェスチャ判別装置。
  2. 前記表示手段は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、
    前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記所定の規則よりも、前記モーションが表わすジェスチャが前記スクロール操作に対応するジェスチャであると判別されやすい規則である、
    請求項1に記載のジェスチャ判別装置。
  3. 前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる、ジョブ一覧画面を表示し、
    前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記所定の規則よりも、前記モーションが表わすジェスチャが前記選択操作に対応するジェスチャであると判別されやすい規則である、
    請求項1に記載のジェスチャ判別装置。
  4. 前記選択操作に対応するジェスチャは、エアタップであり、前記スクロール操作に対応するジェスチャは、エアフリックである、
    請求項1ないし請求項3のいずれかに記載のジェスチャ判別装置。
  5. 前記検出手段は、タッチパネルを有し、前記モーションとして、所定の時間ごとの、前記タッチパネルに前記ユーザの指がタッチしている位置を検出し、
    前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、
    前記判別手段は、前記モーションが表わすジェスチャを、前記検出手段によって検出された前記位置から求められる前記指の移動距離が前記距離閾値未満である場合は前記選択操作に対応するジェスチャであると判別し、当該移動距離が当該距離閾値を超える場合は前記スクロール操作に対応するジェスチャであると判別する、
    請求項1に記載のジェスチャ判別装置。
  6. 前記表示手段は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが前記選択操作に対応するジェスチャを行うことよって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、
    前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記距離閾値を前記所定の規則の前記距離閾値よりも小さい値とする、
    請求項5に記載のジェスチャ判別装置。
  7. 前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示し、
    前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記距離閾値を前記所定の規則の前記距離閾値よりも大きい値とする、
    請求項5に記載のジェスチャ判別装置。
  8. 前記検出手段は、タッチパネルを有し、前記モーションとして、所定の時間ごとの、前記タッチパネルに前記ユーザの指がタッチしている位置を検出し、
    前記記憶手段は、前記規則として、時間の閾値である時間閾値を記憶し、
    前記判別手段は、前記モーションが表わすジェスチャを、前記検出手段によって前記位置が連続して検出されているタッチ継続時間が前記時間閾値を超える場合は前記選択操作に対応するジェスチャであると判別し、当該タッチ継続時間が当該時間閾値未満である場合は前記スクロール操作に対応するジェスチャであると判別する、
    請求項1に記載のジェスチャ判別装置。
  9. 前記表示手段は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが前記選択操作に対応するジェスチャを行うことよって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、
    前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記時間閾値を前記所定の規則の前記時間閾値よりも大きい値とする、
    請求項8に記載のジェスチャ判別装置。
  10. 前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示し、
    前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記時間閾値を前記所定の規則の前記時間閾値よりも小さい値とする、
    請求項8に記載のジェスチャ判別装置。
  11. 前記選択操作に対応するジェスチャは、タップであり、前記スクロール操作に対応するジェスチャは、フリップである、
    請求項1ないし請求項3、請求項5ないし請求項10のいずれかに記載のジェスチャ判別装置。
  12. 前記選択操作に対応するジェスチャは、ロングタップであり、前記スクロール操作に対応するジェスチャは、ドラッグである、
    請求項1ないし請求項3、請求項5ないし請求項10のいずれかに記載のジェスチャ判別装置。
  13. 前記検出手段は、前記モーションとして、所定の時間ごとの三次元空間における前記ユーザの指の位置を検出し、
    前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、
    前記判別手段は、前記モーションが表わすジェスチャを、前記検出手段によって検出された前記位置から求められる前記指の、前記表示手段の表示面の垂直方向の移動距離が前記距離閾値を超える場合はエアフリックであると判別し、当該移動距離が当該距離閾値未満である場合はエアタップであると判別する、
    請求項1に記載のジェスチャ判別装置。
  14. 前記検出手段は、前記モーションとして、所定の時間ごとの三次元空間における前記ユーザの指の位置を検出し、
    前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、
    前記判別手段は、前記モーションが表わすジェスチャを、前記検出手段によって検出された前記位置から求められる前記指の、前記表示手段の表示面に平行な面上の移動距離が前記距離閾値を超える場合はエアフリックであると判別し、当該移動距離が当該距離閾値未満である場合はエアタップであると判別する、
    請求項1に記載のジェスチャ判別装置。
  15. 前記表示手段は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザがエアタップすることよって選択するための複数のボタンを、前記ユーザがエアフリップすることに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、
    前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記距離閾値を前記所定の規則の前記距離閾値よりも小さい値とする、
    請求項13または請求項14に記載のジェスチャ判別装置。
  16. 前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザがエアタップすることによって選択するための複数のボタンを、前記ユーザがエアジェスチャすることに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示し、
    前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記距離閾値を前記所定の規則の前記距離閾値よりも大きい値とする、
    請求項13または請求項14に記載のジェスチャ判別装置。
  17. 複数の異なる種類の画面のうちの1つを選択的に表示する表示手段と、ユーザのモーションを検出する検出手段とを有する可搬型の端末装置から、前記検出手段によって検出された前記モーションを受信する受信手段と、
    前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
    前記複数のジェスチャの中から、前記受信手段によって受信された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、を有し、
    前記規則は、所定の規則よりも、スクロール操作に対応するジェスチャおよび選択操作に対応するジェスチャのうち、前記カレント画面を用いて実行される主たる処理の種類に基づいて優先的に実行すべき処理に対応するジェスチャが他方のジェスチャよりも判別されやすくする規則である、
    ことを特徴とするジェスチャ判別装置。
  18. 複数の異なる種類の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段を有するジェスチャ判別装置のコンピュータを制御するためのコンピュータプログラムであって、
    前記コンピュータに、
    前記複数の画面のうちの1つを選択的に表示する処理を実行させ、
    ユーザのモーションを検出する処理を実行させ、
    前記複数のジェスチャの中から、検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの表示されていた画面であるカレント画面の前記規則に基づいて判別する処理を実行させるコンピュータプログラムであって、
    前記規則は、所定の規則よりも、スクロール操作に対応するジェスチャおよび選択操作に対応するジェスチャのうち、前記カレント画面を用いて実行される主たる処理の種類に基づいて優先的に実行すべき処理に対応するジェスチャが他方のジェスチャよりも判別されやすくする規則である、
    ことを特徴とするコンピュータプログラム。
  19. 前記表示する処理は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示する処理であり、
    前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記所定の規則よりも、前記モーションが表わすジェスチャが前記スクロール操作に対応するジェスチャであると判別されやすい規則である、
    請求項18に記載のコンピュータプログラム。
  20. 前記表示する処理は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる、ジョブ一覧画面を表示する処理であり、
    前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記所定の規則よりも、前記モーションが表わすジェスチャが前記選択操作に対応するジェスチャであると判別されやすい規則である、
    請求項18に記載のコンピュータプログラム。
  21. 前記選択操作に対応するジェスチャは、エアタップであり、前記スクロール操作に対応するジェスチャは、エアフリックである、
    請求項18ないし請求項20のいずれかに記載のコンピュータプログラム。
  22. 前記検出する処理は、前記モーションとして、所定の時間ごとの、前記ジェスチャ判別装置が有するタッチパネルに前記ユーザの指がタッチしている位置を検出する処理であり、
    前記規則として距離の閾値である距離閾値が前記記憶手段に記憶され、
    前記判別する処理は、前記モーションが表わすジェスチャを、検出された前記位置から求められる前記指の移動距離が前記距離閾値未満である場合は前記選択操作に対応するジェスチャであると判別し、当該移動距離が当該距離閾値を超える場合は前記スクロール操作に対応するジェスチャであると判別する処理である、
    請求項18に記載のコンピュータプログラム。
  23. 前記表示する処理は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが前記選択操作に対応するジェスチャを行うことよって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示する処理であり、
    前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記距離閾値を前記所定の規則の前記距離閾値よりも小さい値とする、
    請求項22に記載のコンピュータプログラム。
  24. 前記表示する処理は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示する処理であり、
    前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記距離閾値を前記所定の規則の前記距離閾値よりも大きい値とする、
    請求項22に記載のコンピュータプログラム。
  25. 前記検出する処理は、前記モーションとして、所定の時間ごとの、前記ジェスチャ判別装置が有するタッチパネルに前記ユーザの指がタッチしている位置を検出する処理であり、
    前記規則として時間の閾値である時間閾値が前記記憶手段に記憶され、
    前記判別する処理は、前記モーションが表わすジェスチャを、前記位置が連続して検出されているタッチ継続時間が前記時間閾値を超える場合は前記選択操作に対応するジェスチャであると判別し、当該タッチ継続時間が当該時間閾値未満である場合は前記スクロール操作に対応するジェスチャであると判別する処理である、
    請求項18に記載のコンピュータプログラム。
  26. 前記表示する処理は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが前記選択操作に対応するジェスチャを行うことよって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示する処理であり、
    前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記時間閾値を前記所定の規則の前記時間閾値よりも大きい値とする、
    請求項25に記載のコンピュータプログラム。
  27. 前記表示する処理は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが前記選択操作に対応するジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う前記スクロール操作に対応するジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示する処理であり、
    前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記時間閾値を前記所定の規則の前記時間閾値よりも小さい値とする、
    請求項25に記載のコンピュータプログラム。
  28. 前記選択操作に対応するジェスチャは、タップであり、前記スクロール操作に対応するジェスチャは、フリップである、
    請求項18ないし請求項20、請求項22ないし請求項27のいずれかに記載のコンピュータプログラム。
  29. 前記選択操作に対応するジェスチャは、ロングタップであり、前記スクロール操作に対応するジェスチャは、ドラッグである、
    請求項18ないし請求項20、請求項22ないし請求項27のいずれかに記載のコンピュータプログラム。
  30. 前記検出する処理は、前記モーションとして、所定の時間ごとの三次元空間における前記ユーザの指の位置を検出する処理であり、
    前記規則として距離の閾値である距離閾値が前記記憶手段に記憶され、
    前記判別する処理は、前記モーションが表わすジェスチャを、検出された前記位置から求められる前記指の、画面が表示される表示面の垂直方向の移動距離が前記距離閾値を超える場合はエアフリックであると判別し、当該移動距離が当該距離閾値未満である場合はエアタップであると判別する処理である、
    請求項18に記載のコンピュータプログラム。
  31. 前記検出する処理は、前記モーションとして、所定の時間ごとの三次元空間における前記ユーザの指の位置を前記検出する処理であり、
    前記規則として距離の閾値である距離閾値が前記記憶手段に記憶され、
    前記判別する処理は、前記モーションが表わすジェスチャを、検出された前記位置から求められる前記指の、画面が表示される表示面に平行な面上の移動距離が前記距離閾値を超える場合はエアフリックであると判別し、当該移動距離が当該距離閾値未満である場合はエアタップであると判別する処理である、
    請求項18に記載のコンピュータプログラム。
  32. 前記表示する処理は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザがエアタップすることよって選択するための複数のボタンを、前記ユーザがエアフリップすることに応じてスクロールさせながら順次出現させる宛先選択画面を表示する処理であり、
    前記規則は、前記宛先選択画面を前記カレント画面として用いて前記ユーザから前記データの宛先を受け付ける処理を前記主たる処理として実行する場合に、前記距離閾値を前記所定の規則の前記距離閾値よりも小さい値とする、
    請求項30または請求項31に記載のコンピュータプログラム。
  33. 前記表示する処理は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザがエアタップすることによって選択するための複数のボタンを、前記ユーザがエアジェスチャすることに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示する処理であり、
    前記規則は、前記ジョブ一覧画面を前記カレント画面として用いて前記ユーザから前記ジョブを受け付ける処理を前記主たる処理として実行する場合に、前記距離閾値を前記所定の規則の前記距離閾値よりも大きい値とする、
    請求項30または請求項31に記載のコンピュータプログラム。
  34. 複数の異なる種類の画面のうちの1つを選択的に表示する表示手段と、ユーザのモーションを検出する検出手段と、を有する可搬型の端末装置と通信可能に接続される、当該複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段を有するジェスチャ判別装置のコンピュータを制御するためのコンピュータプログラムであって、
    前記コンピュータに、
    前記検出手段によって検出された前記モーションを受信する処理を実行させ、
    前記複数のジェスチャの中から、受信された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの表示されていた画面であるカレント画面の前記規則に基づいて判別する処理を実行させるコンピュータプログラムであって、
    前記規則は、所定の規則よりも、スクロール操作に対応するジェスチャおよび選択操作に対応するジェスチャのうち、前記カレント画面を用いて実行される主たる処理の種類に基づいて優先的に実行すべき処理に対応するジェスチャが他方のジェスチャよりも判別されやすくする規則である、
    ことを特徴とするコンピュータプログラム。
JP2015077372A 2015-04-06 2015-04-06 ジェスチャ判別装置 Active JP6131982B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015077372A JP6131982B2 (ja) 2015-04-06 2015-04-06 ジェスチャ判別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015077372A JP6131982B2 (ja) 2015-04-06 2015-04-06 ジェスチャ判別装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013061386A Division JP5862587B2 (ja) 2013-03-25 2013-03-25 ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2015158930A JP2015158930A (ja) 2015-09-03
JP2015158930A5 JP2015158930A5 (ja) 2016-05-19
JP6131982B2 true JP6131982B2 (ja) 2017-05-24

Family

ID=54182824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015077372A Active JP6131982B2 (ja) 2015-04-06 2015-04-06 ジェスチャ判別装置

Country Status (1)

Country Link
JP (1) JP6131982B2 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4172307B2 (ja) * 2003-03-31 2008-10-29 富士ゼロックス株式会社 3次元指示入力装置
JP2004355426A (ja) * 2003-05-30 2004-12-16 Hitachi Ltd タッチパネル操作性向上ソフトウェア及び端末
JP2009284468A (ja) * 2008-04-23 2009-12-03 Sharp Corp 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
JPWO2010032354A1 (ja) * 2008-09-22 2012-02-02 日本電気株式会社 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
JP5532018B2 (ja) * 2011-06-27 2014-06-25 コニカミノルタ株式会社 端末装置、プログラムおよびリモート操作システム
JP5817973B2 (ja) * 2011-07-15 2015-11-18 コニカミノルタ株式会社 表示制御装置、及び情報処理装置、画像処理装置

Also Published As

Publication number Publication date
JP2015158930A (ja) 2015-09-03

Similar Documents

Publication Publication Date Title
JP5862587B2 (ja) ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム
US10218861B2 (en) Image forming apparatus, non-transitory storage medium storing program to be executed by the same, method of controlling the same, and terminal device
JP5865039B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP7342208B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP6080515B2 (ja) 情報処理装置、表示装置、情報処理装置の制御方法、及びプログラム
JP6053332B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
US9176683B2 (en) Image information processing method, image information processing apparatus and computer-readable recording medium storing image information processing program
KR102206355B1 (ko) 정보 처리장치, 정보 처리장치의 제어방법 및 기억매체
US20130212525A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
US10979583B2 (en) Information processing apparatus equipped with touch panel type display unit, control method therefor, and storage medium
US9661165B2 (en) Image forming apparatus with playback mode, display method for an operation screen, and computer program
JP6131982B2 (ja) ジェスチャ判別装置
US10338808B2 (en) Information processing apparatus and storage medium
US20130208313A1 (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP6512056B2 (ja) 画像形成装置、方法およびプログラム
JP6812639B2 (ja) 電子機器、電子機器の制御プログラム
JP2015102946A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6210664B2 (ja) 情報処理装置とその制御方法、及びプログラムと記憶媒体
JP2018106480A (ja) 電子機器、その制御方法およびプログラム
JP6455476B2 (ja) 表示操作装置及び操作指示受付プログラム
CN114637445A (zh) 显示设备、用于显示设备的控制方法和记录介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160324

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6131982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150