JP5862587B2 - ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム - Google Patents
ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP5862587B2 JP5862587B2 JP2013061386A JP2013061386A JP5862587B2 JP 5862587 B2 JP5862587 B2 JP 5862587B2 JP 2013061386 A JP2013061386 A JP 2013061386A JP 2013061386 A JP2013061386 A JP 2013061386A JP 5862587 B2 JP5862587 B2 JP 5862587B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- gesture
- screens
- screen
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
図1は、イントラネット3の全体的な構成の例を示す図である。図2は、画像形成装置1のハードウェア構成の例を示す図である。図3は、画像形成装置1の機能的構成の例を示す図である。
この移動距離Daがこの距離閾値Dmax_a以上であり、または、このタッチ継続時間Taがこの時間閾値Tmin_a以下である場合は(#704でNoまたは#706でNo)、今回のモーションが表わすジェスチャをフリックと判別する(#708)。
図9は、画像形成装置1の機能的構成の変形例を示す図である。図10は、ロングタップ閾値データ5PEの例を示す図である。図11は、ロングタップおよびドラッグを区別する処理の流れの例を示すフローチャートである。図12は、ロングタップ前のボックスドキュメント出力画面63の例を示す図である。図13は、ロングタップ前のジョブ履歴確認画面64の例を示す図である。図14は、ロングタップ後のボックスドキュメント出力画面63の例を示す図である。図15は、ロングタップ後のジョブ履歴確認画面64の例を示す図である。図16は、画面ごとのロングタップおよびドラッグの判別結果の例を示す図である。
図17は、画像形成装置1の機能的構成の変形例を示す図である。図18は、エアタップ閾値データ5PFの例を示す図である。図19は、エアタップおよびエアフリップを区別する処理の流れの例を示すフローチャートである。図20は、画面ごとのエアタップおよびエアフリップの判別結果の例を示す図である。
この移動距離Dc1がこの表示面距離閾値Dmax_c以下であり、または、この移動距離Dc2がこの垂直軸距離閾値Dmin_c以下である場合は(#734でNoまたは#736でNo)、今回のジェスチャをエアフリックと判別する(#738)。
10e タッチパネルディスプレイ(検出手段、表示手段)
10n ビデオカメラ(検出手段)
121 タップ閾値記憶部(記憶手段)
123 モーション特性情報取得部(検出手段、受信手段)
126 ジェスチャ特定部(判別手段)
131 ロングタップ閾値記憶部(記憶手段)
133 モーション特性情報取得部(検出手段、受信手段)
136 ジェスチャ特定部(判別手段)
151 エアタップ閾値記憶部(記憶手段)
153 モーション特性情報取得部(検出手段、受信手段)
156 ジェスチャ特定部(判別手段)
5PD タップ閾値データ
5PE ロングタップ閾値データ
5PF エアタップ閾値データ
5MT モーション特性データ
5MU モーション特性データ
61 ドキュメント送信画面
62 ジョブ履歴確認画面
63 ボックスドキュメント出力画面
64 ジョブ履歴確認画面
Claims (36)
- 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
ユーザのモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記表示手段は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが第一のジェスチャを行うことよって選択するための複数のボタンを、前記ユーザが行う第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、
前記記憶手段は、前記宛先選択画面の前記規則として、前記カレント画面が他の画面である場合よりも当該宛先選択画面である場合のほうが前記モーションが表わすジェスチャが前記第二のジェスチャであると判別されやすい規則を記憶する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
タッチパネルを有し、前記タッチパネルに対するユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記表示手段は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが第一のジェスチャを行うことよって選択するための複数のボタンを、前記ユーザが行う第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、
前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、前記宛先選択画面については、前記距離閾値として、他の画面の前記距離閾値よりも小さい値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションにおける前記指の移動距離が前記距離閾値未満である場合は前記第一のジェスチャであると判別し、当該移動距離が当該距離閾値を超える場合は前記第二のジェスチャであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
タッチパネルを有し、前記タッチパネルに対するユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記表示手段は、前記複数の画面のうちの1つとして、データの宛先を前記ユーザが第一のジェスチャを行うことよって選択するための複数のボタンを、前記ユーザが行う第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、
前記記憶手段は、前記規則として、時間の閾値である時間閾値を記憶し、前記宛先選択画面については、前記時間閾値として、他の画面の前記時間閾値よりも大きい値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションが前記検出手段によって検出されているタッチ継続時間が前記時間閾値を超える場合は前記第一のジェスチャであると判別し、当該タッチ継続時間が当該時間閾値未満である場合は前記第二のジェスチャであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
三次元空間におけるユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記表示手段は、前記複数の画面のうちの1つとして、前記ユーザがデータの宛先をエアタップすることよって選択するための複数のボタンを、前記ユーザがエアフリックすることに応じてスクロールさせながら順次出現させる宛先選択画面を表示し、
前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、前記宛先選択画面については、前記距離閾値として、他の画面の前記距離閾値よりも小さい値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションにおける前記指の、前記表示手段の表示面の垂直方向または当該表示面に平行な面上の移動距離が前記距離閾値を超える場合はエアフリックであると判別し、当該移動距離が当該距離閾値未満である場合はエアタップであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
ユーザのモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが第一のジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示し、
前記記憶手段は、前記ジョブ一覧画面の前記規則として、前記カレント画面が他の画面である場合よりも当該ジョブ一覧画面である場合のほうが前記モーションが表わすジェスチャが前記第一のジェスチャであると判別されやすい規則を記憶する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
タッチパネルを有し、前記タッチパネルに対するユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが第一のジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示し、
前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、前記ジョブ一覧画面については、前記距離閾値として、他の画面の前記距離閾値よりも大きい値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションにおける前記指の移動距離が前記距離閾値未満である場合は前記第一のジェスチャであると判別し、当該移動距離が当該距離閾値を超える場合は前記第二のジェスチャであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
タッチパネルを有し、タッチパネルに対するユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザが第一のジェスチャを行うことによって選択するための複数のボタンを、前記ユーザが行う第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示し、
前記記憶手段は、前記規則として、時間の閾値である時間閾値を記憶し、前記ジョブ一覧画面については、前記時間閾値として、他の画面の前記時間閾値よりも小さい値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションが前記検出手段によって検出されているタッチ継続時間が前記時間閾値を超える場合は前記第一のジェスチャであると判別し、当該タッチ継続時間が当該時間閾値未満である場合は前記第二のジェスチャであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
三次元空間におけるユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記表示手段は、前記複数の画面のうちの1つとして、属性を出力させるジョブを前記ユーザがエアタップすることによって選択するための複数のボタンを、前記ユーザがエアフリックすることに応じてスクロールさせながら順次出現させるジョブ一覧画面を表示し、
前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、前記ジョブ一覧画面については、前記距離閾値として、他の画面の前記距離閾値よりも大きい値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションにおける前記指の、前記表示手段の表示面の垂直方向または当該表示面に平行な面上の移動距離が前記距離閾値を超える場合はエアフリックであると判別し、当該移動距離が当該距離閾値未満である場合はエアタップであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
タッチパネルを有し、タッチパネルに対するユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションにおける前記指の移動距離が前記距離閾値未満である場合はタップであると判別し、当該移動距離が当該距離閾値を超える場合はフリックであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
タッチパネルを有し、タッチパネルに対するユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記記憶手段は、前記規則として、距離の閾値である距離閾値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションにおける前記指の移動距離が前記距離閾値未満である場合はロングタップであると判別し、当該移動距離が当該距離閾値を超える場合はドラッグであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
タッチパネルを有し、タッチパネルに対するユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記記憶手段は、前記規則として、時間の閾値である時間閾値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションが前記検出手段によって検出されているタッチ継続時間が前記時間閾値を超える場合はタップであると判別し、当該タッチ継続時間が当該時間閾値未満である場合はフリックであると判別する、
ことを特徴とするジェスチャ判別装置。 - 複数の画面のうちの1つを選択的に表示する表示手段と、
前記複数の画面のそれぞれの、複数のジェスチャそれぞれの区別の規則を記憶する記憶手段と、
タッチパネルを有し、タッチパネルに対するユーザの指のモーションを検出する検出手段と、
前記複数のジェスチャの中から、前記検出手段によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示手段によって表示されていた画面であるカレント画面の前記規則に基づいて判別する、判別手段と、
を有し、
前記記憶手段は、前記規則として、時間の閾値である時間閾値を記憶し、
前記判別手段は、前記モーションが表わすジェスチャを、当該モーションが前記検出手段によって検出されているタッチ継続時間が前記時間閾値を超える場合はロングタップであると判別し、当該タッチ継続時間が当該時間閾値未満である場合はドラッグであると判別する、
ことを特徴とするジェスチャ判別装置。 - データの宛先を第一のジェスチャを行うことよって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を含む複数の画面のうちの1つを選択的に表示する表示装置およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則を記憶させておき、前記宛先選択画面については、前記規則として、前記検出装置によって前記モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面が当該宛先選択画面である場合のほうが他の画面である場合よりも当該モーションが表わすジェスチャが前記第二のジェスチャであると判別されやすい規則を記憶させておき、
前記検出装置に前記ユーザによる前記モーションを検出させ、
コンピュータに、前記複数のジェスチャの中から、前記検出装置によって検出された前記モーションが表わすジェスチャを、前記カレント画面の前記規則に基づいて判別させる、
ことを特徴とするジェスチャ判別方法。 - データの宛先を第一のジェスチャを行うことよって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を含む複数の画面のうちの1つを選択的に表示する表示装置、タッチパネル、およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、距離の閾値である距離閾値を記憶させておき、前記宛先選択画面については、前記距離閾値として、他の画面の前記距離閾値よりも小さい値を記憶させておき、
前記検出装置に、前記モーションとして、前記タッチパネルに対する前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションにおける前記指の移動距離が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記距離閾値未満である場合は前記第一のジェスチャであると判別させ、当該移動距離が当該距離閾値を超える場合は前記第二のジェスチャであると判別させる、
ことを特徴とするジェスチャ判別方法。 - データの宛先を第一のジェスチャを行うことよって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を含む複数の画面のうちの1つを選択的に表示する表示装置、タッチパネル、およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、時間の閾値である時間閾値を記憶させておき、前記宛先選択画面については、前記時間閾値として、他の画面の前記時間閾値よりも大きい値を記憶させておき、
前記検出装置に、前記モーションとして、前記タッチパネルに対する前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが前記検出装置によって検出されているタッチ継続時間が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記時間閾値を超える場合は前記第一のジェスチャであると判別させ、当該タッチ継続時間が当該時間閾値未満である場合は前記第二のジェスチャであると判別させる、
ことを特徴とするジェスチャ判別方法。 - エアタップすることよってデータの宛先を選択するための複数のボタンを、エアフリックすることに応じてスクロールさせながら順次出現させる宛先選択画面を含む複数の画面のうちの1つを選択的に表示する表示装置およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、距離の閾値である距離閾値を記憶させておき、前記宛先選択画面については、前記距離閾値として、他の画面の前記距離閾値よりも小さい値を記憶させておき、
前記検出装置に、前記モーションとして、三次元空間における前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションにおける前記指の、前記表示装置の表示面の垂直方向または当該表示面に平行な面上の移動距離が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記距離閾値を超える場合はエアフリックであると判別させ、当該移動距離が当該距離閾値未満である場合はエアタップであると判別させる、
ことを特徴とするジェスチャ判別方法。 - 属性を出力させるジョブを第一のジェスチャを行うことによって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を含む複数の画面のうちの1つを選択的に表示する表示装置およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則を記憶させておき、前記ジョブ一覧画面については、前記規則として、前記検出装置によって前記モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面が他の画面である場合よりも当該ジョブ一覧画面である場合のほうが当該モーションが表わすジェスチャが前記第一のジェスチャであると判別されやすい規則を記憶させておき、
前記検出装置に前記ユーザによる前記モーションを検出させ、
コンピュータに、前記複数のジェスチャの中から、前記検出装置によって検出された前記モーションが表わすジェスチャを、前記カレント画面の前記規則に基づいて判別させる、
ことを特徴とするジェスチャ判別方法。 - 属性を出力させるジョブを第一のジェスチャを行うことによって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を含む複数の画面のうちの1つを選択的に表示する表示装置、タッチパネル、およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、距離の閾値である距離閾値を記憶させておき、前記ジョブ一覧画面については、前記距離閾値として、他の画面の前記距離閾値よりも大きい値を記憶させておき、
前記検出装置に、前記モーションとして、前記タッチパネルに対する前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションにおける前記指の移動距離が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記距離閾値未満である場合は前記第一のジェスチャであると判別させ、当該移動距離が当該距離閾値を超える場合は前記第二のジェスチャであると判別させる、
ことを特徴とするジェスチャ判別方法。 - 属性を出力させるジョブを第一のジェスチャを行うことによって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を含む複数の画面のうちの1つを選択的に表示する表示装置、タッチパネル、およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、時間の閾値である時間閾値を記憶させておき、前記ジョブ一覧画面については、前記時間閾値として、他の画面の前記時間閾値よりも小さい値を記憶させておき、
前記検出装置に、前記モーションとして、前記タッチパネルに対する前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが前記検出装置によって検出されているタッチ継続時間が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記時間閾値を超える場合は前記第一のジェスチャであると判別させ、当該タッチ継続時間が当該時間閾値未満である場合は前記第二のジェスチャであると判別させる、
ことを特徴とするジェスチャ判別方法。 - 属性を出力させるジョブをエアタップすることによって選択するための複数のボタンを、エアフリックすることに応じてスクロールさせながら順次出現させるジョブ一覧画面を含む複数の画面のうちの1つを選択的に表示する表示装置およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、距離の閾値である距離閾値を記憶させておき、前記ジョブ一覧画面については、前記距離閾値として、他の画面の前記距離閾値よりも大きい値を記憶させておき、
前記検出装置に、前記モーションとして、三次元空間における前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションにおける前記指の、前記表示装置の表示面の垂直方向または表示面に平行な面上の移動距離が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記距離閾値を超える場合はエアフリックであると判別させ、当該移動距離が当該距離閾値未満である場合はエアタップであると判別させる、
ことを特徴とするジェスチャ判別方法。 - 複数の画面のうちの1つを選択的に表示する表示装置、タッチパネル、およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、距離の閾値である距離閾値を記憶させておき、
前記検出装置に、前記モーションとして、前記タッチパネルに対する前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションにおける前記指の移動距離が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記距離閾値未満である場合はタップであると判別させ、当該移動距離が当該距離閾値を超える場合はフリックであると判別させる、
ことを特徴とするジェスチャ判別方法。 - 複数の画面のうちの1つを選択的に表示する表示装置、タッチパネル、およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、距離の閾値である距離閾値を記憶させておき、
前記検出装置に、前記モーションとして、前記タッチパネルに対する前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションにおける前記指の移動距離が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記距離閾値未満である場合はロングタップであると判別させ、当該移動距離が当該距離閾値を超える場合はドラッグであると判別させる、
ことを特徴とするジェスチャ判別方法。 - 複数の画面のうちの1つを選択的に表示する表示装置、タッチパネル、およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、時間の閾値である時間閾値を記憶させておき、
前記検出装置に、前記モーションとして、前記タッチパネルに対する前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが前記検出装置によって検出されているタッチ継続時間が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記時間閾値を超える場合はタップであると判別させ、当該タッチ継続時間が当該時間閾値未満である場合はフリックであると判別させる、
ことを特徴とするジェスチャ判別方法。 - 複数の画面のうちの1つを選択的に表示する表示装置、タッチパネル、およびモーションを検出する検出装置を使用するユーザが複数のジェスチャのうちのいずれを行ったのかを判別するジェスチャ判別方法であって、
記憶装置に、前記複数の画面のそれぞれの、前記複数のジェスチャそれぞれの区別の規則として、時間の閾値である時間閾値を記憶させておき、
前記検出装置に、前記モーションとして、前記タッチパネルに対する前記ユーザの指のモーションを検出させ、
コンピュータに、前記複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが前記検出装置によって検出されているタッチ継続時間が、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の前記時間閾値を超える場合はロングタップであると判別させ、当該タッチ継続時間が当該時間閾値未満である場合はドラッグであると判別させる、
ことを特徴とするジェスチャ判別方法。 - データの宛先を第一のジェスチャを行うことよって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を含む複数の画面のうちの1つを選択的に表示する表示装置およびモーションを検出する検出装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを判別する処理を、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面が前記宛先選択画面である場合のほうが当該カレント画面が他の画面である場合よりも当該モーションが表わすジェスチャが前記第二のジェスチャであると判別されやすいように実行させる、
ことを特徴とするコンピュータプログラム。 - データの宛先を第一のジェスチャを行うことよって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を含む複数の画面のうちの1つを選択的に表示する表示装置、および、タッチパネルに対するユーザの指のモーションを検出する検出装置の各装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記検出装置によって検出された前記モーションにおける前記指の移動距離が前記カレント画面の前記閾値未満である場合は前記第一のジェスチャであると判別し、当該移動距離が当該閾値を超える場合は前記第二のジェスチャであると判別する処理であり、かつ、前記宛先選択画面については、前記閾値として、他の画面の前記閾値よりも小さい値が用いられる、
ことを特徴とするコンピュータプログラム。 - データの宛先を第一のジェスチャを行うことよって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させる宛先選択画面を含む複数の画面のうちの1つを選択的に表示する表示装置、および、タッチパネルに対するユーザの指のモーションを検出する検出装置の各装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記モーションが前記検出装置によって検出されているタッチ継続時間が前記カレント画面の前記閾値を超える場合は前記第一のジェスチャであると判別し、当該タッチ継続時間が当該閾値未満である場合は前記第二のジェスチャであると判別する処理であり、かつ、前記宛先選択画面については、前記閾値として、他の画面の前記閾値よりも大きい値が用いられる、
ことを特徴とするコンピュータプログラム。 - エアタップすることよってデータの宛先を選択するための複数のボタンを、エアフリックすることに応じてスクロールさせながら順次出現させる宛先選択画面を含む複数の画面のうちの1つを選択的に表示する表示装置、および、三次元空間におけるユーザの指のモーションを検出する検出装置の各装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記検出装置によって検出された前記モーションにおける前記指の、前記表示装置の表示面の垂直方向または当該表示面に平行な面上の移動距離が前記カレント画面の前記閾値未満である場合はエアフリックであると判別し、当該移動距離が当該閾値を超える場合はエアタップであると判別する処理であり、かつ、前記宛先選択画面については、前記閾値として、他の画面の前記閾値よりも小さい値が用いられる、
ことを特徴とするコンピュータプログラム。 - 属性を出力させるジョブを第一のジェスチャを行うことによって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を含む複数の画面のうちの1つを選択的に表示する表示装置およびモーションを検出する検出装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを判別する処理を、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面が前記ジョブ一覧画面である場合のほうが当該カレント画面が他の画面である場合よりも当該モーションが表わすジェスチャが前記第一のジェスチャであると判別されやすいように実行させる、
ことを特徴とするコンピュータプログラム。 - 属性を出力させるジョブを第一のジェスチャを行うことによって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を含む複数の画面のうちの1つを選択的に表示する表示装置、および、タッチパネルに対するユーザの指のモーションを検出する検出装置の各装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記検出装置によって検出された前記モーションにおける前記指の移動距離が前記カレント画面の前記閾値未満である場合は前記第一のジェスチャであると判別し、当該移動距離が当該閾値を超える場合は前記第二のジェスチャであると判別する処理であり、かつ、前記ジョブ一覧画面については、前記閾値として、他の画面の前記閾値よりも大きい値が用いられる、
ことを特徴とするコンピュータプログラム。 - 属性を出力させるジョブを第一のジェスチャを行うことによって選択するための複数のボタンを第二のジェスチャに応じてスクロールさせながら順次出現させるジョブ一覧画面を含む複数の画面のうちの1つを選択的に表示する表示装置、および、タッチパネルに対するユーザの指のモーションを検出する検出装置の各装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記モーションが前記検出装置によって検出されているタッチ継続時間が前記カレント画面の前記閾値を超える場合は前記第一のジェスチャであると判別し、当該タッチ継続時間が当該閾値未満である場合は前記第二のジェスチャであると判別する処理であり、かつ、前記ジョブ一覧画面については、前記閾値として、他の画面の前記閾値よりも小さい値が用いられる、
ことを特徴とするコンピュータプログラム。 - 属性を出力させるジョブをエアタップすることによって選択するための複数のボタンを、エアフリックすることに応じてスクロールさせながら順次出現させるジョブ一覧画面を含む複数の画面のうちの1つを選択的に表示する表示装置、および、三次元空間におけるユーザの指のモーションを検出する検出装置の各装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記検出装置によって検出された前記モーションにおける前記指の、前記表示装置の表示面の垂直方向または当該表示面に平行な面上の移動距離が前記カレント画面の前記閾値未満である場合はエアフリックであると判別し、当該移動距離が当該閾値を超える場合はエアタップであると判別する処理であり、かつ、前記ジョブ一覧画面については、前記閾値として、他の画面の前記閾値よりも大きい値が用いられる、
ことを特徴とするコンピュータプログラム。 - 複数の画面のうちの1つを選択的に表示する表示装置およびタッチパネルに対するユーザの指のモーションを検出する検出装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記検出装置によって検出された前記モーションにおける前記指の移動距離が前記カレント画面の前記閾値未満である場合はタップであると判別し、当該移動距離が当該閾値を超える場合はフリックであると判別する処理である、
ことを特徴とするコンピュータプログラム。 - 複数の画面のうちの1つを選択的に表示する表示装置およびタッチパネルに対するユーザの指のモーションを検出する検出装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記検出装置によって検出された前記モーションにおける前記指の移動距離が前記カレント画面の前記閾値未満である場合はロングタップであると判別し、当該移動距離が当該閾値を超える場合はドラッグであると判別する処理である、
ことを特徴とするコンピュータプログラム。 - 複数の画面のうちの1つを選択的に表示する表示装置およびタッチパネルに対するユーザの指のモーションを検出する検出装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記モーションが前記検出装置によって検出されているタッチ継続時間が前記カレント画面の前記閾値を超える場合はタップであると判別し、当該タッチ継続時間が当該閾値未満である場合はフリックであると判別する処理である、
ことを特徴とするコンピュータプログラム。 - 複数の画面のうちの1つを選択的に表示する表示装置およびタッチパネルに対するユーザの指のモーションを検出する検出装置との接続が可能なコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
複数のジェスチャの中から前記検出装置によって検出された前記モーションが表わすジェスチャを、当該モーションが検出された際に前記複数の画面のうちの前記表示装置によって表示されていた画面であるカレント画面の閾値に基づいて判別する判別処理を実行させ、
前記判別処理は、前記モーションが前記検出装置によって検出されているタッチ継続時間が前記カレント画面の前記閾値を超える場合はロングタップであると判別し、当該タッチ継続時間が当該閾値未満である場合はドラッグであると判別する処理である、
ことを特徴とするコンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013061386A JP5862587B2 (ja) | 2013-03-25 | 2013-03-25 | ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム |
US14/209,391 US10275035B2 (en) | 2013-03-25 | 2014-03-13 | Device and method for determining gesture, and computer-readable storage medium for computer program |
CN201410113790.4A CN104076974B (zh) | 2013-03-25 | 2014-03-25 | 手势判别装置、手势判别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013061386A JP5862587B2 (ja) | 2013-03-25 | 2013-03-25 | ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015077372A Division JP6131982B2 (ja) | 2015-04-06 | 2015-04-06 | ジェスチャ判別装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014186581A JP2014186581A (ja) | 2014-10-02 |
JP5862587B2 true JP5862587B2 (ja) | 2016-02-16 |
Family
ID=51570105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013061386A Active JP5862587B2 (ja) | 2013-03-25 | 2013-03-25 | ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10275035B2 (ja) |
JP (1) | JP5862587B2 (ja) |
CN (1) | CN104076974B (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140136576A (ko) * | 2013-05-20 | 2014-12-01 | 삼성전자주식회사 | 휴대 단말기에서 터치 입력 처리 방법 및 장치 |
KR102210045B1 (ko) * | 2013-12-12 | 2021-02-01 | 삼성전자 주식회사 | 전자장치의 입력 제어장치 및 방법 |
JP6394335B2 (ja) * | 2014-12-03 | 2018-09-26 | 日本電気株式会社 | 入力予測装置、入力予測方法および入力予測プログラム |
JP6365293B2 (ja) * | 2014-12-22 | 2018-08-01 | 京セラドキュメントソリューションズ株式会社 | 表示装置、画像形成装置、及び表示方法 |
CN105912098A (zh) * | 2015-12-10 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种基于体感的操作组件控制方法和系统 |
US10642484B1 (en) * | 2016-03-31 | 2020-05-05 | Kyocera Document Solutions Inc. | Display device |
JP6764291B2 (ja) | 2016-09-14 | 2020-09-30 | キヤノン株式会社 | 情報処理装置およびその制御方法、並びにプログラム |
CN110050247A (zh) * | 2016-11-21 | 2019-07-23 | 大众汽车(中国)投资有限公司 | 用于控制移动终端的方法和装置 |
CN110402427B (zh) * | 2017-03-15 | 2022-05-31 | 三菱电机株式会社 | 触摸手势判定装置、触摸手势判定方法、记录有触摸手势判定程序的记录介质和触摸面板输入装置 |
JP7310152B2 (ja) * | 2019-01-25 | 2023-07-19 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4172307B2 (ja) * | 2003-03-31 | 2008-10-29 | 富士ゼロックス株式会社 | 3次元指示入力装置 |
US9213365B2 (en) * | 2010-10-01 | 2015-12-15 | Z124 | Method and system for viewing stacked screen displays using gestures |
JP2004355426A (ja) * | 2003-05-30 | 2004-12-16 | Hitachi Ltd | タッチパネル操作性向上ソフトウェア及び端末 |
JP2007156634A (ja) | 2005-12-01 | 2007-06-21 | Alps Electric Co Ltd | 入力装置 |
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
CA2718680C (en) * | 2008-03-18 | 2016-12-06 | Elliptic Laboratories As | Object and movement detection |
JP4618317B2 (ja) * | 2008-04-10 | 2011-01-26 | コニカミノルタビジネステクノロジーズ株式会社 | 画像形成装置 |
JP2009284468A (ja) * | 2008-04-23 | 2009-12-03 | Sharp Corp | 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体 |
CN102144206B (zh) * | 2008-09-03 | 2013-12-04 | 日本电气株式会社 | 姿势输入操作设备、方法、程序和便携式设备 |
JPWO2010032354A1 (ja) * | 2008-09-22 | 2012-02-02 | 日本電気株式会社 | 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム |
US8502785B2 (en) * | 2008-11-12 | 2013-08-06 | Apple Inc. | Generating gestures tailored to a hand resting on a surface |
CN101770332A (zh) * | 2009-01-05 | 2010-07-07 | 联想(北京)有限公司 | 一种用户界面方法、用户界面装置及终端 |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
EP3629139A1 (en) * | 2009-04-30 | 2020-04-01 | Wacom Co., Ltd. | Operating a touch screen control system according to a plurality of rule sets |
EP2264563A1 (en) * | 2009-06-19 | 2010-12-22 | Tegic Communications, Inc. | Virtual keyboard system with automatic correction |
JP5523090B2 (ja) | 2009-12-25 | 2014-06-18 | キヤノン株式会社 | 入力装置、入力装置の制御方法、プログラムおよび記憶媒体 |
US10007393B2 (en) * | 2010-01-19 | 2018-06-26 | Apple Inc. | 3D view of file structure |
JP2011166356A (ja) * | 2010-02-08 | 2011-08-25 | Sharp Corp | 表示機器、その表示機器を備えた電子機器および画像処理装置 |
US9417787B2 (en) * | 2010-02-12 | 2016-08-16 | Microsoft Technology Licensing, Llc | Distortion effects to indicate location in a movable data collection |
CN102236511B (zh) | 2010-04-30 | 2015-11-25 | 腾讯科技(深圳)有限公司 | 响应操作的方法和装置 |
US8457353B2 (en) * | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
JP5479414B2 (ja) | 2010-11-24 | 2014-04-23 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
US20120260290A1 (en) * | 2011-04-07 | 2012-10-11 | Sony Corporation | User interface for audio video display device such as tv |
JP5532018B2 (ja) * | 2011-06-27 | 2014-06-25 | コニカミノルタ株式会社 | 端末装置、プログラムおよびリモート操作システム |
JP5817973B2 (ja) * | 2011-07-15 | 2015-11-18 | コニカミノルタ株式会社 | 表示制御装置、及び情報処理装置、画像処理装置 |
CN102902469B (zh) * | 2011-07-25 | 2015-08-19 | 宸鸿光电科技股份有限公司 | 手势识别方法及触控系统 |
EP2748699A1 (en) * | 2011-10-03 | 2014-07-02 | Sony Ericsson Mobile Communications AB | Electronic device with touch-based deactivation of touch input signaling |
JP6002012B2 (ja) * | 2011-11-28 | 2016-10-05 | 京セラ株式会社 | 装置、方法、及びプログラム |
EP2788860A4 (en) * | 2011-12-06 | 2016-07-06 | Autograph Inc | GUIDE WITH USER-FRIENDLY PROFILING AND TOOLS FOR ANALYSIS AND FAST INFORMATION DISPLAY |
CN102495692A (zh) * | 2011-12-08 | 2012-06-13 | 青岛海信移动通信技术股份有限公司 | 一种识别用户手势操作的方法及电子产品 |
JP6103807B2 (ja) * | 2012-01-10 | 2017-03-29 | キヤノン株式会社 | 表示制御装置、その制御方法及びプログラム |
JP5979916B2 (ja) * | 2012-03-07 | 2016-08-31 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
EP2650754A3 (en) * | 2012-03-15 | 2014-09-24 | Omron Corporation | Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium |
US8949974B2 (en) * | 2012-05-11 | 2015-02-03 | Tyfone, Inc. | Mobile device with password protected desktop screen |
US9285880B2 (en) * | 2012-12-26 | 2016-03-15 | Panasonic Intellectual Property Management Co., Ltd. | Touch panel device and method of controlling a touch panel device |
CN107832003B (zh) * | 2012-12-29 | 2021-01-22 | 苹果公司 | 用于放大内容的方法和设备、电子设备和介质 |
US20140267094A1 (en) * | 2013-03-13 | 2014-09-18 | Microsoft Corporation | Performing an action on a touch-enabled device based on a gesture |
US9383890B2 (en) * | 2013-03-14 | 2016-07-05 | General Electric Company | Semantic zoom of graphical visualizations in industrial HMI systems |
US20140282275A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a zooming gesture |
US20140282224A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a scrolling gesture |
US9395917B2 (en) * | 2013-03-24 | 2016-07-19 | Sergey Mavrody | Electronic display with a virtual bezel |
-
2013
- 2013-03-25 JP JP2013061386A patent/JP5862587B2/ja active Active
-
2014
- 2014-03-13 US US14/209,391 patent/US10275035B2/en active Active
- 2014-03-25 CN CN201410113790.4A patent/CN104076974B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014186581A (ja) | 2014-10-02 |
US10275035B2 (en) | 2019-04-30 |
CN104076974A (zh) | 2014-10-01 |
US20140289665A1 (en) | 2014-09-25 |
CN104076974B (zh) | 2017-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5862587B2 (ja) | ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム | |
US10218861B2 (en) | Image forming apparatus, non-transitory storage medium storing program to be executed by the same, method of controlling the same, and terminal device | |
JP5865039B2 (ja) | 情報処理装置、情報処理装置の制御方法、及びプログラム | |
JP7342208B2 (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JP5987474B2 (ja) | 画像表示装置、画像制御装置、画像形成装置およびプログラム | |
US9165534B2 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
US9176683B2 (en) | Image information processing method, image information processing apparatus and computer-readable recording medium storing image information processing program | |
JP6080515B2 (ja) | 情報処理装置、表示装置、情報処理装置の制御方法、及びプログラム | |
KR102206355B1 (ko) | 정보 처리장치, 정보 처리장치의 제어방법 및 기억매체 | |
US9661165B2 (en) | Image forming apparatus with playback mode, display method for an operation screen, and computer program | |
US10979583B2 (en) | Information processing apparatus equipped with touch panel type display unit, control method therefor, and storage medium | |
JP6840571B2 (ja) | 画像処理装置、画像処理装置の制御方法、及びプログラム | |
JP6131982B2 (ja) | ジェスチャ判別装置 | |
US10338808B2 (en) | Information processing apparatus and storage medium | |
JP6512056B2 (ja) | 画像形成装置、方法およびプログラム | |
JP6812639B2 (ja) | 電子機器、電子機器の制御プログラム | |
JP2015102946A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP6210664B2 (ja) | 情報処理装置とその制御方法、及びプログラムと記憶媒体 | |
CN114637445A (zh) | 显示设备、用于显示设备的控制方法和记录介质 | |
JP6455476B2 (ja) | 表示操作装置及び操作指示受付プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150406 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20150406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150625 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20150625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20151105 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5862587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |