JP2012027744A - 情報処理装置及びその制御方法 - Google Patents

情報処理装置及びその制御方法 Download PDF

Info

Publication number
JP2012027744A
JP2012027744A JP2010166602A JP2010166602A JP2012027744A JP 2012027744 A JP2012027744 A JP 2012027744A JP 2010166602 A JP2010166602 A JP 2010166602A JP 2010166602 A JP2010166602 A JP 2010166602A JP 2012027744 A JP2012027744 A JP 2012027744A
Authority
JP
Japan
Prior art keywords
distance
operator
display
information processing
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010166602A
Other languages
English (en)
Other versions
JP5675196B2 (ja
JP2012027744A5 (ja
Inventor
Hikari Ito
光 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010166602A priority Critical patent/JP5675196B2/ja
Publication of JP2012027744A publication Critical patent/JP2012027744A/ja
Publication of JP2012027744A5 publication Critical patent/JP2012027744A5/ja
Application granted granted Critical
Publication of JP5675196B2 publication Critical patent/JP5675196B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示部に表示されたオブジェクトを、ジェスチャ操作を含む2つの操作方法で操作する際、前記2つの操作の干渉を抑制し、ユーザの操作性を高める。
【解決手段】オブジェクト距離算出部310が、前記操作を行う操作者の位置と前記オブジェクトの表示位置との距離を算出し、操作入力距離算出部311が、前記操作を行う操作者の位置と前記操作者の操作入力位置との距離を算出する。ジェスチャ操作対象設定部306が、オブジェクト距離算出部310で算出された距離と、操作入力距離算出部311で算出された距離とに基づいて、ジェスチャ操作の操作対象を設定する。
【選択図】図3

Description

本発明は、画面上に表示されているオブジェクトに対する、ユーザの操作性を向上する技術である。
電子化された画像や文書等(以下オブジェクトと記載する)を大型のテーブル・ディスプレイや壁面ディスプレイに表示し、ユーザが表示されたオブジェクトに対し操作を行う装置が提案されている(特許文献1)。この装置は会議や研修等に利用され、出席者が表示されたオブジェクトに対し、拡大縮小、移動、編集、グループ化等の操作を行うことで、アイディアの整理や議論の活性化、効率化を促進する。
この装置のディスプレイ近傍には、タッチパネル、デジタイザ、距離センサ等が組み込まれており、画面上に表示されたオブジェクトに対し、タッチ操作やジェスチャ操作といった直感的な操作が可能である。
特開2006‐40271号公報
しかしながら、ジェスチャ操作を含む2つの操作方法で操作する場合、ジェスチャ操作と他の操作方法(例えば、タッチ操作)が干渉し、ユーザの操作性が低下するという課題がある。以下に、想定したユースケースについて説明する。
画面上に表示されたオブジェクトの操作(例えば、選択操作)を行う。操作方法は、ジェスチャ操作と他の操作方法(例えば、タッチ操作)の両方を用いる。ジェスチャ操作とは、操作者の手と画面との距離に基づいて、オブジェクトを選択する。具体的には、この距離が近い場合は操作者を基準として近くのオブジェクトが選択され、遠い場合は操作者を基準として遠くのオブジェクトが選択される。タッチ操作とは、ユーザが選択したい表示オブジェクトに直接触れることで、オブジェクトを選択する。この2つの操作方法で操作する場合、タッチ操作でオブジェクトを選択する場合に、選択しようとするオブジェクトより近くにオブジェクトがあると、タッチする直前に近くのオブジェクトがジェスチャ操作により選択されてしまう。これは、タッチ操作に限らず、マウスやペンなどで操作する場合も同様で、空間的な操作であるジェスチャ操作と他の操作方法とで操作する場合に起こる課題である。
本発明は、上記課題を考慮してなされたもので、表示部に表示されたオブジェクトを、ジェスチャ操作を含む2つの操作方法で操作する際、前記2つの操作の干渉を抑制し、ユーザの操作性を高めることを目的とする。
この課題を解決するため、本発明の情報処理装置は、表示部に表示されたオブジェクトを、ジェスチャ操作を含む2つの操作方法で操作する情報処理装置であって、前記操作を行う操作者の位置と前記オブジェクトの表示位置との距離を算出するオブジェクト距離算出手段と、前記操作を行う操作者の位置と前記操作者の操作入力位置との距離を算出する操作入力距離算出手段と、前記オブジェクト距離算出手段で算出された距離と、前記操作入力距離算出手段で算出された距離とに基づいて、ジェスチャ操作の操作対象を設定するジェスチャ操作対象設定手段を有することを特徴とする。
本発明は、表示部に表示されたオブジェクトを、ジェスチャ操作を含む2つの操作方法で操作する際、前記2つの操作の干渉を抑制し、ユーザの操作性を高めることができる。
システムの概要図。 情報処理装置100のハードウェア構成図。 情報処理装置100の機能構成図。 情報処理装置100の処理フローチャート。 S403の詳細な処理フローチャート。 実施例1におけるオブジェクト選択操作の概要図。
以下、本発明の実施形態について図面を参照して詳細に説明する。なお、以下説明する実施例は、本発明を具体的に実施した場合の一例を示すものであり、これに限るものではない。
図1は、本実施例におけるシステム1001の概要図である。図1(a)は上面から見た図で、図1(b)は側面から見た図である。図1に示すように、システム1001は、テーブル型のディスプレイ101をユーザが利用して、アイディアの整理や議論を行うためのシステムである。ユーザは、表示部であるディスプレイ101に表示されたオブジェクト(102a〜102e)を、指や手を使ったタッチ操作、もしくはジェスチャ操作で選択し、操作する。
本実施例では、下方に投影可能なプロジェクタ104を利用して、ディスプレイ101にオブジェクトを投影する。なお、ディスプレイ101には、タッチパネルが組み込まれている。タッチパネルは、抵抗膜方式や静電容量方式等を用いる。本実施例では、ジェスチャ操作とタッチ操作の2つの操作方法で操作する例を示すが、タッチ操作の代わりに、例えば、マウスやペンなどで操作してもよい。つまり、空間的な操作であるジェスチャ操作と、接触により操作を行う他の操作であればよい。
また、オブジェクトに対するジェスチャ操作を認識するためのセンサとして、画像センサ103を利用する。そして、画像センサ103から取り込んだ画像を解析し、操作者の位置や、操作入力に利用する手や指等の位置を算出する。これらの各デバイスは、情報処理装置100とネットワークもしくはUSBによって接続されており、協調して機能する。
本実施例では、1つのディスプレイ101と1つの画像センサ103を利用する例を示したが、その限りではなく複数利用しても良い。また、プロジェクタ104のような投影型表示装置ではなく、液晶、プラズマ、有機EL、無機EL等の異なる表示方式のディスプレイ101を利用してもよい。また、ディスプレイ101の設置方式は、テーブル型に限定せず、床面、壁面等に設置してもよい。また、画像センサ103に限定せず、赤外線センサや超音波センサ等を利用して、上記の位置算出処理を行ってもよい。
図2は、本実施例における情報処理装置100のハードウェア構成図である。情報処理装置100は、CPU200(Central Processing Unit)、RAM201(Random Access Memory)、ROM202(Read Only Memory)、バス203から構成される。さらに、ディスプレイI/F 204、ストレージI/F 205、ストレージ206、入力I/F 207から構成される。以下、情報処理装置100のハードウェア構成について、詳細に説明する。
CPU200(Central Processing Unit)は、ROM202(Read Only Memory)及び/又はストレージ206に格納された制御プログラムを実行し、各デバイスを制御する。
RAM201(Random Access Memory)は、CPU200のワーク領域、エラー処理時のデータの退避領域、制御プログラムのロード領域等を有する。
ROM202には、オペレーティングシステム(以下OS)をはじめ、本発明に係る各処理プログラム、デバイスドライバ等が記憶されている。
バス203は、アドレスバス、データバス及びコントロールバスを含み、各種の通信を媒介する。
ディスプレイI/F 204は、情報処理装置100で作成される表示画面を、ディスプレイ101が表示可能な信号に変換する。
ストレージI/F 205は、情報処理装置100で処理可能な映像データ形式と、ストレージ206に記憶する映像データ形式とを、相互に変換する。
入力I/F 207は、画像センサ103からの画像情報を入力信号として受信し、情報処理装置100が処理可能な情報に変換する。
ストレージ206は、ハードディスクドライブ装置に代表される大容量情報記憶装置であり、情報処理装置100で表示するためのオブジェクトが記録されている。ストレージ206は、電子化されたマルチメディアデータを記憶している。具体的なデータの種別は、映像、静止画、音声、文書等である。これらのデータには、作成日時、編集日時、グループ等のメタデータが付与されていることが好ましい。これらのメタデータを用いて、データの表示順序を決定する。一方で、メタデータが付与されていない場合は、データファイルの名前で表示順序を決定してもよい。尚、ストレージ206は、情報処理装置100内部に搭載されていても良いし、イーサネット(登録商標)やUSB、メモリーカードI/Fなどの各種インターフェースを介して接続されていてもよい。その際、ストレージ206は複数台接続されていても構わない。
図3は本実施例における情報処理装置100の機能構成図である。以下、図3に示した各部について説明する。尚、各機能部はハードウェア、ソフトウェアの組み合わせによって、様々な形態で実現できる。
保持部301は、RAM201に相当し、表示するデータおよび関連するメタデータを、ストレージ206から読み出し、保持する。
表示制御部302は、保持部301に保持されているデータから表示画面を生成し、ディスプレイ101に出力する。表示において、ストレージから読み出された各種データは、オブジェクトとして、ディスプレイ101に表示される。
オブジェクト位置取得部303は、ディスプレイ101に表示されているオブジェクトの、画面内の位置情報を、保持部301から取得する。位置情報とは、例えば画面内におけるオブジェクトの中心点の位置座標である。ここでは、中心点に限定する必要はなく、重心点、外形上の点、任意の代表点でもよい。また座標は、例えばディスプレイ表示面の縦横の2軸から構成され、さらに高さ方向の軸を利用しても構わない。
操作者位置取得部304は、画像センサ103から取り込まれた画像に画像処理を行い、ディスプレイ付近にいる操作者の位置を取得する。画像処理とは、例えば一般的な人体検出アルゴリズムを利用して、人物の位置を検出する。もしくは、一般的な顔検出アルゴリズムを利用して、顔の位置を検出する。そして、検出された顔の位置を基に、操作者の位置を算出する。これらのアルゴリズムは、ROM202に格納され、CPU200によって実行される。
操作入力位置取得部305は、画像センサ103から取り込まれた画像を、画像処理し、操作者の腕、手もしくは指の位置を取得する。画像処理とは、例えば一般的な物体検出アルゴリズムを利用して、腕、手もしくは指の位置を検出する。このアルゴリズムは、ROM202に格納され、CPU200によって実行される。
オブジェクト距離算出部310は、オブジェクト位置取得部303で取得されたオブジェクトの表示位置と、操作者位置取得部304で取得された操作者の位置から、オブジェクトの表示位置と操作者の位置との距離を算出する。なお、算出する距離は、ディスプレイの画面に対し平行な面における距離だけを検出することが好ましい。つまり、画面に対し高さ方向の距離は考慮せず、画面に対し縦横方向(平行)の距離のみ計算する。よって、計算する距離の成分を限定することにより、計算コストを削減することができる。
操作入力距離算出部311は、操作入力位置取得部305で取得された操作者の手や指等の操作入力の位置と、操作者位置取得部304で取得された操作者の位置から、操作入力の位置と操作者の位置との距離を算出する。なお、オブジェクト距離算出部310と同様、ディスプレイの画面に対し縦横方向(平行な面)の距離のみ計算することが好ましい。
ジェスチャ操作対象設定部306は、オブジェクト距離算出部310で算出された距離が、操作入力距離算出部311で算出された距離より大きくなるオブジェクトを、ジェスチャ操作の操作対象とする。つまり、操作者を基準として、手や指等の操作入力の位置よりも遠くにあるオブジェクトが、ジェスチャ操作の操作対象となる。
ジェスチャ操作認識部307は、ジェスチャ操作対象設定部306で選択されたオブジェクトに対し、ジェスチャによる選択操作を行う。ジェスチャによるオブジェクトの選択方法は、操作者の手とディスプレイの画面との距離に基づいて、オブジェクトを選択する。具体的には、遠くのオブジェクトを選択する場合は、操作者は手を画面から遠ざけ、近くのオブジェクトを選択する場合は、手を画面に近づける。上記処理に必要となる情報は、オブジェクト位置取得部303、操作者位置取得部304、操作入力位置取得部305から取得する。また、操作者が操作中に手をかざす方向を用いて、選択するオブジェクトを限定してもよい。具体的には、操作者位置と操作入力位置から上記方向が角度で算出され、算出された角度の±5°の範囲に存在するオブジェクトが選択処理の対象となる。
タッチ操作認識部308は、タッチパネルで検出される操作者のタッチ操作を認識し、認識された操作に基づいて、オブジェクトを選択する。具体的には、ディスプレイ101に表示されているオブジェクトを、操作者が触れる。触れる場所は、表示されているオブジェクト上が好ましいが、オブジェクト近傍でもよい。近傍にタッチした場合は、タッチした地点に最も近いオブジェクトが選択される。
オブジェクト処理部309は、タッチ操作認識部308とジェスチャ操作認識部307で選択されたオブジェクトに対して、所定の処理を行い、ディスプレイ101に表示する。尚、オブジェクトに対して処理を施さずに表示する場合は、オブジェクト処理部309は動作させずに、タッチ操作認識部308とジェスチャ操作認識部307で選択されたオブジェクトをディスプレイ101に表示する。
図4は本実施例における情報処理装置100の処理フローチャートである。操作者が情報処理装置100の操作メニュー(図示していない)で、オブジェクト選択処理を選ぶと、上記処理が開始される。そして、操作メニューでオブジェクト選択処理以外を選ぶまで繰り返し処理を行う。
S401において、タッチ操作認識部308でタッチパネル上に操作者のタッチ操作があるか否かを判定する。タッチ操作がある場合はS402へ進み、無い場合はS403へ進む。
S402において、タッチ操作認識部308で操作者のタッチ操作に基づいて、オブジェクトが選択される。
S403において、ジェスチャ操作対象設定部306でジェスチャ操作の対象となるオブジェクトを設定する。詳細については、図5(A)の処理フローチャートで説明する。
S404において、ジェスチャ操作認識部307で、S403で操作対象となったオブジェクトの中から、ジェスチャ操作に基づいてオブジェクトが選択される。
図5(A)は本実施例におけるS403の詳細な処理フローチャートである。
S501において、操作者位置取得部304で操作者の位置を取得する。
S502において、オブジェクト位置取得部303でディスプレイ101に表示されているオブジェクトの表示位置を取得する。
S503において、オブジェクト距離算出部310で、操作者の位置とオブジェクトの表示位置との距離を算出する。
S504において、操作入力位置取得部305で、ジェスチャ操作を行う操作入力の位置を取得する。
S505において、操作入力距離算出部311で、操作者の位置と操作入力の位置との距離を算出する。
S506において、ジェスチャ操作対象設定部306で、S503で算出された距離が、S505で算出された距離より大きくなるオブジェクトを、ジェスチャ操作の操作対象とする。つまり、操作者の位置を基準として、手の位置より遠くのオブジェクトを、ジェスチャ操作の対象とする。
尚、処理の順序として、S504とS505を、S502とS503の前にやってもよい。また、並列処理が可能であれば、S502とS503、S504とS505を並列に行ってもよい。
図6は、本実施例におけるオブジェクト選択操作の概略図である。図6(a)(b)(c)は、同一の上記処理を複数の視点から見た図である。図6(a)は上面から見た図で、図6(b)は側面から見た図で、図6(c)はオブジェクトと、ジェスチャ操作を行う手と画面からの距離とを対応付けた図である。
図6(a)では、テーブル型のディスプレイ上に、オブジェクトA、B、Cが表示されている。そして、操作者がジェスチャ操作で、これらのオブジェクトの中から任意のオブジェクトを選択している。
図6(b)では、操作者を基準として近い順に、オブジェクトA、B、Cが画面上に表示されている。操作者は、オブジェクトBを選択しようとしており、選択処理のジェスチャを行っている手の位置は、オブジェクトAとオブジェクトBの間にある。よって、オブジェクトB、Cがジェスチャ操作の操作対象となり、オブジェクトAは操作対象外となる。
図6(c)では、ジェスチャ操作の操作対象となっているオブジェクトB、Cを、ジェスチャで選択する方法を説明する。内部処理で、選択対象のオブジェクトと、ジェスチャを行う手と画面からの距離とを対応付けしている。まず、ジェスチャを行う手の移動範囲を、画面から1m以内とする。次に、画面から0.5m未満の範囲をオブジェクトBに対応付け、0.5m以上をオブジェクトCに対応付ける。よって、操作者が画面に手を近づけるとオブジェクトBが選択され、遠ざけるとオブジェクトCが選択される。
以上のことから、本発明の情報処理装置を利用することで、タッチ操作とジェスチャ操作の干渉を抑制することができる。従って、ユーザの操作性を向上することができる。
本実施例では、実施例1と同様に、本発明の情報処理装置100を利用した場合の実施例を説明する。実施例1との違いは、オブジェクトの表示位置、操作者の位置、操作入力の位置の少なくとも1つの変化を検出する。そして、位置変化が検出された場合に、距離算出以降の処理を行う。
図3(B)は本実施例における情報処理装置100の機能構成図である。実施例1の情報処理装置100の構成に、位置変化検出部312が追加されている。以下、実施例1の図3(A)と異なる部分のみを説明する。
位置変化検出部312は、オブジェクトの表示位置、操作者の位置、操作入力の位置の少なくとも1つの変化を検出する。例えば、前回処理を実行した時のそれぞれの位置を保持部301に記憶しておき、新たに取得した位置が所定の閾値以上移動した場合に、位置変化として検出する。この位置変化検出結果は、オブジェクト距離算出部310と操作入力距離算出部311に通知される。
オブジェクト距離算出部310と操作入力距離算出部311は、位置変化検出部312で位置変化が検出された場合に、距離を算出する。距離を算出する方法は、実施例1と同様である。
図5(B)は本実施例におけるS403の詳細フローチャートである。実施例1の図5(A)と異なる部分は、S507が追加されている。
S507において、位置変化検出部312で位置変化が検出された場合は、S501へ進む。検出されなかった場合は、処理を終了する。
以上のことから、オブジェクトの表示位置、操作者の位置、操作入力の位置の変化を検出し、位置変化が検出された時に、距離算出以降の処理を行うことで、上記処理を適切な時に実行することができる。したがって、円滑な操作性を保ちながら、計算コストを削減することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (7)

  1. 表示部に表示されたオブジェクトを、ジェスチャ操作を含む2つの操作方法で操作する情報処理装置であって、
    前記操作を行う操作者の位置と前記オブジェクトの表示位置との距離を算出するオブジェクト距離算出手段と、
    前記操作を行う操作者の位置と前記操作者の操作入力位置との距離を算出する操作入力距離算出手段と、
    前記オブジェクト距離算出手段で算出された距離と、前記操作入力距離算出手段で算出された距離とに基づいて、ジェスチャ操作の操作対象を設定するジェスチャ操作対象設定手段を有することを特徴とする情報処理装置。
  2. 前記ジェスチャ操作対象設定手段は、前記オブジェクト距離算出手段で算出された距離が、前記操作入力距離算出手段で算出された距離より大きくなるオブジェクトを、ジェスチャ操作の操作対象と設定する請求項1に記載の情報処理装置。
  3. さらに、前記オブジェクトの表示位置か、前記操作者の位置か、前記操作入力位置の、少なくとも1つの位置の変化を検出する位置変化検出手段を有し、
    前記位置変化検出手段により位置の変化が検出された場合に、前記オブジェクト距離算出手段と前記操作入力距離算出手段は、前記距離を算出することを特徴とする請求項1の情報処理装置。
  4. 前記オブジェクト距離算出手段と前記操作入力距離算出手段は、前記表示部に平行な面における距離を算出することを特徴とする請求項1の表示装置。
  5. 表示部に表示されたオブジェクトを、ジェスチャ操作を含む2つの操作方法で操作する情報処理装置の制御方法であって、
    オブジェクト距離算出手段が、前記操作を行う操作者の位置と前記オブジェクトの表示位置との距離を算出するオブジェクト距離算出工程段と、
    操作入力距離算出手段が、前記操作を行う操作者の位置と前記操作者の操作入力位置との距離を算出する操作入力距離算出工程と、
    ジェスチャ操作対象設定手段が、前記オブジェクト距離算出工程で算出された距離と、前記操作入力距離算出工程で算出された距離とに基づいて、ジェスチャ操作の操作対象を設定するジェスチャ操作対象設定工程を有することを特徴とする情報処理装置の制御方法。
  6. コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項1乃至4のいずれか1項に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。
  7. 請求項6に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。
JP2010166602A 2010-07-24 2010-07-24 情報処理装置及びその制御方法 Expired - Fee Related JP5675196B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010166602A JP5675196B2 (ja) 2010-07-24 2010-07-24 情報処理装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010166602A JP5675196B2 (ja) 2010-07-24 2010-07-24 情報処理装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2012027744A true JP2012027744A (ja) 2012-02-09
JP2012027744A5 JP2012027744A5 (ja) 2013-09-05
JP5675196B2 JP5675196B2 (ja) 2015-02-25

Family

ID=45780586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010166602A Expired - Fee Related JP5675196B2 (ja) 2010-07-24 2010-07-24 情報処理装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP5675196B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016122409A (ja) * 2014-12-25 2016-07-07 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及び、プログラム並びにコンピュータ可読記憶媒体
JP2021005225A (ja) * 2019-06-26 2021-01-14 株式会社デンソー 入力装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031799A (ja) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc 制御システムおよび制御方法
JP2006048138A (ja) * 2004-07-30 2006-02-16 Fuji Photo Film Co Ltd 画像表示制御装置及び画像表示制御プログラム
JP2009037434A (ja) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
JP2010039558A (ja) * 2008-07-31 2010-02-18 Canon Inc 情報処理装置及びその制御方法
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031799A (ja) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc 制御システムおよび制御方法
JP2006048138A (ja) * 2004-07-30 2006-02-16 Fuji Photo Film Co Ltd 画像表示制御装置及び画像表示制御プログラム
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2009037434A (ja) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
JP2010039558A (ja) * 2008-07-31 2010-02-18 Canon Inc 情報処理装置及びその制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016122409A (ja) * 2014-12-25 2016-07-07 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及び、プログラム並びにコンピュータ可読記憶媒体
JP2021005225A (ja) * 2019-06-26 2021-01-14 株式会社デンソー 入力装置
JP7183975B2 (ja) 2019-06-26 2022-12-06 株式会社デンソー 入力装置

Also Published As

Publication number Publication date
JP5675196B2 (ja) 2015-02-25

Similar Documents

Publication Publication Date Title
US9529527B2 (en) Information processing apparatus and control method, and recording medium
US8490013B2 (en) Method and apparatus for single touch zoom using spiral rotation
JP6370893B2 (ja) 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
US8743089B2 (en) Information processing apparatus and control method thereof
JP6004716B2 (ja) 情報処理装置およびその制御方法、コンピュータプログラム
US8947397B2 (en) Electronic apparatus and drawing method
US20130057469A1 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP6308769B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US20120297336A1 (en) Computer system with touch screen and associated window resizing method
JP2014235698A (ja) 情報処理装置及びその制御方法
WO2017080258A1 (zh) 一种触摸菜单的控制方法及系统
US10346992B2 (en) Information processing apparatus, information processing method, and program
JP6103835B2 (ja) 情報処理装置およびその制御方法
US20150185975A1 (en) Information processing device, information processing method, and recording medium
JP2013168144A (ja) イメージ表示方法及びその装置
JP2011154546A (ja) 情報入力装置、情報入力方法及びプログラム
JP5675196B2 (ja) 情報処理装置及びその制御方法
US20150268736A1 (en) Information processing method and electronic device
JP2015219601A (ja) 情報処理装置およびその制御方法、プログラム、記録媒体
US9542040B2 (en) Method for detection and rejection of pointer contacts in interactive input systems
TWI468989B (zh) 基於手勢之輸入命令
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
US20140035876A1 (en) Command of a Computing Device
US10175825B2 (en) Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
TW201528114A (zh) 電子裝置及其觸控系統、觸控方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141224

R151 Written notification of patent or utility model registration

Ref document number: 5675196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees