JP5978660B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP5978660B2
JP5978660B2 JP2012049079A JP2012049079A JP5978660B2 JP 5978660 B2 JP5978660 B2 JP 5978660B2 JP 2012049079 A JP2012049079 A JP 2012049079A JP 2012049079 A JP2012049079 A JP 2012049079A JP 5978660 B2 JP5978660 B2 JP 5978660B2
Authority
JP
Japan
Prior art keywords
touch
touch area
event
input event
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012049079A
Other languages
English (en)
Other versions
JP2013186540A (ja
Inventor
聡 白土
聡 白土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012049079A priority Critical patent/JP5978660B2/ja
Priority to CN201310061946.4A priority patent/CN103309605B/zh
Priority to US13/778,904 priority patent/US20130234957A1/en
Publication of JP2013186540A publication Critical patent/JP2013186540A/ja
Application granted granted Critical
Publication of JP5978660B2 publication Critical patent/JP5978660B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本開示は、情報処理装置及び情報処理方法に関する。
近年、スマートフォン、タブレット端末、ゲーム機器等の多くの機器において、タッチパネルが利用されている。タッチパネルは、1つの画面上で表示及び入力という2つの機能性を実現する。
このようなタッチパネルでの操作をより容易にするために、タッチパネル上でのタッチ又はタッチジェスチャに対応する様々な入力イベントが定義されている。例えば、タッチの開始、タッチの移動及びタッチの終了のような、タッチに対応する入力イベントや、ドラッグ、タップ、ピンチイン及びピンチアウトのような、タッチジェスチャに対応する入力イベントが定義されている。また、これらの典型的な入力イベントに限られず、操作をより容易にするための入力イベントが提案されている。
例えば、特許文献1では、手の側面をタッチパネルにタッチした状態で動かすタッチジェスチャに対応する入力イベントを認識し、当該入力イベントに応じてオブジェクトを選択して移動させる技術が開示されている。
特開2011−238125号公報
しかし、従来の入力イベントが大型のタッチパネルでの操作に適用されると、ユーザへの大きな負担が生じ得る。例えば、ユーザは、広い範囲でオブジェクトを操作するために、体を大きく動かすことになり得る。
そこで、大型のタッチパネルでもユーザがより少ない負担で操作を行うことを可能にすることが望ましい。
本開示によれば、タッチパネルで検出された複数のタッチ位置から、所定の領域抽出条件をそれぞれ満たす第1のタッチ領域及び第2のタッチ領域を抽出する抽出部と、上記第1のタッチ領域と上記第2のタッチ領域との間の距離の変化に基づいて、入力イベントを認識する認識部と、を備える情報処理装置が提供される。
また、本開示によれば、タッチパネルで検出された複数のタッチ位置から、所定の領域抽出条件をそれぞれ満たす第1のタッチ領域及び第2のタッチ領域を抽出することと、上記第1のタッチ領域と上記第2のタッチ領域との間の距離の変化に基づいて、入力イベントを認識することと、を含む情報処理方法が提供される。
以上説明したように本開示に係る情報処理装置及び情報処理方法によれば、大型のタッチパネルでもユーザがより少ない負担で操作を行うことが可能となる。
一実施形態に係る情報処理装置の外観の一例を示す外観図である。 一実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。 タッチ位置の検出の第1の例を説明するための説明図である。 タッチ位置の検出の第2の例を説明するための説明図である。 タッチ領域の抽出の一例を説明するための説明図である。 タッチ領域に含まれるタッチ位置の密度の例を説明するための説明図である。 GATHERイベントの認識の一例を説明するための説明図である。 SPLITイベントの認識の一例を説明するための説明図である。 タッチ領域間の距離の変化量に基づく入力イベントの認識の例を説明するための説明図である。 2つのタッチ領域間の相対的な移動方向に基づく入力イベントの認識の例を説明するための説明図である。 2つのタッチ領域の移動方向に基づく入力イベントの認識の例を説明するための説明図である。 その他の入力イベントの認識の例を説明するための説明図である。 GATHERイベントによる操作対象オブジェクトの表示の変化の例を説明するための説明図である。 GATHERイベントによる操作対象オブジェクトの表示の変化の別の例を説明するための説明図である。 SPLITイベントによる操作対象オブジェクトの表示の変化の第1の例を説明するための説明図である。 SPLITイベントによる操作対象オブジェクトの表示の変化の第2の例を説明するための説明図である。 SPLITイベントによる操作対象オブジェクトの表示の変化の第3の例を説明するための説明図である。 GRABイベントによる操作対象オブジェクトの表示の変化の一例を説明するための説明図である。 SHAKEイベントによる操作対象オブジェクトの表示の変化の一例を説明するための説明図である。 CUTイベントによる操作対象オブジェクトの表示の変化の一例を説明するための説明図である。 CIRCLEイベントによる操作対象オブジェクトの表示の変化の一例を説明するための説明図である。 WIPEイベントによる操作対象オブジェクトの操作の一例を説明するための説明図である。 FADEイベントによる操作対象オブジェクトの操作の一例を説明するための説明図である。 情報処理装置における操作例を説明するための第1の説明図である。 情報処理装置における操作例を説明するための第2の説明図である。 情報処理装置における操作例を説明するための第3の説明図である。 情報処理装置における操作例を説明するための第4の説明図である。 情報処理装置における操作例を説明するための第5の説明図である。 情報処理装置における操作例を説明するための第6の説明図である。 一実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。 タッチ領域抽出処理の一例を示すフローチャートである。 GATHER/SPLIT認識処理の一例を示すフローチャートである。 GATHER/SPLIT制御処理の一例を示すフローチャートである。
以下に添付の図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.情報処理装置の外観
2.情報処理装置の構成
2.1.ハードウェア構成
2.2.機能構成
3.操作例
4.処理の流れ
5.まとめ
<1.情報処理装置の外観>
まず、図1を参照して、本開示の一実施形態に係る情報処理装置100の外観について説明する。図1は、一実施形態に係る情報処理装置100の外観の一例を示す外観図である。図1を参照すると、情報処理装置100が示されている。情報処理装置100は、タッチパネル20を備える。また、情報処理装置100は、例えば、大型のディスプレイ装置である。即ち、タッチパネル20は、ユーザの手41と比べてかなり大きい大型のタッチパネルである。
ユーザは、ユーザの手41でタッチパネル20にタッチすることにより、タッチパネル20に表示されるオブジェクトを操作できる。ただし、大型のタッチパネル20の広範囲にオブジェクトが散らばっている場合、ユーザは、当該オブジェクトを片手のみで操作しようとすると、体を大きく動かすことになり得る。その結果、ユーザへの大きな負担が生じ得る。
本実施形態に係る情報処理装置100によれば、大型のタッチパネル200でもユーザがより少ない負担で操作を行うことが可能となる。以降、<2.情報処理装置の構成><3.操作例><4.処理の流れ>において、その具体的な内容を説明する。
<2.情報処理装置の構成>
次に、図2〜図13Fを参照して、本開示の一実施形態に係る情報処理装置100の構成について説明する。
<2.1 ハードウェア構成>
まず、図2を参照して、本実施形態に係る情報処理装置100のハードウェア構成の一例について説明する。図2は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、情報処理装置100は、タッチパネル20、バス30、CPU(Central Processing Unit)31、ROM(Read Only Memory)33、RAM(Random Access Memory)35及び記憶装置37を備える。
タッチパネル20は、タッチ検出面21及び表示面23を含む。タッチ検出面21は、タッチパネル20におけるタッチ位置を検出する。より具体的には、例えば、ユーザが、タッチパネル20にタッチすると、タッチ検出面21は、当該タッチを感知し、当該タッチの位置に応じた電気信号を生成し、そして当該電気信号をタッチ位置の情報に変換する。タッチ検出面21は、複数のタッチ位置を検出可能なマルチタッチ対応のタッチ検出面である。また、タッチ検出面21は、例えば、静電容量方式、抵抗膜方式、光学式等の任意のタッチ検出方式に従って形成され得る。
表示面23は、情報処理装置100からの出力画像を表示する。表示面23は、例えば、液晶、有機EL(Organic Light-Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。
バス30は、タッチ検出面21、表示面23、CPU31、ROM33、RAM35及び記憶装置37を相互に接続する。
CPU31は、情報処理装置100の動作全般を制御する。ROM33は、CPU31により実行されるソフトウェアを構成するプログラム及びデータを記憶する。RAM35は、CPU31の処理の実行時に、プログラム及びデータを一時的に記憶する。
記憶装置37は、CPU31により実行されるソフトウェアを構成するプログラム及びデータ、並びに、一時的又は恒久的に保存すべきその他のデータを記憶する。記憶装置37は、例えば、ハードディスク(Hard Disk)のような磁気記録媒体であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。
<2.2 機能構成>
次に、図3〜図13Fを参照して、本実施形態に係る情報処理装置100の機能構成の一例について説明する。図3は、本実施形態に係る情報処理装置100の機能構成の一例を示すブロック図である。図3を参照すると、情報処理装置100は、タッチ検出部110、タッチ領域抽出部120、イベント認識部130、制御部140、記憶部150及び表示部160を備える。
(タッチ検出部110)
タッチ検出部110は、タッチパネル20におけるタッチ位置を検出する。即ち、タッチ検出部110は、タッチ検出面21に対応する機能である。上記タッチ位置は、例えば、タッチパネル20内の座標である。ユーザが、複数の位置へのタッチを行った場合には、タッチ検出部110は、複数のタッチ位置を検出する。以下、タッチ位置の検出について図4A及び図4Bを参照してより具体的に説明する。
まず、図4Aは、タッチ位置の検出の第1の例を説明するための説明図である。図4Aを参照すると、上段には、タッチパネル20の一部及びユーザの手41が示されている。ここでは、ユーザは、ユーザの手41の1本の指でタッチパネル20にタッチしている。一方、下段には、タッチパネル20の一部が座標付きで示され、また、ユーザの手41の1本の指でのタッチに応じて検出されるタッチ位置43aが示されている。このように、ユーザの手41の1本の指でのタッチに応じて、タッチ検出部110は、例えば、1つのタッチ位置43aを検出する。
また、図4Bは、タッチ位置の検出の第2の例を説明するための説明図である。図4Bを参照すると、上段には、タッチパネル20の一部及びユーザの手41が示されている。ここでは、ユーザは、ユーザの手41の側面でタッチパネル20にタッチしている。一方、下段には、タッチパネル20の一部が座標付きで示され、また、ユーザの手41の側面でのタッチに応じて検出されるタッチ位置43bが示されている。このように、ユーザの手41の側面でのタッチに応じて、タッチ検出部110は、例えば、多数の密集するタッチ位置43bを検出する。
タッチ検出部110は、検出したタッチ位置43をタッチ領域抽出部120及びイベント認識部130へ時系列で出力する。
(タッチ領域抽出部120)
タッチ領域抽出部120は、タッチパネル20で検出された複数のタッチ位置から、所定の領域抽出条件を満たすタッチ領域を抽出する。より具体的には、例えば、タッチ検出部110が、複数のタッチ位置を検出した場合に、タッチ領域抽出部120は、所定のグルーピング条件に従って、検出された複数のタッチ位置を1つ以上のタッチ位置集合にグルーピングする。ここでのグルーピング条件とは、例えば、各グループに属するタッチ位置の任意のペアの間の距離が所定の閾値を超えない、という条件であってよい。そして、タッチ領域抽出部120は、タッチ位置集合ごとに、当該タッチ位置集合を含む領域が領域抽出条件を満たすかを判定し、領域抽出条件を満たす当該領域をタッチ領域として抽出する。以下、領域抽出条件についてより具体的に説明する。
上記領域抽出条件は、例えば、抽出されるべきタッチ領域のサイズについての条件(以下、「サイズ条件」と呼ぶ)を含む。より具体的には、例えば、当該サイズ条件は、抽出されるべきタッチ領域の面積についての条件である。一例として、当該サイズ条件は、タッチ領域の面積が第1のサイズ閾値以上且つ第2のサイズ閾値未満であることである。ここでのタッチ領域の面積は、例えば、タッチ領域に含まれる画素数である。タッチ領域の面積と比較される第1及び第2のサイズ閾値は、例えば、標準的なユーザの手のサイズに基づいて予め定義されてよい。以下、領域抽出条件がサイズ条件である場合のタッチ領域の抽出について図5を参照してより具体的に説明する。
図5は、タッチ領域の抽出の一例を説明するための説明図である。図5を参照すると、図4Bと同様に、タッチパネル20の一部が座標付きで示されている。また、図4Bと同様に、ユーザが手41の側面でタッチパネル20にタッチした場合に検出されるタッチ位置43bが示されている。この場合に、タッチ領域抽出部120は、まず、上述したグルーピング条件を満たす複数のタッチ位置43、即ちタッチ位置集合を特定し、さらに当該タッチ位置集合を含む領域45を特定する。ここでは、サイズ条件が、タッチ領域の面積が第1のサイズ閾値以上且つ第2のサイズ閾値未満の画素数であることとするとする。この場合に、タッチ位置集合を含む領域45は、第1のサイズ閾値以上且つ第2のサイズ閾値未満の画素を含み、タッチ領域抽出部120は、領域45がサイズ条件を満たすと判定する。その結果、タッチ領域抽出部120は、サイズ条件を満たす領域45をタッチ領域として抽出する。
このようなサイズ条件により、簡単な演算で、ユーザの手41の特定部分でのタッチと、ユーザの手41の別の部分でのタッチとを区別することが可能になる。例えば、ユーザの手41の側面でのタッチとユーザの手41の側面以外の部分(例えば、指、掌)でのタッチとを区別することが可能になる。
なお、サイズ条件は、単に、タッチ領域の面積が第1のサイズ閾値以上であることであってもよい。また、サイズ条件は、タッチ領域の面積についての条件の代わりに、タッチ領域の長さについての条件であってもよい。一例として、サイズ条件は、タッチ領域内の座標のうちの最も遠い2つの座標の間の距離が所定の閾値以上であることであってもよい。また、サイズ条件は、タッチ領域の面積についての条件とタッチ領域の長さについての条件との組合せであってもよい。
また、上記領域抽出条件は、抽出されるべきタッチ領域の形状についての条件(以下、「形状条件」と呼ぶ)を含んでもよい。より具体的には、例えば、当該形状条件は、タッチ領域と予め用意された領域パターンとが類似することである。一例として、当該領域パターンは、ユーザの手41の特定部分(例えば、側面)でのタッチからサンプルとして取得された領域である。当該領域パターンは、多数のユーザの手41について取得される。タッチ領域抽出部120は、タッチ位置集合を含む領域45と各領域パターンとを比較する。そして、タッチ領域抽出部120は、タッチ位置集合を含む領域45がいずれかの領域パターンと類似する場合に、タッチ位置集合を含む領域45が形状条件を満たすと判定する。領域抽出条件が形状条件である場合に、このように、タッチ領域抽出部120は、形状条件を満たす領域45をタッチ領域として抽出する。
このような形状条件により、ユーザの手41の特定部分でのタッチと、ユーザの手41の別の部分でのタッチとを細かく区別することが可能になる。例えば、ユーザの手41の側面でのタッチとユーザの手41の側面以外の部分(例えば、指、掌)でのタッチとを区別することだけではなく、右手の側面でのタッチと左手の側面でのタッチとを区別することも可能になる。その結果、ユーザの手41がどちらを向いているかも知得することが可能になる。
また、上記領域抽出条件は、抽出されるべきタッチ領域に含まれるタッチ位置の密度についての条件(以下、「密度条件」と呼ぶ)を含んでもよい。より具体的には、例えば、当該密度条件は、タッチ領域の面積に対するタッチ位置の数の比率が密度閾値以上であることである。当該密度条件は、例えば、サイズ条件又は形状条件と組合せて用いられる。即ち、当該密度条件は、サイズ条件又は形状条件とともに領域抽出条件に含まれる。サイズ条件及び密度条件によるタッチ領域の抽出について図6を参照してより具体的に説明する。
図6は、タッチ領域に含まれるタッチ位置の密度の例を説明するための説明図である。図6を参照すると、上段には、タッチパネル20の一部及びユーザの手41が示されている。ここでは、ユーザは、ユーザの手41の5本の指でタッチパネル20にタッチしている。一方、下段には、タッチパネル20の一部が座標付きで示され、また、ユーザの手41の5本の指でのタッチに応じて検出されるタッチ位置43が示されている。このように、ユーザの手41の5本の指でのタッチに応じて、タッチ検出部110は、例えば、6個のタッチ位置43を検出する。ここで、6個のタッチ位置43が、上述したグルーピング条件を満たす場合に、タッチ領域抽出部120は、6個のタッチ位置43をタッチ位置集合としてグルーピングする。そして、タッチ領域抽出部120は、当該タッチ位置集合を含む領域45がサイズ条件及び密度条件を満たすかを判定する。ここで、例えば、領域45は、第1のサイズ閾値以上且つ第2のサイズ閾値未満の画素を含み、タッチ領域抽出部120は、領域45がサイズ条件を満たすと判定する。一方、領域45は、面積に対するタッチ位置の数(6個)の比率が低く、例えば、当該比率は、上記密度閾値未満である。よって、タッチ領域抽出部120は、領域45が密度条件を満たさないと判定し、領域45をタッチ領域として抽出しない。
これに対して、図5を再び参照すると、領域45は、面積に対するタッチ位置の数(15個)の比率が高く、例えば、当該比率は、上記密度閾値以上である。よって、タッチ領域抽出部120は、領域45が密度条件を満たすと判定し、領域45をタッチ領域として抽出する。
このような密度条件により、ユーザの手41の特定部分でのタッチと、ユーザの手41の別の部分でのタッチとを細かく区別することが可能になる。例えば、上述したように、ユーザの手41の側面でのタッチとユーザの手41の複数の指でのタッチとを区別することも可能になる。
以上、領域抽出条件によるタッチ領域の抽出について説明した。このような抽出によれば、ユーザの手41の特定部分(例えば、側面)でのタッチがあったこと、及び当該特定部分でのタッチがあった領域を知得することが可能になる。即ち、後述するように、ユーザの手41の特定部分(例えば、側面)でのタッチによる入力イベントを定義することが可能になる。一例として、ユーザの手41の側面は、例えば机に置かれている物を集めるような場合にも用いられるので、ユーザの手41の側面をタッチパネル20での操作に用いることができれば、より直感的な操作を行うことが可能になる。また、ユーザの手41の側面には、掌側、甲側等の方向があるので、当該方向にも基づく入力イベントが定義されれば、ユーザの手の側面の方向を考慮した操作や、右手と左手との区別を前提とする操作が、実現され得る。
(イベント認識部130)
イベント認識部130は、タッチパネル20で検出されたタッチ位置に応じた入力イベントを認識する。とりわけ、領域抽出条件をそれぞれ満たす第1のタッチ領域及び第2のタッチ領域が抽出された場合に、イベント認識部130は、当該第1のタッチ領域と当該第2のタッチ領域との間の距離の変化に基づいて、入力イベントを認識する。以下、この点についてより詳細に説明する。
−GATHERイベント/SPLITイベント
まず、例えば、イベント認識部130は、第1のタッチ領域と第2のタッチ領域との間の距離が小さくなった場合に、第1の入力イベント(以下、「GATHERイベント」と呼ぶ)を認識する。また、例えば、イベント認識部130は、第1のタッチ領域と第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベント(以下、「SPLITイベント」と呼ぶ)を認識する。これらの入力イベントについて図7A及び図7Bを参照してより具体的に説明する。
まず、図7Aは、GATHERイベントの認識の一例を説明するための説明図である。図7Aを参照すると、上段には、タッチパネル20並びにユーザの左手41a及びユーザの右手41bが示されている。ユーザは、ユーザの左手41a及びユーザの右手41bの特定部分(即ち、側面)を、タッチパネル20にタッチした状態で互いに近づく方向に動かす。この場合に、抽出された第1のタッチ領域47a及び第2のタッチ領域47bは、ユーザの左手41a及びユーザの右手41bと同様に互いに近づく方向に移動するので、第1のタッチ領域47aと第2のタッチ領域47bとの間の距離が小さくなる。よって、イベント認識部130は、このようなユーザの左手41a及びユーザの右手41bのタッチジェスチャに応じて、GATHERイベントを認識する。
また、図7Bは、SPLITイベントの認識の一例を説明するための説明図である。図7Bを参照すると、上段には、タッチパネル20並びにユーザの左手41a及びユーザの右手41bが示されている。ユーザは、ユーザの左手41a及びユーザの右手41bの特定部分(即ち、側面)を、タッチパネル20にタッチした状態で互いに遠ざかる方向に動かす。この場合に、抽出された第1のタッチ領域47a及び第2のタッチ領域47bは、ユーザの左手41a及びユーザの右手41bと同様に互いに遠ざかる方向に移動するので、第1のタッチ領域47aと第2のタッチ領域47bとの間の距離が大きくなる。よって、イベント認識部130は、このようなユーザの左手41a及びユーザの右手41bのタッチジェスチャに応じて、SPLITイベントを認識する。
以上のようにGATHERイベント及びSPLITイベントが認識される。より具体的な処理を説明すると、例えば、イベント認識部130は、第1のタッチ領域と第2のタッチ領域との間の距離の変化量に基づいて、入力イベント(即ち、GATHERイベント又はSPLITイベント)を認識する。以下、この点について図8を参照してより具体的に説明する。
図8は、タッチ領域間の距離の変化量に基づく入力イベントの認識の例を説明するための説明図である。図8を参照すると、タッチパネル20が示されている。例えば、イベント認識部130は、第1のタッチ領域47a及び第2のタッチ領域47bが抽出されると、当該第1のタッチ領域47aについての代表点Pa0及び当該第2のタッチ領域47bについての代表点Pb0を決定する。一例として、イベント認識部130は、タッチ領域47の重心を当該タッチ領域47の代表点として決定する。次に、イベント認識部130は、第1のタッチ領域47aの代表点Pa0と第2のタッチ領域47bの代表点Pb0との間の初期距離Dを算出する。その後、イベント認識部130は、第1のタッチ領域47a及び第2のタッチ領域47bが継続して抽出されている間、当該第1のタッチ領域47aについての代表点Pakと当該第2のタッチ領域47bについての代表点Pbkとの間の距離Dを追跡する。そして、イベント認識部130は、距離の変化量として、算出された距離Dと初期距離Dとの差分(D−D)を算出する。ここで、当該差分が所定の負の閾値以下となる場合に、イベント認識部130は、入力イベントとしてGATHERイベントを認識する。また、上記差分が所定の正の閾値以上となる場合に、イベント認識部130は、入力イベントとしてSPLITイベントを認識する。なお、上記代表点は、タッチ領域47の重心に限られず、別の座標(例えば、タッチ領域47の外心)であってもよい。
このように距離の変化量を用いることで、簡単な演算で、2つのタッチ領域間の距離が大きくなったか又は小さくなったかを判定することが可能になる。
なお、イベント認識部130は、第1のタッチ領域と第2のタッチ領域との間の相対的な移動方向に基づいて、入力イベント(即ち、GATHERイベント又はSPLITイベント)を認識してもよい。以下、この点について図9Aを参照してより具体的に説明する。
図9Aは、2つのタッチ領域間の相対的な移動方向に基づく入力イベントの認識の例を説明するための説明図である。図9Aを参照すると、上段には、タッチパネル20が示されている。ここでも、図8と同様に、イベント認識部130は、第1のタッチ領域47a及び第2のタッチ領域47bが抽出されると、当該第1のタッチ領域47aについての代表点Pa0及び当該第2のタッチ領域47bについての代表点Pb0を決定する。そして、イベント認識部130は、第1のタッチ領域47aに対する第2のタッチ領域47bの相対的な位置として、代表点Pa0から代表点Pb0までのベクトルRを算出する。また、イベント認識部130は、例えば、所定の期間が経過した後に抽出された第1のタッチ領域47aについての代表点Pa1、及び当該所定の期間が経過した後に抽出された第2のタッチ領域47bについての代表点Pb1を決定する。そして、イベント認識部130は、第1のタッチ領域47aに対する第2のタッチ領域47bの相対的な位置として、代表点Pa1から代表点Pb1までのベクトルRを算出する。
次に、図9Aの下段には、第1のタッチ領域47aの代表点Pを原点とした場合の第2のタッチ領域47bの位置、即ちベクトルR及びRが示されている。ここで、イベント認識部130は、ベクトルRと、ベクトルRと同じ向きの単位ベクトルR/|R|との内積を算出する。そして、イベント認識部130は、当該内積と、ベクトルRの大きさ|R|とを比較する。ここで、イベント認識部130は、上記内積の方が|R|よりも小さければ、第1のタッチ領域と第2のタッチ領域との間の相対的な移動方向は両者の近づく方向であったと判定する。また、イベント認識部130は、上記内積の方が|R|よりも大きければ、上記相対的な移動方向は両者の遠ざかる方向であったと判定する。そして、イベント認識部130は、上記相対的な移動方向が両者の近づく方向であった場合に、GATHERイベントを認識し、上記相対的な移動方向が両者の遠ざかる方向であった場合に、SPLITイベントを認識する。
このように相対的な移動方向を用いることでも、2つのタッチ領域間の距離が小さくなったか又は大きくなったかを判定することが可能になる。
また、イベント認識部130は、第1のタッチ領域の移動方向及び第2のタッチ領域の移動方向に基づいて、入力イベント(即ち、GATHERイベント又はSPLITイベント)を認識してもよい。以下、この点について図9Bを参照してより具体的に説明する。
図9Bは、2つのタッチ領域の移動方向に基づく入力イベントの認識の例を説明するための説明図である。図9Bを参照すると、タッチパネル20が示されている。ここでも、図9Aと同様に、第1のタッチ領域47aについての代表点Pa0及びPa1、並びに、第2のタッチ領域47bについての代表点Pb0及びPb1が、イベント認識部130により決定される。そして、イベント認識部130は、代表点Pa0から代表点Pa1への方向と、代表点Pa0から代表点Pb0への方向とのなす角度θを、第1のタッチ領域47aの移動方向として算出する。また、イベント認識部130は、代表点Pb0から代表点Pb1への方向と、代表点Pb0から代表点Pa0への方向とのなす角度θを、第2のタッチ領域47bの移動方向として算出する。ここで、イベント認識部130は、角度θ及び角度θの両方が0°〜α(例えば、0°〜15°)の範囲内にあれば、GATHERイベントを認識する。また、イベント認識部130は、角度θ及び角度θの両方が180°−α〜180°(例えば、165°〜180°)の範囲内にあれば、SPLITイベントを認識する。
このように移動方向を用いることでも、2つのタッチ領域間の距離が小さくなったか又は大きくなったかを判定することが可能になる。また、単に距離だけではなく、2つのタッチ領域の両方がどのように移動したかも判定できるので、入力イベント(GATHERイベント及びSPLITイベント)の認識のための条件をより厳密に定義することもできる。
以上、GATHERイベント及びSPLITイベントの認識について説明した。さらに、イベント認識部130は、これらの入力イベントに加えて、その他の入力イベントを認識してもよい。以下、この点について図10を参照してより具体的に説明する。
−その他の入力イベント
図10は、その他の入力イベントの認識の例を説明するための説明図である。以下、6つの入力イベントの例の各々を説明する。
図10を参照すると、まず、第3の入力イベントとして、イベント認識部130は、5つのタッチ位置43が互いに近づくように移動する場合に、GRABイベントを認識してもよい。より具体的には、例えば、イベント認識部130は、5つのタッチ位置43が検出されると、5つのタッチ位置43の重心を算出し、当該重心と5つのタッチ位置43の各々との間の距離を算出し、算出した5つの距離の総和を初期値として算出する。そして、イベント認識部130は、5つのタッチ位置43が継続して検出されている間、5つの距離の総和を追跡し、当該総和と初期値との差分(総和−初期値)を算出する。ここで、イベント認識部130は、当該差分が所定の負の閾値以下である場合に、GRABイベントを認識する。当該GRABイベントは、例えば、ユーザの手41の5本の指を、タッチパネル20にタッチした状態で集まるように動かす、タッチジェスチャに対応する。なお、上記距離の総和の代わりに、5つのタッチ位置43の外接円の半径又は直径が用いられてもよい。
また、第4の入力イベントとして、イベント認識部130は、5つのタッチ位置43全体が方向を変えて移動する場合に、SHAKEイベントを認識してもよい。より具体的には、例えば、イベント認識部130は、5つのタッチ位置43が継続して検出されている間、5つのタッチ位置43の移動方向が変化したかを追跡する。当該移動方向は、例えば、前回のタッチ位置から最新のタッチ位置への方向である。また、移動方向の変化は、最新の移動方向(前回のタッチ位置から最新のタッチ位置への方向)と前回の移動方向(前々回のタッチ位置から前回のタッチ位置への方向)とのなす角度である。イベント認識部130は、当該なす角度が所定の閾値を超えた場合に、移動方向が変化したと判定する。イベント認識部130は、例えば、このように移動方向が変化したと2回判定した場合に、SHAKEイベントを認識する。当該SHAKEイベントは、例えば、ユーザの手41の5本の指を、タッチパネル20にタッチした状態で揺れるように動かす、タッチジェスチャに対応する。
また、第5のタッチイベントとして、イベント認識部130は、3つのタッチ位置のうちの2つのタッチ位置が静止し、もう1つのタッチ位置が一方向に移動する場合に、CUTイベントを認識してもよい。より具体的には、例えば、イベント認識部130は、3つのタッチ位置43が継続して検出されている間、2つのタッチ位置が変化していないかを判定し、またもう1つのタッチ位置の移動の開始及び終了を判定する。そして、イベント認識部130は、上記2つのタッチ位置が変化していないと継続して判定し続け、且つ、タッチ位置の終了を判定した場合に、CUTイベントを認識する。当該CUTイベントは、例えば、片手の2本の指を、タッチパネル20にタッチした状態で静止させ、またもう一方の手の1本の指を、タッチパネル20にタッチした状態で一方向に動かす、タッチジェスチャに対応する。
また、第6のタッチイベントとして、イベント認識部130は、1つのタッチ位置が略円状に移動する場合に、CIRCLEイベントを認識してもよい。より具体的には、例えば、イベント認識部130は、タッチ位置43が継続して検出されている間、最新のタッチ位置43がタッチ開始時のタッチ位置43と一致するかを判定する。そして、イベント認識部130は、最新のタッチ位置43がタッチ開始時のタッチ位置43と一致する場合に、タッチ開始時のタッチ位置43から最新のタッチ位置43までのタッチ位置43の軌跡が略円状であるか否かを判定する。そして、イベント認識部130は、上記軌跡が略円状であると判定した場合に、CIRCLEイベントを認識する。当該CIRCLEイベントは、例えば、1本の指を、タッチパネル20にタッチした状態で円を描くように動かす、タッチジェスチャに対応する。
また、第7のタッチイベントとして、イベント認識部130は、1つのタッチ領域47が一方向に移動する場合に、WIPEイベントを認識してもよい。より具体的には、例えば、イベント認識部130は、1つのタッチ領域47が抽出されると、当該1つのタッチ領域47の代表点を初期代表点として決定する。その後、イベント認識部130は、1つのタッチ領域47が継続して抽出されている間、タッチ領域47の代表点を追跡し、当該代表点と初期代表点との距離を算出する。そして、イベント認識部130は、当該距離が所定の閾値以上となる場合に、WIPEイベントを認識する。当該WIPEイベントは、例えば、ユーザの手41の特定部分(例えば、側面)を、タッチパネル20にタッチした状態で一方向に移動させる、タッチジェスチャに対応する。
また、第8のタッチイベントとして、イベント認識部130は、掌状の領域49が抽出される場合に、FADEイベントを認識してもよい。より具体的には、例えば、タッチ領域抽出部120が掌状の領域49を抽出すると、イベント認識部130は、FADEイベントを認識する。この場合、上述したタッチ領域47についての領域抽出条件とは別に、掌状の領域49についての領域抽出条件(例えば、形状条件、サイズ条件)が用意される。当該FADEイベントは、ユーザの手41の掌をタッチパネル20にタッチするタッチジェスチャに対応する。
以上、その他の入力イベントの例を説明した。なお、図10におけるタッチ位置43は一例である。例えば、タッチ位置43は、タッチ位置集合に置き換えられてもよい。
(制御部140)
制御部140は、情報処理装置100全体の動作を制御し、また情報処理装置100のユーザにアプリケーション機能を提供する。制御部140は、表示制御部141及びデータ編集部143を含む。
(表示制御部141)
表示制御部141は、表示部160における表示内容を決定し、当該表示内容に対応する出力画像を表示部160に表示させる。例えば、表示制御部141は、認識された入力イベントに応じて、タッチパネル20に表示されるオブジェクトの表示を変化させる。とりわけ、表示制御部141は、第1のタッチ領域と第2のタッチ領域との間の距離の変化に基づいて認識された入力イベント(例えば、GATHERイベント、SPLITイベント)に応じて、当該第1のタッチ領域と当該第2のタッチ領域との間に表示される操作対象オブジェクトの表示を変化させる。
例えば、表示制御部141は、GATHERイベントが認識された場合に、操作対象オブジェクトをより狭い範囲に再配置する。即ち、表示制御部141は、GATHERイベントの認識前に表示されている操作対象オブジェクトの一部又は全部である複数の操作対象オブジェクトを、GATHERイベントの認識後により狭い範囲に収まるように再配置する。以下、この点について図11Aを参照してより具体的に説明する。
図11Aは、GATHERイベントによる操作対象オブジェクトの表示の変化の例を説明するための説明図である。図11Aを参照すると、タッチパネル20の一部が示されている。また、時間Tで、タッチパネル20の一部には、3つのオブジェクト50a、50b、50cが表示されている。ここで、まず、第1のタッチ領域47a及び第2のタッチ領域47bが抽出される。次に、時間Tで、第1のタッチ領域47aと第2のタッチ領域47bとの間の距離が小さくなり、入力イベントとしてGATHERイベントが認識される。すると、例えば、表示制御部141は、パターンAのように、第1のタッチ領域47a及び第2のタッチ領域47bの位置の変化に応じて、3つのオブジェクト50a、50b、50cの位置を互いにより近くなるように変える。または、表示制御部141は、パターンBのように、第1のタッチ領域47a及び第2のタッチ領域47bの間のいずれかの範囲に3つのオブジェクト50a、50b、50cが重なるように、当該3つのオブジェクト50a、50b、50cの位置を変える。
また、例えば、表示制御部141は、GATHERイベントが認識された場合に、複数の操作対象オブジェクトを1つの操作対象オブジェクトに変換する。即ち、表示制御部141は、GATHERイベントの認識前に表示されている操作対象オブジェクトの一部又は全部である複数の操作対象オブジェクトを、GATHERイベントの認識後に1つ操作対象オブジェクトに変換する。以下、この点について図11Bを参照してより具体的に説明する。
図11Bは、GATHERイベントによる操作対象オブジェクトの表示の変化の別の例を説明するための説明図である。図11Bを参照すると、図11Aと同様に、時間Tで、タッチパネル20の一部に、3つのオブジェクト50a、50b、50cが表示されており、また、第1のタッチ領域47a及び第2のタッチ領域47bが抽出される。次に、時間Tで、第1のタッチ領域47aと第2のタッチ領域47bとの間の距離が小さくなり、入力イベントとしてGATHERイベントが認識される。すると、例えば、表示制御部141は、3つのオブジェクト50a、50b、50cを1つの新たなオブジェクト50dに変換する。
以上のようなGATHERイベントによる表示の変化によれば、例えば、ユーザは、両手でオブジェクト50をかき集めるような直感的なタッチジェスチャにより、タッチパネル20内の広い範囲に散乱しているオブジェクト50を集約することができる。ここで、大型のタッチパネルの広い範囲にオブジェクトが配置されていたとしても、ユーザは、両手を用いるので、体を大きく動かす必要はなく、少ない負担で操作を行うことができる。
また、例えば、表示制御部141は、SPLITイベントが認識された場合に、複数の操作対象オブジェクトをより広い範囲に再配置する。即ち、表示制御部141は、SPLITイベントの認識前に表示されている操作対象オブジェクトの一部又は全部である複数の操作対象オブジェクトを、SPLITイベントの認識後により広い範囲に散らばるように再配置する。以下、この点について図12Aを参照してより具体的に説明する。
まず、図12Aは、SPLITイベントによる操作対象オブジェクトの表示の変化の第1の例を説明するための説明図である。図12Aを参照すると、タッチパネル20の一部が示されている。また、時間Tで、タッチパネル20の一部には、3つのオブジェクト50a、50b、50cが表示されている。ここで、まず、第1のタッチ領域47a及び第2のタッチ領域47bが抽出される。次に、時間Tで、第1のタッチ領域47aと第2のタッチ領域47bとの間の距離が大きくなり、入力イベントとしてSPLITイベントが認識される。すると、表示制御部141は、第1のタッチ領域47a及び第2のタッチ領域47bの位置の変化に応じて、3つのオブジェクト50a、50b、50cの位置を互いにより遠くなるように変える。
また、例えば、表示制御部141は、SPLITイベントが認識された場合に、1つの操作対象オブジェクトを複数の操作対象オブジェクトに変換する。即ち、表示制御部141は、SPLITイベントの認識前に表示されている操作対象オブジェクトの一部又は全部である1つの操作対象オブジェクトを、SPLITイベントの認識後に複数の操作対象オブジェクトに変換する。以下、この点について図12Bを参照してより具体的に説明する。
また、図12Bは、SPLITイベントによる操作対象オブジェクトの表示の変化の第2の例を説明するための説明図である。図12Bを参照すると、タッチパネル20の一部が示されている。また、時間Tで、タッチパネル20の一部には、1つのオブジェクト50dが表示されている。ここで、まず、第1のタッチ領域47a及び第2のタッチ領域47bが抽出される。次に、時間Tで、第1のタッチ領域47aと第2のタッチ領域47bとの間の距離が大きくなり、入力イベントとしてSPLITイベントが認識される。すると、表示制御部141は、1つのオブジェクト50dを新たな3つのオブジェクト50a、50b、50cに変換する。
また、例えば、表示制御部141は、SPLITイベントが認識された場合に、SPLITイベントの認識前に表示されている複数の操作対象オブジェクトを整列させてもよい。即ち、表示制御部141は、SPLITイベントの認識前に表示されている操作対象オブジェクトの一部又は全部である複数の操作対象オブジェクトを、SPLITイベントの認識後に整列させる。以下、この点について図12Cを参照してより具体的に説明する。
また、図12Cは、SPLITイベントによる操作対象オブジェクトの表示の変化の第3の例を説明するための説明図である。図12Cを参照すると、図12Aと同様に、時間Tで、タッチパネル20の一部に、3つのオブジェクト50a、50b、50cが表示されており、また、第1のタッチ領域47a及び第2のタッチ領域47bが抽出される。次に、時間Tで、第1のタッチ領域47aと第2のタッチ領域47bとの間の距離が大きくなり、入力イベントとしてSPLITイベントが認識される。すると、表示制御部141は、3つのオブジェクト50a、50b、50cを整列させる。
このようなSPLITイベントによる表示の変化によれば、例えば、ユーザは、両手でオブジェクト50を広げるような直感的なタッチジェスチャにより、タッチパネル200内に集約されているオブジェクト50を広い範囲に展開し、又は雑然と配置されたオブジェクト50を整理できる。その結果、オブジェクト50がユーザにとってより見やすくなる。ここで、大型のタッチパネルの広い範囲にオブジェクトを展開し、又は整理するとしても、ユーザは、両手を用いるので、体を大きく動かす必要はなく、少ない負担で操作を行うことができる。
なお、図11A〜図12Cでは、第1のタッチ領域47a及び第2のタッチ領域47bとの間に表示される全てのオブジェクト50が操作対象オブジェクトである場合について説明したが、本実施形態はこれに限られない。例えば、第1のタッチ領域47a及び第2のタッチ領域47bとの間に表示される一部のオブジェクトが操作対象オブジェクトであってもよい。また、操作対象オブジェクトの種類ごとに、表示が変化されてもよい。例えば、表示制御部141は、SPLITイベントが認識された場合に、写真に対応する操作対象オブジェクト及び動画に対応する操作対象オブジェクトを別々に整列させてもよい。
(データ編集部143)
データ編集部143は、データの編集を行う。例えば、データ編集部143は、認識された入力イベントに応じて、オブジェクトに対応するデータの結合又は分割を行う。とりわけ、データ編集部143は、第1のタッチ領域と第2のタッチ領域との間の距離の変化に基づいて認識された入力イベント(例えば、GATHERイベント、SPLITイベント)に応じて、当該第1のタッチ領域と当該第2のタッチ領域との間に表示される操作対象オブジェクトに対応するデータを結合し、又は分割する。
例えば、データ編集部143は、GATHERイベントが認識された場合に、GATHERイベントの認識前に表示されている複数の操作対象オブジェクトに対応するデータを結合する。一例として、当該データは動画像である。例えば、図11Bに示されている時間Tにおける3つのオブジェクト50a、50b、50cが、それぞれ動画像に対応するものとする。そして、時間TでGATHERイベントが認識されると、データ編集部143は、3つのオブジェクト50a、50b、50cに対応する3つの動画像を結合する。この場合に、例えば、図11Bに示されるように、3つのオブジェクト50a、50b、50cが1つのオブジェクト50dに変換され、当該オブジェクト50dが、結合後の動画像に対応する。
また、例えば、データ編集部143は、SPLITイベントが認識された場合に、SPLITイベントの認識前に表示されている1つの操作対象オブジェクトに対応するデータを分割する。一例として、当該データは動画像である。例えば、図12Bに示されている時間Tにおける1つのオブジェクト50dが、動画像に対応するものとする。そして、時間TでSPLITイベントが認識されると、データ編集部143は、オブジェクト50dに対応する動画像を3つの動画像に分割する。この場合に、例えば、図12Bに示されるように、1つのオブジェクト50dが3つのオブジェクト50a、50b、50cに変換され、当該3つのオブジェクト50a、50b、50cが、分割後の3つの動画像に対応する。なお、分割後の動画像の数及び分割位置は、例えば、分割前の動画像についてのシーン認識の結果に応じて決定されてよい。また、後述の図13E及び図13Fに示されるように、オブジェクト50a、50b、50cの間には、画像間のシーン遷移の際の視覚的演出(トランジション)に対応するオブジェクトがさらに表示されてもよい。
このようなGATHERイベントによるデータ結合又はSPLITイベントによるデータ分割により、ユーザは、両手でオブジェクト50をかき集めるような直感的なタッチジェスチャ又は両手でオブジェクト50を広げるような直感的なタッチジェスチャにより、データを容易に編集することができる。例えば、写真及び動画を容易に編集することができる。
以上、GATHERイベント及びSPLITイベントについての表示制御部141及びデータ編集部143の動作について説明した。このようなGATHERイベント及びSPLITイベントという入力イベントによれば、ユーザは、両手の特定部分(例えば、側面)でオブジェクト50をかき集めるような直感的なタッチジェスチャ又は両手でオブジェクト50を広げるような直感的なタッチジェスチャにより、操作を行うことができる。ここで、タッチパネルが大型のものであっても、ユーザは、両手を用いるので、体を大きく動かす必要はなく、少ない負担で操作を行うことができる。例えば、操作対象オブジェクトが大型の画面の広範囲に散らばっていても、ユーザは、両手を広げて操作対象を指定した上で、その指定と一体のジェスチャで様々な操作を行うことができる。
以下では、図13A〜図13Fを参照して、GATHERイベント及びSPLITイベント以外の6つの入力イベントについての表示制御部141及びデータ編集部143の動作についても説明する。
(その他の入力イベントについての表示制御及びデータ編集)
図13Aは、GRABイベントによる操作対象オブジェクトの表示の変化の一例を説明するための説明図である。図13Aを参照すると、図10を参照して説明したGRABイベントが認識される。この場合に、表示制御部141は、5つのタッチ位置43に囲まれて表示されているオブジェクト50mを、削除された状態を示すように変更する。そして、データ編集部143は、オブジェクト50mに対応するデータを削除する。
また、図13Bは、SHAKEイベントによる操作対象オブジェクトの表示の変化の一例を説明するための説明図である。図13Bを参照すると、図10を参照して説明したSHAKEイベントが認識される。この場合に、表示制御部141は、5つのタッチ位置43のうちの少なくとも1つのタッチ位置43に表示されているオブジェクト50mを、操作前の元の状態を示すように変更する。例えば、表示制御部141は、トリミングされた状態を示すオブジェクト50mを、トリミング前の状態を示すように変更する。そして、データ編集部143は、オブジェクト50mに対応するデータ(例えば、トリミング後の写真)を、トリミング前のデータ(例えば、トリミング前の写真)に復元する(即ち、いわゆるアンドゥ操作が行われる)。
また、図13Cは、CUTイベントによる操作対象オブジェクトの表示の変化の一例を説明するための説明図である。図13Cを参照すると、図10を参照して説明したCUTイベントが認識される。この場合に、表示制御部141は、静止する2つのタッチ位置に表示され、且つ一方向に移動するタッチ位置に横断されたオブジェクト50mを、トリミングされた状態を示すように変更する。そして、データ編集部143は、オブジェクト50mに対応するデータ(例えば、写真)をトリミングする。
また、図13Dは、CIRCLEイベントによる操作対象オブジェクトの表示の変化の一例を説明するための説明図である。図13Dを参照すると、図10を参照して説明したCIRCLEイベントが認識される。この場合に、表示制御部141は、動画像に対応するオブジェクト50nであって、当該動画像の第1のフレームを表示するオブジェクト50nを、当該動画像の第2のフレーム(例えば、第1のフレームの後に現れるフレーム)を表示するように変更する。そして、データ編集部143は、動画像の編集のために上記第2のフレームを選択された状態にする。
また、図13Eは、WIPEイベントによる操作対象オブジェクトの操作の一例を説明するための説明図である。図13Eを参照すると、タッチパネル20の一部には、動画像にそれぞれ対応する3つのオブジェクト50a、50b、50cが表示されている。また、当該3つのオブジェクト50a、50b、50cの間には、動画像間のシーン遷移の際の視覚的演出(以下、「トランジション」と呼ぶ)に対応するオブジェクト50i及び50jが表示されている。ここで、タッチによりタッチ位置43が検出され、これによりトランジションに対応するオブジェクト50iが選択された状態となる。そして、図10を参照して説明したWIPEイベントが認識される。この場合に、データ編集部143は、オブジェクト50iに対応するトランジションを、タッチ領域47が移動した方向へのワイプトランジションに設定する。
また、図13Fは、FADEイベントによる操作対象オブジェクトの操作の一例を説明するための説明図である。図13Fを参照すると、図13Eと同様に、タッチパネル20には、動画像にそれぞれ対応する3つのオブジェクト50a、50b、50c、及び動画像間のトランジションに対応するオブジェクト50i及び50jが、表示されている。また、図13Eと同様に、トランジションに対応するオブジェクト50iが選択された状態となる。そして、図10を参照して説明したFADEイベントが認識される。この場合に、データ編集部143は、オブジェクト50iに対応するトランジションを、フェードイントランジション又はフェードアウトトランジションに設定する。
(記憶部150)
記憶部150は、情報処理装置100において一時的に又は恒久的に保持すべき情報を記憶する。例えば、記憶部150は、表示部160に表示されるオブジェクト50の画像を記憶する。また、記憶部150は、当該オブジェクト50に対応するデータ(写真、動画像、等)を記憶する。
(表示部160)
表示部160は、表示制御部141による制御に応じて、出力画像を表示する。即ち、表示部160は、表示面23に対応する機能である。
<3.操作例>
次に、図14A〜図14Fを参照して、情報処理装置100における操作例について説明する。図14A〜図14Fは、情報処理装置100における操作例を説明するための説明図である。本操作例では、動画像の編集として、動画像の切り出しが行われる。
まず、図14Aを参照すると、時間Tに、タッチパネル20には、動画像A〜Fに対応する6つのオブジェクト50a〜50fが表示されている。また、動画像編集用の開始タグ53及び終了タグ55も表示されている。本操作例では、以降、動画像Fの切り出しが行われる。
次に、時間Tに、オブジェクト50fを操作対象オブジェクトとするSPLITイベントが認識される。その結果、タッチパネル20において、オブジェクト50fは、6つのオブジェクト50g〜50lに変換される。また、オブジェクト50fに対応する動画像Fは、6つの動画像F1〜F6に分割される。ここで、6つのオブジェクト50g〜50lは、分割後の当該6つの動画像F1〜F6に対応する。
次に、図14Bを参照すると、時間Tに、タッチ位置43が検出され、その結果、オブジェクト50h及び動画像F2が選択された状態となる。
次に、時間Tに、CIRCLEイベントが認識される。その結果、動画像F2の第1のフレームを表示していたオブジェクト50hは、当該動画像F2の第2のフレームを表示するように変更される。このように変更されたオブジェクト50hは、ここではF2Xと示されている。また、動画像F2の上記第2のフレームは、選択された状態となる。
次に、図14Cを参照すると、時間Tに、開始タグ53が、オブジェクト50h上にドラッグされる。すると、動画像F2の上記第2のフレームが、動画像Fの編集開始点として決定される。
次に、時間Tに、オブジェクト50hを対象とするCUTイベントが認識される。その結果、動画像の切り出しが編集内容として決定される。ここでの動画像Fの切り出しの開始点は、編集開始点として決定された動画像F2の上記第2のフレームである。
次に、図14Dを参照すると、時間Tに、オブジェクト50h〜50lが再び表示される。そして、タッチ位置43が検出され、その結果、オブジェクト50k及び動画像F5が選択された状態となる。
次に、時間Tに、CIRCLEイベントが認識される。その結果、動画像F5の第1のフレームを表示していたオブジェクト50kは、当該動画像F5の第2のフレームを表示するように変更される。このように変更されたオブジェクト50kは、ここではF5Xと示されている。また、動画像F5の上記第2のフレームは、選択された状態となる。
次に、図14Eを参照すると、時間Tに、終了タグ55が、オブジェクト50k上にドラッグされる。すると、動画像F5の上記第2のフレームが、動画像Fの編集終了点として決定される。即ち、動画像F5の上記第2のフレームが、動画像Fの切り出しの終了点として決定される。
次に、時間T10に、オブジェクト50h〜50kが再び表示される。
そして、図14Fを参照すると、時間T11に、オブジェクト50h〜50kを操作対象オブジェクトとするGATHERイベントが認識される。その結果、タッチパネル20において、4つのオブジェクト50h〜kは、1つのオブジェクト50zに変換される。また、4つのオブジェクト50h〜kに対応する動画像F2〜F5は、結合されて、1つの動画像Zとなる。ここで、結合される動画像F2は、動画像F2の第2のフレーム以降の部分であり、また、結合される動画像F5は、動画像F5の第2のフレームよりも前の部分である。即ち、動画像Zは、動画像Fのうちの動画像F2の第2のフレームから動画像F5の第2のフレームの直前までの部分の動画像である。
以上、情報処理装置100における操作例を説明した。例えば、このように動画像の切り出しが行われる。
<4.処理の流れ>
次に、図15〜図18を参照して、本実施形態に係る情報処理の一例について説明する。図15は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。
まず、ステップS201で、タッチ検出部110は、タッチパネル20におけるタッチ位置を検出する。次に、ステップS300で、タッチ領域抽出部120は、後述のタッチ領域抽出処理を実行する。そして、ステップS203で、イベント認識部130は、2つのタッチ領域が抽出されたかを判定する。2つのタッチ領域が抽出されていれば、処理はステップS400へ進む。そうでなければ、処理はステップS207へ進む。
ステップS400で、イベント認識部130は、後述のGATHER/SPLIT認識処理を実行する。次に、ステップS205で、制御部140は、GATHERイベント又はSPLITイベントが認識されたかを判定する。GATHERイベント又はSPLITイベントが認識されていれば、処理はステップS500へ進む。そうでなければ、処理はステップS207へ進む。
ステップS500で、制御部140は、後述のGATHER/SPLIT制御処理を実行する。そして、処理はステップS201へ戻る。
ステップS207で、イベント認識部130は、GATHERイベント及びSPLITイベント以外のその他の入力イベントを認識する。そして、ステップS209で、制御部140は、その他の入力イベントが認識されたかを判定する。その他の入力イベントが認識されていれば、処理はステップS211へ進む。そうでなければ、処理はステップS201へ戻る。
ステップS211で、制御部140は、認識された入力イベントに応じた処理を実行する。そして、処理はステップS201へ戻る。
(タッチ領域抽出処理S300)
次に、タッチ領域抽出処理S300の一例について説明する。図16は、タッチ領域抽出処理300の一例を示すフローチャートである。当該一例は、領域抽出条件がサイズ条件である場合の例である。
まず、ステップS301で、タッチ領域抽出部120は、複数のタッチ位置が検出されたかを判定する。複数のタッチ位置が検出されていれば、処理はステップS303へ進む。そうでなければ、処理は終了する。
ステップS303で、タッチ領域抽出部120は、所定のグルーピング条件に従って、複数のタッチ位置を1つ以上のタッチ位置集合にグルーピングする。ステップS305で、タッチ領域抽出部120は、タッチ位置集合があったかを判定する。タッチ位置集合があれば、処理はステップS307へ進む。そうでなければ、処理は終了する。
ステップS307で、タッチ領域抽出部120は、領域抽出条件の判定を行なっていないタッチ位置集合を選択する。次に、ステップS309で、タッチ領域抽出部120は、選択したタッチ位置集合を含む領域の面積を算出する。そして、ステップS311で、タッチ領域抽出部120は、算出した面積が閾値Tmin以上閾値Tmax未満であるかを判定する。面積が閾値Tmin以上閾値Tmax未満であれば、処理はステップS313へ進む。そうでなければ、処理はステップS315へ進む。
ステップS313で、タッチ領域抽出部120は、選択したタッチ位置集合を含む領域が領域抽出条件を満たすと判定する。即ち、タッチ領域抽出部120は、選択したタッチ位置集合を含む領域をタッチ領域として抽出する。
ステップS315で、タッチ領域抽出部120は、全てのタッチ位置集合について領域抽出条件の判定が完了したかを判定する。全てのタッチ位置集合について当該判定が完了していれば、処理は終了する。そうでなければ、処理はステップS307へ戻る。
(GATHER/SPLIT認識処理S400)
次に、GATHER/SPLIT認識処理S400の一例について説明する。図17は、GATHER/SPLIT認識処理の一例を示すフローチャートである。当該一例は、タッチ領域間の距離の変化量に基づいてGATHERイベント及びSPLITイベントが認識される場合の例である。
まず、ステップS401で、イベント認識部130は、抽出された第1のタッチ領域の代表点を決定する。また、ステップS403で、イベント認識部130は、抽出された第2のタッチ領域の代表点を決定する。そして、ステップS405で、イベント認識部130は、2つのタッチ領域が前回も抽出されていたか判定する。2つのタッチ領域が前回も抽出されていれば、処理はステップS409へ進む。そうでなければ、処理はステップS407へ進む。
ステップS407で、イベント認識部130は、決定した2つの代表点の間の距離を初期距離Dとして算出する。そして処理は終了する。
ステップS409で、イベント認識部130は、決定した2つの代表点の間の距離Dを算出する。次に、ステップS411で、イベント認識部130は、距離の変化量として、算出された距離Dと初期距離Dとの差分(D−D)を算出する。そして、ステップS413で、イベント認識部130は、距離の変化量(D−D)が、負の閾値T以下であるかを判定する。距離の変化量(D−D)が負の閾値T以下であれば、処理はステップS415へ進む。そうでなければ、処理はステップS417へ進む。
ステップS415で、イベント認識部130は、入力イベントとしてGATHERイベントを認識する。そして、処理は終了する。
ステップS417で、イベント認識部130は、距離の変化量(D−D)が、正の閾値T以上であるかを判定する。距離の変化量(D−D)が正の閾値T以上であれば、処理はステップS419へ進む。そうでなければ、処理は終了する。
ステップS419で、イベント認識部130は、入力イベントとしてSPLITイベントを認識する。そして、処理は終了する。
(GATHER/SPLIT制御処理S500)
次に、GATHER/SPLIT制御処理S500の一例について説明する。図18は、GATHER/SPLIT制御処理の一例を示すフローチャートである。
まず、ステップS501で、表示制御部141は、第1のタッチ領域と第2のタッチ領域との間に表示されている操作対象オブジェクトを特定する。そして、ステップS503で、表示制御部141は、操作対象オブジェクトがあったかを判定する。操作対象オブジェクトがあれば、処理はステップS505へ進む。そうでなければ、処理は終了する。
ステップS505で、表示制御部141は、認識された入力イベントがGATHERイベントであったかを判定する。認識された入力イベントがGATHERイベントであれば、処理はステップS507へ進む。そうでなければ、即ち認識された入力イベントがSPLITイベントであれば、処理はステップS511へ進む。
ステップS507で、データ編集部143は、GATHERイベントに応じたデータの編集を実行する。例えば、データ編集部143は、GATHERイベントの認識前に表示されていた複数のオブジェクトに対応するデータを結合する。
ステップS509で、表示制御部141は、GATHERイベントに応じた表示制御を実行する。例えば、表示制御部141は、図11Aを参照して説明したように、操作対象オブジェクトをより狭い範囲に再配置してもよく、又は、図11Bを参照して説明したように、複数の操作対象オブジェクトを1つの操作対象オブジェクトに変換してもよい。そして、処理は終了する。
ステップS511で、データ編集部143は、SPLITイベントに応じたデータの編集を実行する。例えば、データ編集部143は、SPLITイベントの認識前に表示されていたオブジェクトに対応するデータを分割する。
ステップS513で、表示制御部141は、SPLITイベントに応じた表示制御を実行する。例えば、表示制御部141は、図12Aを参照して説明したように、複数の操作対象オブジェクトをより広い範囲に再配置してもよく、図12Bを参照して説明したように、1つの操作対象オブジェクトを複数の操作対象オブジェクトに変換してもよい。または、表示制御部141は、図12Cを参照して説明したように、SPLITイベントの認識前に表示されている複数の操作対象オブジェクトを整列させてもよい。そして、処理は終了する。
<5.まとめ>
ここまで、図1〜図18を用いて、本開示の実施形態に係る情報処理装置100について説明した。本実施形態によれば、2つのタッチ領域の間の距離の変化に基づいて入力イベント(GATHERイベント又はSPLITイベント)が認識される。これにより、ユーザは、両手の特定部分(例えば、側面)でタッチパネル20に表示されるオブジェクト50をかき集めるような直感的なタッチジェスチャ又は両手でオブジェクト50を広げるような直感的なタッチジェスチャにより、操作を行うことができる。ここで、タッチパネルが大型のものであっても、ユーザは、両手を用いるので、体を大きく動かす必要はなく、少ない負担で操作を行うことができる。例えば、操作対象オブジェクトが大型の画面の広範囲に散らばっていても、ユーザは、両手を広げて操作対象を指定した上で、その指定と一体のジェスチャで様々な操作を行うことができる。
例えば、GATHERイベントが認識された場合に、操作対象オブジェクトがより狭い範囲に配置される。これにより、ユーザは、両手でオブジェクト50をかき集めるような直感的なタッチにより、タッチパネル20内の広い範囲に散乱しているオブジェクト50を集約することができる。また、SPLITイベントが認識された場合に、操作対象オブジェクトがより広い範囲に配置され、又は操作対象オブジェクトが整列する。これにより、ユーザは、両手でオブジェクト50を広げるような直感的なタッチにより、タッチパネル200内に集約されているオブジェクト50を広い範囲に展開し、又は雑然と配置されたオブジェクト50を整理できる。その結果、オブジェクト50がユーザにとってより見やすくなる。
また、例えば、GATHERイベントが認識された場合に、複数の操作対象オブジェクトに対応するデータが結合される。また、SPLITイベントが認識された場合に、1つの操作対象オブジェクトに対応するデータが分割される。これらにより、ユーザは、両手でオブジェクト50をかき集めるような直感的なタッチ又は両手でオブジェクト50を広げるような直感的なタッチにより、データを容易に編集することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について説明したが、本開示は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。
例えば、タッチパネルがユーザの手のタッチ(接触)を感知する接触型である場合について説明したが、本開示におけるタッチパネルはこれに限られない。例えば、タッチパネルは、ユーザの手の近接状態を感知する近接型であってもよい。また、この場合に、検出されるタッチ位置は、タッチパネルにおける手の近接の位置であってもよい。
また、タッチ領域が手の側面でのタッチに応じて抽出される場合について説明したが、本開示におけるタッチ領域の抽出はこれに限られない。例えば、タッチ領域は、指の腹、掌、手の甲等の、手の別の部分でのタッチに応じて抽出されてもよい。また、タッチ領域は、ユーザの手以外でのタッチに応じて抽出されてもよい。
また、本開示に係る技術は、大型のディスプレイ装置に限られず、様々な種類の装置で実装され得る。例えば、本開示に係る技術は、タッチパネルを内蔵せず、タッチパネルに直接的に又は間接的に接続される、パーソナルコンピュータ、サーバ装置等の装置で実装されてもよい。この場合に、当該装置は、上述したタッチ検出部及び表示部を備えなくてもよい。また、本開示に係る技術は、タッチパネルの表示制御及びデータ編集を行う制御装置と直接的に又は間接的に接続される、パーソナルコンピュータ、サーバ装置等の装置で実装されてもよい。この場合に、当該装置は、上述した制御部及び記憶部を備えなくてもよい。また、本開示に係る技術は、大型のタッチパネル以外のタッチパネルに関しても実装され得る。例えば、本開示に係る技術は、スマートフォン、タブレット端末、電子書籍端末等の比較的小型のタッチパネルを備える装置で実装されてもよい。
また、本明細書の情報処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、情報処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。
また、情報処理装置に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
タッチパネルで検出された複数のタッチ位置から、所定の領域抽出条件をそれぞれ満たす第1のタッチ領域及び第2のタッチ領域を抽出する抽出部と、
前記第1のタッチ領域と前記第2のタッチ領域との間の距離の変化に基づいて、入力イベントを認識する認識部と、
を備える情報処理装置。
(2)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が小さくなった場合に、第1の入力イベントを認識する、前記(1)に記載の情報処理装置。
(3)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識する、前記(1)又は(2)に記載の情報処理装置。
(4)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離の変化量に基づいて、前記入力イベントを認識する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の相対的な移動方向に基づいて、前記入力イベントを認識する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(6)
前記認識部は、前記第1のタッチ領域の移動方向及び前記第2のタッチ領域の移動方向に基づいて、前記入力イベントを認識する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(7)
認識された前記入力イベントに応じて、前記第1のタッチ領域と前記第2のタッチ領域との間に表示される操作対象オブジェクトの表示を変化させる制御部、をさらに備える前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が小さくなった場合に、第1の入力イベントを認識し、
前記制御部は、前記第1の入力イベントが認識された場合に、操作対象オブジェクトをより狭い範囲に再配置する、前記(7)に記載の情報処理装置。
(9)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が小さくなった場合に、第1の入力イベントを認識し、
前記制御部は、前記第1の入力イベントが認識された場合に、当該第1の入力イベントの認識前に表示されている複数の操作対象オブジェクトに対応するデータを結合する、
前記(7)に記載の情報処理装置。
(10)
前記データは動画像である、前記(9)に記載の情報処理装置。
(11)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識し、
前記制御部は、前記第2の入力イベントが認識された場合に、複数の操作対象オブジェクトをより広い範囲に再配置する、
前記(7)に記載の情報処理装置。
(12)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識し、
前記制御部は、前記第2の入力イベントが認識された場合に、当該第2の入力イベントの認識前に表示されている複数の操作対象オブジェクトを整列させる、
前記(7)に記載の情報処理装置。
(13)
前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識し、
前記制御部は、前記第2の入力イベントが認識された場合に、当該第2の入力イベントの認識前に表示されている1つの操作対象オブジェクトに対応するデータを分割する、
前記(7)に記載の情報処理装置。
(14)
前記データは動画像である、前記(13)に記載の情報処理装置。
(15)
前記領域抽出条件は、抽出されるべきタッチ領域のサイズについての条件を含む、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)
前記領域抽出条件は、抽出されるべきタッチ領域の形状についての条件を含む、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(17)
前記領域抽出条件は、抽出されるべきタッチ領域に含まれるタッチ位置の密度についての条件を含む、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(18)
タッチパネルで検出された複数のタッチ位置から、所定の領域抽出条件をそれぞれ満たす第1のタッチ領域及び第2のタッチ領域を抽出することと、
前記第1のタッチ領域と前記第2のタッチ領域との間の距離の変化に基づいて、入力イベントを認識することと、
を含む情報処理方法。
20 タッチパネル
41 ユーザの手
43 タッチ位置
45 タッチ位置集合を含む領域
47 タッチ領域
50 オブジェクト
100 情報処理装置
110 タッチ検出部
120 タッチ領域抽出部
130 イベント認識部
140 制御部
141 表示制御部
143 データ編集部
150 記憶部
160 表示部

Claims (15)

  1. タッチパネルで検出された複数のタッチ位置から、所定の領域抽出条件をそれぞれ満たす第1のタッチ領域及び第2のタッチ領域を抽出する抽出部と、
    前記第1のタッチ領域と前記第2のタッチ領域との間の距離の変化に基づいて、入力イベントを認識する認識部と、
    認識された前記入力イベントに応じて、前記第1のタッチ領域と前記第2のタッチ領域との間に表示される操作対象オブジェクトの表示を変化させる制御部と、
    を備え
    前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識し、
    前記制御部は、前記第2の入力イベントが認識された場合に、当該第2の入力イベントの認識前に表示されている1つの操作対象オブジェクトに対応する動画像を前記動画像についてのシーン認識の結果に応じて分割する、
    情報処理装置。
  2. 前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が小さくなった場合に、第1の入力イベントを認識する、請求項1に記載の情報処理装置。
  3. 前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識する、請求項1に記載の情報処理装置。
  4. 前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離の変化量に基づいて、前記入力イベントを認識する、請求項1に記載の情報処理装置。
  5. 前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の相対的な移動方向に基づいて、前記入力イベントを認識する、請求項1に記載の情報処理装置。
  6. 前記認識部は、前記第1のタッチ領域の移動方向及び前記第2のタッチ領域の移動方向に基づいて、前記入力イベントを認識する、請求項1に記載の情報処理装置。
  7. 前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が小さくなった場合に、第1の入力イベントを認識し、
    前記制御部は、前記第1の入力イベントが認識された場合に、操作対象オブジェクトをより狭い範囲に再配置する、請求項に記載の情報処理装置。
  8. 前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が小さくなった場合に、第1の入力イベントを認識し、
    前記制御部は、前記第1の入力イベントが認識された場合に、当該第1の入力イベントの認識前に表示されている複数の操作対象オブジェクトに対応するデータを結合する、
    請求項に記載の情報処理装置。
  9. 前記データは動画像である、請求項に記載の情報処理装置。
  10. 前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識し、
    前記制御部は、前記第2の入力イベントが認識された場合に、複数の操作対象オブジェクトをより広い範囲に再配置する、
    請求項に記載の情報処理装置。
  11. 前記認識部は、前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識し、
    前記制御部は、前記第2の入力イベントが認識された場合に、当該第2の入力イベントの認識前に表示されている複数の操作対象オブジェクトを整列させる、
    請求項に記載の情報処理装置。
  12. 前記領域抽出条件は、抽出されるべきタッチ領域のサイズについての条件を含む、請求項1に記載の情報処理装置。
  13. 前記領域抽出条件は、抽出されるべきタッチ領域の形状についての条件を含む、請求項1に記載の情報処理装置。
  14. 前記領域抽出条件は、抽出されるべきタッチ領域に含まれるタッチ位置の密度についての条件を含む、請求項1に記載の情報処理装置。
  15. タッチパネルで検出された複数のタッチ位置から、所定の領域抽出条件をそれぞれ満たす第1のタッチ領域及び第2のタッチ領域を抽出することと、
    前記第1のタッチ領域と前記第2のタッチ領域との間の距離の変化に基づいて、入力イベントを認識することと、
    認識された前記入力イベントに応じて、前記第1のタッチ領域と前記第2のタッチ領域との間に表示される操作対象オブジェクトの表示を変化させることと、
    前記第1のタッチ領域と前記第2のタッチ領域との間の距離が大きくなった場合に、第2の入力イベントを認識することと、
    前記第2の入力イベントが認識された場合に、当該第2の入力イベントの認識前に表示されている1つの操作対象オブジェクトに対応する動画像を前記動画像についてのシーン認識の結果に応じて分割することと、
    を含む情報処理方法。
JP2012049079A 2012-03-06 2012-03-06 情報処理装置及び情報処理方法 Expired - Fee Related JP5978660B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012049079A JP5978660B2 (ja) 2012-03-06 2012-03-06 情報処理装置及び情報処理方法
CN201310061946.4A CN103309605B (zh) 2012-03-06 2013-02-27 信息处理装置和信息处理方法
US13/778,904 US20130234957A1 (en) 2012-03-06 2013-02-27 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012049079A JP5978660B2 (ja) 2012-03-06 2012-03-06 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2013186540A JP2013186540A (ja) 2013-09-19
JP5978660B2 true JP5978660B2 (ja) 2016-08-24

Family

ID=49113652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012049079A Expired - Fee Related JP5978660B2 (ja) 2012-03-06 2012-03-06 情報処理装置及び情報処理方法

Country Status (3)

Country Link
US (1) US20130234957A1 (ja)
JP (1) JP5978660B2 (ja)
CN (1) CN103309605B (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110112831A (ko) * 2009-01-05 2011-10-13 스마트 테크놀러지스 유엘씨 제스처 인식 방법 및 이 방법을 이용하는 대화형 입력 시스템
JP5629722B2 (ja) * 2012-04-11 2014-11-26 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
JP5634442B2 (ja) * 2012-06-26 2014-12-03 京セラドキュメントソリューションズ株式会社 表示入力装置および画像形成装置
US9342162B2 (en) * 2013-01-29 2016-05-17 Lg Electronics Inc. Mobile terminal and controlling method thereof
JP5776725B2 (ja) * 2013-05-14 2015-09-09 コニカミノルタ株式会社 画像処理連携システム、携帯端末装置、画像処理連携方法及び画像処理連携プログラム
TWI533179B (zh) * 2013-10-25 2016-05-11 緯創資通股份有限公司 光學觸控系統、觸控偵測方法及電腦程式產品
TWI502474B (zh) * 2013-11-28 2015-10-01 Acer Inc 使用者介面的操作方法與電子裝置
KR20160114158A (ko) * 2014-01-28 2016-10-04 후아웨이 디바이스 컴퍼니 리미티드 단말 장치를 처리하는 방법 및 단말 장치
JPWO2015181680A1 (ja) * 2014-05-30 2017-04-20 株式会社半導体エネルギー研究所 情報処理装置
TWI641986B (zh) * 2014-06-01 2018-11-21 美商英特爾公司 用於判定使用者之數目與他們相對於一裝置之個別位置的方法、電子裝置及電腦可讀媒體
JP6344083B2 (ja) * 2014-06-20 2018-06-20 カシオ計算機株式会社 マルチタッチシステム、タッチ座標ペア決定方法及びタッチ座標ペア決定プログラム
JP6255321B2 (ja) * 2014-08-20 2017-12-27 アルプス電気株式会社 情報処理装置とその指先操作識別方法並びにプログラム
CN104461357A (zh) * 2014-11-28 2015-03-25 上海斐讯数据通信技术有限公司 一种信息条目处理方法及移动终端
CN104808894A (zh) * 2015-03-30 2015-07-29 深圳市金立通信设备有限公司 一种终端
CN104808895A (zh) * 2015-03-30 2015-07-29 深圳市金立通信设备有限公司 一种图标整理方法
CN106168864A (zh) 2015-05-18 2016-11-30 佳能株式会社 显示控制装置以及显示控制方法
US9665769B2 (en) * 2015-08-18 2017-05-30 International Business Machines Corporation Handwriting recognition with natural user input on multitouch surfaces
JP5993511B1 (ja) * 2015-10-15 2016-09-14 株式会社東海理化電機製作所 操作装置
CN105511675B (zh) * 2015-11-20 2020-07-24 重庆桔子科技发展有限公司 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
WO2017168850A1 (ja) * 2016-03-30 2017-10-05 京セラドキュメントソリューションズ株式会社 表示制御装置
JP6024848B1 (ja) 2016-05-06 2016-11-16 富士ゼロックス株式会社 情報処理装置及びプログラム
CN106909296A (zh) * 2016-06-07 2017-06-30 阿里巴巴集团控股有限公司 数据的提取方法、装置及终端设备
CN105867829B (zh) * 2016-06-15 2019-05-17 维沃移动通信有限公司 一种控制终端显示界面切换的方法及终端
CN107885671B (zh) * 2016-09-30 2021-09-14 华为技术有限公司 一种非易失性内存的持久化方法和计算设备
KR102647885B1 (ko) * 2016-10-10 2024-03-15 삼성전자주식회사 전자 장치와 그 제어 방법 및 디스플레이 장치
US11023050B2 (en) 2016-11-25 2021-06-01 Sony Corporation Display control device, display control method, and computer program
JP7103782B2 (ja) * 2017-12-05 2022-07-20 アルプスアルパイン株式会社 入力装置および入力制御装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP4903371B2 (ja) * 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
JP2007128497A (ja) * 2005-10-05 2007-05-24 Sony Corp 表示装置および表示方法
US7855718B2 (en) * 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US7643011B2 (en) * 2007-01-03 2010-01-05 Apple Inc. Noise detection in multi-touch sensors
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
JP5161690B2 (ja) * 2008-07-31 2013-03-13 キヤノン株式会社 情報処理装置及びその制御方法
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
JP4766101B2 (ja) * 2008-11-10 2011-09-07 ソニー株式会社 触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム
KR101568129B1 (ko) * 2008-11-20 2015-11-11 삼성전자주식회사 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서 태그 정보 표시 방법
US8219937B2 (en) * 2009-02-09 2012-07-10 Microsoft Corporation Manipulation of graphical elements on graphical user interface via multi-touch gestures
JP5377143B2 (ja) * 2009-07-29 2013-12-25 京セラ株式会社 携帯電子機器
TWI498786B (zh) * 2009-08-24 2015-09-01 Semiconductor Energy Lab 觸控感應器及其驅動方法與顯示裝置
US8587532B2 (en) * 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
KR101058612B1 (ko) * 2009-12-28 2011-08-22 박원주 멀티터치가 가능한 터치스크린을 이용한 화상의 색 보정 방법
US8717317B2 (en) * 2010-02-22 2014-05-06 Canon Kabushiki Kaisha Display control device and method for controlling display on touch panel, and storage medium
JP5534857B2 (ja) * 2010-02-22 2014-07-02 キヤノン株式会社 表示制御装置及び表示制御装置の制御方法
US20110296333A1 (en) * 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
US9092089B2 (en) * 2010-09-15 2015-07-28 Advanced Silicon Sa Method for detecting an arbitrary number of touches from a multi-touch device
US9430140B2 (en) * 2011-05-23 2016-08-30 Haworth, Inc. Digital whiteboard collaboration apparatuses, methods and systems
US8913019B2 (en) * 2011-07-14 2014-12-16 Microsoft Corporation Multi-finger detection and component resolution

Also Published As

Publication number Publication date
CN103309605B (zh) 2019-07-19
US20130234957A1 (en) 2013-09-12
CN103309605A (zh) 2013-09-18
JP2013186540A (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
JP5978660B2 (ja) 情報処理装置及び情報処理方法
US9405404B2 (en) Multi-touch marking menus and directional chording gestures
CN107077197B (zh) 3d可视化图
US8473862B1 (en) Organizational tools on a multi-touch display device
US20150338942A1 (en) Definition and use of node-based shapes, areas and windows on touch screen devices
US9696882B2 (en) Operation processing method, operation processing device, and control method
US20130125069A1 (en) System and Method for Interactive Labeling of a Collection of Images
CN104380234B (zh) 图标移动方法、装置和电子设备
KR101735442B1 (ko) 표시장치에서 객체의 오리엔테이션을 조작하기 위한 장치 및 방법
JP5664147B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20120085783A (ko) 인간-컴퓨터의 상호작용을 위한 인터페이스 및 그 방법
EP2426589A2 (en) Electronic device, computer-implemented method and computer-implemented computer-readable storage medium
EP2717133A2 (en) Terminal and method for processing multi-point input
JP6248462B2 (ja) 情報処理装置及びプログラム
US10853318B2 (en) Method and system for displaying and interacting with digital content stored in a computer system utilizing concentric interface
Forlines et al. Glimpse: a novel input model for multi-level devices
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
CN104820584B (zh) 一种面向层次化信息自然操控的3d手势界面的构建方法及系统
JP6711616B2 (ja) グラフィック要素の選択
KR20160010993A (ko) 객체 편집 방법 및 이를 이용한 화상 표시 장치
US10386997B2 (en) Integrating functions for a user input device
JP6213120B2 (ja) ファイル表示装置及びプログラム
JP5860526B2 (ja) メニュー表示装置、メニュー表示制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160711

R151 Written notification of patent or utility model registration

Ref document number: 5978660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees