JP2010157189A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2010157189A
JP2010157189A JP2009000416A JP2009000416A JP2010157189A JP 2010157189 A JP2010157189 A JP 2010157189A JP 2009000416 A JP2009000416 A JP 2009000416A JP 2009000416 A JP2009000416 A JP 2009000416A JP 2010157189 A JP2010157189 A JP 2010157189A
Authority
JP
Japan
Prior art keywords
surface area
information processing
display panel
contact
operating body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009000416A
Other languages
English (en)
Inventor
Tetsuo Ikeda
哲男 池田
Tatsushi Nashida
辰志 梨子田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009000416A priority Critical patent/JP2010157189A/ja
Priority to EP09252703.5A priority patent/EP2204729A3/en
Priority to US12/646,342 priority patent/US8836649B2/en
Priority to CN 201010002002 priority patent/CN101866234A/zh
Publication of JP2010157189A publication Critical patent/JP2010157189A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

【課題】操作体とタッチパネルとの接触状態または近接状態を判別し、判別結果に応じてアプリケーションの制御を行うことで、アプリケーションの操作性を向上させることが可能な情報処理装置、情報処理方法およびプログラムを提供すること。
【解決手段】本発明に係る情報処理装置に、複数のオブジェクトが表示される表示パネルと、表示パネル上に位置する操作体を検知し、当該操作体に対応する表示パネル上の面領域を検出する面領域検出部と、面領域検出部により検出された面領域の位置の時間変化に基づいて、操作体の移動方向を検知する方向検知部と、面領域検出部により検出された面領域に基づいて、操作体が表示パネルに接触しているかを判定する接触判定部と、接触判定部による接触判定結果と、方向検知部により検知された操作体の移動方向とに応じて、アプリケーションの制御を行うアプリケーション制御部と、を設けた。
【選択図】図3

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
近年、小型の電子機器や自動取引装置には、ユーザが表示画面に直接接触して画面内に表示されたオブジェクトを操作するためのタッチパネルが搭載されていることが多い。タッチパネルを用いることにより、直感的な操作感が実現され、キーボードやキーパッド等の操作に不慣れなユーザでも容易に操作が行えるという利点が得られる。最近の電子機器には、ユーザがタッチパネルを操作することにより、画面内に表示された表示オブジェクトが移動されたり、この移動操作により所定の処理が実行されたりするものもある。
こうした技術に関連し、例えば、下記の特許文献1には、タッチパネルに直接手を触れることなく操作を行うことが可能な、光学式タッチパネルに関する技術が開示されている。上記文献に開示されている光学式タッチパネルを用いることで、ユーザは、タッチパネル自体に触れることなく操作をすることが可能となり、ユーザの操作性を向上させることができる。
特開2007−52497号公報
上述の通り、光学式タッチパネルを用いることで、ユーザの操作性を向上させることが可能である。しかしながら、光学式タッチパネルと操作体との接触状態または近接状態と、アプリケーションの制御に関連づけ、アプリケーションの操作性を向上させる技術については、未だ知られていない。このような光学式タッチパネル操作の利便性を活かし、アプリケーションの操作性を向上させるための技術的な工夫が求められている。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、操作体とタッチパネルとの接触状態または近接状態を判別し、判別結果に応じてアプリケーションの制御を行うことで、アプリケーションの操作性を向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、複数のオブジェクトが表示される表示パネルと、前記表示パネル上に位置する操作体を検知し、当該操作体に対応する前記表示パネル上の面領域を検出する面領域検出部と、前記面領域検出部により検出された面領域の位置の時間変化に基づいて、前記操作体の移動方向を検知する方向検知部と、前記面領域検出部により検出された面領域に基づいて、前記操作体が前記表示パネルに接触しているかを判定する接触判定部と、前記接触判定部による接触判定結果と、前記方向検知部により検知された前記操作体の移動方向とに応じて、アプリケーションの制御を行うアプリケーション制御部と、を備える情報処理装置が提供される。
かかる構成によれば、表示パネルには、複数のオブジェクトが表示される。また、面領域検出部は、表示パネル上に位置する操作体を検知し、当該操作体に対応する表示パネル上の面領域を検出する。方向検知部は、面領域検出部により検出された面領域の位置の時間変化に基づいて、操作体の移動方向を検知する。また、接触判定部は、面領域検出部により検出された面領域に基づいて、操作体が表示パネルに接触しているかを判定する。また、アプリケーション制御部は、接触判定部による接触判定結果と、方向検知部により検知された操作体の移動方向とに応じて、アプリケーションの制御を行う。
前記面領域検出部は、前記表示パネルを構成する画素のうち前記面領域に含まれるものの画素値を前記接触判定部に伝送し、前記接触判定部は、前記面領域を構成する画素の画素値に応じて、前記操作体が前記表示パネルに接触している接触状態か、前記操作体が前記表示パネルに近接している近接状態か、前記接触状態および前記近接状態のいずれでもない状態か、を判定することが好ましい。
前記接触判定部は、前記面領域内に所定の閾値以上の画素値を有する領域が所定の面積以上存在する場合には、前記操作体が接触状態にあると判定し、前記面領域が、所定の閾値以上の画素値を有する領域と、画素値が徐々に小さくなる領域とから構成されている場合には、前記操作体が近接状態にあると判定してもよい。
前記方向検知部は、前記面領域の位置の時間変化に基づいて、前記操作体の移動速度をあわせて算出し、前記アプリケーション制御部は、前記移動速度が所定の閾値以上であった場合に、前記接触判定結果と、前記操作体の移動方向とに応じて、アプリケーションの制御を行ってもよい。
前記情報処理装置は、2つの前記表示パネルを備え、前記面領域検出部は、各表示パネルにおいて前記操作体がつくる前記面領域をそれぞれ検出し、前記方向検知部は、2つの前記表示パネル間にまたがる前記操作体の移動方向を更に検知し、前記接触判定部は、各表示パネルにおける前記操作体の接触状態を判定してもよい。
前記アプリケーション制御部により制御されるアプリケーションは、前記2つの表示パネルそれぞれに異なる内容のオブジェクトを表示させるアプリケーションであり、前記アプリケーション制御部は、前記方向検知部により検知される前記操作体の移動方向が、前記2つの表示パネルにまたがるものであった場合に、各表示パネルに表示されるオブジェクトの内容を更新してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、複数のオブジェクトが表示パネルに表示されるステップと、前記表示パネル上に位置する操作体を検知し、当該操作体に対応する前記表示パネル上の面領域を検出するステップと、検出された前記面領域の位置の時間変化に基づいて、前記操作体の移動方向を検知するステップと、検出された前記面領域に基づいて、前記操作体が前記表示パネルに接触しているか否かを判定するステップと、前記操作体の接触判定結果と、前記操作体の移動方向とに応じて、アプリケーションの制御を行うステップと、を含む情報処理方法が提供される。
また、上記課題を解決するために、本発明の更に別の観点によれば、複数のオブジェクトが表示される表示パネルを備えたコンピュータに、前記表示パネル上に位置する操作体を検知し、当該操作体に対応する前記表示パネル上の面領域を検出する機能と、検出された前記面領域の位置の時間変化に基づいて、前記操作体の移動方向を検知する機能と、検出された前記面領域に基づいて、前記操作体が前記表示パネルに接触しているか否かを判定する機能と、前記操作体の接触判定結果と、前記操作体の移動方向とに応じて、アプリケーションの制御を行う機能と、を実現させるためのプログラムが提供される。
以上説明したように本発明によれば、操作体とタッチパネルとの接触状態または近接状態を判別し、判別結果に応じてアプリケーションの制御を行うことで、アプリケーションの操作性を向上させることが可能である。
本発明の第1の実施形態にかかる情報処理装置の外観の一例を説明するための説明図である。 同実施形態にかかる情報処理装置の外観の一例を説明するための説明図である。 同実施形態にかかる情報処理装置の外観の一例を説明するための説明図である。 同実施形態に係る情報処理装置の構成を説明するためのブロック図である。 同実施形態に係る情報処理方法の一例を説明するための説明図である。 同実施形態に係る情報処理方法の一例を説明するための説明図である。 同実施形態に係る情報処理方法の一例を説明するための説明図である。 同実施形態に係る情報処理方法の一例を説明するための説明図である。 同実施形態に係る情報処理方法の一例を説明するための説明図である。 同実施形態に係る情報処理方法を説明するための流れ図である。 同実施形態に係る情報処理方法の適用例を説明するための説明図である。 同実施形態に係る情報処理方法の適用例を説明するための説明図である。 本発明の各実施形態に係る情報処理装置のハードウェア構成を説明するためのブロック図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は、以下の順序で行うものとする。
(1)目的
(2)第1の実施形態
(2−1)情報処理装置の外観について
(2−2)情報処理装置の構成について
(2−3)情報処理方法について
(2−4)情報処理方法の適用例について
(3)本発明の各実施形態に係る情報処理装置のハードウェア構成について
(4)まとめ
<目的>
本発明の各実施形態に係る情報処理装置および情報処理方法について説明するに先立ち、本発明の目的とするところについて、まず説明する。
従来の静電式タッチパネルを用いたタッチパネル操作では、様々なジェスチャーをタッチパネルに認識させるために、画面に触れる必要があった。そのため、操作対象である各種のオブジェクトが操作体である指で隠れてしまったり、画面そのものが指紋や油脂で汚れてしまったりするという問題があった。また、タッチパネルに悪影響を及ぼすため、手が濡れていたり汚れていたりする状態では、タッチパネルを操作することができないという問題があった。さらに、画面に触れて操作をしている場合、行っている操作以外の操作については、GUIボタン等で操作するなどの別の操作に割り当てる必要があり、装置そのものが大きくなったり、操作性が低下したりするなどの問題があった。
他方、いわゆる光学式タッチパネルを用いた場合には、上述のような問題を回避することが可能であるが、光学式タッチパネルと操作体との接触状態または近接状態と、アプリケーションの制御に関連づけ、アプリケーションの操作性を向上させる技術については、未だ知られていない。そこで、以下で説明する本発明の実施形態では、操作体とタッチパネルとの接触状態または近接状態を判別し、判別結果に応じてアプリケーションの制御を行うことで、アプリケーションの操作性を向上させる技術を提供することを目的とする。
(第1の実施形態)
<情報処理装置の外観について>
まず、図1Aおよび図1Bを参照しながら、本発明の第1の実施形態に係る情報処理装置の全体構成について説明する。図1Aおよび図1Bは、本実施形態に係る情報処理装置10の外観を説明するための説明図である。なお、以下の説明では、情報処理装置10が表示部の表示画面にホームページを表示させるWWWブラウザを実行している場合を例にとって、説明を行うものとする。
図1Aに示すように、情報処理装置10には、タッチパネル101を備えた表示部(以下、タッチパネル101と略記する。)が設けられている。タッチパネル101には、図1Aに示したように、インターネット上に存在するホームページなどの各種情報が表示される。タッチパネル101に表示されている各種情報は、操作体12の接触や移動に対応して、スクロール等の所定の処理が施される。また、タッチパネル101には特定処理領域が設けられていてもよい。この特定処理領域には、例えば、所定の処理を実行するためのアイコン等のオブジェクトが表示されており、この特定表示領域が選択されることにより、表示されたオブジェクトに対応付けられた所定の処理が実行される。
情報処理装置10は、操作体12の接触や移動に対し、オブジェクトの選択や表示内容の移動といった特定の処理のみを実行するわけではない。例えば、操作体12がタッチパネル101に接触した状態で所定の軌跡を描きながら移動した場合、情報処理装置10は、操作体12が描いた軌跡に対応する所定の処理を実行する。つまり、情報処理装置10は、ジェスチャー入力機能を有している。例えば、所定のジェスチャーが入力された場合に、そのジェスチャーに対応付けられているアプリケーションが起動したり、あるいは、そのジェスチャーに対応付けられている所定の処理が実行されたりする。
操作体12としては、例えば、ユーザの指等が用いられる。また、操作体12として、例えば、スタイラスやタッチペン等が用いられることもある。また、タッチパネル101が光学式のものである場合、任意の物体が操作体12になり得る。例えば、タッチパネル101が光学式のものである場合、タッチパネル101の押圧が難しいブラシのような軟質の道具も操作体12として用いることができる。さらに、タッチパネル101がインセル型の光学式タッチパネルである場合、タッチパネル101に陰影が映るものであれば、どのような物体でも操作体12になり得る。
ここで、インセル型の光学式タッチパネルについて簡単に説明する。光学式タッチパネルには、いくつかの種類がある。例えば、液晶ディスプレイを構成する液晶パネルの外枠に光学センサが設けられており、この光学センサにより液晶パネルに接触した操作体12の位置や移動方向が検知される方式の光学式タッチパネルが比較的良く知られている。この方式とは異なり、インセル型の光学式タッチパネルは、液晶パネルに光学式センサアレイを搭載し、この光学式センサアレイにより液晶パネルに接触又は近接した操作体12の位置や移動方向を検知する機構を有するものである。
より詳細には、光学式タッチパネルのガラス基板上に光センサおよびリード回路が形成されており、その光センサにより外部から入射される光が検知され、その強度がリード回路により読み出されることで操作体12の陰影が認識される。このように、インセル型の光学式タッチパネルにおいては、操作体12の陰影に基づいて操作体12の形状や接触面積等が認識できる。そのため、他の光学式タッチパネルでは難しいとされていた接触「面」による操作が実現可能になる。また、インセル型の光学式タッチパネルを適用することにより、認識精度の向上や表示品質の向上、さらには、それを搭載した液晶ディスプレイ等におけるデザイン性の向上というメリットが得られる。
上記のインセル型光学式タッチパネルのように、接触「面」による操作が可能なタッチパネル101を利用して利便性の高い操作体系を実現することが、本実施形態の目的である。
なお、タッチパネル101が搭載される情報処理装置10の構成は、例えば図1Bのように変更することもできる。図1Bに示した例では、情報処理装置10は、2つのタッチパネル101A,101Bを有し、それぞれのタッチパネルが設けられた部材が折り畳み可能に接続されている。このような折り畳み式の情報処理装置10において、ユーザは、操作体12を操作することにより、各タッチパネル101A,101Bに対して別々に操作を行うことが可能である。また、タッチパネル101A,101Bにまたがる操作を行うことも可能である。
また、タッチパネル101が搭載される情報処理装置10の構成は、例えば、図2のように変更することもできる。図2の例では、情報処理装置10を構成するタッチパネル101と、タッチパネル101により検出された操作体12の位置情報等を処理する演算処理装置103とが別体として構成されている。この構成例の場合、オブジェクトの移動処理やオブジェクトの移動に伴って発生するデータの処理は、演算処理装置103により実行される。このように、情報処理装置10は、実施の態様に応じて、その構成を自由に変形することが可能である。
なお、情報処理装置10の機能は、例えば、携帯情報端末、携帯電話、携帯ゲーム機、携帯ミュージックプレーヤ、放送機器、パーソナルコンピュータ、カーナビゲーションシステム、または、情報家電等により実現される。
<情報処理装置の構成について>
続いて、図3を参照しながら、本実施形態に係る情報処理装置の構成について、詳細に説明する。図3は、本実施形態に係る情報処理装置の構成を説明するためのブロック図である。なお、図3では、情報処理装置10が2つのタッチパネル101A,101Bを有する場合における構成を図示している。
本実施形態に係る情報処理装置10は、2つのタッチパネル101A,101Bと、面領域検出部111と、表示制御部113と、方向検知部115と、接触判定部117と、アプリケーション制御部119と、記憶部121と、を主に備える。
タッチパネル101A,101Bは、オブジェクトを含む種々の画像を表示する表示機能と、画面上に接触された操作体12の接触部分を検知するセンサ機能とを有する。タッチパネル101A,101Bの表示機能としては、例えば、後述する表示制御部113から入力されるオブジェクトデータを表示する機能がある。このとき、タッチパネル101A,101Bは、表示制御部113からオブジェクトデータと共に入力されるオブジェクトの位置情報に基づいてオブジェクトデータを表示する。一方、タッチパネル101A,101Bのセンサ機能に関しては、上述の通り、操作体12の接触部分を「面」領域として認識する機構が搭載されている。
図3に示すように、タッチパネル101A,101Bそれぞれには、光学センサ105と、リード回路107とが含まれる。それぞれの光学センサ105は、タッチパネル101A,101Bの外部から入射する光の強度を検知するものである。また、リード回路107は、光学センサ105により検知された光の強度を読み出して操作体12の陰影を検知するものである。例えば、タッチパネル101A,101Bに操作体12が接触すると、操作体12の陰影がタッチパネル101A,101Bに投影される。投影された操作体12の陰影は、光学センサ105により検知される。光学センサ105により検知された陰影は、リード回路107により読み出される。リード回路107で読み出される情報には、陰影の位置や形状や画素値等(以下、陰影データ)が含まれる。このような陰影データは、入力位置情報としてリード回路107から面領域検出部111に伝送される。
面領域検出部111は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成される。面領域検出部111は、各タッチパネル101A,101Bのリード回路107から、所定の時間間隔毎(例えば、数ミリ秒〜数百ミリ秒毎)に伝送されたそれぞれの陰影データについて、操作体12に対応する面領域を検出する。例えば、操作体12がタッチパネル101A,101Bに接触した場合を考える。この場合、操作体12とタッチパネル101A,101Bとが直接接触している部分と、所定距離以下に近接している部分とが陰影(すなわち画素値)として検出され、その陰影データが、入力位置情報として面領域検出部111に伝送される。陰影データには、操作体12の陰影により外光輝度が所定値よりも低い座標の集合が含まれている。そこで、面領域検出部111は、陰影データを参照し、連続した座標の塊を検出する。ただし、座標間の連続性については、座標間の距離が所定距離以下の場合に、それらの座標が連続していると判定されてもよい。面領域検出部111により検出された座標の塊は、操作体12に対応する面領域として認識される。この面領域の情報は、面領域検出部111から、表示制御部113、方向検知部115および接触判定部117に伝送される。
表示制御部113は、タッチパネル101A,101Bに表示される内容を制御する制御手段である。例えば、表示制御部113は、後述する記憶部121に記録されたオブジェクトデータを読み出してタッチパネル101A,101Bに表示させる。このとき、表示制御部113は、タッチパネル101A,101Bに対してオブジェクトの表示位置を指定し、その表示位置に各種のオブジェクトデータを表示させる。そのため、表示制御部113には、タッチパネル101A,101Bに表示されるオブジェクトの表示位置を示す情報が保持されている。
表示制御部113には、面領域検出部111から面領域の情報が伝送される。例えば、タッチパネル101A,101Bに接触または近接している操作体12が移動すると、表示制御部113には、面領域検出部111からはリアルタイムに面領域の情報が伝送される。また、後述するアプリケーション制御部119から、実行中のアプリケーションが表示画面に表示すべき表示内容に関する情報が伝送される。
方向検知部115は、例えば、CPU、ROM、RAM等から構成されている。方向検知部115は、面領域検出部111から伝送された面領域に関する情報を用いて、操作体12の移動方向を検知する。
より詳細には、方向検知部115は、所定の時間間隔毎(例えば、数ミリ秒〜数百ミリ秒毎)に伝送される面領域の情報に含まれる座標値の時間変化に基づいて、操作体12の移動方向を検知する。例えば、方向検知部115には、操作体12の移動の有無を判定するために利用される移動判定エリアが設定されている。この移動判定エリアは、タッチパネル101A,101Bにおける隣接する2つの接触または近接位置を区別可能な分解能等の性能に応じて、任意の広さに設定することが可能である。方向検知部115は、伝送される面領域の情報が、この移動判定エリアの範囲を超えて変化した場合に、操作体12は移動したと判断する。また、伝送される面領域の情報が、移動判定エリアの範囲を超えないような変化をした場合には、方向検知部115は、操作体12により、いわゆるタッピング動作がなされたと判断することが可能である。この操作体12が移動したか否かに関する判断は、同じタイミングで伝送された全ての面領域の情報に対して行われる。すなわち、同じタイミングで2個の面領域の情報が伝送された場合には、方向検知部115は、この2個の面領域それぞれの時間変化について、上述のような判断を行う。
また、伝送された面領域の情報が、移動判定エリアの範囲を超えて変化した場合に、方向検知部115は、伝送された面領域が時間変化と共に描く軌跡がつくるベクトルの方向を、移動方向として検知する。また、上記ベクトルの大きさが、操作体12の移動量となる。さらに、得られた移動量を移動時間で除することで、方向検知部115は、操作体12の移動速度を算出する。
例えば、図4に示したように、情報処理装置10にタッチパネルが1つのみ存在する場合において、操作体12である指が左側から右側へと移動した場合を考える。この際、方向検知部115は、移動開始時における面領域と、移動終了時における面領域とで定義されるベクトルが表す方向を、操作体12の移動方向として検知する。この際、方向検知部115は、面領域を構成する全ての座標値についてベクトルを考慮し、そのベクトル和を移動方向としてもよく、面領域の重心など特定の座標値に着目して移動方向を検知してもよい。
また、図5に示したように、情報処理装置10に2つのタッチパネル101A,101Bが存在する場合において、操作体12である指が、左側のタッチパネル101Aから、右側のタッチパネル101Bへと移動した場合を考える。移動開始から移動終了までに要した時間が所定の時間内であり、左側のタッチパネル101Aから右側のタッチパネル101Bへの移動が一連の動作とみなせる場合には、図4の場合と同様にして、方向検知部115は移動方向を検知することができる。
また、タッチパネル101Aとタッチパネル101Bとの間の距離から、タッチパネル101Aとタッチパネル101Bとの間を操作体12が通過するために要する時間を予め設定しておくことも可能である。これにより、一方のタッチパネルの端部で一端陰影が消えた操作体12が、他方のタッチパネルで再び陰影が検知されるまでに要した時間が、上記の設定時間内であった場合には、2つのタッチパネルをまたぐ動作が一連のものであるとみなすことができる。
方向検知部115は、上述のようにして検知された操作体12の移動方向および移動速度を含む方向情報を、アプリケーション制御部119に伝送する。
接触判定部117は、例えば、CPU、ROM、RAM等から構成されている。接触判定部117は、面領域検出部111から所定の時間間隔毎に伝送される面領域の情報に基づいて、操作体12がタッチパネル101A,10Bの表面に接触しているか否かを判定する。より詳細には、接触判定部117は、面領域を構成する画素の画素値に応じて、操作体12がタッチパネル101A,101Bに接触している接触状態か、近接している近接状態か、接触状態および近接状態のいずれでもない状態か、を判定する。
以下では、図6を参照しながら、接触判定部117により行なわれる操作体12の接触判定処理について、より詳細に説明する。
まず、図6(a)に示したように、操作体12である指が、タッチパネル101に接触している場合を考える。操作体12がタッチパネル101に接触している場合には、操作体12の陰影が濃くパネル上に投影されることとなる。また、操作体12が接触状態にある場合には、操作体12のうちタッチパネル101に接触していない部分は、ほとんど生じないと考えられる。そのため、例えば図6(a)に示したように、面領域検出部111から伝送された面領域を構成するほとんどの部分が所定の閾値以上の高い画素値を有する部分である場合には、接触判定部117は、操作体12がタッチパネル101に接触していると判定する。
続いて、図6(b)に示したように、操作体12である指が、タッチパネル101に接触しておらず、近接している場合を考える。操作体12がタッチパネル101に近接している場合には、操作体12(例えば指)の形状に応じて、タッチパネル101により一層近接している部分と、タッチパネル101にそれほど近接していない部分と、の2種類の部分が生じうる。そのため、例えば図6(b)に示したように、面領域検出部111から伝送された面領域のうち略中央部分には、所定の閾値以上の高い画素値を有する部分が位置することとなる。また、所定の閾値以上の高い画素値を有する部分の周囲には、画素値が徐々に低くなる部分(以下、グラデーション部分)が位置することとなる。操作体12の近接の度合いは、所定の閾値以上の高い画素値を有する部分の大きさ(面積)で判断することが可能であり、操作体12がタッチパネル101から離隔するほど、高い画素値を有する部分は少なくなる。そのため、図6(b)に、面領域検出部111から伝送された面領域が、所定の閾値以上の高い画素値を有する部分と、所定の大きさ以上のグラデーション部分とから構成されている場合には、接触判定部117は、操作体12が近接していると判定する。
なお、ユーザが操作体12を操作して、タッチパネル101に対して接触させようとする場合には、操作体12が接触状態となる以前に、操作体12がタッチパネル101に近接する状態が存在することとなる。そのため、接触判定部117は、例えば以下のような判定を行なうことで、操作体12が近接状態を維持するのか、それとも、近接状態から接触状態へ移行するのかを判定することが可能である。すなわち、接触判定部117が、操作体12が近接状態にあると判定してから所定の時間内に、操作体12が接触状態にあると判定した場合には、接触判定部117は、操作体12が近接状態ではなく接触状態にあると判定することができる。同様に、接触判定部117が、操作体12が近接状態にあると判定してから所定の時間内に、操作体12が接触状態にある旨の判定が発生しなかった場合には、接触判定部117は、操作体12が近接状態を維持していると判定することができる。また、上述の判定方法以外にも、例えば、操作体12が近接状態にあると判定されてから所定の時間内に、操作体12がタッチパッド101の平面と略平行な面内で移動を開始した場合には、操作体12が近接状態を維持していると判定することができる。
また、上述の説明では、情報処理装置10にタッチパネルが1つ設けられている場合について説明を行なったが、情報処理装置10に2枚のタッチパネルが存在する場合であっても、同様に処理を行うことが可能である。
ここで、情報処理装置10が図1Bに示したような折り畳み式の装置である場合において、例えば図7Aに示したように、2枚のタッチパネル101A,101Bが真っ直ぐに開かれてはおらず、所定の角度θ(θ≠180°)で開かれている場合が生じうる。このような場合に操作体12が左側のタッチパネル101Aから右側のタッチパネル101Bへと移動した場合を考える。このとき、タッチパネル101A,101Bを正面から見ると、図7Bに示したような面領域の移動が生じることとなる。
ここで、2枚のタッチパネルが接続されている接続部分の近傍では、操作体12とタッチパネルとの距離が大きくなるため、面領域のうち所定の閾値以上の高い画素値を有する部分が、相対的に小さくなる。そのため、図7Bに示したように、一方のタッチパネルにおいて高い画素値を有する部分がタッチパネルの端部に向かうに従い減少し、もう一方のタッチパネルでは高い画素値の部分が端部から離れるに従い増加するような変化を示す。このように、図7Bに示したような濃→薄→薄→濃のような画素値の変化があった場合には、接触判定部117は、それぞれのタッチパネルにおける判定を別個に行なうのではなく、2枚のタッチパネル間をまたぐ操作がなされたとして判定を行なう。このような判定を行なうことにより、接触判定部117は、2枚のタッチパネルにまたがる操作体12の移動による接触判定を、正確に行なうことができる。
また、ユーザが操作体12を操作している際に、本来は近接状態を維持したまま操作体12を移動させたかったにも関わらず、瞬間的に操作体12がタッチパネルに接触してしまう場合も生じうる。そこで、接触判定部117は、一連の操作と判断される面領域の移動中に、所定の時間内(または所定距離以内)の接触状態が観測された場合には、近接状態→接触状態→近接状態という変化が生じたと判定せずに、近接状態が維持されていると判定してもよい。
接触判定部117は、上述のような方法で決定した判定結果を、後述するアプリケーション制御部119に伝送する。すなわち、接触判定部117は、操作体12が接触状態または近接状態にある場合に、その旨をアプリケーション制御部119に伝送する。
なお、上記の説明では、タッチパネルがいわゆるインセル型の光学式タッチパネルである場合について説明したが、光学式タッチパネルと静電式タッチパネルとを併用することで、より正確に接触状態または近接状態を判別することが可能である。
再び図3に戻って、本実施形態に係る情報処理装置10の構成について、詳細に説明する。
アプリケーション制御部119は、例えば、CPU、ROM、RAM等から構成されている。アプリケーション制御部119は、方向検知部115により検知された操作体12の移動方向と、接触判定部117による接触判定結果とに応じて、後述する記憶部121やROM等に格納されている各種アプリケーションの実行制御を行う。より詳細には、アプリケーション制御部119は、操作体12の移動速度が所定の閾値以上であった場合に、方向検知部115から伝送された移動方向は所定のジェスチャーに対応するとみなし、移動方向と接触判定結果に基づきアプリケーションの制御を行なう。制御の結果、表示画面であるタッチパネルに表示させる内容に変更が生じる場合には、アプリケーション制御部119は、表示制御部113に表示画面の変更を要請する。
本実施形態に係る情報処理装置10では、操作体12が接触状態にあるのか、近接状態にあるのかを判別することが可能である。そのため、アプリケーション制御部119が実行制御を行なうアプリケーションでは、伝送された移動方向(すなわち、ジェスチャー)が同一であっても、接触判定結果ごとに異なる処理をジェスチャーに対応付けることができる。そのため、情報処理装置10のユーザは、同一のジェスチャーであっても、操作体12を接触させるか近接させるかを使い分けることで、異なる処理を実行させることが可能となる。
記憶部121には、本実施形態に係る情報処理装置10が備えるアプリケーション制御部119が実行する各種アプリケーションが格納されている。また、記憶部121には、アプリケーション制御部119が実行制御しているアプリケーションが表示部に表示する情報に関するデータが格納されている。記憶部121に格納されているアプリケーションは、アプリケーション制御部119により読み出されて実行される。また、実行中のアプリケーションは、記憶部121に記録されている表示データを読み出して、表示画面に表示させる。
また、記憶部121には、タッチパネル101A,101Bに表示されるオブジェクトデータが格納されている。ここで言うオブジェクトデータには、例えば、アイコン、ボタン、サムネイル等のグラフィカルユーザインターフェースを構成する任意のパーツ類が含まれる。また、記憶部121には、個々のオブジェクトデータに対し、属性情報が対応付けて格納されている。属性情報としては、例えば、オブジェクトデータまたはオブジェクトデータに関連づけられた実体データの作成日時、更新日時、作成者名、更新者名、実体データの種別、実体データのサイズ、重要度、優先度等がある。
また、記憶部121は、これらのデータ以外にも、情報処理装置10が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、または、各種のデータベース等を、適宜記憶することが可能である。この記憶部121は、タッチパネル101A,101B、面領域検出部111、表示制御部113、方向検知部115、接触判定部117、アプリケーション制御部119等が、自由に読み書きを行うことが可能である。
以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
<情報処理方法について>
続いて、図8を参照しながら、本実施形態に係る情報処理方法について、詳細に説明する。図8は、本実施形態に係る情報処理方法を説明するための流れ図である。
まず、情報処理装置10のユーザは、指やスタイラス等の操作体12を用いてタッチパネル101を操作し、実行を希望するアプリケーションに関連づけられたアイコン等のオブジェクトを選択する。これにより、情報処理装置10のアプリケーション制御部119は、選択されたオブジェクトに関連づけられたアプリケーションを起動する(ステップS101)。
続いて、アプリケーション制御部119は、ユーザによる入力を待ち受け、アプリケーションの終了操作が入力されたか否かを判断する(ステップS103)。ユーザによりアプリケーションの終了操作が入力された場合には、アプリケーション制御部119は、起動中のアプリケーションを終了する(ステップS105)。
また、アプリケーションの終了操作が入力されない場合には、アプリケーション制御部119は、更に、ユーザによる入力を待ち受ける。
ユーザが、操作体12を操作して、タッチパネル101に触ると、タッチパネル101に設けられた光学センサ105は、タッチパネル101の外部から入射する光の強度を検知する。また、リード回路107は、光学センサ105により検知された光の強度を読み出して操作体12の陰影を検知する。リード回路107は、このようにして得られた陰影データを、入力位置情報として、面領域検出部111に伝送する。
面領域検出部111は、入力位置情報が伝送されると、伝送された入力位置情報に基づいて、面領域の検出を行なう(ステップS107)。面領域が検出された場合には、面領域検出部111は、検出された面領域の情報を、表示制御部111、方向検知部115および接触判定部117に伝送する。
方向検知部115は、伝送された面領域の情報の時間変化に基づいて、面領域の移動方向(すなわち、操作体12の移動方向)と移動速度とを算出し、方向情報としてアプリケーション制御部119に伝送する(ステップS109)。また、接触判定部117は、伝送された面領域の情報に基づいて、操作体12がタッチパネル101に接触している接触状態にあるか、操作体12がタッチパネル101に近接している近接状態にあるかを判定する。その後、接触判定部117は、得られた判定結果を、アプリケーション制御部119に伝送する(ステップS109)。
アプリケーション制御部119は、伝送された方向情報を参照して、操作体12の移動方向がほぼ一定の方向であり、かつ、所定の閾値以上の移動速度で移動したか否かを判定する(ステップS111)。移動方向がほぼ一定の方向であり、かつ、所定の速度以上で操作体12が移動していた場合には、アプリケーション制御部119は、所定のジェスチャーが入力されたとみなす(ステップS113)。その後、アプリケーション制御部119は、入力されたジェスチャー(移動方向および接触の有無)に基づいて、アプリケーションの制御を行なう(ステップS115)。アプリケーションの制御の結果、表示画面に表示されている内容を変更する必要がある場合には、アプリケーション制御部119はその旨を表示制御部113に伝送する。表示制御部113は、アプリケーション制御部119からの要請を受けて、表示画面であるタッチパネル101に表示されている内容を更新する(ステップS117)。
表示内容の更新が終了すると、情報処理装置10は、再びステップS103に戻り、ユーザからの入力を待ち受ける。
他方、面領域検出部111において面領域が検出されなかった場合、または、操作体12が、ほぼ一定の方向に所定の速度以上で移動していなかった場合には、アプリケーション制御部119は、ジェスチャーが入力されなかったとみなす(ステップS119)。
以上説明したように、本実施形態に係る情報処理方法では、操作体12が接触状態にあるのか、近接状態にあるのかを判別することが可能である。そのため、アプリケーション制御部119が実行制御を行なうアプリケーションでは、伝送された移動方向(すなわち、ジェスチャー)が同一であっても、接触判定結果ごとに異なる処理をジェスチャーに対応付けることができる。そのため、情報処理装置10のユーザは、同一のジェスチャーであっても、操作体12を接触させるか近接させるかを使い分けることで、異なる処理を実行させることが可能となる。
<情報処理方法の適用例について>
次に、図9および図10を参照しながら、本実施形態に係る情報処理方法の適用例について、簡単に説明する。図9および図10は、本実施形態に係る情報処理方法の適用例を説明するための説明図である。
[WWWブラウザへの適用例について]
まず、図9を参照しながら、本実施形態に係る情報処理方法をWWWブラウザに適用した例について、簡単に説明する。
図9に示した例では、タッチパネル101の画面にウェブページが表示されている。情報処理装置10のユーザは、操作体12をタッチパネル101に接触させてドラッグ操作を行うことで、例えば表示されているウェブページをスクロールさせることができる。例えば、操作体12をタッチパネル101に接触させた状態で右方向にドラッグ操作を行うことで、タッチパネル101に表示されているウェブページが下方向にスクロールするようにブラウザを設定することが可能である。同様に、操作体12をタッチパネル101に接触させた状態で左方向にドラッグ操作を行うことで、タッチパネル101に表示されているウェブページが上方向にスクロールするようにブラウザを設定することが可能である。
また、操作体12がタッチパネル101に対して近接状態にあり、操作体12を左側から右側へ移動させるジェスチャー操作が認識された場合、閲覧中のウェブページの右側のタグに表示を切り替えるようにアプリケーションを設定することが可能である。同様に、近接状態のまま右側から左側へ操作体12を移動させるジェスチャー操作に対して、閲覧中のウェブページの左側のタグに表示を切り替えるようにアプリケーションを設定することが可能である。
通常のWWWブラウザでは、タッチ操作をドラッグとして用いる場合、タグの切り替え機能はGUIボタンなどで行うことになる。しかしながら、本実施形態に係る情報処理方法では、画面に触れずにページ操作を行うことが可能なため、空間内のジェスチャーでタグの切り替えを実現することが可能である。
[ブックリーダーアプリケーションへの適用例について]
次に、図10を参照しながら、本実施形態に係る情報処理方法をブックリーダーアプリケーションに適用した例について、簡単に説明する。
図10に示した例は、情報処理装置10が2つのタッチパネル101A,101Bを備えており、情報処理装置10においてブックリーダーアプリケーションが実行されている場合について図示している。図10に示した例におけるブックリーダーでは、各タッチパネル101A,101Bに料理のレシピが記載されているページが表示されている。
この場合において、情報処理装置10のユーザは、表示されているページを変更する際に、通常の紙媒体による書籍のページをめくる動作と同様に、画面に触れずに指でページめくりのジェスチャーを行なう。
情報処理装置10のアプリケーション制御部119は、画面間の空間を、操作体12である指が右側のパネルから左側のパネルへと近接状態で移動するジェスチャー操作が認識されると、表示されているページを進める処理を行う。同様に、アプリケーション制御部119は、画面間の空間内を、操作体12である指が左側のパネルから右側のパネルへと近接状態で移動するジェスチャー操作が認識されると、表示されているページを前のページに戻す処理を行う。
このように、本実施形態に係る情報処理装置および情報処理方法では、画面に触れずにページ操作が可能なため、料理中に手が濡れていたり汚れていたりする状態であっても、表示画面を汚すことなくタッチパネル操作を行うことが可能となる。
<ハードウェア構成について>
次に、図11を参照しながら、本発明の各実施形態に係る情報処理装置10のハードウェア構成について、詳細に説明する。図11は、本発明の各実施形態に係る情報処理装置10のハードウェア構成を説明するためのブロック図である。
情報処理装置10は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置10は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インターフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、この入力装置915を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、情報処理装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア、Blu−rayメディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、メモリースティック、または、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)または電子機器等であってもよい。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、i.Link等のIEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置10は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth、またはWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線または無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信等であってもよい。
以上、本発明の各実施形態に係る情報処理装置10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
<まとめ>
以上説明したように、本発明の実施形態に係る情報処理装置および情報処理方法では、操作体をタッチパネルに接触させて操作する場合と、操作体をタッチパネルに近接させて操作する場合とで、同一のジェスチャーであっても異なる処理を対応付けることができる。これにより、本発明の実施形態に係る情報処理装置および情報処理方法では、光学式タッチパネル操作の利便性を活かし、アプリケーションの操作性を向上させることができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、WWWブラウザおよびブックリーダーアプリケーションを例にとって適用例を説明したが、本発明の適用例はかかる例に限定されず、様々なアプリケーションに対して本発明に係る情報処理方法を適用することができる。
10 情報処理装置
12 操作体
101 タッチパネル
103 演算処理装置
105 光学センサ
107 リード回路
111 面領域検出部
113 表示制御部
115 方向検知部
117 接触判定部
119 アプリケーション制御部
121 記憶部

Claims (8)

  1. 複数のオブジェクトが表示される表示パネルと、
    前記表示パネル上に位置する操作体を検知し、当該操作体に対応する前記表示パネル上の面領域を検出する面領域検出部と、
    前記面領域検出部により検出された面領域の位置の時間変化に基づいて、前記操作体の移動方向を検知する方向検知部と、
    前記面領域検出部により検出された面領域に基づいて、前記操作体が前記表示パネルに接触しているかを判定する接触判定部と、
    前記接触判定部による接触判定結果と、前記方向検知部により検知された前記操作体の移動方向とに応じて、アプリケーションの制御を行うアプリケーション制御部と、
    を備える情報処理装置。
  2. 前記面領域検出部は、前記表示パネルを構成する画素のうち前記面領域に含まれるものの画素値を前記接触判定部に伝送し、
    前記接触判定部は、前記面領域を構成する画素の画素値に応じて、前記操作体が前記表示パネルに接触している接触状態か、前記操作体が前記表示パネルに近接している近接状態か、前記接触状態および前記近接状態のいずれでもない状態か、を判定する、請求項1に記載の情報処理装置。
  3. 前記接触判定部は、
    前記面領域内に所定の閾値以上の画素値を有する領域が所定の面積以上存在する場合には、前記操作体が接触状態にあると判定し、
    前記面領域が、所定の閾値以上の画素値を有する領域と、画素値が徐々に小さくなる領域とから構成されている場合には、前記操作体が近接状態にあると判定する、請求項2に記載の情報処理装置。
  4. 前記方向検知部は、前記面領域の位置の時間変化に基づいて、前記操作体の移動速度をあわせて算出し、
    前記アプリケーション制御部は、前記移動速度が所定の閾値以上であった場合に、前記接触判定結果と、前記操作体の移動方向とに応じて、アプリケーションの制御を行う、請求項3に記載の情報処理装置。
  5. 前記情報処理装置は、2つの前記表示パネルを備え、
    前記面領域検出部は、各表示パネルにおいて前記操作体がつくる前記面領域をそれぞれ検出し、
    前記方向検知部は、2つの前記表示パネル間にまたがる前記操作体の移動方向を更に検知し、
    前記接触判定部は、各表示パネルにおける前記操作体の接触状態を判定する、請求項4に記載の情報処理装置。
  6. 前記アプリケーション制御部により制御されるアプリケーションは、前記2つの表示パネルそれぞれに異なる内容のオブジェクトを表示させるアプリケーションであり、
    前記アプリケーション制御部は、前記方向検知部により検知される前記操作体の移動方向が、前記2つの表示パネルにまたがるものであった場合に、各表示パネルに表示されるオブジェクトの内容を更新する、請求項5に記載の情報処理装置。
  7. 複数のオブジェクトが表示パネルに表示されるステップと、
    前記表示パネル上に位置する操作体を検知し、当該操作体に対応する前記表示パネル上の面領域を検出するステップと、
    検出された前記面領域の位置の時間変化に基づいて、前記操作体の移動方向を検知するステップと、
    検出された前記面領域に基づいて、前記操作体が前記表示パネルに接触しているか否かを判定するステップと、
    前記操作体の接触判定結果と、前記操作体の移動方向とに応じて、アプリケーションの制御を行うステップと、
    を含む情報処理方法。
  8. 複数のオブジェクトが表示される表示パネルを備えたコンピュータに、
    前記表示パネル上に位置する操作体を検知し、当該操作体に対応する前記表示パネル上の面領域を検出する機能と、
    検出された前記面領域の位置の時間変化に基づいて、前記操作体の移動方向を検知する機能と、
    検出された前記面領域に基づいて、前記操作体が前記表示パネルに接触しているか否かを判定する機能と、
    前記操作体の接触判定結果と、前記操作体の移動方向とに応じて、アプリケーションの制御を行う機能と、
    を実現させるためのプログラム。
JP2009000416A 2009-01-05 2009-01-05 情報処理装置、情報処理方法およびプログラム Pending JP2010157189A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009000416A JP2010157189A (ja) 2009-01-05 2009-01-05 情報処理装置、情報処理方法およびプログラム
EP09252703.5A EP2204729A3 (en) 2009-01-05 2009-11-30 Information processing apparatus, information processing method, and program
US12/646,342 US8836649B2 (en) 2009-01-05 2009-12-23 Information processing apparatus, information processing method, and program
CN 201010002002 CN101866234A (zh) 2009-01-05 2010-01-05 信息处理装置、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009000416A JP2010157189A (ja) 2009-01-05 2009-01-05 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2010157189A true JP2010157189A (ja) 2010-07-15

Family

ID=42034639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009000416A Pending JP2010157189A (ja) 2009-01-05 2009-01-05 情報処理装置、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US8836649B2 (ja)
EP (1) EP2204729A3 (ja)
JP (1) JP2010157189A (ja)
CN (1) CN101866234A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2426588A2 (en) 2010-09-07 2012-03-07 Sony Corporation Information processing apparatus, information processing method and program
EP2426589A2 (en) 2010-09-07 2012-03-07 Sony Corporation Electronic device, computer-implemented method and computer-implemented computer-readable storage medium
EP2439629A2 (en) 2010-10-08 2012-04-11 Sony Corporation Information Processing Apparatus, Information Processing Method, and Program
JP2012084066A (ja) * 2010-10-14 2012-04-26 Kyocera Corp 電子機器、画面制御方法および画面制御プログラム
JP2012123525A (ja) * 2010-12-07 2012-06-28 Sharp Corp 電子機器および表示方法
EP2533133A1 (en) 2011-06-07 2012-12-12 Sony Corporation Information processing apparatus, information processing method, and program
JP2012256213A (ja) * 2011-06-09 2012-12-27 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2014021983A (ja) * 2012-07-16 2014-02-03 Samsung Electronics Co Ltd タッチ及びジェスチャー入力を用いた端末の制御方法及びその端末
JP2014215847A (ja) * 2013-04-26 2014-11-17 アルパイン株式会社 入力装置及びコンピュータプログラム
JP2014222489A (ja) * 2013-05-14 2014-11-27 シャープ株式会社 情報表示装置、位置判定方法、プログラムおよび記録媒体
US8963875B2 (en) 2011-03-31 2015-02-24 Kabushiki Kaisha Toshiba Touch screen device with wet detection and control method thereof
JP2016099911A (ja) * 2014-11-26 2016-05-30 アルプス電気株式会社 入力装置とその制御方法及びプログラム
US9369891B2 (en) 2011-05-31 2016-06-14 Facebook, Inc. Sensing proximity utilizing a wireless radio subsystem
KR20160077313A (ko) * 2014-12-22 2016-07-04 엘지디스플레이 주식회사 액정표시장치

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9064772B2 (en) * 2005-10-07 2015-06-23 Integrated Digital Technologies, Inc. Touch screen system having dual touch sensing function
US20120326973A1 (en) * 2010-03-01 2012-12-27 Sharp Kabushiki Kaisha Display device
CN103052928B (zh) * 2010-08-04 2015-12-16 惠普发展公司,有限责任合伙企业 能使多显示输入实现的系统和方法
CN102446022B (zh) * 2010-10-04 2016-01-13 剑扬股份有限公司 触控屏幕系统
JPWO2012081699A1 (ja) * 2010-12-17 2014-05-22 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、表示制御方法およびプログラム
US9244606B2 (en) * 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
CN102681750B (zh) * 2011-03-14 2014-04-23 联想(北京)有限公司 用于移动显示对象的方法、显示装置和电子设备
US10345912B2 (en) 2011-03-07 2019-07-09 Lenovo (Beijing) Co., Ltd. Control method, control device, display device and electronic device
TWI528235B (zh) * 2012-02-08 2016-04-01 緯創資通股份有限公司 觸控顯示裝置及觸控方法
CN102750099B (zh) * 2012-06-20 2016-01-13 宇龙计算机通信科技(深圳)有限公司 终端和终端操控方法
CN105103116B (zh) * 2013-03-05 2018-09-21 日本电气株式会社 移动终端设备、图像生成方法和存储程序的非暂时性计算机可读介质
KR101533603B1 (ko) * 2014-11-03 2015-07-06 (주)라온스퀘어 인식방법 및 인식장치
CN111352499B (zh) * 2018-12-24 2022-08-23 中移(杭州)信息技术有限公司 一种应用控制的方法、装置、终端设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (ja) * 1992-07-27 1994-02-18 Toshiba Corp 表示制御装置及び表示制御方法
JP2007052497A (ja) * 2005-08-15 2007-03-01 Sony Corp 表示装置
JP2007240964A (ja) * 2006-03-09 2007-09-20 Casio Comput Co Ltd 表示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999044117A1 (fr) * 1998-02-25 1999-09-02 Sharp Kabushiki Kaisha Dispositif d'affichage
EP1508132A4 (en) * 2002-05-30 2009-08-05 Mattel Inc ELECTRONIC TEACHING-LEARNING DEVICE EQUIPPED WITH AN INTERACTIVE MULTISENSORY READING SYSTEM
US7289084B2 (en) * 2005-02-22 2007-10-30 John Michael Lesniak Computer display apparatus
US8610670B2 (en) * 2006-08-31 2013-12-17 Japan Display West Inc. Imaging and display apparatus, information input apparatus, object detection medium, and object detection method
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
EP2135155B1 (en) * 2007-04-11 2013-09-18 Next Holdings, Inc. Touch screen system with hover and click input methods
US8417297B2 (en) * 2009-05-22 2013-04-09 Lg Electronics Inc. Mobile terminal and method of providing graphic user interface using the same
KR101615964B1 (ko) * 2009-11-09 2016-05-12 엘지전자 주식회사 이동 단말기 및 그 표시방법
JP2011146915A (ja) * 2010-01-14 2011-07-28 Sony Corp 情報処理装置、開閉角度検出方法及び開閉角度検出プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (ja) * 1992-07-27 1994-02-18 Toshiba Corp 表示制御装置及び表示制御方法
JP2007052497A (ja) * 2005-08-15 2007-03-01 Sony Corp 表示装置
JP2007240964A (ja) * 2006-03-09 2007-09-20 Casio Comput Co Ltd 表示装置

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2426588A2 (en) 2010-09-07 2012-03-07 Sony Corporation Information processing apparatus, information processing method and program
EP2426589A2 (en) 2010-09-07 2012-03-07 Sony Corporation Electronic device, computer-implemented method and computer-implemented computer-readable storage medium
JP2012058919A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9594459B2 (en) 2010-09-07 2017-03-14 Sony Corporation Information processing apparatus, information processing method and program
US9965095B2 (en) 2010-09-07 2018-05-08 Sony Corporation Information processing apparatus, information processing method and program
US9965163B2 (en) 2010-10-08 2018-05-08 Sony Corporation Information processing apparatus, information processing method, and program
EP3627306A1 (en) 2010-10-08 2020-03-25 Sony Corporation Information processing apparatus, information processing method, and program
US9904454B2 (en) 2010-10-08 2018-02-27 Sony Corporation Information processing apparatus, information processing method, and program
EP4318200A2 (en) 2010-10-08 2024-02-07 Sony Group Corporation Information processing apparatus, information processing method, and program
US11487419B2 (en) 2010-10-08 2022-11-01 Sony Corporation Information processing apparatus, information processing method, and program
US11010038B2 (en) 2010-10-08 2021-05-18 Sony Corporation Information processing apparatus, information processing method and program for displaying an image during overdrag
DE202011110988U1 (de) 2010-10-08 2018-01-11 Sony Corporation Informationsverarbeitungsvorrichtung
DE202011110989U1 (de) 2010-10-08 2018-01-10 Sony Corporation Informationsverarbeitungsvorrichtung
US9619135B2 (en) 2010-10-08 2017-04-11 SONY Corporatuon Information processing apparatus, information processing method, and program
US10514840B2 (en) 2010-10-08 2019-12-24 Sony Corporation Information processing apparatus, method, and program for displaying an image during overdrag
EP2439629A2 (en) 2010-10-08 2012-04-11 Sony Corporation Information Processing Apparatus, Information Processing Method, and Program
JP2012084066A (ja) * 2010-10-14 2012-04-26 Kyocera Corp 電子機器、画面制御方法および画面制御プログラム
JP2012123525A (ja) * 2010-12-07 2012-06-28 Sharp Corp 電子機器および表示方法
US8963875B2 (en) 2011-03-31 2015-02-24 Kabushiki Kaisha Toshiba Touch screen device with wet detection and control method thereof
US9369891B2 (en) 2011-05-31 2016-06-14 Facebook, Inc. Sensing proximity utilizing a wireless radio subsystem
EP2533133A1 (en) 2011-06-07 2012-12-12 Sony Corporation Information processing apparatus, information processing method, and program
JP2012256213A (ja) * 2011-06-09 2012-12-27 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2014021983A (ja) * 2012-07-16 2014-02-03 Samsung Electronics Co Ltd タッチ及びジェスチャー入力を用いた端末の制御方法及びその端末
JP2016521468A (ja) * 2013-02-28 2016-07-21 フェイスブック,インク. 無線通信サブシステムを利用する接近検知
JP2014215847A (ja) * 2013-04-26 2014-11-17 アルパイン株式会社 入力装置及びコンピュータプログラム
JP2014222489A (ja) * 2013-05-14 2014-11-27 シャープ株式会社 情報表示装置、位置判定方法、プログラムおよび記録媒体
JP2016099911A (ja) * 2014-11-26 2016-05-30 アルプス電気株式会社 入力装置とその制御方法及びプログラム
KR20160077313A (ko) * 2014-12-22 2016-07-04 엘지디스플레이 주식회사 액정표시장치
KR102283461B1 (ko) 2014-12-22 2021-07-29 엘지디스플레이 주식회사 액정표시장치

Also Published As

Publication number Publication date
US8836649B2 (en) 2014-09-16
US20100171716A1 (en) 2010-07-08
EP2204729A3 (en) 2013-04-24
EP2204729A2 (en) 2010-07-07
CN101866234A (zh) 2010-10-20

Similar Documents

Publication Publication Date Title
JP2010157189A (ja) 情報処理装置、情報処理方法およびプログラム
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
JP4666053B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4605279B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10768804B2 (en) Gesture language for a device with multiple touch surfaces
JP2010086230A (ja) 情報処理装置、情報処理方法およびプログラム
JP4900361B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6215534B2 (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
EP2815299B1 (en) Thumbnail-image selection of applications
US8633909B2 (en) Information processing apparatus, input operation determination method, and input operation determination program
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
JP4435011B2 (ja) 入力座標処理プログラムおよび入力座標処理装置
JPWO2013094371A1 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
WO2012166177A1 (en) Edge gesture
KR20120019268A (ko) 터치스크린의 베젤을 이용한 제스처 명령 방법 및 그 단말
KR20150134674A (ko) 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
TWI354223B (ja)
JP2014032450A (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
JP6411067B2 (ja) 情報処理装置及び入力方法
JP6484859B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20160026325A1 (en) Hand-held electronic device, touch-sensing cover and computer-executed method
JP2011008830A (ja) 入力座標処理プログラム、入力座標処理装置、入力座標処理システム、および入力座標処理方法
JP2018170048A (ja) 情報処理装置、入力方法及びプログラム
JP2014160301A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110419