JP4609543B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP4609543B2
JP4609543B2 JP2008192331A JP2008192331A JP4609543B2 JP 4609543 B2 JP4609543 B2 JP 4609543B2 JP 2008192331 A JP2008192331 A JP 2008192331A JP 2008192331 A JP2008192331 A JP 2008192331A JP 4609543 B2 JP4609543 B2 JP 4609543B2
Authority
JP
Japan
Prior art keywords
unit
display
region
area
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008192331A
Other languages
English (en)
Other versions
JP2010033158A (ja
Inventor
智也 成田
亮一 津崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008192331A priority Critical patent/JP4609543B2/ja
Priority to EP09251421A priority patent/EP2149840A1/en
Priority to CN2009101612305A priority patent/CN101634933B/zh
Priority to US12/509,783 priority patent/US9442601B2/en
Publication of JP2010033158A publication Critical patent/JP2010033158A/ja
Application granted granted Critical
Publication of JP4609543B2 publication Critical patent/JP4609543B2/ja
Priority to US15/235,456 priority patent/US20160370934A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Description

本発明は、情報処理装置及び情報処理方法に関する。
表示装置には、液晶ディスプレイなどの表示部の表面に静電容量方式や抵抗膜方式のタッチセンサーを設けるタッチパネル(タッチスクリーン)がある。タッチパネルによれば、表示部の画面に触れることで情報処理装置の入力が可能となり、ユーザが容易に情報処理装置を扱うことができるようになる。
また、表示部近傍の操作を検出する表示装置として、タッチパネル以外の技術が開示されている。例えば特許文献1には、表示装置が発光と受光とを同時に行う技術が開示されている。また、特許文献2には、操作者の手や人体などの動作に応じてコンピュータ装置を操作する技術が開示されている。更に、特許文献3には、パネル上の入力点に関して、複数の点の情報を出力できるパネルの技術が開示されている。
特開2006−276223号公報 特開平11−24839号公報(特許第3968477号公報) 特開2008−146165号公報
ところで、従来のタッチパネルに設けられるタッチセンサー等のユーザインタフェースは、ユーザの指又はスタイラス等が接触しているか、又は非接触であるかのみを検知していた。この場合、ユーザの操作方法に応じて実現できるインタラクションは、例えば、ボタンの押圧、解除(ボタンアップ、ボタンダウン)、クリック、ダブルクリック、接触、ドラッグ・アンド・ドロップ、素早いスクロール(フリック)に限定されていた。
また、タッチパネルには、複数点の接触を検出できるものがある。この場合、ユーザの操作方法に応じて実現できるインタラクションは、拡大・縮小(ピンチオープン・ピンチクローズ)、2点接触しながらスクロール(two finger scroll)、2点接触しながら回転(two finger rotation)に限定されていた。
上記の各インタラクションは、マウスやタッチパッドを用いた操作の延長上にあり、画面に表示されてユーザによって操作される対象は、画面内をさらさらと滑るような印象の表現であった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、表示部に表示される画像とユーザの操作の関係を現実の動作により近くすることが可能な、新規かつ改良された情報処理装置及び情報処理方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、画像を表示部に表示する表示制御部と、操作体と表示部の表面との間の接触又は近接に関する接近値を取得する接近値取得部と、接近値を3値化処理し、3値化処理された接近値に応じて、第1の領域と、第1の領域と異なる第2の領域を検出する領域検出部と、第1の領域及び第2の領域それぞれの重心の位置を算出する重心位置算出部とを有する情報処理装置が提供される。
上記接近値取得部は、外部から表示部の表示面に入射する光を受光し、受光した光を電気信号に変換する受光部と、電気信号から画素毎の輝度値を接近値として算出する輝度値算出部とを有してもよい。
上記接近値取得部は、操作体と表示部の表面との間の静電容量を検出する静電容量検出部と、静電容量の変化を接近値として算出する接近値算出部とを有してもよい。
上記重心位置算出部で算出された第1の領域の重心である第1の重心と、第2の領域の重心である第2の重心とを結ぶ直線の方向を算出する直線方向算出部を有してもよい。
上記重心位置算出部で算出された第1の領域の重心である第1の重心と、第2の領域の重心である第2の重心の移動を検出する移動検出部を有してもよい。
上記第1の領域を、表示部近傍の操作体が表示部の表示面に最も接近している領域と判断し、第2の領域を、操作体が表示部の表示面から第1の領域より離れている領域と判断する判断部を有してもよい。
上記表示制御部は、直線方向算出部で算出された直線の方向に基づいて、表示部に表示する画像を表示してもよい。
上記表示制御部は、移動検出部で検出された第1の重心と第2の重心の移動に基づいて、表示部に表示する画像を表示してもよい。
上記表示制御部は、判断部で判断された領域に基づいて、表示部に表示する画像を表示してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、表示制御部が画像を表示部に表示するステップと、接近値取得部が操作体と表示部の表面との間の接触又は近接に関する接近値を取得するステップと、領域検出部が接近値を3値化処理し、3値化処理された接近値に応じて、第1の領域と、第1の領域と異なる第2の領域を検出するステップと、重心位置算出部が第1の領域及び第2の領域それぞれの重心の位置を算出するステップとを有する情報処理方法が提供される。
本発明によれば、表示部に表示される画像とユーザの操作の関係を現実の動作により近くすることができる。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
まず、本発明の一実施形態に係る情報処理装置100について説明する。図1は、本実施形態に係る情報処理装置100を示すブロック図である。
本実施形態の情報処理装置100は、例えば、制御部102と、メモリ104と、画像信号処理部106と、ディスプレイパネル108と、表示駆動部112と、受光処理部122などを有する。なお、本実施形態では、情報処理装置100にディスプレイパネル108が一体的に設けられる場合について説明するが、本発明は、情報処理装置100と、ディスプレイパネル108とが別体の装置として設けられる場合にも適用することができる。
情報処理装置100は、例えば、パーソナルコンピュータ、オーディオプレイヤー、メディアプレイヤー、PDA(personal digital assistant)、携帯電話などである。
制御部102は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などが組み合わされて構成されるマイクロコンピュータなどを有する。制御部102は、プログラムによって演算処理装置及び制御装置として機能し、情報処理装置100における上記各構成要素などを制御する。
また、制御部は、輝度値算出部、領域検出部、重心位置算出部、直線方向算出部、移動検出部、判断部等を有する。
輝度値算出部は、受光処理部122から受けた画像信号について、画素毎に輝度値を算出する。領域検出部は、輝度値を3値化処理し、3値化処理された輝度値に応じて、検出された対象について、第1の領域と、第1の領域と異なる第2の領域を検出する。重心位置算出部は、第1の領域及び第2の領域それぞれの重心の位置を算出する。
直線方向算出部は、重心位置算出部で算出された第1の領域の重心である第1の重心と、第2の領域の重心である第2の重心とを結ぶ直線の方向を算出する。移動検出部は、重心位置算出部で算出された第1の領域の重心である第1の重心と、第2の領域の重心である第2の重心の移動を検出する。判断部は、第1の領域を、表示部近傍の操作体が表示部の表示面に最も接近している領域と判断し、第2の領域を、操作体が表示部の表示面から第1の領域より離れている領域と判断する。
メモリ104は、例えば、RAM、ROM、キャッシュメモリなどの記憶部で構成されており、制御部102のCPUの処理に関するデータ、CPUの動作プログラムなどを一時的に記憶する機能を有する。
画像信号処理部106は、受光処理部122で生成された画像信号に対して画像信号処理をする。画像信号処理部106は、画像信号について、表示部110の画素数に変換する解像度変換、輝度補正、色補正、ガンマ補正など各種所要の信号処理を実行する。
ディスプレイパネル108は、例えば表示部110と、受光センサー120などからなり、受光センサー120がユーザの指、手などの操作体を検知することで、ユーザの操作を受け付ける。本実施形態のディスプレイパネル108は、タッチパネルと異なり、画面上の接触は不要であり、画面への近接を検知することで、ユーザの操作を受け付ける。そして、ディスプレイパネル108は、ユーザの動作に応じて、画面に表示された項目を選択したり、画面のスクロール、拡大又は縮小表示など表示を変化させたりする。
表示部110は、例えば、液晶ディスプレイであり、表示駆動部112によって制御される。表示部110は、各種メニュー画面や、画像データによる画像を表示する。受光センサー120は、受光部の一例であり、外部から表示部110の表示面に入射する光を受光し、受光した光を電気信号に変換する。受光センサー120は、生成した電気信号を受光処理部122に送る。なお、受光センサー110と、制御部102の輝度値算出部との組み合わせは、接近値取得部の一例であり、接近値取得部は、操作体と表示部の表面との間の接触又は近接に関する接近値(本実施形態では輝度値)を取得する。
図2は、本実施形態に係るディスプレイパネル108の画素部分を示す説明図である。ディスプレイパネル108には、複数の画素セット130が例えばマトリクス状に配置される。そして、画素セット130には、発光素子である赤色表示画素110R、緑色表示画素110G、青色表示画素110Bと、受光センサー120が設けられる。1つの画素130セット内では、表示画素110R、110G、110Bと受光センサー120が隣接して配置される。なお、画素の配列は図2に示す例に限定されず、他の配列であってもよい。
本実施形態のディスプレイパネル108により、ユーザの指、手などの操作体が表示面に近接したとき、情報処理装置100は操作体を検出することができる。
表示駆動部112は、表示制御部の一例であり、入力された画像信号を利用して表示部110を駆動する。表示駆動部112は、画像信号処理部106から受けた画像信号の表示処理をする。また、表示駆動部112は、表示データの合成処理をして、表示部110でユーザが視聴可能となるデータを生成する。表示駆動部112で生成されたデータは、表示部110に出力される。
受光処理部122は、受光センサー120から電気信号を受けて、アナログデジタル変換処理などを行い、画素毎の画像信号を生成する。これにより、画像信号処理部106で画像信号処理が可能となり、制御部102における画像信号に基づいた各演算を行うことができる。
次に、図3〜図6を参照して、本実施形態に係る情報処理装置100の動作について説明する。図3は、本実施形態に係る情報処理装置100の動作を示すフローチャートである。図4及び図5は、表示部110に表示された画像とユーザによる操作を示す説明図(A)と、受光センサー120で検出され3値化処理された輝度値による領域を示す説明図(B)ある。図6は、輝度値(光強度)の分布を示すグラフである。図6(A)は、図4(B)のA−A線上の輝度値の分布を示し、図6(B)は、図4(B)のB−B線上の輝度値の分布を示す。
まず、情報処理装置100は、画像データに基づいてユーザインタフェースとしてのディスプレイパネル108に画像やメニュー画面などの各種表示をする(ステップS101)。図4(A)に示す例では、表示部110にダイヤル140が表示されている例を示す。
そして、ユーザによって、図4(A)に示すように、指10や手、スタイラス等が表示部110の画面に近接されると、受光センサー120が検出した光に基づいて、受光処理部122が受光処理をする(ステップS102)。画面上の操作対象(例えばダイヤル140や、後述する図7のボタン170など)をユーザが指示する場合、指10や手、スタイラスの一端側が画面に近接し、他端側が一端側に比べて画面から離隔する状態となる。以下では、指10の先端(指先)が最も画面に接近し、手のひら側の指10が指先より画面から離れている場合について、説明する。
次に、制御部102は、受光処理部122で生成された画像信号の各画素の輝度値を算出し、輝度値を3値化処理する。3値化処理は、所定の閾値を2つ設定しておき、図6に示すような様々な分布を有している輝度値を閾値に応じて3つの値に集約する。なお、閾値は種々の条件に応じて設定可能である。
そして、ユーザが画面を指10で指示している状況では、図4(B)に示すような輝度値の分布を得ることができる。領域152は、輝度値が強い領域であり、領域156は、輝度値が中間の領域である。輝度値が弱い領域は、領域152、領域156以外の領域である。領域152は、指10の先端など最も操作体が画面に近接している領域であり、領域156は、指10の先端より画面から離れた指10に対応する領域である。
情報処理装置100は、強い閾値を超える輝度値が検出されれば(ステップS103)、ユーザによる操作があり、画面への近接があったと判断できる。そして、引き続き、情報処理装置100は、弱い閾値での近接を検出する(ステップS104)。弱い閾値での近接が検出されれば、ユーザが所定の方向から指10等で画面を指示していると判断できる。
そして、重心位置算出部が、領域152、領域156それぞれの重心位置を算出する。図4(B)に示す重心位置154は、領域152の重心位置であり、重心位置158は、領域156の重心位置である。これらの重心位置154、158に基づいて、直線方向算出部は、重心位置154と重心位置158を結ぶ直線の方向を算出する(ステップS105)。例えば、直線方向算出部は、画面内に仮想的に設けられた座標軸における直線の角度を算出する。図4に示す例では、直線方向の角度は、表示部110の画面の上下方向に対してほぼ平行である。
次に、ユーザが指10などを回転させた場合、領域152、領域156の分布位置が例えば図4から図5に示すように変化する。このときも、重心位置算出部が、領域152、領域156それぞれの重心位置を算出する。そして、直線方向算出部が、重心位置154と重心位置158を結ぶ直線の方向を算出する。図5に示す例では、直線方向の角度は、表示部110の画面の上下方向(又は水平方向)に対して傾斜している。
更に、移動検出部が、重心位置154と重心位置158の移動を検出する(ステップS106)。例えば、重心位置154と重心位置158を結ぶ直線の方向の変位を算出する。その結果、情報処理装置100の表示駆動部112は、ユーザによる操作に応じて、画面に表示されたダイヤル140を変化させることができ、図5(A)に示すようにダイヤル140の方向を変化させる表示処理をする(ステップS107)。
このように、図4及び図5に示す例では、画面上に配置されたダイヤルを指10でひねるようにして回転させることができる。
上述したとおり、本実施形態は、受光センサー120が画素毎に配置された、非接触でも指10等の画面への接近を検知できるディスプレイパネル108を用いる。そして、ディスプレイパネル108によれば、画面に対する指10の操作を2次元のビットマップ画像として検出することができる。その後、取得した画像に対してノイズ除去などの画像処理をし、所定の2段階の閾値で3値化処理をしてクラスタリング(領域分け)をする。そして、領域毎の重心位置を算出することで、閾値が強い輝度値の領域について、操作体が画面に最も接近した領域であると判断し、閾値が弱い輝度値の領域について、操作体が画面から少し離れた領域であると判断する。そして、重心位置の時間変化を追跡することで、指10の回転を検出することができる。
次に、本実施形態によって実現できる表示部に表示される画像に対するユーザ操作について説明する。図7〜図10は、表示部110に表示された画像とユーザによる操作を示す説明図である。
図7に示す例では、表示部110にボタン150が表示されている例を示す。通常、ボタン150には、図7(A)に示すようにボタン150の機能を示す文字152が配置される。そして、ユーザが画面に表示されたボタン150を押そうとすると、本実施形態の情報処理装置100は、指10の第1の領域、第2の領域を検出し、それぞれの重心位置を算出する。従って、指10の指示角度が分かる。情報処理装置100は、その結果から指10の位置を推定でき、ユーザに対して、指10によって文字152が隠れない角度に文字152を移動させることができる。
このように本実施形態によれば、ユーザが表示部110を触るとき、自身の指10でボタン150上の文字を覆い隠してしまうという問題が発生しないため、ユーザに対してより使いやすい表示を実現することができる。
図8に示す例では、表示部110に写真等のオブジェクト160が表示されている例を示す。本実施形態によれば、図4及び図5を参照して説明したダイヤル140と同様に、指10の回転を検出することができ、オブジェクト160を指10の操作で回転させることができる。このようなオブジェクト160の回転といった動きは、従来の対象の移動(ドラッグ・アンド・ドロップ)等と同様に、ユーザが事前学習なしに直感的に行うことができる操作である。従って、ユーザは、オブジェクト160の位置を変える、あるいは回転するといった動作を非常に簡単に行うことができる。
図9に示す例では、表示部110にキーボード170が表示されている例を示す。キーボード170には、例えばQWERTY配列のキー172が複数配置されている。キー172には、図9(A)に示すようにそれぞれのキーを示す文字が配置される。そして、ユーザが画面に表示されたキー172を押そうとすると、本実施形態の情報処理装置100は、指10の第1の領域、第2の領域を検出し、それぞれの重心位置を算出する。従って、指10の指示角度が分かる。
そして、図7で説明した例のように、情報処理装置100は、その結果から指10の位置を推定でき、ユーザに対して、図9(A)に示すように指10によって文字が隠れない角度にキー174を移動させることができる。また、本実施形態によれば、図4及び図5を参照して説明したダイヤル140と同様に、指10の回転を検出することができる。従って、表示部110にキーボード170を表示するアプリケーションにおいて、例えば指10の回転が検出される前は、アルファベットの小文字176を打鍵でき、指10の回転が検出されたとき大文字178を打鍵できる機能を持たせることができる。
図10に示す例では、表示部110に任意のオブジェクト180が表示されている例を示す。本実施形態では、指10の回転を検出することができることから、図8に示すようにオブジェクト160を表示させるアプリケーションにおいて、指10の回転とオブジェクト160の回転を関連付けることができる。また、本実施形態はかかる例に限定されず、図10に示すように、指10の回転とオブジェクト180の拡大又は縮小表示を関連付けてもよい。指10の回転が検出される前は図10(A)に示すように通常表示であり、指10の回転が検出されたとき、図10(B)に示すようにその回転角度に応じてオブジェクト180を拡大表示させてもよい。また、反対に回転角度に応じてオブジェクト180を縮小表示することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、接近値取得部の一例として、接近値取得部が、受光センサー110と、制御部102の輝度値算出部との組み合わせである例について説明したが、本発明はかかる例に限定されない。例えば、接近値取得部は、例えば、静電容量方式のタッチパネルであり、静電容量検出部と接近値算出部からなるとしてもよい。静電容量検出部は、ユーザの指(操作体)と表示部の表面との間の静電容量を検出する。接近値算出部は、検出した静電容量の変化を接近値として算出する。例えば、静電容量の変化に応じて、指と表示部の表面とが接触しているか否か、又はどの程度離隔しているかを算出できる。そして、算出した接近値をもとに、上述した実施形態と同様に、制御部102の領域算出部が、接近値を3値化処理して、第1の領域と第2の領域を算出する。
また、接近値取得部は、感圧式のタッチパネルでもよく、検出した圧力に応じて、接近値を算出してもよい。圧力の程度に応じて、接近値を3値化処理して、第1の領域と第2の領域を算出する。例えば、ユーザの指の画面に対する接触圧力に応じて、指の接触方向を知ることができる。
また、上記実施形態では、算出した第1の領域と第2の領域それぞれの重心を算出するとしたが、本発明はかかる例に限定されない。例えば、2つの領域を結ぶ方向を算出できる領域を代表する値であれば、重心以外でもよく、領域の一端から他端を結ぶ線分の中心などでもよい。
本発明の一実施形態に係る情報処理装置を示すブロック図である。 同実施形態に係るディスプレイパネルの画素部分を示す説明図である。 同実施形態に係る情報処理装置の動作を示すフローチャートである。 表示部に表示された画像とユーザによる操作を示す説明図(A)と、受光センサーで検出され3値化処理された輝度値による領域を示す説明図(B)ある。 表示部に表示された画像とユーザによる操作を示す説明図(A)と、受光センサーで検出され3値化処理された輝度値による領域を示す説明図(B)ある。 輝度値(光強度)の分布を示すグラフである。 表示部に表示された画像とユーザによる操作を示す説明図である。 表示部に表示された画像とユーザによる操作を示す説明図である。 表示部に表示された画像とユーザによる操作を示す説明図である。 表示部に表示された画像とユーザによる操作を示す説明図である。
符号の説明
100 情報処理装置
102 制御部
104 メモリ
106 画像信号処理部
108 ディスプレイパネル
110 表示部
112 表示駆動部
120 受光センサー
122 受光処理部

Claims (10)

  1. 画像を表示部に表示する表示制御部と、
    操作体と前記表示部の表面との間の接触又は近接に関する接近値を取得する接近値取得部と、
    前記接近値を3値化処理し、前記3値化処理された接近値に応じて分けられた3つの領域のうちの第1の領域と、前記第1の領域と異なる第2の領域を検出する領域検出部と、
    前記第1の領域及び前記第2の領域それぞれの重心の位置を算出する重心位置算出部と
    を有し、
    前記表示制御部は、前記重心位置算出部により算出された前記重心の位置に基づいて、前記表示部に表示された画像を変化させる、情報処理装置。
  2. 前記接近値取得部は、
    外部から前記表示部の表示面に入射する光を受光し、受光した前記光を電気信号に変換する受光部と、
    前記電気信号から画素毎の輝度値を前記接近値として算出する輝度値算出部と
    を有する、請求項1に記載の情報処理装置。
  3. 前記接近値取得部は、
    前記操作体と前記表示部の表面との間の静電容量を検出する静電容量検出部と、
    前記静電容量の変化を前記接近値として算出する接近値算出部と
    を有する、請求項1に記載の情報処理装置。
  4. 前記重心位置算出部で算出された前記第1の領域の重心である第1の重心と、前記第2の領域の重心である第2の重心とを結ぶ直線の方向を算出する直線方向算出部を有する、請求項1〜3のいずれかに記載の情報処理装置。
  5. 前記重心位置算出部で算出された前記第1の領域の重心である第1の重心と、前記第2の領域の重心である第2の重心の移動を検出する移動検出部を有する、請求項1〜4のいずれかに記載の情報処理装置。
  6. 前記第1の領域を、前記表示部近傍の操作体が前記表示部の表示面に最も接近している領域と判断し、前記第2の領域を、前記操作体が前記表示部の表示面から前記第1の領域より離れている領域と判断する判断部を有する、請求項1〜5のいずれかに記載の情報処理装置。
  7. 前記表示制御部は、前記直線方向算出部で算出された前記直線の方向に基づいて、前記表示部に表示する画像を表示する、請求項4に記載の情報処理装置。
  8. 前記表示制御部は、前記移動検出部で検出された前記第1の重心と前記第2の重心の移動に基づいて、前記表示部に表示する画像を表示する、請求項5に記載の情報処理装置。
  9. 前記表示制御部は、前記判断部で判断された領域に基づいて、前記表示部に表示する画像を表示する、請求項6に記載の情報処理装置。
  10. 表示制御部が画像を表示部に表示するステップと、
    接近値取得部が操作体と前記表示部の表面との間の接触又は近接に関する接近値を取得するステップと、
    領域検出部が前記接近値を3値化処理し、前記3値化処理された接近値に応じて分けられた3つの領域のうちの第1の領域と、前記第1の領域と異なる第2の領域を検出するステップと、
    重心位置算出部が前記第1の領域及び前記第2の領域それぞれの重心の位置を算出するステップと
    前記表示制御部は、前記重心位置算出部により算出された前記重心の位置に基づいて、前記表示部に表示された画像を変化させるステップと
    を有する、情報処理方法。
JP2008192331A 2008-07-25 2008-07-25 情報処理装置及び情報処理方法 Expired - Fee Related JP4609543B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008192331A JP4609543B2 (ja) 2008-07-25 2008-07-25 情報処理装置及び情報処理方法
EP09251421A EP2149840A1 (en) 2008-07-25 2009-05-28 Information processing apparatus and information processing method
CN2009101612305A CN101634933B (zh) 2008-07-25 2009-07-24 信息处理装置和信息处理方法
US12/509,783 US9442601B2 (en) 2008-07-25 2009-07-27 Information processing apparatus and information processing method
US15/235,456 US20160370934A1 (en) 2008-07-25 2016-08-12 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008192331A JP4609543B2 (ja) 2008-07-25 2008-07-25 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2010033158A JP2010033158A (ja) 2010-02-12
JP4609543B2 true JP4609543B2 (ja) 2011-01-12

Family

ID=40951586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008192331A Expired - Fee Related JP4609543B2 (ja) 2008-07-25 2008-07-25 情報処理装置及び情報処理方法

Country Status (4)

Country Link
US (2) US9442601B2 (ja)
EP (1) EP2149840A1 (ja)
JP (1) JP4609543B2 (ja)
CN (1) CN101634933B (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4609557B2 (ja) * 2008-08-29 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法
US20120256881A1 (en) * 2009-12-15 2012-10-11 Sharp Kabushiki Kaisha Display device, display method, display program, recording medium
EP2544079A4 (en) * 2010-03-05 2016-07-13 Nec Corp PORTABLE TERMINAL DEVICE
CN102314258B (zh) * 2010-07-01 2013-10-23 原相科技股份有限公司 光学触控系统、物件位置计算装置以及物件位置计算方法
US20120050258A1 (en) * 2010-08-27 2012-03-01 Andrew Kay Method for obtaining 3d position information, computer program, data processor, and display panel incorporating the same
JP5569271B2 (ja) 2010-09-07 2014-08-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5630160B2 (ja) * 2010-09-07 2014-11-26 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US9310923B2 (en) 2010-12-03 2016-04-12 Apple Inc. Input device for touch sensitive devices
US8638320B2 (en) * 2011-06-22 2014-01-28 Apple Inc. Stylus orientation detection
US9329703B2 (en) 2011-06-22 2016-05-03 Apple Inc. Intelligent stylus
US8928635B2 (en) 2011-06-22 2015-01-06 Apple Inc. Active stylus
CN102999285A (zh) * 2011-09-16 2013-03-27 联发科技(新加坡)私人有限公司 车载电子装置以及使用于车载电子装置的控制单元
US20130083074A1 (en) * 2011-10-03 2013-04-04 Nokia Corporation Methods, apparatuses and computer program products utilizing hovering, in part, to determine user interface orientation
US9671880B2 (en) * 2011-12-22 2017-06-06 Sony Corporation Display control device, display control method, and computer program
WO2013145804A1 (ja) 2012-03-28 2013-10-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9495065B2 (en) * 2012-07-06 2016-11-15 Navico Holding As Cursor assist mode
US9652090B2 (en) 2012-07-27 2017-05-16 Apple Inc. Device for digital communication through capacitive coupling
US9557845B2 (en) 2012-07-27 2017-01-31 Apple Inc. Input device for and method of communication with capacitive devices through frequency variation
US9176604B2 (en) 2012-07-27 2015-11-03 Apple Inc. Stylus device
US9552068B2 (en) * 2012-08-27 2017-01-24 Microchip Technology Germany Gmbh Input device with hand posture control
US9367186B2 (en) 2012-12-18 2016-06-14 Logitech Europe S.A. Method and system for discriminating stylus and touch interactions
US9158393B2 (en) 2012-12-18 2015-10-13 Logitech Europe S.A. Active stylus for touch sensing applications
US10048775B2 (en) 2013-03-14 2018-08-14 Apple Inc. Stylus detection and demodulation
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
KR102056316B1 (ko) * 2013-05-03 2020-01-22 삼성전자주식회사 터치 스크린 동작 방법 및 그 전자 장치
US10845901B2 (en) 2013-07-31 2020-11-24 Apple Inc. Touch controller architecture
JP6442755B2 (ja) * 2014-02-28 2018-12-26 富士通コネクテッドテクノロジーズ株式会社 電子機器、制御プログラム、及び、制御方法
US10061450B2 (en) 2014-12-04 2018-08-28 Apple Inc. Coarse scan and targeted active mode scan for touch
JP6630164B2 (ja) * 2015-09-17 2020-01-15 キヤノン株式会社 電子機器及びその制御方法、プログラム、並びに記憶媒体
US10637933B2 (en) 2016-05-26 2020-04-28 Logitech Europe S.A. Method and apparatus for transferring information between electronic devices
US10474277B2 (en) 2016-05-31 2019-11-12 Apple Inc. Position-based stylus communication
US10884610B2 (en) * 2016-11-04 2021-01-05 Myscript System and method for recognizing handwritten stroke input
US11381676B2 (en) 2020-06-30 2022-07-05 Qualcomm Incorporated Quick launcher user interface
US11562638B2 (en) 2020-08-24 2023-01-24 Logitech Europe S.A. Electronic system and method for improving human interaction and activities

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0576007A (ja) * 1991-09-13 1993-03-26 Nkk Corp テレビカメラによる監視方法
JPH0991079A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 情報入力装置および画像処理方法
JPH10269022A (ja) * 1997-03-25 1998-10-09 Hitachi Ltd 通信機能付き携帯型情報処理装置
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
JP2001307107A (ja) * 2000-04-21 2001-11-02 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2006276223A (ja) * 2005-03-28 2006-10-12 Sony Corp 表示装置及び表示方法
JP2008065730A (ja) * 2006-09-11 2008-03-21 Nec Corp 携帯通信端末装置、携帯通信端末装置における座標入力方法および座標入力装置
JP2009064199A (ja) * 2007-09-05 2009-03-26 Casio Comput Co Ltd ジェスチャー認識装置及びジェスチャー認識方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5168531A (en) * 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6292173B1 (en) * 1998-09-11 2001-09-18 Stmicroelectronics S.R.L. Touchpad computer input system and method
JP2000348560A (ja) * 1999-06-07 2000-12-15 Tokai Rika Co Ltd タッチ操作位置の判定方法
US7102617B2 (en) * 2002-12-30 2006-09-05 Motorola, Inc. Compact optical pointing apparatus and method
US7456849B2 (en) * 2005-04-15 2008-11-25 Microsoft Corporation System and method for zooming an object through spiral interaction
EP2249285B1 (en) * 2005-06-23 2012-06-20 Nokia Corporation Method and program of controlling subscriber equipment and subscriber equipment
CN100429610C (zh) * 2006-01-19 2008-10-29 宏达国际电子股份有限公司 直觉式荧幕控制器
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
JP5191119B2 (ja) 2006-12-06 2013-04-24 株式会社ジャパンディスプレイウェスト 表示装置、表示装置の制御方法、及びプログラム
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
CN101689244B (zh) * 2007-05-04 2015-07-22 高通股份有限公司 用于紧凑设备的基于相机的用户输入
US8125458B2 (en) * 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
US20100020020A1 (en) * 2007-11-15 2010-01-28 Yuannan Chen System and Method for Typing Using Fingerprint Recognition System
JP4609557B2 (ja) * 2008-08-29 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法
US8421756B2 (en) * 2008-09-23 2013-04-16 Sony Ericsson Mobile Communications Ab Two-thumb qwerty keyboard
US8154529B2 (en) * 2009-05-14 2012-04-10 Atmel Corporation Two-dimensional touch sensors

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0576007A (ja) * 1991-09-13 1993-03-26 Nkk Corp テレビカメラによる監視方法
JPH0991079A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 情報入力装置および画像処理方法
JPH10269022A (ja) * 1997-03-25 1998-10-09 Hitachi Ltd 通信機能付き携帯型情報処理装置
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
JP2001307107A (ja) * 2000-04-21 2001-11-02 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2006276223A (ja) * 2005-03-28 2006-10-12 Sony Corp 表示装置及び表示方法
JP2008065730A (ja) * 2006-09-11 2008-03-21 Nec Corp 携帯通信端末装置、携帯通信端末装置における座標入力方法および座標入力装置
JP2009064199A (ja) * 2007-09-05 2009-03-26 Casio Comput Co Ltd ジェスチャー認識装置及びジェスチャー認識方法

Also Published As

Publication number Publication date
US9442601B2 (en) 2016-09-13
CN101634933B (zh) 2012-05-30
JP2010033158A (ja) 2010-02-12
US20100020037A1 (en) 2010-01-28
CN101634933A (zh) 2010-01-27
EP2149840A1 (en) 2010-02-03
US20160370934A1 (en) 2016-12-22

Similar Documents

Publication Publication Date Title
JP4609543B2 (ja) 情報処理装置及び情報処理方法
JP4609557B2 (ja) 情報処理装置及び情報処理方法
US8432301B2 (en) Gesture-enabled keyboard and associated apparatus and computer-readable storage medium
US8799803B2 (en) Configurable input device
EP2256614B1 (en) Display control apparatus, display control method, and computer program
TWI428798B (zh) Information processing devices, information processing methods and program products
US8816964B2 (en) Sensor-augmented, gesture-enabled keyboard and associated apparatus and computer-readable storage medium
US10042438B2 (en) Systems and methods for text entry
EP2196891A2 (en) Device and method for providing a user interface
KR101033153B1 (ko) 압력 감지 센서를 이용한 터치 스크린
WO2009002787A2 (en) Swipe gestures for touch screen keyboards
JP2010244302A (ja) 入力装置および入力処理方法
KR20100059698A (ko) 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체
US8970498B2 (en) Touch-enabled input device
US20090262072A1 (en) Cursor control system and method thereof
EP2780785A1 (en) Method and apparatus for performing a zooming action
US9141214B2 (en) Data input device
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
CN111324224A (zh) 一种基于压力感应的鼠标及其控制方法
US20150309601A1 (en) Touch input system and input control method
KR20120081422A (ko) 터치 스크린을 구비한 단말기 및 그 단말기에서 터치 이벤트에 따른 문자 입력 방법
US20120245741A1 (en) Information processing apparatus, information processing method, recording medium, and program
JP5165624B2 (ja) 情報入力装置、オブジェクト表示方法、およびコンピュータが実行可能なプログラム
TWI460647B (zh) 電子裝置與其軟體之使用者介面多重選擇方法
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100914

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100927

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees