JP5284473B2 - 携帯型表示装置およびその制御方法、プログラム - Google Patents
携帯型表示装置およびその制御方法、プログラム Download PDFInfo
- Publication number
- JP5284473B2 JP5284473B2 JP2011524673A JP2011524673A JP5284473B2 JP 5284473 B2 JP5284473 B2 JP 5284473B2 JP 2011524673 A JP2011524673 A JP 2011524673A JP 2011524673 A JP2011524673 A JP 2011524673A JP 5284473 B2 JP5284473 B2 JP 5284473B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- display unit
- unit
- command
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3262—Power saving in digitizer or tablet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Description
本発明は、携帯型の表示装置に関するものであり、更に詳しくは、2画面の表示部および当該表示部に対して近接または接触若しくは押圧される座標を検出するタッチパネルを備える携帯型表示装置に関する。
近年、メニュー選択などの操作を必要とする携帯型の表示装置では、画面の表示に応じ、ペンまたは指によりパネルを押圧して所望のメニューを選択するなどの操作を受け付けるタッチパネルを備えたものが増加している。このような携帯型表示装置では、パネルの押圧された位置を特定するため、抵抗膜方式、静電容量方式、光センサ方式、赤外線方式など周知の種々の方式が採用されている。
また、このような携帯型表示装置の表示画面は、装置の筐体面に占める割合がより大きい方が好ましいため、近年では(典型的には見開きで)2画面のものがあり、さらにこれら2つの画面が継ぎ目無く(シームレスに)繋がっているものがある。
日本特開2006−53678号公報には、このような2画面を有するタッチパネル付きのノートブックパソコンの構造と、この装置において仮想キーボードや仮想マウスなどの表示画面上におけるユーザインタフェースの構成とが開示されている。
ここで上記のような従来の携帯型表示装置のうち、ノートパソコンなど携帯可能であっても使用時には机の上などに据え置いて使用することが予定されるものについては、仮想キーボードや仮想マウスなどのインタフェース画面を表示することにより入力を受け付ける構成は好適なものであると言える。
しかし、片手で携帯しながら操作する携帯型表示装置、例えば携帯電話端末やPDA(Personal Digital Assistant)装置については、仮想キーボードや仮想マウスなどにより操作を行うことが必ずしも適しているとは言えない。
また、電子文書を書籍のように2画面による見開きで表示させる装置またはアプリケーションソフトウェア(電子ブックとも呼ばれる)など、2画面とも表示画面として使用することが予定されている装置またはアプリケーションソフトウェアでは、表示画面上に仮想キーボードや仮想マウスなどを表示すると邪魔になるため、より好適に操作入力を受け付けるための手法が必要となる。
そこで本発明は、片手で把持できる程度に小型の携帯型表示装置であって、2画面の表示画面に好適な操作入力用インタフェースを備える携帯型表示装置およびその制御方法、プログラムを提供することを目的とする。
本発明の第1の局面は、利用者により把持可能な携帯型表示装置であって、
隣り合う2つの画面にそれぞれ画像を表示する表示部と、
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得可能な入力部と、
前記入力部により取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識部と
を備え、
前記ジェスチャ認識部は、前記入力部により取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする。
隣り合う2つの画面にそれぞれ画像を表示する表示部と、
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得可能な入力部と、
前記入力部により取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識部と
を備え、
前記ジェスチャ認識部は、前記入力部により取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする。
本発明の第2の局面は、本発明の第1の局面において、
前記ジェスチャ認識部は、前記2つの画面が隣り合う部分または当該部分近傍の予め定められた固定座標に基づき、前記処理コマンドを実行することを特徴とする。
前記ジェスチャ認識部は、前記2つの画面が隣り合う部分または当該部分近傍の予め定められた固定座標に基づき、前記処理コマンドを実行することを特徴とする。
本発明の第3の局面は、本発明の第1の局面において、
前記入力部は、当該携帯型表示装置を把持する前記利用者の一方の手指の位置に対応する前記表示部上の座標であって前記利用者の一方の手指による把持に適した位置に対応する座標を前記固定座標として取得するとともに、前記利用者の他方の手指の位置に対応する前記表示部上の座標を前記関連する2つ以上の座標として取得することを特徴とする。
前記入力部は、当該携帯型表示装置を把持する前記利用者の一方の手指の位置に対応する前記表示部上の座標であって前記利用者の一方の手指による把持に適した位置に対応する座標を前記固定座標として取得するとともに、前記利用者の他方の手指の位置に対応する前記表示部上の座標を前記関連する2つ以上の座標として取得することを特徴とする。
本発明の第4の局面は、本発明の第1の局面において、
前記表示部は、前記2つの画面が隣り合う辺または当該辺近傍を谷折り線として、前記2つの画面が対向するよう折りたたみ可能であり、
前記ジェスチャ認識部は、前記谷折り線上または前記谷折り線近傍の座標を含む固定座標に基づき、前記処理コマンドを実行することを特徴とする。
前記表示部は、前記2つの画面が隣り合う辺または当該辺近傍を谷折り線として、前記2つの画面が対向するよう折りたたみ可能であり、
前記ジェスチャ認識部は、前記谷折り線上または前記谷折り線近傍の座標を含む固定座標に基づき、前記処理コマンドを実行することを特徴とする。
本発明の第5の局面は、本発明の第1の局面において、
前記ジェスチャ認識部は、前記関連する2つ以上の座標が前記2つの画面の一方から他方へ移動する変化態様である場合、当該変化態様に応じた所定のページ送りコマンドとして認識し実行し、
前記表示部は、所定ページにそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示するとともに、前記ジェスチャ認識部により前記ページ送りコマンドが実行される場合には、前記変化態様に応じて所定数だけ増加または減少させたページに対応付けられた画像を表示することを特徴とする。
前記ジェスチャ認識部は、前記関連する2つ以上の座標が前記2つの画面の一方から他方へ移動する変化態様である場合、当該変化態様に応じた所定のページ送りコマンドとして認識し実行し、
前記表示部は、所定ページにそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示するとともに、前記ジェスチャ認識部により前記ページ送りコマンドが実行される場合には、前記変化態様に応じて所定数だけ増加または減少させたページに対応付けられた画像を表示することを特徴とする。
本発明の第6の局面は、本発明の第1の局面において、
前記ジェスチャ認識部は、前記入力部により取得される座標に、前記固定座標から所定距離だけ離れた前記2つの画面の外周近傍の予め定められた座標が所定期間連続して含まれている場合、前記期間中所定のページ送りコマンドとして認識し実行し、
前記表示部は、所定ページとそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示するとともに、前記ジェスチャ認識部により前記ページ送りコマンドが認識される場合には、前記期間中、所定の時間間隔で所定数だけ増加または減少させたページに対応付けられた画像を表示することを特徴とする。
前記ジェスチャ認識部は、前記入力部により取得される座標に、前記固定座標から所定距離だけ離れた前記2つの画面の外周近傍の予め定められた座標が所定期間連続して含まれている場合、前記期間中所定のページ送りコマンドとして認識し実行し、
前記表示部は、所定ページとそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示するとともに、前記ジェスチャ認識部により前記ページ送りコマンドが認識される場合には、前記期間中、所定の時間間隔で所定数だけ増加または減少させたページに対応付けられた画像を表示することを特徴とする。
本発明の第7の局面は、本発明の第1の局面において、
前記表示部は、所定ページにそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示し、
前記ジェスチャ認識部は、前記2つの画面が隣り合う部分または当該部分近傍における前記画面端部近傍から中央近傍へ前記関連する2つ以上の座標が移動する変化態様である場合、所定のしおり付与コマンドとして認識し、前記表示部により表示されている画像に対応するページを記憶することを特徴とする。
前記表示部は、所定ページにそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示し、
前記ジェスチャ認識部は、前記2つの画面が隣り合う部分または当該部分近傍における前記画面端部近傍から中央近傍へ前記関連する2つ以上の座標が移動する変化態様である場合、所定のしおり付与コマンドとして認識し、前記表示部により表示されている画像に対応するページを記憶することを特徴とする。
本発明の第8の局面は、本発明の第1の局面において、
前記ジェスチャ認識部は、前記2つの画面における1つ以上の四角形状の表示用ウィンドウの周囲4つの辺のうちの1辺近傍から他の1辺近傍へ向かって前記関連する2つ以上の座標が移動する変化態様である場合、当該変化態様に応じた所定のウィンドウ態様変更コマンドとして認識し実行し、
前記表示部は、前記ジェスチャ認識部により前記ウィンドウ態様変更コマンドが実行される場合には、前記変化態様に応じて前記ウィンドウの分割数または分割形態を変更し、変更された態様で前記ウィンドウ内に画像を表示することを特徴とする。
前記ジェスチャ認識部は、前記2つの画面における1つ以上の四角形状の表示用ウィンドウの周囲4つの辺のうちの1辺近傍から他の1辺近傍へ向かって前記関連する2つ以上の座標が移動する変化態様である場合、当該変化態様に応じた所定のウィンドウ態様変更コマンドとして認識し実行し、
前記表示部は、前記ジェスチャ認識部により前記ウィンドウ態様変更コマンドが実行される場合には、前記変化態様に応じて前記ウィンドウの分割数または分割形態を変更し、変更された態様で前記ウィンドウ内に画像を表示することを特徴とする。
本発明の第9の局面は、本発明の第1の局面において、
前記ジェスチャ認識部は、前記入力部により取得される座標に、前記2つの画面が隣り合う部分または当該部分近傍の予め定められた複数の固定座標のうち所定数の固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記所定数の固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする。
前記ジェスチャ認識部は、前記入力部により取得される座標に、前記2つの画面が隣り合う部分または当該部分近傍の予め定められた複数の固定座標のうち所定数の固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記所定数の固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする。
本発明の第10の局面は、本発明の第1の局面において、
前記入力部は、前記ジェスチャ認識部において前記非受付状態である期間中、取得すべき前記表示部上の座標の範囲を前記固定座標または前記固定座標近傍に限定し、または前記表示部上の座標を取得すべき時間間隔を前記受付状態である期間中の当該時間間隔よりも長く設定する動作の少なくとも一方を行うことにより前記座標を取得することを特徴とする。
前記入力部は、前記ジェスチャ認識部において前記非受付状態である期間中、取得すべき前記表示部上の座標の範囲を前記固定座標または前記固定座標近傍に限定し、または前記表示部上の座標を取得すべき時間間隔を前記受付状態である期間中の当該時間間隔よりも長く設定する動作の少なくとも一方を行うことにより前記座標を取得することを特徴とする。
本発明の第11の局面は、隣り合う2つの画面にそれぞれ画像を表示する表示部を備え、利用者により把持可能な携帯型表示装置の制御方法であって、
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得する入力ステップと、
前記入力ステップにおいて取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識ステップと
を備え、
前記ジェスチャ認識ステップでは、前記入力ステップにおいて取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする。
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得する入力ステップと、
前記入力ステップにおいて取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識ステップと
を備え、
前記ジェスチャ認識ステップでは、前記入力ステップにおいて取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする。
本発明の第12の局面は、隣り合う2つの画面にそれぞれ画像を表示する表示部を備え、利用者により把持可能な携帯型表示装置に、
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得する入力ステップと、
前記入力ステップにおいて取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識ステップと
を実行させるプログラムであって、
前記ジェスチャ認識ステップでは、前記入力ステップにおいて取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする、プログラムである。
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得する入力ステップと、
前記入力ステップにおいて取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識ステップと
を実行させるプログラムであって、
前記ジェスチャ認識ステップでは、前記入力ステップにおいて取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする、プログラムである。
本発明の第1の局面によれば、入力部により取得される座標に、所定の固定座標が含まれていない場合、処理コマンドとして認識し実行しない非受付状態となり、固定座標が含まれている場合、処理コマンドを認識可能な受付状態となるので、例えば当該装置を把持する片手の親指で固定座標位置が押下されるとジェスチャ認識を受け付ける状態となるので、携帯型表示装置を把持するとき簡単にコマンド受付状態にしてジェスチャ認識が可能となるとともに、典型的には装置を把持しない時にコマンド非受付状態となって意図しない表示画面への接触等によりコマンドが誤って実行されることを防止することができる。
本発明の第2の局面によれば、例えば当該装置を把持する片手の親指で2つの画面が隣り合う部分または当該部分近傍の予め定められた固定座標位置が押下されるとジェスチャ認識を受け付ける状態となるので、2画面の携帯型表示装置を把持すると自然にコマンド受付状態となってジェスチャ認識が可能となり、把持しない時にコマンド非受付状態となってコマンドが誤って実行されることを防止することができる。このように2画面の表示画面に好適な操作入力用インタフェースを実現することができる。
本発明の第3の局面によれば、当該携帯型表示装置を把持する利用者の一方の手指の位置に対応する把持に適した位置に対応する座標を固定座標として取得するとともに、利用者の他方の手指の位置に対応する表示部上の座標を関連する2つ以上の座標として取得するので、携帯型表示装置を把持するとき簡単にコマンド受付状態にしてジェスチャ認識が可能となり、把持しない時にコマンド非受付状態となってコマンドが誤って実行されることを防止することができる。
本発明の第4の局面によれば、谷折り線上または谷折り線近傍の座標を含む固定座標に基づき、処理コマンドが実行されるので、例えば本を持つように谷折り線に沿って装置を把持する親指を押し当てて持つことが予定され、より自然にコマンド受付状態となってジェスチャ認識が可能となり、把持しない時にコマンド非受付状態となってコマンドが誤って実行されることを防止することができる。
本発明の第5の局面によれば、ジェスチャ認識部により、関連する2つ以上の座標が2つの画面の一方から他方へ移動する変化態様である場合、当該変化態様に応じた所定のページ送りコマンドとして認識され実行されるので、直感的なページをめくる2画面に渡るジェスチャにより容易にページ送りを実行することができる。
本発明の第6の局面によれば、入力部により取得される座標に、固定座標から所定距離だけ離れた2つの画面の外周近傍の予め定められた座標が所定期間連続して含まれている場合、期間中所定のページ送りコマンドが認識され実行されるので、上記座標位置を例えば押し続ける簡単な動作により容易に連続したページ送りを実行することができる。
本発明の第7の局面によれば、2つの画面が隣り合う部分または当該部分近傍における画面端部近傍から中央近傍へ関連する2つ以上の座標が移動する変化態様である場合、当該変化態様に応じた所定のしおり付与コマンドが認識され対応するページが記憶されるので、しおりをはさむような簡単で直感的なジェスチャにより容易にしおり付与処理を実行することができる。
本発明の第8の局面によれば、2つの画面における1つ以上の四角形状の表示用ウィンドウの周囲4つの辺のうちの1辺近傍から他の1辺近傍へ向かって関連する2つ以上の座標が移動する変化態様である場合、当該変化態様に応じた所定のウィンドウ態様変更コマンドが認識され実行されるので、簡単で直感的なジェスチャにより容易にウィンドウの分割数または分割形態を変更することができる。
本発明の第9の局面によれば、入力部により取得される座標に、複数の固定座標のうち所定数の固定座標が含まれていない場合、処理コマンドとして認識し実行しない非受付状態となり、所定数の固定座標が含まれている場合、処理コマンドを認識可能な受付状態となるので、1つの座標で決定する構成よりも誤検出を防止することができる。
本発明の第10の局面によれば、非受付状態である期間中、取得すべき表示部上の座標の範囲を固定座標またはその近傍に限定し、または座標を取得する時間間隔を長く設定する動作の少なくとも一方を行うことにより座標を取得するので、固定座標以外の範囲の座標を取得するための動作や信号等を省略でき、また単位時間当たりの座標を取得する回数を少なくすることができるので、非受付状態中の電力消費を低減することができる。
本発明の第11の局面によれば、本発明の第1の局面と同様の効果を携帯表示装置の制御方法において奏することができる。
本発明の第12の局面によれば、本発明の第1の局面と同様の効果を携帯表示装置のプログラムにおいて奏することができる。
<1. 全体的な装置構成および動作>
図1は、本発明の一実施形態に係る携帯情報端末の外観斜視図である。この携帯情報端末10は、左表示部14aおよび右表示部14bを備えており、これら左表示部14aおよび右表示部14bは互いが対向するように、図示されないヒンジ部などにより中央部分で折りたたむことができる構造となっている。図1では、左表示部14aおよび右表示部14bとが隣接する辺近傍である装置中央部分で少しだけ折り曲げられた状態の携帯情報端末が示されており、見開きの本を持つように片手で把持可能な程度の大きさおよび形状、重量バランスなどを有している。
図1は、本発明の一実施形態に係る携帯情報端末の外観斜視図である。この携帯情報端末10は、左表示部14aおよび右表示部14bを備えており、これら左表示部14aおよび右表示部14bは互いが対向するように、図示されないヒンジ部などにより中央部分で折りたたむことができる構造となっている。図1では、左表示部14aおよび右表示部14bとが隣接する辺近傍である装置中央部分で少しだけ折り曲げられた状態の携帯情報端末が示されており、見開きの本を持つように片手で把持可能な程度の大きさおよび形状、重量バランスなどを有している。
より詳しくはこの携帯情報端末10は、後述するように上記装置中央部の下方近傍部分が(典型的には利用者の利き手でない方の手の)親指により押さえられ、またその裏側近傍が他の指により押さえられることで、利用者の片手により把持される。この携帯情報端末10は、このような片手による把持に適した形状および重量バランスとなっている。
また図1には示されていないが、上記中央部分に相当する左表示部14aの右辺部と右表示部14bの左辺部との間には周知の導光部材(例えばプリズムやファイバープレートと呼ばれる数μm径のシングルファイバを束ねた導光素子など)が設けられている。この導光部材により、左表示部14aおよび右表示部14bにより表示される二枚の画像の一部が光路変換され、切れ目または継ぎ目のない(シームレスな)一枚の画像が表示される。また、これら左表示部14aおよび右表示部14bの上面(表面)には透明なタッチパネルが設けられており、(典型的には利用者の利き手の)指やペンなどで画面を押下(接触)することにより、その画面上の押下位置が検出される。これら表示部およびタッチパネルの構成等については後述する。
図2は、本発明の一実施形態に係る携帯情報端末の表示部および入力部の主な構成を示すブロック図である。この携帯情報端末10は、制御部100と、左表示部14aおよび右表示部14bを有する2つの液晶パネル141と、この2つの液晶パネル141をそれぞれ駆動するスキャンドライバ142およびデータドライバ143と、表示制御回路145と、2つの液晶パネル141上に設けられたマトリクス型抵抗膜方式のタッチパネル161と、このタッチパネル161に利用者の指やペンなどが押下された位置を検出するX座標センサ163およびY座標センサ162と、座標処理部165とを備える。
ここで、タッチパネル161は、対向する2枚の抵抗膜の接触点をアナログ的に検知する一般的な抵抗膜方式のタッチパネルではなく、行方向に沿って平行に配置される多数の透明電極と、これらと垂直方向に所定の短い距離を空けて対向するように列方向に沿って平行に配置される多数の透明電極とを備えている。X座標センサ163は、列方向に沿った上記各電極に接続されており、Y座標センサ162は、行方向に沿った上記各電極に接続されている。したがって、利用者の指やペンなどに押下された位置で交差する行方向および列方向の電極が接触すると、X座標センサ163およびY座標センサ162により検出することができる。よって、電極の配列ピッチに応じた分解能でタッチパネル161上の多数の座標をそれぞれ個別に認識することができる。
また、多数の座標を個別に認識することができるタッチパネルであれば、マトリクス型の静電容量方式や光センサ方式、機械センサ方式など周知の様々な方式のタッチパネルを採用することができる。さらに、1つの座標しか認識できない方式のタッチパネルを複数組み合わせて使用してもよい。例えば、左表示部14aに対応するタッチパネルと、右表示部14bに対応するタッチパネルと、後述するこれらの隣接部近傍に対応するタッチパネルとをそれぞれ個別に設ける構成であってもよい。そうすれば製造コストを下げることができる。なお、一般的に静電容量方式や光センサ方式は抵抗膜方式のように指をタッチパネルに押しつける必要が無く、軽く接触させたり近接させたりするだけでよいので好適である場合が多い。
また2つの液晶パネル141は、アクティブマトリクス型の液晶パネルであって、各液晶パネル毎に1つずつのスキャンドライバ142およびデータドライバ143により液晶パネル内の各画素の選択およびデータ付与が行われ、1枚の画像が形成される。なお、1枚の画像を2つの液晶パネル141で表示し、またタッチパネル161の検出座標と一意に対応付けるため、右表示部14bを有する液晶パネル141の画素位置は、左表示部14aを有する液晶パネル141の画素位置に対して、X座標の最大値(左端の画素位置)を加えた値として取り扱えばよい。また、1枚の画像として表示するため、2つの液晶パネル141の間には導光部材が設けられシームレスな表示が行われることについては前述したとおりである。
図3は、本発明の一実施形態に係る携帯情報端末の構成を示すブロック図である。この携帯情報端末10は、一般的な(専用)オペレーティングシステムや所定のアプリケーション・ソフトウェアにより所定の処理を行う装置であって、CPU(Central Processing Unit)およびRAMなどの半導体メモリなどにより構成される制御部100と、EPROMなどの不揮発性の半導体メモリを含む記憶部120と、後述する液晶パネル等からなる表示部140およびタッチパネルなどの操作入力装置を含む入力部160とを備える。
携帯情報端末10に含まれる制御部100は、入力部160を介して受け付けられた利用者による後述するジェスチャを認識することにより、所定のコマンド処理を行う機能を有している。この制御部100の詳しい動作については後述する。
なお、制御部100の上記機能は、半導体メモリに格納された所定のジェスチャ認識プログラムP(例えばジェスチャ認識のためのアプリケーションソフトウェア)をCPUが実行することにより実現される。ここで、上記ジェスチャ認識プログラムPは、製造時にEPROM等に書き込まれるが、例えば、そのプログラムを記録したコンピュータで読み取り可能な記録媒体であるCD−ROMやその他の非一時的記録媒体や通信回線を介して製造時以降に書き込まれる構成であってもよい。そして、本携帯情報端末10の起動のための所定操作がなされると、記憶部120に書き込まれているジェスチャ認識プログラムPは、上記RAMなどの半導体メモリにその一部または全部が転送されてそこに一時的に格納され、制御部100内のCPUによって実行される。これにより、制御部100の各部の制御処理が実現される。
<2. 携帯情報端末の全体的な動作>
次に、携帯情報端末10の全体的な動作について説明する。図4は、この携帯情報端末10の全体的な処理の流れを示すフローチャートである。この図4に示すステップS1(初期設定処理)において、携帯情報端末10に含まれる制御部100は、典型的には利用者の開始指示を受け取ることにより、例えば利用者に提示される電子文書に対応する画像データを決定する。また、後述する処理に必要な各値を初期化する。なお、初期化されたときのウィンドウ数は1(ウィンドウが分割されていない状態)であるものとする。
次に、携帯情報端末10の全体的な動作について説明する。図4は、この携帯情報端末10の全体的な処理の流れを示すフローチャートである。この図4に示すステップS1(初期設定処理)において、携帯情報端末10に含まれる制御部100は、典型的には利用者の開始指示を受け取ることにより、例えば利用者に提示される電子文書に対応する画像データを決定する。また、後述する処理に必要な各値を初期化する。なお、初期化されたときのウィンドウ数は1(ウィンドウが分割されていない状態)であるものとする。
ここで、この携帯情報端末10は、周知の各種アプリケーションソフトを内蔵可能であるが、読書モードと、ウィンドウモードについてのみ説明する。読書モードとは、記憶部120に記憶される電子的な書籍データを閲覧するためのモードである。この書籍データは、文字データを含む画像データであって、書籍のように所定ページと関連付けられて記憶されている。またウィンドウモードとは、複数のアプリケーションを1つ、2つまたは4つのウィンドウ内に表示するよう、ウィンドウの数や分割形態を指示するためのモードである。なお、説明の便宜のため、ここではこの2つのモードに対応する処理のみが行われるものとする。
次にステップS2(入力処理)では、ステップS1において決定された画像を表示部140に表示させるとともに、入力部160から利用者による操作入力、ここでは手指を接触させることによる操作入力を受け付ける。
ステップS3(認識処理)では、ステップS2において受け付けられた操作入力に応じて、対応する処理コマンドを認識し、認識された処理コマンドに応じた画像を表示部140に表示させる。
ステップS4では、利用者により装置の停止指示が与えられまたは所定時間の経過によるスリープ処理などにより各種処理を終了するか否かが判定され、終了しない場合には処理はステップS2に戻って処理が繰り返され(S4→S2→S3→S4)、処理が終了する場合には携帯情報端末10は一旦処理を終了し、典型的には利用者により装置起動の指示が与えられるときに、再び上記処理が開始される。
<3. 携帯情報端末の入力処理動作>
次に、携帯情報端末10による入力処理(ステップS2)の動作について詳しく説明する。図5は、この入力処理(ステップS2)の詳細な流れを示すフローチャートである。
次に、携帯情報端末10による入力処理(ステップS2)の動作について詳しく説明する。図5は、この入力処理(ステップS2)の詳細な流れを示すフローチャートである。
この図5に示すステップS21において、制御部100は、予め定められた位置に対応する固定座標に指が下ろされたか否かを判定する。具体的には、制御部100は、入力部160により受け付けられる座標群に固定座標エリア内の座標が含まれているかを比較判定する。以下、図6および図7を参照して、この固定座標エリアについて説明する。
図6は、携帯情報端末の表示画面と利用者の左手親指との位置関係を示す図であり、図7は、その左手親指近傍に設けられる固定座標エリアを示す図である。前述したように、本携帯情報端末10は、その中央部の下方近傍部分が利用者の利き手でない方の手(ここでは説明の便宜上左手であるものとする)の親指により押さえられ、またその裏側近傍が他の指により押さえられることで、利用者の片手により自然に把持される。図6にはこの左手親指Ftlが示されている。なお、利き手や義手等で把持してもよいことはもちろんである。
また図7に示されるように、この左表示部14aと右表示部14bとの隣接辺下方部分には固定座標エリア16が設けられている。この固定座標エリア16内には入力部160により押下された位置の座標を検出可能な検出点Psが複数含まれている。これらのうち、実際に押下されている位置の座標に対応する検出点Psは斜線を付した丸印で示されている。これらの斜線を付した丸印に対応する座標が入力部160により受け付けられる座標群の一部または全てであって、制御部100は、これらの座標群が固定座標エリア内の座標と1つ以上(誤検出を防ぐためには2つまたはそれ以上の所定数以上)が重複しているか否かを判定する。なお、上記のような固定座標エリア内に左手親指の位置に対応する座標があるか否かを判定する手法は一例であって、周知のどのような手法で判定してもよい。
ステップS21において制御部100は上記のように固定座標に指が下ろされたか否かを判定し、指が下ろされたと判定される場合(ステップS21においてYesの場合)、後述するコマンドを受け付け可能な状態(以下では「コマンド受付状態」とも称する)となって、処理はステップS23へ進む。また、指が下ろされていないと判定される場合(ステップS21においてNoの場合)、後述するコマンドを受け付け不可能な状態(以下では「コマンド非受付状態」とも称する)となって本入力処理は終了して図4に示す処理に復帰する。なお、この場合にも後述するジェスチャ以外のジェスチャを認識し、認識されたジェスチャに対応する(後述するコマンド以外の)コマンド処理を行う構成であってもよい。
また、コマンド非受付状態では、コマンド受付状態において行われるべき関連する処理を行う必要がないので、タッチパネル161における検出を行うX座標センサ163およびY座標センサ162の駆動周波数(センサデータ読み出し周波数)を低くしたり(例えば、60フレーム毎に検出を行うなど)、また光センサを使用する場合には光源の駆動周波数を低くしたり、固定座標エリア外のセンサデータ読み出しや座標処理部165bによるデータ処理などを行わないようにするなど、センサ駆動用の電力やデータ処理のための電力の消費を低減するようセンサを駆動しまたはデータを処理することが好ましい。なお、上記コマンド受付状態に遷移すれば、これらの駆動または処理は通常状態に復帰することになる。
さらに、固定座標エリア外の座標はタッチパネル161で検出し、固定座標エリア内の座標はタッチパネル161とは異なる単一電極の抵抗膜方式の(シングル)タッチセンサや機械式センサなどで検出し、コマンド非受付状態となったときにのみ上記タッチパネル161の動作を完全に停止する構成であってもよい。そうすればコマンド非受付状態での電力消費量を低減することができる。
次に、ステップS23において、制御部100は、固定座標エリア16以外の場所に指が下ろされているか否かを判定する。具体的には、制御部100は、入力部160により受け付けられる座標群に固定座標エリア16以外の座標が含まれているかを比較判定する。この結果、さらに他の指が下ろされていると判定される場合(ステップS23においてYesの場合)、処理はステップS25へ進む。また、他の指は下ろされていないと判定される場合(ステップS23においてNoの場合)、始点座標および終点座標を初期化し(ステップS24)、本入力処理は終了して図4に示す処理に復帰する。なお、上記判定では、誤検出を防ぐため上記と同様に固定座標エリア16以外の座標が2つまたはそれ以上の所定数以上含まれているかを比較判定することが好適である。
続いて、ステップS25において、制御部100は、入力部160により受け付けられる座標群のうち固定座標エリア16以外の座標(複数或る場合は任意の1つまたは近接する座標群の平均座標)を始点座標(X1,Y1)として記憶部120に記憶するとともに、後述するジェスチャ認識に必要な経過時間の測定を開始する。なお、このジェスチャとは、利用者の指が表示部上を動くことにより生じる座標の時系列的変化の態様を通常意味するが、ここでは所定時間、所定の座標で動かないことによる座標が変化しない態様を含むものとする。
次に、ステップS27において、制御部100は、固定座標エリア16以外の場所から指が上げられたかまたは所定時間を経過したか否かを判定する。具体的には、制御部100は、入力部160により受け付けられる座標群に固定座標エリア16以外の座標が含まれていない状態となったかまたは所定時間が経過したかのいずれかの条件が成立したか否かを比較判定する。この結果、上記他の指が上げられたかまたは所定時間が経過したと判定される場合(ステップS27においてYesの場合)、処理はステップS29へ進む。また、上記他の指は上げられていない場合であってかつ所定時間が経過していないと判定される場合(ステップS25においてNoの場合)、上記他の指が上げられたかまたは所定時間が経過したと判定されるまでの本処理(S27)が繰り返される。
そして一般的なタイムアウト処理のための時間であれば、上記所定時間は通常のジェスチャとして成立しない程度に長い時間が設定されるが、ここでの上記所定時間は入力座標と対応付けられて設定される。具体的には、入力座標が(所定範囲内で)変化しない場合には、短い時間(例えば1秒程度)が設定され、その時間が経過すれば続く処理へ進む。または入力座標が後述する連続ページめくり動作に関連する所定の座標範囲内(具体的には後述する図15に示す所定範囲33a,33b)にある場合には、上記短い時間が設定され、その時間が経過すれば続く処理へ進むように構成してもよい。このような場合は、後述する連続ページめくり動作のための座標指定である可能性があるため、短い時間で認識処理(ステップS3)へ進むことが好ましい。さらに上記所定時間が複数回経過すると、さらに短い時間(例えば0.2秒程度)が設定され、結果的に連続ページめくり動作の速度が上がるように設定されてもよい。
なお、上記繰り返し処理は所定の割り込み処理などによっても解除されステップS29の処理へ進むものとする。また、上記判定では、誤検出を防ぐため上記と同様に固定座標エリア16以外の座標が含まれていないかまたは2つ若しくはそれ以上の所定数以下が含まれているかを比較判定することが好適である。
続いて、ステップS29において、制御部100は、入力部160により直前に受け付けられた座標群のうち固定座標エリア16以外の座標(複数或る場合は任意の1つまたは近接する座標群の平均座標)を終点座標(X2,Y2)として記憶部120に記憶するとともに、経過時間の測定を終了する。なお具体的には、制御部100は、ステップS27において入力部160により受け付けられた座標群のうち固定座標エリア16以外の座標(複数或る場合は任意の1つまたは近接する座標群の平均座標)を終点座標(X2,Y2)として記憶部120に記憶し続けるようにすれば、指が上げられた時の直前の座標を終点座標として記憶することができる。その後、本入力処理は終了して図4に示す処理に復帰する。
<4. 携帯情報端末の認識処理動作>
<4.1 認識処理の全体的な流れ>
次に、携帯情報端末10による認識処理(ステップS3)の動作について詳しく説明する。図8は、この認識処理(ステップS3)の詳細な流れを示すフローチャートである。
<4.1 認識処理の全体的な流れ>
次に、携帯情報端末10による認識処理(ステップS3)の動作について詳しく説明する。図8は、この認識処理(ステップS3)の詳細な流れを示すフローチャートである。
図8に示すステップS31において、制御部100は、利用者により読書モードが選択されているか否かを判定する。その結果、読書モードであると判定される場合(ステップS31においてYesの場合)にはステップS33の読書処理を行う。また、読書モードでないと判定される場合(ステップS31においてNoの場合)にはステップS35のウィンドウ処理を行う。これらの処理の終了後、本認識処理は終了して図4に示す処理に復帰する。
なお、前述したように、ここでは説明の便宜のため、読書モードとウィンドウモードの2種類の処理しか行われないものとしたが、実際には周知の各種の処理を行うことができる。次に、読書モードにおける読書処理について詳しく説明する。
<4.2 読書モードにおける読書処理動作>
図9は、読書処理(ステップS33)の詳細な流れを示すフローチャートである。図9に示すステップS331において、制御部100は、前述した図5に示すステップS25において得られる始点座標(X1,Y1)が表示部中央上部の所定領域の範囲内にあるか否かを判定する。
図9は、読書処理(ステップS33)の詳細な流れを示すフローチャートである。図9に示すステップS331において、制御部100は、前述した図5に示すステップS25において得られる始点座標(X1,Y1)が表示部中央上部の所定領域の範囲内にあるか否かを判定する。
図10は、この表示部中央上部の所定領域を示す図である。図10に示すように、(典型的には)右人差し指Ffrで表示部の中央上部を押下すると、押下された位置に対応する座標が始点座標(X1,Y1)として記憶される。ここでは右人差し指Ffrで上記中央上部の所定領域31の範囲内が押下されているので、上記ステップS331において、始点座標(X1,Y1)はこの所定領域31の範囲内にあると判定されることになる。
上記判定の結果、所定領域31の範囲内にあると判定される場合(ステップS331においてYesの場合)、処理はステップS332へ進み、範囲内にないと判定される場合(ステップS331においてNoの場合)、処理はステップS334へ進む。
次に、ステップS332において、制御部100は、前述した図5に示すステップS29において得られる終点座標(X2,Y2)が表示部中央下部の所定領域の範囲内にあるか否かを判定する。
図11は、この表示部中央下部の所定領域を示す図である。図10に示すように右人差し指Ffrで表示部の中央上部を押下した後、図11に示すように右人差し指Ffrを表示部の中央下部で離すと、指を上げた位置に対応する座標が終点座標(X2,Y2)として記憶される。ここでは右人差し指Ffrを上記中央下部の所定領域32範囲内で上げている(表示部から離している)ので、上記ステップS332において、終点座標(X2,Y2)はこの所定領域32の範囲内にあると判定されることになる。
上記判定の結果、所定領域32の範囲内にあると判定される場合(ステップS332においてYesの場合)、処理はステップS333へ進み、範囲内にないと判定される場合(ステップS332においてNoの場合)、本読書処理は終了して図8の処理(さらには図4の処理)に復帰する。
続いて、ステップS333(しおり付与処理)では、上記ステップS331,S332により利用者がしおり処理を実行するコマンドとしてのジェスチャを入力したと判定されるので、図12に示すようなしおり付与処理が行われる。
図12は、しおり付与処理が行われる場合に表示される画面例を示す図である。図12に示されるように、左表示部14aから右表示部14bに渡って画面上部に表示されているしおり部333には複数のアルファベットが記載されており、これらのアルファベットが1つのしおりに相当する。すなわち、しおり部333の「N」と記載された位置を右人差し指Ffrで触れると、現在左表示部14aおよび右表示部14bに表示されている書籍データに対応する画像のページ数がしおり「N」と関連付けられて記憶部120に記憶される。このしおりに関連する情報は装置の動作が終了しても記憶されており、適宜の時間を経て再び上記ページの画像を閲覧したい時には、図12に類似する図示されないしおり呼び出し画面からしおり「N」を選択することにより、利用者が書籍データに対応する画像のページ番号等を入力することなく、所望の画像を直ちに呼び出すことができる。
このように、画面中央部上方(の所定領域31)から画面中央部下方(の所定領域32)へ右手人差し指で画面に触れて動かすと、表示されている2ページの間にしおりが挟まるようにそのページが記憶されるので、利用者は直感的な操作で簡単にしおり付与処理を行うことができる。
次に、図9に示されるステップS334において、制御部100は、始点座標(X1,Y1)と終点座標(X2,Y2)とが異なる画面であるか否かを判定する。すなわち始点座標(X1,Y1)および終点座標(X2,Y2)のいずれか一方が左表示部14a内の座標であり、その他方が右表示部14b内の座標であるか否かを判定する。この判定は、例えば右人差し指が左表示部14aから右表示部14bへまたはその逆方向へ移動するジェスチャが入力されたか否かを判定するものである。以下、図13および図14を参照して具体的に説明する。
図13は、右人差し指が左画面から右画面へ移動するジェスチャが入力される場合の例を示す図であり、図14は、右人差し指が右画面から左画面へ移動するジェスチャが入力される場合の例を示す図である。
図13では、(過去の時点での)右人差し指Ffr’により左表示部14aが押下されているので、押下された位置に対応する座標が始点座標(X1,Y1)として記憶される。その後、(現時点での)右人差し指Ffrが右表示部14bから上げられているので、この上げられた位置に対応する座標が終点座標(X2,Y2)として記憶される。また図14では、その逆の方向へのジェスチャがなされている。よってこの場合には、記憶される始点座標および終点座標は図13の場合と逆になる。
上記ステップS334において、上記のようなページをめくるコマンドとしてのジェスチャがなされたと判定される場合(ステップS334においてYesの場合)、処理はステップS336へ進み、ページめくり方向を決定する。例えば始点座標が終点座標よりも小さい場合には(X1<X2)、左から右へページをめくるジェスチャが行われたと認識できるので、ページめくり方向を順方向に決定する。その後処理はステップS337へ進む。また、上記のようなページをめくるジェスチャがなされなかったと判定される場合(ステップS334においてNoの場合)、処理はステップS335へ進む。
次に、ステップS335において、制御部100は、始点座標(X1,Y1)および終点座標(X2,Y2)が共に連続ページめくりを指示するための所定位置にあるか否かを判定する。この判定は、例えば右親指で右表示部14bの右端部近傍を所定時間押さえる(静的な)ジェスチャが入力されたか否かを判定するものである。以下、図15を参照して具体的に説明する。
図15は、右親指で右画面の右端部近傍を押さえるジェスチャが入力される場合の例を示す図である。図15では、右親指Ftrにより右表示部14bの右端部近傍に設定される連続ページめくりを指示するための所定領域33bが押下されているので、押下された位置に対応する座標が始点座標(X1,Y1)として記憶される。その後、そのまま所定時間が経過後も所定領域33bが押下され続けると、右親指Ftrが上げられなくてもこの位置に対応する座標が終点座標(X2,Y2)として記憶される。
すなわち図5に示すステップS27において前述したように、入力座標が(所定範囲内で)変化しない場合には、上記所定時間として短い時間(例えば1秒程度)が設定され、その時間が経過すれば続くステップS29の処理が行われ、終点座標(X2,Y2)が記憶される。したがって、上記所定領域33bが押し続けられれば、短い上記所定時間(例えば1秒)毎に、本ステップS335および後述するステップS337の処理を含む各処理が繰り返され、順方向にページがめくられる処理が繰り返されることになる。また、図15に示される所定領域33aが例えば右手人差し指Ffrで押さえ続けられると、上記とは逆方向にページがめくられる処理が繰り返されることになる。
上記ステップS335において、上記のような連続的にページをめくるコマンドとしての静的なジェスチャが入力されたと判定される場合(ステップS335においてYesの場合)、処理はステップS336へ進み、ページめくり方向を決定する。例えば右表示部14bの所定領域33bが押さえられる場合には左から右へページをめくる静的ジェスチャが行われたと認識できるので、ページめくり方向を順方向に決定する。その後処理はステップS337へ進む。また、上記のような連続的にページをめくるジェスチャがなされなかったと判定される場合(ステップS335においてNoの場合)、結果的に(始点座標および終点座標が初期化されている場合も含め)読書処理に関連するコマンドが入力されなかったと言えるので、本読書処理は終了して図8の処理(さらには図4の処理)に復帰する。
続いてステップS337において、ステップS335で決定されたページめくり方向に応じて、現在のページから2つ増加または減少させたページに対応する画像を左表示部14aおよび右表示部14bにそれぞれ表示する。そして本読書処理は終了して図8の処理(さらには図4の処理)に復帰する。
なお、上記ページめくり方向に応じて増加または減少されるページ数は通常は2つであるが、この数値は適宜利用者により定めることができるように構成されてもよい。また例えば、始点座標と終点座標との距離やその位置関係、または始点座標の入力から終点座標の入力までの経過時間等に応じてめくられるページ数が適宜変化するように構成されていてもよい。例えば、始点座標から終点座標までの距離が長いほどめくられるページ数が大きくなったり、上記経過時間が短くなるほど(すなわちジェスチャが速く行われるほど)めくられるページ数が大きくなるような構成が考えられる。次に、ウィンドウモードにおけるウィンドウ処理について詳しく説明する。
<4.3 ウィンドウモードにおけるウィンドウ処理動作>
図16は、ウィンドウ処理(ステップS35)の詳細な流れを示すフローチャートである。図16に示すステップS351において、制御部100は、前述した図5に示すステップS25において得られる始点座標(X1,Y1)および終点座標(X2,Y2)に基づき、利用者により入力されたジェスチャが予め定められたウィンドウ処理を行うためのコマンドに対応するジェスチャと合致するか否かを判定する。このジェスチャは現在のウィンドウからその態様を、具体的にはウィンドウの数を増減させ、またはウィンドウの分割態様(ここでは縦割りか横割りか)を変化させるコマンドに対応して予め設定されている。このジェスチャとウィンドウの態様変化との関係を図17を参照して説明する。
図16は、ウィンドウ処理(ステップS35)の詳細な流れを示すフローチャートである。図16に示すステップS351において、制御部100は、前述した図5に示すステップS25において得られる始点座標(X1,Y1)および終点座標(X2,Y2)に基づき、利用者により入力されたジェスチャが予め定められたウィンドウ処理を行うためのコマンドに対応するジェスチャと合致するか否かを判定する。このジェスチャは現在のウィンドウからその態様を、具体的にはウィンドウの数を増減させ、またはウィンドウの分割態様(ここでは縦割りか横割りか)を変化させるコマンドに対応して予め設定されている。このジェスチャとウィンドウの態様変化との関係を図17を参照して説明する。
図17は、ウィンドウの態様変化と予め定められたジェスチャとの関係を示す図である。図17に示されるように、ウィンドウの態様は4つが定められており、左表示部14aおよび右表示部14bによって、(見かけ上の)1画面、中央で左右に分割した(縦割りの)縦2画面、中央で上下に分割した(横割りの)横2画面、および上下左右に分割した4画面の態様である。これらのうちの或るウィンドウの態様から他のウィンドウの態様への遷移は、矢印で示されており、その矢印近傍には当該ウィンドウ態様の遷移(変更)を指示するコマンドとして定められているジェスチャが簡易に図示されている。
これらのジェスチャは、画面中央上部を始点座標とするジェスチャA1〜A3、画面中央下部を始点座標とするジェスチャB1、画面左端中央部を始点座標とするジェスチャC1およびC2、画面右端中央部を始点座標とするD1およびD2、画面中央部から左右方向に沿った部分を始点座標とするE1およびE2、画面中央部を始点座標とするF1〜F4からなる。また図17には、画面中央部を始点座標とし、画面左端中央部を中間点座標とし、画面右端中央部を終点座標とするジェスチャA3’が記載されているが、ここでは説明の便宜のため中間座標の認識を省略し、ジェスチャA3’をジェスチャA3と同視するものとする。もちろん、このジェスチャA3’を正確に認識するために、右手人差し指Ffrが押し下げられてから上げられるまでの間の上記中間点座標を連続的に検出することにより、画面左端中央部の所定領域内に上記中間点座標が含まれることがあるか否かを判定してもよい。
なお、これらのジェスチャは利用者が直感的に把握しやすいように考案された態様であるが、これらは例示であって利用者が理解しやすいまたは覚えやすい態様であればどのようなものであってもよい。また、ここでは説明の便宜のためウィンドウの分割数を1(非分割),2、または4としたが分割数に限定はなく、さらにウィンドウの分割態様も横に4つに分割したり周知の特殊な形状に分割するなど、どのような態様で分割してもよい。
ここで、例えばウィンドウを1画面から縦2画面に変化させるには、画面中央上部を始点座標とし、画面中央下部を終点座標とするジェスチャA1を行えばよい。なお、前述したしおり処理を実行するためのジェスチャとほぼ同じであるが、図8のステップS31において説明したように、(利用者により選択されている動作モードが)読書モードであるときは読書処理として上記ジェスチャはしおり処理を実行するためのジェスチャとして認識され、読書モードでないときはウィンドウ処理として上記ジェスチャはウィンドウの態様を変化させるためのジェスチャとして認識される。
また、ウィンドウを縦2画面から横2画面に変化させるには、図17に示されるようにジェスチャA2,A3を行えばよく、ウィンドウを横2画面から1画面に変化させるには、図17に示されるようにジェスチャE1,E2を行えばよい。
さらに例えば、ウィンドウを4画面から1画面に変化させるには、画面中央部を始点座標とし、画面左上端部近傍を終点座標とするジェスチャF3、または画面中央部を始点座標とし、かつ所定時間押し続けることで同じ位置を終点座標とするジェスチャF4を行えばよい。なおここでは、ジェスチャF3は、画面中央部を始点座標とし、画面右上端部近傍、右下端部近傍、または左下端部近傍を終点座標とするジェスチャを含むものとする。また、他のウィンドウ態様に変化させるためのジェスチャについては、図17を参照すれば明らかであるので詳しい説明を省略する。
このように図16に示すステップS351において、制御部100は、上記図17に示すジェスチャと合致するか否かを判定し、その結果合致しない場合(ステップS351においてNoの場合)にはウィンドウ処理を行うコマンドに対応するジェスチャが入力されていないので、本ウィンドウ処理は終了して図8の処理(さらには図4の処理)に復帰する。また、合致する場合(ステップS351においてYesの場合)にはステップS353の処理へ進む。
ステップS353おいて、制御部100は、当該入力されたジェスチャに対応するコマンド処理が現在のウィンドウ態様から実行可能であるか否かを判定する。この結果、実行不可能である場合(ステップS353においてNoの場合)、例えば1画面の時にジェスチャF1が入力される場合、遷移(変更)可能なウィンドウ態様はなく、対応する処理コマンド(ここでは縦2画面から1画面への変化処理、または横2画面から4画面への変化処理)は実行不可能であるので、本処理は終了し、実行可能である場合(ステップS353においてYesの場合)、ジェスチャに対応するコマンド処理に応じてウィンドウの態様を変化させ(ステップS355)、その後、本ウィンドウ処理は終了して図8の処理(さらには図4の処理)に復帰する。
<5. 効果>
以上のように、本実施形態では、片手で把持できる程度に小型の携帯型表示装置において、当該装置を把持する片手の親指で2つの画面の中央近傍の固定座標位置が押下されるとジェスチャを受け付ける状態となり、典型的にはもう一方の手指により入力される所定のジェスチャにより読書処理やウィンドウ処理を行うためのコマンドが受け付けられるので、2画面の携帯型表示装置を把持すると簡単かつ自然にコマンド受付状態となってジェスチャ認識が可能となるとともに、携帯型表示装置を把持しない時にはコマンド非受付状態となって意図しない表示画面への接触等によりコマンドが誤って実行されることを防止することができる。このように本実施形態の携帯型表示装置は、2画面の表示画面に好適な操作入力用インタフェースを実現することができる。
以上のように、本実施形態では、片手で把持できる程度に小型の携帯型表示装置において、当該装置を把持する片手の親指で2つの画面の中央近傍の固定座標位置が押下されるとジェスチャを受け付ける状態となり、典型的にはもう一方の手指により入力される所定のジェスチャにより読書処理やウィンドウ処理を行うためのコマンドが受け付けられるので、2画面の携帯型表示装置を把持すると簡単かつ自然にコマンド受付状態となってジェスチャ認識が可能となるとともに、携帯型表示装置を把持しない時にはコマンド非受付状態となって意図しない表示画面への接触等によりコマンドが誤って実行されることを防止することができる。このように本実施形態の携帯型表示装置は、2画面の表示画面に好適な操作入力用インタフェースを実現することができる。
<6. 変形例>
上記実施形態では、しおり付与処理、ページめくり処理、ウィンドウ処理などを行うコマンドに対応する各種ジェスチャを示したが、これらは例示であって、入力される座標に上記固定座標エリア内の座標が含まれていない場合にはコマンド非受付状態となり、含まれている場合にはコマンド受付状態となるものであれば、入力座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様として認識されるどのようなジェスチャであってもよいし、これらのジェスチャに対応するよう予め記憶される処理コマンドも携帯型表示装置において行われるどのような処理であってもよい。例えば、当該装置を把持する片手の親指で2つの画面の中央近傍の固定座標位置を押下するとともに、もう一方の手の親指および人差し指を右表示部14b上に置いてから広げるジェスチャや、もう一方の手指を右表示部14bの左下から右上へ動かすジェスチャを行えば、右表示部14bに表示される画像を拡大表示するコマンドが実行されたり、またはその逆に、当該装置を把持する片手の親指で2つの画面の中央近傍の固定座標位置を押下するとともに、もう一方の手の親指および人差し指を右表示部14b上に置いてから狭めるジェスチャや、もう一方の手指を右表示部14bの右上から左下へ動かすジェスチャを行えば、右表示部14bに表示される画像を縮小表示するコマンドが実行されるような動作が行われてもよい。
上記実施形態では、しおり付与処理、ページめくり処理、ウィンドウ処理などを行うコマンドに対応する各種ジェスチャを示したが、これらは例示であって、入力される座標に上記固定座標エリア内の座標が含まれていない場合にはコマンド非受付状態となり、含まれている場合にはコマンド受付状態となるものであれば、入力座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様として認識されるどのようなジェスチャであってもよいし、これらのジェスチャに対応するよう予め記憶される処理コマンドも携帯型表示装置において行われるどのような処理であってもよい。例えば、当該装置を把持する片手の親指で2つの画面の中央近傍の固定座標位置を押下するとともに、もう一方の手の親指および人差し指を右表示部14b上に置いてから広げるジェスチャや、もう一方の手指を右表示部14bの左下から右上へ動かすジェスチャを行えば、右表示部14bに表示される画像を拡大表示するコマンドが実行されたり、またはその逆に、当該装置を把持する片手の親指で2つの画面の中央近傍の固定座標位置を押下するとともに、もう一方の手の親指および人差し指を右表示部14b上に置いてから狭めるジェスチャや、もう一方の手指を右表示部14bの右上から左下へ動かすジェスチャを行えば、右表示部14bに表示される画像を縮小表示するコマンドが実行されるような動作が行われてもよい。
上記実施形態では、本携帯型表示装置を把持する片手の親指で2つの画面の中央近傍の固定座標位置を押下するよう説明した。これは一般的に2つの画面の中央近傍が最も持ちやすいように構成されているからである。しかし、利用者が持ちやすいと感じる位置がこれとは異なる場合もあり得るし、当該装置に付属品などを取り付けることにより一般的に持ちやすい位置が変化する場合も考えられる。そこで、上記固定座標位置は2つの画面の中央近傍から離れた所定位置、例えば左表示部14aの左端中央近傍などに変更可能であってもよい。
上記実施形態では、入力処理(S2)が終了した後に認識処理(S3)を行う構成であるが、このような処理の流れは(他の処理の流れも含めて)説明の便宜のための例示的なものに過ぎず、これらを一体的に行ってもよいし、イベントドリブン型の処理を行うなど、周知の処理手順を採用することができる。
上記実施形態では、ジェスチャの種類と各ジェスチャに対応するコマンド(処理内容)は予め固定的に記憶されているが、この対応関係は利用者によりまたはアプリケーションにより自由に設定可能なように構成されていてもよい。
上記実施形態では、2つの画面を有する携帯型表示装置を例に説明したが、3つ以上の画面を有するものであっても、そのうちの隣接する2つの画面について上記ジェスチャーが行われる構成であればよい。
上記実施形態では、終点座標は指を離した瞬間の位置となっているが、終点座標の判定は表示部から指が所定の時間離れた時に確定するように構成してもよい。そうすれば、例えば左表示部14aと右表示部14bがやや谷折りに折り曲げられている状態で2画面に渡るジェスチャを入力する場合、中央近傍で指が一瞬離れる場合であっても終点座標は最後に指を(上記所定時間以上)離した位置となるので、全体として連続したジェスチャとして認識することが可能となる。
上記実施形態では、ジェスチャの認識を始点座標および終点座標(並びに経過時間)に基づき行っているが、周知の各種ジェスチャ認識手法を用いることができる。例えば、周知のパターン認識によりジェスチャを認識する構成や、所定のベクトル演算を行う構成、単位時間毎に記憶される関連する(連続する)座標群の変化に基づき上記ジェスチャのいずれに該当するかを判定する構成などを用いることができる。
上記実施形態では、左表示部14aと右表示部14bとの間には隙間がない(シームレス)であるが、或る程度の間隔が空いていてもよい。ただし、その間を典型的には親指で押さえることができ、かつその状態を検出できることが必要であり、また前述したように左右画面に渡るジェスチャーが可能な程度に段差がない構造であることが好ましい。
上記実施形態では、上記のようなジェスチャ認識を携帯情報端末において実施する例を示したが、利用者により把持可能な携帯型表示装置であれば、携帯電話、電子手帳、電子辞書、電子書籍端末、モバイルインターネット端末などの周知の装置において実施することができる。
本発明は、例えばタッチパネルを備える携帯型の表示装置に適用されるものであって、2画面の表示部および当該表示部に対して近接または接触若しくは押圧される座標を検出するタッチパネルを備える携帯型表示装置に適している。
10 …携帯情報端末
14a …左画面
14b …右画面
16 …固定座標エリア
100 …制御部
140 …表示部
141 …液晶パネル
160 …入力部
161 …タッチパネル
Ftl …左手親指
Ffr …右手人差し指
Ps …検出点
P …ジェスチャ認識プログラム
14a …左画面
14b …右画面
16 …固定座標エリア
100 …制御部
140 …表示部
141 …液晶パネル
160 …入力部
161 …タッチパネル
Ftl …左手親指
Ffr …右手人差し指
Ps …検出点
P …ジェスチャ認識プログラム
Claims (12)
- 利用者により把持可能な携帯型表示装置であって、
隣り合う2つの画面にそれぞれ画像を表示する表示部と、
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得可能な入力部と、
前記入力部により取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識部と
を備え、
前記ジェスチャ認識部は、前記入力部により取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする、携帯型表示装置。 - 前記ジェスチャ認識部は、前記2つの画面が隣り合う部分または当該部分近傍の予め定められた固定座標に基づき、前記処理コマンドを実行することを特徴とする、請求項1に記載の携帯型表示装置。
- 前記入力部は、当該携帯型表示装置を把持する前記利用者の一方の手指の位置に対応する前記表示部上の座標であって前記利用者の一方の手指による把持に適した位置に対応する座標を前記固定座標として取得するとともに、前記利用者の他方の手指の位置に対応する前記表示部上の座標を前記関連する2つ以上の座標として取得することを特徴とする、請求項1に記載の携帯型表示装置。
- 前記表示部は、前記2つの画面が隣り合う辺または当該辺近傍を谷折り線として、前記2つの画面が対向するよう折りたたみ可能であり、
前記ジェスチャ認識部は、前記谷折り線上または前記谷折り線近傍の座標を含む固定座標に基づき、前記処理コマンドを実行することを特徴とする、請求項1に記載の携帯型表示装置。 - 前記ジェスチャ認識部は、前記関連する2つ以上の座標が前記2つの画面の一方から他方へ移動する変化態様である場合、当該変化態様に応じた所定のページ送りコマンドとして認識し実行し、
前記表示部は、所定ページにそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示するとともに、前記ジェスチャ認識部により前記ページ送りコマンドが実行される場合には、前記変化態様に応じて所定数だけ増加または減少させたページに対応付けられた画像を表示することを特徴とする、請求項1に記載の携帯型表示装置。 - 前記ジェスチャ認識部は、前記入力部により取得される座標に、前記固定座標から所定距離だけ離れた前記2つの画面の外周近傍の予め定められた座標が所定期間連続して含まれている場合、前記期間中所定のページ送りコマンドとして認識し実行し、
前記表示部は、所定ページとそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示するとともに、前記ジェスチャ認識部により前記ページ送りコマンドが認識される場合には、前記期間中、所定の時間間隔で所定数だけ増加または減少させたページに対応付けられた画像を表示することを特徴とする、請求項1に記載の携帯型表示装置。 - 前記表示部は、所定ページにそれぞれ対応付けられた2つの画像を前記2つの画面において見開き2ページの形で表示し、
前記ジェスチャ認識部は、前記2つの画面が隣り合う部分または当該部分近傍における前記画面端部近傍から中央近傍へ前記関連する2つ以上の座標が移動する変化態様である場合、所定のしおり付与コマンドとして認識し、前記表示部により表示されている画像に対応するページを記憶することを特徴とする、請求項1に記載の携帯型表示装置。 - 前記ジェスチャ認識部は、前記2つの画面における1つ以上の四角形状の表示用ウィンドウの周囲4つの辺のうちの1辺近傍から他の1辺近傍へ向かって前記関連する2つ以上の座標が移動する変化態様である場合、当該変化態様に応じた所定のウィンドウ態様変更コマンドとして認識し実行し、
前記表示部は、前記ジェスチャ認識部により前記ウィンドウ態様変更コマンドが実行される場合には、前記変化態様に応じて前記ウィンドウの分割数または分割形態を変更し、変更された態様で前記ウィンドウ内に画像を表示することを特徴とする、請求項1に記載の携帯型表示装置。 - 前記ジェスチャ認識部は、前記入力部により取得される座標に、前記2つの画面が隣り合う部分または当該部分近傍の予め定められた複数の固定座標のうち所定数の固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記所定数の固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする、請求項1に記載の携帯型表示装置。
- 前記入力部は、前記ジェスチャ認識部において前記非受付状態である期間中、取得すべき前記表示部上の座標の範囲を前記固定座標または前記固定座標近傍に限定し、または前記表示部上の座標を取得すべき時間間隔を前記受付状態である期間中の当該時間間隔よりも長く設定する動作の少なくとも一方を行うことにより前記座標を取得することを特徴とする、請求項1に記載の携帯型表示装置。
- 隣り合う2つの画面にそれぞれ画像を表示する表示部を備え、利用者により把持可能な携帯型表示装置の制御方法であって、
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得する入力ステップと、
前記入力ステップにおいて取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識ステップと
を備え、
前記ジェスチャ認識ステップでは、前記入力ステップにおいて取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする、携帯型表示装置の制御方法。 - 隣り合う2つの画面にそれぞれ画像を表示する表示部を備え、利用者により把持可能な携帯型表示装置に、
前記利用者により近接または接触若しくは押圧された前記表示部上の座標を2つ以上取得する入力ステップと、
前記入力ステップにおいて取得される近接または接触若しくは押圧された前記表示部上の座標を時系列に応じて関連づけることにより、関連する2つ以上の座標の変化態様に対応する予め記憶される処理コマンドとして認識し実行するジェスチャ認識ステップと
を実行させるプログラムであって、
前記ジェスチャ認識ステップでは、前記入力ステップにおいて取得される座標に、表示される前記画像とは無関係に固定的に定められる固定座標が含まれていない場合、前記処理コマンドとして認識し実行しない非受付状態となり、前記固定座標が含まれている場合、前記処理コマンドを認識可能な受付状態となることを特徴とする、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011524673A JP5284473B2 (ja) | 2009-07-30 | 2010-03-19 | 携帯型表示装置およびその制御方法、プログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009177320 | 2009-07-30 | ||
JP2009177320 | 2009-07-30 | ||
PCT/JP2010/054808 WO2011013400A1 (ja) | 2009-07-30 | 2010-03-19 | 携帯型表示装置およびその制御方法、プログラム、記録媒体 |
JP2011524673A JP5284473B2 (ja) | 2009-07-30 | 2010-03-19 | 携帯型表示装置およびその制御方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2011013400A1 JPWO2011013400A1 (ja) | 2013-01-07 |
JP5284473B2 true JP5284473B2 (ja) | 2013-09-11 |
Family
ID=43529067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011524673A Active JP5284473B2 (ja) | 2009-07-30 | 2010-03-19 | 携帯型表示装置およびその制御方法、プログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US8669955B2 (ja) |
EP (1) | EP2461237B1 (ja) |
JP (1) | JP5284473B2 (ja) |
CN (1) | CN102473043B (ja) |
BR (1) | BR112012001334A2 (ja) |
RU (1) | RU2501066C2 (ja) |
WO (1) | WO2011013400A1 (ja) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2437153A3 (en) * | 2010-10-01 | 2016-10-05 | Samsung Electronics Co., Ltd. | Apparatus and method for turning e-book pages in portable terminal |
EP2437151B1 (en) | 2010-10-01 | 2020-07-08 | Samsung Electronics Co., Ltd. | Apparatus and method for turning e-book pages in portable terminal |
KR101743632B1 (ko) | 2010-10-01 | 2017-06-07 | 삼성전자주식회사 | 휴대용 단말기에서 전자책 페이지 넘김 장치 및 방법 |
US9678572B2 (en) | 2010-10-01 | 2017-06-13 | Samsung Electronics Co., Ltd. | Apparatus and method for turning e-book pages in portable terminal |
EP2628069B1 (en) | 2010-10-12 | 2020-12-02 | New York University | Apparatus for sensing utilizing tiles, sensor having a set of plates, object identification for multi-touch surfaces, and method |
US8997025B2 (en) * | 2010-11-24 | 2015-03-31 | Fuji Xerox Co., Ltd. | Method, system and computer readable medium for document visualization with interactive folding gesture technique on a multi-touch display |
JP5617581B2 (ja) * | 2010-12-08 | 2014-11-05 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体 |
CN106293580B (zh) | 2011-02-10 | 2020-06-09 | 三星电子株式会社 | 便携式设备及其控制方法 |
KR20120091975A (ko) | 2011-02-10 | 2012-08-20 | 삼성전자주식회사 | 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법 |
KR101842906B1 (ko) | 2011-02-10 | 2018-05-15 | 삼성전자주식회사 | 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법 |
KR101802522B1 (ko) * | 2011-02-10 | 2017-11-29 | 삼성전자주식회사 | 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법 |
KR101964843B1 (ko) * | 2011-02-10 | 2019-04-03 | 삼성전자주식회사 | 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법 |
JP5580227B2 (ja) * | 2011-02-24 | 2014-08-27 | 京セラ株式会社 | 携帯端末装置 |
JP2012212230A (ja) * | 2011-03-30 | 2012-11-01 | Toshiba Corp | 電子機器 |
JP5834512B2 (ja) * | 2011-06-13 | 2015-12-24 | カシオ計算機株式会社 | 情報表示装置及びプログラム |
JP5344651B2 (ja) * | 2011-07-29 | 2013-11-20 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、制御方法、プログラム、および情報処理システム |
JP5806573B2 (ja) * | 2011-09-28 | 2015-11-10 | キヤノン株式会社 | 座標入力装置およびその制御方法、座標入力システム |
WO2013051052A1 (ja) * | 2011-10-03 | 2013-04-11 | 古野電気株式会社 | 情報表示装置、情報表示方法及び情報表示プログラム |
US8760423B2 (en) | 2011-10-28 | 2014-06-24 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
US8904057B2 (en) * | 2011-10-28 | 2014-12-02 | Nintendo Co., Ltd. | System, method and storage medium for setting an interruption compensation period on the basis of a change amount of the input data |
US8773382B2 (en) | 2011-10-28 | 2014-07-08 | Nintendo Co., Ltd. | Computer-readable storage medium, coordinate processing apparatus, coordinate processing system, and coordinate processing method |
JP5827870B2 (ja) | 2011-10-28 | 2015-12-02 | 任天堂株式会社 | 座標処理プログラム、座標処理装置、座標処理システムおよび座標処理方法 |
JP5974350B2 (ja) * | 2011-11-24 | 2016-08-23 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法及び制御装置 |
US9645733B2 (en) * | 2011-12-06 | 2017-05-09 | Google Inc. | Mechanism for switching between document viewing windows |
US20130222276A1 (en) * | 2012-02-29 | 2013-08-29 | Lg Electronics Inc. | Electronic device and method for controlling electronic device |
JP2013235359A (ja) * | 2012-05-08 | 2013-11-21 | Tokai Rika Co Ltd | 情報処理装置及び入力装置 |
US9696879B2 (en) | 2012-09-07 | 2017-07-04 | Google Inc. | Tab scrubbing using navigation gestures |
JP6034161B2 (ja) * | 2012-11-29 | 2016-11-30 | シナプティクス・ジャパン合同会社 | 半導体装置及び電子機器 |
US9030430B2 (en) * | 2012-12-14 | 2015-05-12 | Barnesandnoble.Com Llc | Multi-touch navigation mode |
CN103885571B (zh) * | 2012-12-19 | 2017-09-29 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US20150339028A1 (en) * | 2012-12-28 | 2015-11-26 | Nokia Technologies Oy | Responding to User Input Gestures |
US9836154B2 (en) | 2013-01-24 | 2017-12-05 | Nook Digital, Llc | Selective touch scan area and reporting techniques |
JP6070228B2 (ja) * | 2013-02-01 | 2017-02-01 | コニカミノルタ株式会社 | 超音波画像診断装置 |
US9019223B2 (en) * | 2013-03-13 | 2015-04-28 | Adobe Systems Incorporated | Touch input layout configuration |
KR101717637B1 (ko) * | 2013-05-08 | 2017-03-17 | 알프스 덴키 가부시키가이샤 | 입력 장치 |
US9927840B2 (en) | 2013-06-21 | 2018-03-27 | Semiconductor Energy Laboratory Co., Ltd. | Information processor for processing and displaying image data on a bendable display unit |
JP5751655B1 (ja) * | 2013-07-17 | 2015-07-22 | 株式会社Leonis&Co. | 電子チケットの消し込み方法およびプログラム |
JP6196101B2 (ja) * | 2013-09-02 | 2017-09-13 | 株式会社東芝 | 情報処理装置、方法およびプログラム |
CN104601767A (zh) * | 2013-10-31 | 2015-05-06 | 深圳富泰宏精密工业有限公司 | 手机拨号键盘管理方法及系统 |
WO2015075767A1 (ja) | 2013-11-19 | 2015-05-28 | 日立マクセル株式会社 | 投射型映像表示装置 |
TWI526916B (zh) * | 2013-12-31 | 2016-03-21 | Egalax Empia Technology Inc | Multi-touch screen device and multi-touch screen adjacent junction detection method |
JP6464576B2 (ja) * | 2014-06-04 | 2019-02-06 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
KR102218041B1 (ko) * | 2014-06-17 | 2021-02-19 | 엘지전자 주식회사 | 이동 단말기 |
CN107077284B (zh) * | 2014-09-26 | 2020-07-14 | 夏普株式会社 | 把持方式判断装置 |
KR102339839B1 (ko) | 2014-12-26 | 2021-12-15 | 삼성전자주식회사 | 제스처 입력 처리 방법 및 장치 |
KR102320770B1 (ko) * | 2015-01-20 | 2021-11-02 | 삼성디스플레이 주식회사 | 표시장치의 터치 인식방법 및 이를 이용한 표시장치 |
JP2016161869A (ja) * | 2015-03-04 | 2016-09-05 | セイコーエプソン株式会社 | 表示装置及び表示制御方法 |
CN104917891B (zh) * | 2015-05-29 | 2018-08-07 | 努比亚技术有限公司 | 一种移动终端及其翻页控制方法 |
US10055120B2 (en) | 2015-07-07 | 2018-08-21 | International Business Machines Corporation | Managing content displayed on a touch screen enabled device using gestures |
JP2017142656A (ja) * | 2016-02-10 | 2017-08-17 | 株式会社Nttドコモ | 情報処理装置 |
JP6314177B2 (ja) * | 2016-07-13 | 2018-04-18 | マクセル株式会社 | 投射型映像表示装置 |
CN109782981A (zh) * | 2018-12-25 | 2019-05-21 | 北京字节跳动网络技术有限公司 | 一种页面跳转触发方法、装置和计算机存储介质 |
EP3835924A1 (en) * | 2019-12-13 | 2021-06-16 | Treye Tech UG (haftungsbeschränkt) | Computer system and method for human-machine interaction |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03245218A (ja) * | 1990-02-22 | 1991-10-31 | Ricoh Co Ltd | デジタル式タッチパネルの押下位置検出方式 |
JPH07168949A (ja) * | 1993-04-30 | 1995-07-04 | Rank Xerox Ltd | 対話式複写装置 |
JP2000039964A (ja) * | 1998-07-22 | 2000-02-08 | Sharp Corp | 手書き入力装置 |
JP2001517813A (ja) * | 1997-09-19 | 2001-10-09 | ボルグワード・ロールス・グレン | デジタルブック |
JP2006029987A (ja) * | 2004-07-16 | 2006-02-02 | Alps Electric Co Ltd | 静電容量式の検出装置及び方法並びに座標検出用プログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2001252242A1 (en) * | 2000-03-31 | 2001-10-08 | Glenn Rolus Borgward | Universal digital mobile device |
RU45541U1 (ru) * | 2004-03-10 | 2005-05-10 | Закрытое акционерное общество "НПО Космического Приборостроения" | Двухэкранный ноутбук |
JP2006053678A (ja) | 2004-08-10 | 2006-02-23 | Toshiba Corp | ユニバーサルヒューマンインタフェースを有する電子機器 |
JP4719494B2 (ja) * | 2005-04-06 | 2011-07-06 | 任天堂株式会社 | 入力座標処理プログラムおよび入力座標処理装置 |
KR20080098763A (ko) * | 2007-05-07 | 2008-11-12 | 삼성전자주식회사 | 사용자의 파지 여부에 따라 적응적으로 동작하는 영상기기및 그의 동작제어방법 |
EP2060970A1 (en) * | 2007-11-12 | 2009-05-20 | Research In Motion Limited | User interface for touchscreen device |
US20100265209A1 (en) * | 2007-12-06 | 2010-10-21 | Nokia Corporation | Power reduction for touch screens |
US8385885B2 (en) * | 2008-10-17 | 2013-02-26 | Sony Ericsson Mobile Communications Ab | Method of unlocking a mobile electronic device |
CN101661373B (zh) * | 2009-09-29 | 2013-02-27 | 中兴通讯股份有限公司 | 一种通过接触面型进行识别解锁的方法及装置 |
-
2010
- 2010-03-19 CN CN201080026664.5A patent/CN102473043B/zh not_active Expired - Fee Related
- 2010-03-19 JP JP2011524673A patent/JP5284473B2/ja active Active
- 2010-03-19 EP EP10804149.2A patent/EP2461237B1/en active Active
- 2010-03-19 US US13/387,618 patent/US8669955B2/en active Active
- 2010-03-19 RU RU2012107287/08A patent/RU2501066C2/ru not_active IP Right Cessation
- 2010-03-19 BR BR112012001334A patent/BR112012001334A2/pt not_active IP Right Cessation
- 2010-03-19 WO PCT/JP2010/054808 patent/WO2011013400A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03245218A (ja) * | 1990-02-22 | 1991-10-31 | Ricoh Co Ltd | デジタル式タッチパネルの押下位置検出方式 |
JPH07168949A (ja) * | 1993-04-30 | 1995-07-04 | Rank Xerox Ltd | 対話式複写装置 |
JP2001517813A (ja) * | 1997-09-19 | 2001-10-09 | ボルグワード・ロールス・グレン | デジタルブック |
JP2000039964A (ja) * | 1998-07-22 | 2000-02-08 | Sharp Corp | 手書き入力装置 |
JP2006029987A (ja) * | 2004-07-16 | 2006-02-02 | Alps Electric Co Ltd | 静電容量式の検出装置及び方法並びに座標検出用プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN102473043B (zh) | 2014-11-26 |
EP2461237A4 (en) | 2017-05-10 |
EP2461237A1 (en) | 2012-06-06 |
EP2461237B1 (en) | 2020-06-24 |
US20120127109A1 (en) | 2012-05-24 |
RU2501066C2 (ru) | 2013-12-10 |
BR112012001334A2 (pt) | 2016-03-15 |
WO2011013400A1 (ja) | 2011-02-03 |
JPWO2011013400A1 (ja) | 2013-01-07 |
RU2012107287A (ru) | 2013-09-10 |
US8669955B2 (en) | 2014-03-11 |
CN102473043A (zh) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5284473B2 (ja) | 携帯型表示装置およびその制御方法、プログラム | |
US8941600B2 (en) | Apparatus for providing touch feedback for user input to a touch sensitive surface | |
JP5295328B2 (ja) | スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム | |
WO2011142151A1 (ja) | 携帯型情報端末およびその制御方法 | |
US20110060986A1 (en) | Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same | |
JPH0876926A (ja) | 画像表示装置 | |
US20110216015A1 (en) | Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions | |
JP2004054589A (ja) | 情報表示入力装置及び情報表示入力方法、並びに情報処理装置 | |
WO2022143198A1 (zh) | 一种应用界面的处理方法以及相关设备 | |
WO2022143620A1 (zh) | 一种虚拟键盘的处理方法以及相关设备 | |
JP2010218286A (ja) | 情報処理装置およびプログラムおよび表示方法 | |
JP2009098990A (ja) | 表示装置 | |
JP2014016743A (ja) | 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム | |
WO2014083929A1 (ja) | タッチパネルにおける文書スクロール方法、装置及びコンピュータ・プログラム | |
US9244556B2 (en) | Display apparatus, display method, and program | |
JP2012156607A (ja) | 視覚障がい者向け携帯端末装置 | |
WO2022143579A1 (zh) | 一种反馈方法以及相关设备 | |
WO2018123320A1 (ja) | ユーザーインターフェイス装置及び電子機器 | |
JP6622837B2 (ja) | 入力表示装置および入力表示方法 | |
JP6220374B2 (ja) | 情報処理装置、出力文字コード判定方法、及びプログラム | |
WO2022143607A1 (zh) | 一种应用界面的处理方法以及相关设备 | |
KR101692848B1 (ko) | 호버링을 이용하는 가상 터치패드 조작방법 및 이를 수행하는 단말기 | |
WO2013078621A1 (zh) | 用于电子设备的触屏输入方法和电子设备 | |
JP6250336B2 (ja) | 表示装置 | |
TW201407460A (zh) | 手持式電子裝置及其上顯示的虛擬鍵盤之安排方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5284473 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |