JPWO2013145804A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2013145804A1
JPWO2013145804A1 JP2014507458A JP2014507458A JPWO2013145804A1 JP WO2013145804 A1 JPWO2013145804 A1 JP WO2013145804A1 JP 2014507458 A JP2014507458 A JP 2014507458A JP 2014507458 A JP2014507458 A JP 2014507458A JP WO2013145804 A1 JPWO2013145804 A1 JP WO2013145804A1
Authority
JP
Japan
Prior art keywords
fat
swipe
operating body
information processing
longitudinal direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014507458A
Other languages
English (en)
Other versions
JP6036807B2 (ja
Inventor
智也 成田
智也 成田
山本 一幸
一幸 山本
山野 郁男
郁男 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2013145804A1 publication Critical patent/JPWO2013145804A1/ja
Application granted granted Critical
Publication of JP6036807B2 publication Critical patent/JP6036807B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

操作体の方向を考慮して、より直感的な操作が可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提供する。操作体の長手方向を検出する操作体方向検出部と、前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定部と、を備える情報処理装置。

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、タッチパネルを備える情報処理装置において、指等の操作体の位置特定を精度良く行うことが可能な技術が開示されている。例えば、特許文献1には、複数の導電体を島状に形成され、ユーザによる操作を受けた際に当該導電体が弾性変形されることにより、操作検出を行う技術が開示されている。
また、上記のように操作体の位置特定を精度良く行うことができるようになったことで、より直感的なタッチパネルの操作方法も創作されてきている。
例えば、下記の特許文献2には、タッチパネルの操作体の接触位置及び接触面積を特定し、接触位置に表示されている画像を、接触面積に応じて拡大して別の画面に表示する技術が開示されている。
また、例えば、下記の特許文献3には、操作体と表示部の接触点の位置及び接触点とは異なる近接点の位置を特定することにより、操作体をツイストさせる動きを検知し、操作性を向上させる技術が開示されている。
特開2011−221677号公報 特開2011−141753号公報 特開2010−33158号公報
しかし、上記の特許文献2の技術では、操作体がタッチパネルに接触した際の方向を考慮していない。
また、上記の特許文献3の技術では、操作体の方向の変化を考慮しているものの、検出した操作体の方向を、その後に行われる操作に利用されておらず、直感性に欠ける。
そこで、本技術は、上記のような事情を受けて考案されたものであり、操作体の方向を考慮して、より直感的な操作が可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提供することを意図している。
本開示によれば、操作体の長手方向を検出する操作体方向検出部と、前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定部と、を備える情報処理装置が提供される。
また、本開示によれば、操作体の長手方向を検出するステップと、前記操作体の長手方向を基準とする方向にコマンドを割り当てるステップと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータに、操作体の長手方向を検出する操作体方向検出機能と、前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定機能と、を実現させるためのプログラムが提供される。
以上説明したように本開示によれば、操作体の方向を考慮して、より直感的な操作が可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラム装置が提供される。
本開示の第1実施形態に係る情報処理装置の基本構成について説明するための説明図である。 同実施形態に係る操作検出方法について説明するための説明図である。 同実施形態に係る操作体形状特定方法について説明するための説明図である。 同実施形態に係る基本操作方法について説明するための説明図である。 操作方向の例について説明するための説明図である。 操作方向の例について説明するための説明図である。 画面の領域分割の例について説明するための説明図である。 画面の領域分割の例について説明するための説明図である。 同実施形態に係る情報処理方法の処理の流れについて説明するための説明図である。 同実施形態に係る情報処理方法の処理の流れについて説明するための説明図である。 同実施形態の第1変形例における操作について説明するための説明図である。 同実施形態の第1変形例における画面切り替えについて説明するための説明図である。 同実施形態の第1変形例における画面切り替えについて説明するための説明図である。 同実施形態の第1変形例における操作方向の例について説明するための説明図である。 同実施形態の第2変形例について説明するための説明図である。 同実施形態の第2変形例について説明するための説明図である。 同実施形態の第3変形例について説明するための説明図である。 同実施形態の第4変形例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1:概要
2:基本構成(1本指ファットスワイプ)
2−1:全体構成(図1〜図3)
2−2:1本指ファットスワイプの基本操作(図4)
2−3:1本指ファットスワイプにおける操作方向の例(図5及び図6)
2−4:画面の領域分割の例(図7及び図8)
2−5:処理の流れ(図9及び図10)
3:第1変形例(2本指ファットスワイプ)
3−1:2本指ファットスワイプの基本操作(図11)
3−2:2本指ファットスワイプにおける画面切り替え(図12及び図13)
3−3:2本指ファットスワイプにおける操作方向の例(図14)
4:第2変形例(1.5本指ファットスワイプ;図15及び図16)
5:第3変形例(1本指ツイストファットスワイプ;図17)
6:第4変形例(1.5本指ツイストファットスワイプ;図18)
7:応用例
7−1:アプリケーション切り替えへの応用例(図19〜図22)
7−2:モード切り替えへの応用例(図23及び図24)
7−3:パラメータ値の設定への応用例(図25〜図28)
7−4:ページ移動操作への応用例(図29及び図30)
7−5:追加情報提供への応用例(図31及び図32)
7−6:ゲームへの応用例(図33)
8:まとめ
<1:概要>
本開示は、タッチパネルの一点を中心に行う指先等による通常の操作に加え、指の腹等で行うタッチパネルの操作及び操作方向の検出に関する。指先のみではなく指の腹等でタッチパネルに多くの面積で接触することによる操作方法を本開示では、ファットスワイプとよぶこととする。
以下では、まず最も基本的な1つの操作体(指やタッチペン等)でファットスワイプを行う1本指ファットスワイプモードと通常の操作を検出する通常モードとの切り替え方法及び1本指ファットスワイプの内容について説明する。次に、2つの操作体で行うファットスワイプや、通常の操作と組み合わせたファットスワイプや、1本指ファットスワイプとは異なる操作体の動きで操作を行うファットスワイプについて、変形例として説明する。
さらに、ファットスワイプでの操作を各種装置の各種機能に適用する応用例について説明する。
<2:基本構成(1本指ファットスワイプ)>
以下では、本開示における最も基本的な構成である1本指ファットスワイプモードと通常モードとの切り替え方法及び1本指ファットスワイプの内容について説明する。1本指ファットスワイプは、1本の指で、指先のみではなくタッチパネルに多くの面積を触れ、その指を、指と垂直の横方向に動かした場合に、画面や機能を切り替える操作方法である。
[2−1:全体構成(図1〜図3)]
以下では、図1〜図3を参照しながら、本実施形態に係る情報処理装置の全体構成について説明する。図1は、本実施形態に係る情報処理装置の基本構成について説明するための説明図である。
図1に示す全体構成は一例であり、一部の構成要素を変更したり、追加したり、削除したりしてもよい。以下では、タッチパネル機能を液晶パネルの内部に一体化したインセルタッチパネルを備える情報処理装置について主に説明する。
図1に示すように、情報処理装置10は、操作検出部102と、操作体位置・形状特定部104と、モード切替部110と、通常モード実行部112と、ファットスワイプモード実行部114とを主に備える。
また、操作体位置・形状特定部104は、操作領域特定部106と、縦横比算出部108とを備える。ファットスワイプモード実行部114は、操作体方向検出部116と、操作方向決定部118と、表示制御部118と、表示部120とを備える。
情報処理装置10のユーザによる操作が行われた場合に、まず、操作検出部102が、当該操作を検出する。タッチパネルに対して、ユーザは、指やタッチペン等の操作体で操作を行う。
操作検出部102には、例えばインセルタッチパネルにおける導電体のように、ユーザの指がタッチパネルに接触している状態と、近接している状態と、離隔している状態とを区別できるような情報を取得するセンサを備える。
本開示において、ユーザによる表示部120の画面の操作は、接触と非接触を区別するものでもよく、近接と非近接を区別するものでもよい。但し、以下では、接触によりユーザの操作が行われる場合について主に説明する。
操作検出部102は、ユーザによる指のタッチを検出する。検出対象には、通常の操作を行うことを意図してユーザが指先でタッチした場合と、ファットスワイプを行うことを意図して指の腹を含む広範囲でタッチする場合との両者を含む。
ユーザによる表示部120の画面の操作が行われた場合に、操作体位置・形状特定部104には、操作検出部102から信号が入力される。
操作体位置・形状特定部104は、操作検出部102からユーザによる表示部120の画面の操作が行われていることを示す信号が入力されると、指等の操作体の形状を特定する。形状を特定することにより、通常のタッチと、ファットスワイプを行うためのタッチを区別することを意図している。
図2は、操作検出方法について説明するための説明図である。図2(a)は通常のタッチを示している。また、図2(b)は、ファットスワイプを意図したタッチを示している。
図2(a)のTAは、ユーザが手H1で情報処理装置10を通常の方法でタッチする場合の接触領域を示している。また、図2(b)のTBは、ユーザが手H2で情報処理装置10をファットスワイプを行うことを意図してタッチする場合の接触領域を示している。
図2(a)の接触領域TAと図2(b)の接触領域TBに示すように、通常の方法でタッチする場合と、ファットスワイプを意図してタッチする場合とでは、接触領域の形状が異なる。ファットスワイプを意図してタッチする場合には、指の腹も表示部120の画面に接触するため、接触領域の形状が、通常のタッチの場合と比較して縦長の形状になる。
また、接触領域の面積も通常の場合と比較して大きくなると考えられるが、通常のタッチの場合及びファットスワイプを意図したタッチの場合それぞれの接触領域の面積は、ユーザごとの個人差が大きい。
更に、ユーザによって通常のタッチの場合とファットスワイプを意図したタッチの場合の接触領域の面積の差や比も同様にユーザごとの個人差が大きい。
よって、本実施形態においては、接触領域の形状のうち、接触領域の縦横比に着目することとするが、接触領域の面積に着目して接触領域の形状を特定することを排除するものではない。
以下では、図3を参照しながら、操作体位置・形状特定部104の詳細について説明する。図3は、同実施形態に係る操作体形状特定方法について説明するための説明図である。図3(a)は通常のタッチを示している。また、図3(b)は、ファットスワイプを意図したタッチを示している。
図3(a)に示す通常のタッチの場合と比較して、図3(b)に示すファットスワイプを意図したタッチの場合には、接触領域を矩形で囲んだときの短手方向の長さに対する長手方向の長さの比が大きい。
上記のような違いを考慮すると、特定した接触領域を矩形で囲み、矩形の縦横比の違いにより、通常のタッチと、ファットスワイプを意図したタッチとを判別することが可能である。
操作体位置・形状特定部104の操作領域特定部106は、まず、操作体が表示部120の画面に接触している接触領域を特定する。
接触領域の検出方法は、例えば、表示部120の各部分への圧力を測定する方法等がある。
操作領域特定部106は、更に、特定した接触部分の形状を最も良く包含する矩形で囲い、当該矩形の長手方向の長さと短手方向の長さを測定する。ここで、接触部分の形状を最も良く包含する矩形とは、例えば、接触部分に外接する矩形である。
また、操作領域特定部106は、接触部分を囲んだ矩形の位置及び方向を特定し、位置及び方向に関する情報を、ファットスワイプモード実行部114へ出力する。
操作領域特定部106により測定された矩形の長手方向の長さhと短手方向の長さwは、縦横比算出部108に入力される。縦横比算出部108は、入力された短手方向の長さwに対する長手方向の長さhの比を、接触部分を囲んだ矩形の縦横比として算出する。
縦横比算出部108により算出された矩形の縦横比は、モード切替部110に入力される。モード切替部110は、接触部分を囲んだ矩形の縦横比の範囲によって、通常モード及びファットスワイプモードのうち、一方を選択する。
例えば、モード切替部110は、接触部分を囲んだ矩形の縦横比が所定の閾値TH以上の場合に、ファットスワイプモードを選択し、所定の閾値TH未満の場合に、通常モードを選択する。
上記の閾値THは、ユーザの指の形状や操作の仕方に合わせて、適宜変更できるようにしてもよい。
モード切替部110が通常モードを選択した場合に、通常モード実行部112は、通常モードを実行する。通常モードでは、ユーザが指先等で細かな操作を行い、通常モード実行部112がユーザの操作に従って様々なアプリケーション等を実行する。
モード切替部110がファットスワイプモードを選択した場合に、ファットスワイプモード実行部114は、ファットスワイプモードを実行する。
ファットスワイプモード実行部114の操作体方向検出部116には、操作体位置・形状特定部104が特定した接触部分を囲んだ矩形の位置及び方向に関する情報が入力される。
操作体方向検出部116は、入力された接触部分を囲んだ矩形の位置及び方向に基づき、操作体が表示部120の画面に接触した際の操作体の方向を検出する。例えば、操作体方向検出部116は、矩形の長手方向を操作体の方向として検出する。
操作体方向検出部116により検出された操作体の方向は、操作方向決定部118に入力される。操作方向決定部118は、検出された操作体の方向に応じて、ユーザが操作体を移動可能な一又は複数の方向を決定する。操作方向決定部118は、例えば、検出された操作体の方向に垂直な方向を操作方向として決定する。
例えば、操作体方向検出部116が接触部分の長手方向を操作体の方向として検出した場合には、操作方向決定部118は、接触部分の短手方向を操作方向として決定する。
また、操作方向決定部118は、ユーザが操作体を移動可能な各方向に対し、当該方向に対応するコマンドを割り当てる機能も包含する。
表示部120の画面に接触される操作体の方向はユーザが意図して決定しているため、上記のように操作体の方向に応じてユーザが操作体を移動可能な方向を決定することにより、より直感的な操作が可能になる。
操作体位置・形状特定部104の操作領域特定部106により特定された操作体の位置の変化に基づき、ファットスワイプモード実行部114には操作体の動きを特定することが可能である。
但し、上記のように、ファットスワイプモードでは、ユーザが操作体を移動可能な方向が操作方向決定部118により決定される。そのため、操作体の動きをベクトルで表現した際には、操作方向決定部118により決定された方向の成分を利用して以下の処理を行うこととして説明を進める。
但し、操作体方向決定部118により決定された方向以外の動きを更に利用して、以下の処理に加え、他の処理を行うことを排除するものではない。
表示制御部119には、操作体方向検出部116から、操作体の方向を示す情報が入力される。表示制御部119には、更に、操作方向決定部118から、操作方向を示す情報が入力される。表示制御部119には、更に、操作体位置・形状特定部104から、操作体の位置情報が入力される。
表示制御部119は、入力された上記の情報に基づいて、表示部120の表示制御を行う。ユーザの操作に対する表示制御の例や、コマンド割り当ての方法についての詳細は、以下の第2節を参照されたい。
以上、図1〜図3を参照しながら、本実施形態に係る情報処理装置10の基本構成について説明した。
なお、一旦モード切替部110により通常モード及びファットスワイプモードのうち、いずれか一方が選択されても、その後のユーザの操作体の接触方法により、通常モードからファットスワイプモードへの切り替えや、ファットスワイプモードから通常モードへの切り替えが行われてもよい。
[2−2:1本指ファットスワイプの基本操作(図4)]
以下では、1本指ファットスワイプモードにおける基本操作について、図4を参照しながら説明する。1本指ファットスワイプは、ファットスワイプモード実行部114が実行するファットスワイプのうち、最も基本的なものである。
図4は、ファットスワイプモードにおける基本操作方法について説明するための説明図である。図4では、(a)から(c)へと画面表示が遷移することを表している。
図4のR1は、ユーザにより操作される操作体と表示部120の画面との接触部分を最も良く包含するように囲んだ矩形(以下では、単に矩形とよぶこととする。)を表している。この矩形は、表示部120に表示されてもよいし、表示されず、処理に利用されるのみでもよい。
上記のように、操作体の方向は、矩形の長手方向に限定されないが、以下では、矩形の長手方向を操作体の方向として説明を進める。
まず、図4(a)を参照しながら、ユーザが表示部120の画面に操作体を接触させた場合にまず情報処理10により行われる処理の説明を行う。
表示制御部119は、表示部120の矩形の位置に、カーソルC1を表示させる。表示制御部119は、カーソルC1の長手方向と、矩形の長手方向とは一致するように表示させる。
また、表示制御部119は、操作方向決定部118により決定された、ユーザが操作体を移動可能な方向(以下では、操作方向とよぶこととする。)に対応する矢印A1_R及びA1_Lを表示させる。
例えば、矩形の短手方向が操作方向であり、表示制御部119は、カーソルC1の一方の側に矢印A1_Lを表示させ、他方の側に矢印A1_Rを表示させる。
このようにユーザが操作体を移動可能な方向に対応する矢印等を表示し、ユーザによる操作体の移動方向を誘導することにより、よりスムーズな操作感をユーザに提供することが可能である。
表示制御部119は、更に、操作体の長手方向を基準(境界)として、その両側で異なる画面表示を行う。異なるコマンドやアプリケーションに対応する。例えば、表示制御部119は、ユーザによる操作が行われる前には、図4のPIC1の画面が表示部120に表示させる。
その後、表示制御部119は、ユーザがファットスワイプを意図して表示部120の画面をタッチすると、図4(a)に示すように、カーソルC1の長手方向を基準として、その左右に異なる画像PIC1及びPIC2を表示させる。
例えば、画像PIC1が様々なアプリケーションを起動する前の待機中等に表示されるホーム画像であり、画像PIC2が特定のアプリケーションや機能に対応付けられた画像である場合を考える。
この場合、ホーム画像PIC1が表示されている場合にユーザがファットスワイプを意図してタッチすることにより、画像PIC2に対応付けられたアプリケーションを呼び出すことが可能であり、ショートカット機能として、本実施形態に係る技術を適用することが可能である。
ユーザが表示部120の画面にファットスワイプを意図してタッチを行うと、上述した図4(a)のような画面表示がまず行われる。
次に、ユーザが操作体を表示部120の画面に接触させたまま移動させた場合について考える。図4(b)は、図4(a)に示す状況において、更にユーザが操作体を紙面左側に移動させた場合について説明する説明図である。
ユーザが操作体を紙面左側に移動させると、移動に応じて操作体位置・形状特定部104により操作体の位置及び方向が特定され、ファットスワイプモード実行部114が操作方向を決定したり、表示制御を行ったりする。
ユーザが操作体を移動させると、表示制御部119が表示させるカーソルC1の位置や矢印A1_RやA1_Lの位置も追従する。また、カーソルC1が移動すると、カーソルC1の位置を境界とする表示部120の画面分割の境界位置も変化する。
ユーザは、図4(a)で示すように、ファットスワイプを行うことを意図して、所望の位置で操作体を接触させる。その後、表示される画像PIC1を表示させる画面及び画像PIC2を表示させる画面それぞれの表示部120全体における面積の割合を、操作体を所望の位置に移動させることにより変化させることが可能である。
次にユーザが意図する行為として、画像PIC1の選択又は画像PIC2の選択があげられる。なお、各画像が選択されることによって、情報処理10は、各画像に対応付けられたアプリケーションの起動や機能の実行を行うことが可能である。
ユーザがカーソルC1の位置を境界とする2枚の画像のうち、どちらを選択することを意図しているかは、例えば、ユーザが操作体を表示部120の画面に接触させ、その後離隔した際に、離隔した直前に表示部120の画面に接触していた操作体の位置や操作体の移動方向により、判別することが可能である。
例えば、表示部120の画面を操作体の長手方向に沿って2つの領域に分割することを考える。一方の領域を第1領域とよぶこととし、他方の領域を第2領域とよぶこととする。
図4では、例えば、第1領域及び第2領域の一方が左側の領域であり、他方が右側の領域である場合である。
例えば、図4(c)に示すように、表示部120のユーザが操作体を離隔させる直前に操作体が接触していた位置が表示部120の左側の領域であれば、カーソルC1の右側に表示されていた画像PIC2が選択されたと判別することが可能である。この場合、表示制御部119は、表示部120の画面全体に、画像PIC2を表示させる。
一方、表示部120のユーザが操作体を離隔させる直前に操作体が接触していた位置が表示部120の右側の領域であれば、カーソルC1の左側に表示されていた画像PIC1が選択されたと判別することが可能である。この場合、表示制御部119は、表示部120の画面全体に、画像PIC1を表示させる。
また、表示制御部119は、ユーザが操作体を離隔させる直前に操作体が接触していた位置に加え、操作体の移動方向を考慮して、表示部120に表示させる画像を切り替えることも可能である。
例えば、ユーザが操作体を表示部120の左側から右側に向けて移動させたことを検出し、かつ、移動後にユーザが操作体を右側の領域で離隔させたことを検出した場合に、左側の領域に表示していた画像が選択されたと判別することが可能である。この場合、表示制御部119は、表示部120の画面全体に、選択された画像を表示させる。
一方、ユーザが操作体を表示部120の左側から右側に向けて移動させたことを検出した場合であっても、ユーザが操作体を左側の領域で離隔させたときには、ユーザが画像の切り替えを行う操作を途中でやめたと判別し、右側の領域に表示していた画像を表示させることが考えられる。
上記のように、操作体の方向及び操作体の離隔直前の位置に応じて表示部120に表示する画像を切り替えることにより、ユーザの意図を反映する直感的な操作をスムーズに行うことが可能である。
以上、図4を参照しながら、1本指ファットスワイプモードにおける基本操作について説明した。
[2−3:1本指ファットスワイプにおける操作方向の例(図5及び図6)]
上記の基本操作の説明では、図4を参照しながら、表示部120の長手方向と、操作体の短手方向とが一致している場合について説明したが、本実施形態に係る技術の適用範囲はこれに限定されない。
操作体位置・形状特定部104は操作体の位置及び形状を特定し、ファットスワイプモード実行部114の各部が操作体の位置及び形状に対応して表示制御等を行うためである。
以下では、図5及び図6を参照しながら、操作体の接触方向が図4の場合と異なる場合について、表示例も示しながら説明する。図5及び図6は、操作方向の例について説明するための説明図である。
例えば、図5に示すように、表示部120の長手方向と、操作体の短手方向とが一致するようにユーザが操作体を接触させた場合には、カーソルC1が表示部120の長手方向に、操作体の位置を通るように表示される。また、表示制御部119は、カーソルC1の位置を境界として、その一方の側に矢印A1_Uを表示させ、他方の側に矢印A1_Dを表示させる。
表示制御部119は、更に、カーソルC1の位置を境界として、画像PIC1及び画像PIC2を表示させる。
ユーザは、表示部120の短手方向に操作体を移動させることにより、画面の切り替えが可能である。
また、図6に示すように、表示部120の長手方向や短手方向以外の方向で、操作体を表示部120の画面に接触させることも可能である。
上記のように、操作体の接触方向に対応して画像の表示方法を変化させることが可能である。また、操作体の接触方向によって、操作体が接触している間に表示させる画像を異なるものにしてもよい。
例えば、表示部120に画像PIC1が表示されている場合において、表示部120の長手方向の操作体の接触を検出したとき、表示制御部119は、画像PIC1に加え、画像PIC2を表示させる。
一方、表示部120に画像PIC1が表示されている場合において、表示部120の短手方向の操作体の接触を検出したとき、表示制御部119は、画像PIC1に加え、画像PIC3を表示させる。
上記のように、操作体の複数の接触方向に対応させることにより、直感的な操作感を維持しつつ、より多くの操作のバリエーションを実現することが可能になる。
以上、図5及び図6を参照しながら、操作方向の例について説明した。
[2−4:画面の領域分割の例(図7及び図8)]
ユーザが操作体を表示部120の画面から離隔した直前の操作体の位置により、ユーザによりいずれの画像が選択されたか(換言すれば、画像に対応付けられたいずれの機能やアプリケーション等が選択されたか)を判別する方法について上述した。
その際に、操作体の位置が表示部120を2分割した際のいずれの領域に含まれるかで判別を行った。以上では、表示部120の画面を操作体の長手方向に沿って2つの領域に分割する場合について説明した。
この場合、図7に示すように、表示部120は、その中心を通るように2つの領域(第1領域RF及び第2領域LF)に分割される。
また、上記のような画面の領域分割の仕方の他に、操作体の位置を基準としたより相対的な画面の領域分割の仕方でもよい。
例えば、図8に示すように、ユーザが操作体を表示部120に接触させた開始位置を通る矩形R1の長手方向のラインを境界として、表示部120の画面を2つの領域(第1領域RF及び第2領域LF)に分割することが可能である。
[2−5:処理の流れ(図9及び図10)]
以下では、図9及び図10を参照しながら、本実施形態に係る情報処理装置10が行う処理の流れについて説明する。図9及び図10は、情報処理装置10が行う処理の流れについて説明するための説明図である。図10は、図9の処理ステップS110における詳細な処理を示す図である。
図9に示すように、まず、操作検出部102は、ユーザによる情報処理装置10の操作が行われたか否かを判定する(S102)。
ユーザによる情報処理装置10の操作が検出されない場合には、検出されるまで待機する。
ユーザによる情報処理装置10の操作が検出された場合に、操作領域特定部106は、操作領域を特定する(S104)。操作領域は、ユーザが操作体を表示部120の画面に接触させることにより操作を行う場合には、操作体と表示部120の画面との接触領域が該当する。
操作領域特定部106は、まず、操作領域の特定を行い、次に特定した操作領域を最も良く包含する矩形で囲む。更に、当該矩形の長手方向の長さと短手方向の長さも特定する。操作領域特定部106は、矩形の長手方向の長さh及び短手方向の長さwの測定も行う。
次に、縦横比算出部108は、操作領域特定部106により測定された矩形の短手方向の長さwに対する長手方向の長さhの比を、矩形の縦横比として算出する(S106)。
次に、モード切替部110は、矩形の縦横比に基づいて、通常モードとファットスワイプモードの切り替えを行う。
例えば、モード切替部110は、矩形の縦横比が所定の閾値以上であるか否かを判別する(S108)。
矩形の縦横比が所定の閾値以上の場合に、モード切替部110は、ファットスワイプモードを選択する。ファットスワイプモード実行部114は、ファットスワイプモードを実行する(S110)。
一方、矩形の縦横比が所定の閾値未満の場合に、モード切替部110は、通常モードを選択する。通常モード実行部112は、通常モードを実行する(S112)。
ファットスワイプモード又は通常モードを実行され、ユーザによる一連の操作及び当該操作に基づく情報処理装置10の動作が終了した場合に、情報処理装置10は、ユーザからの次の操作を待機する。
情報処理装置10は、ユーザからの操作待機を行う場合に、再び処理ステップS102の操作検出からの一連の処理を行う。一方、ユーザから一定時間操作が行われない場合等の操作待機を行わない場合に、情報処理装置10は、一連の処理を終了する(S114)。
以上、図9を参照しながら、情報処理装置10が行う処理の全体的な流れについて説明した。以下では、図10を参照しながら、図9におけるステップS110で、ファットスワイプモード実行部114が行う処理の詳細について説明する。
図10に示すように、まず、ファットスワイプモード実行部114の操作体方向検出部116は、操作体の方向を検出する(S1102)。例えば、操作体方向検出部116は、操作体を囲んだ矩形の長手方向を、操作体の方向として検出する。
次に、操作方向決定部118は、ユーザが操作体を移動可能な方向を決定する(S1104)。例えば、操作方向決定部118は、操作体の方向と垂直な方向を操作方向と決定する。
次に、ファットスワイプモード実行部114が操作体の動きを検知すると(S1106)、表示制御部119は、検知した動きに合わせて、表示部120の表示制御を行う。例えば、表示制御部119は、操作体の位置において、操作体の長手方向に沿ったカーソルC1を表示させたり、操作方向を示す矢印A1_R及びA1_Lを表示させたり、カーソルC1の位置を境界として画面を分割し、各画面に異なる画像を表示させたりする。その後、情報処理装置10は、一連の処理を終了する(S1108)。
以上、図10を参照しながら、図9におけるステップS110で、ファットスワイプモード実行部114が行う処理の詳細について説明した。
なお、上記の処理の流れは、情報処理装置10が行う処理の流れの一例であり、一部の処理ステップの順序を変更したり、省略したりしてもよい。
<3:第1変形例(2本指ファットスワイプ)>
以上では、1つの操作体で行う1本指ファットスワイプについて説明した。以下では、2つの操作体で行う2本指ファットスワイプに係る第1変形例について説明する。2本指ファットスワイプモードは、1本指ファットスワイプに対応した技術である1本指ファットスワイプモードの技術を、2つの操作体による操作に対応させたものである。
[3−1:2本指ファットスワイプの基本操作(図11)]
まず、以下では、図11を参照しながら、ユーザが行う2本指ファットスワイプの基本操作と、ユーザの操作に従って情報処理装置10が実行する2本指ファットスワイプモードについて説明する。図11は、本変形例における操作について説明するための説明図である。
ユーザがファットスワイプを行うことを意図して操作を行う一の操作体である第1操作体(例えば、片手の指等)で表示部120の画面をタッチすると、図11(a)に示すように、まず1本指ファットスワイプモードの実行が開始される。
なお、図11(a)において、R1は、第1操作体に対応する矩形を表している。矩形R1は、実際に表示部120に表示されてもよいし、表示されなくてもよい。
上記のように、第1操作体をユーザが操作し、情報処理装置10のファットスワイプモード実行部114がファットスワイプモードを実行している間に、ユーザが第1操作体と異なる操作体である第2操作体を、更に表示部120の画面に接触させた場合に、2本指ファットスワイプモードの実行が開始される。
操作体位置・形状特定部104は、第2操作体の位置及び形状の特定を、第1操作体の位置及び形状の特定と同様に行う。ファットスワイプモード実行部114は、操作体位置・形状特定部104による特定結果を用いて、2本指ファットスワイプモードを実行する。
2本指ファットスワイプモード実行中のユーザから見たイメージは、図11(b)のようになる。図11では、1本指ファットスワイプモード実行中に、第1操作体の長手方向と第2操作体の長手方向が一致するように、第2操作体を表示部120に接触させる
図11(b)において、R2は、第2操作体に対応する矩形を表している。矩形R2は、実際に表示部120に表示されてもよいし、表示されなくてもよい。
表示制御部119は、表示部120の矩形R2の位置に、第2操作体に対応するカーソルC2を表示させる。表示制御部119は、カーソルC2の長手方向と、矩形の長手方向とが一致するように表示させる。
このように、2本指ファットスワイプモードにおいては、2つの操作体(第1及び第2操作体)により、2つのカーソルC1及びC2が表示される。表示部120の画面は、2つのカーソルC1及びC2により、3つの領域に分割される。
そこで、表示制御部119は、1本指ファットスワイプモード実行中に表示させていた画像PIC1及びPIC2に加え、2本指ファットスワイプモード実行中には、3つめの画像PIC3を表示させる。
ここで、3つの画像PIC1、PIC2及びPIC3を3つに分割された表示部120の画面領域それぞれに表示する場合、いずれの画像をいずれの画面領域に表示するかについては6パターンが考えられる。
しかし、画像PIC1及びPIC2が表示されている状態でユーザが更に操作を行うことにより画像PIC3を表示させていることを考慮すると、2本指ファットスワイプモード実行時に追加で表示される画像PIC3が、カーソルC1及びC2の間の領域に表示されることがユーザにとって分かりやすく、操作もしやすいと考えられる。
そのため、以下では、2本指ファットスワイプモード実行時に追加表示される画像PIC3が、カーソルC1及びC2の間の領域に表示される場合について主に説明する。この場合、ユーザから見ると、図11(b)に示すように、表示部120の画面に元々表示されていた画像PIC1及びPIC2の間に、新たに別のアプリケーションや機能等に対応付けられた画像PIC3が、挿入されることとなる。
ユーザが第1操作体又は第2操作体を移動(ファットスワイプ)させると、カーソルC1及びC2が操作体の追従するように移動する。また、カーソルC1及びC2の移動に応じて、各画像を表示させる画面それぞれの表示部120全体における面積の割合が変化する。
以上、図11を参照しながら、ユーザが行う2本指ファットスワイプの基本操作と、ユーザの操作に従って情報処理装置10が実行する2本指ファットスワイプモードについて説明した。
[3−2:2本指ファットスワイプにおける画面切り替え(図12及び図13)]
以下では、上述したような2本指ファットスワイプモードが実行されていることを前提として、ユーザが所望の画面に切り替える方法について説明する。
2本指ファットスワイプモードが実行されると、2つのカーソルC1及びC2の位置を境界とする画面それぞれに、画像PIC1、PIC2及びPIC3が表示されている。
まず、図12を参照しながら、ユーザが、表示部120の画面における両端の領域に表示されている画像のうち、いずれかを選択したい場合について説明する。図12(a)の例では、ユーザが画像PIC1や画像PIC2を選択する場合がこれに該当する。
ユーザが、第1操作体と第2操作体とを近づけるように、第1操作体及び第2操作体のうち、いずれか一方又は両方を移動させるとする。この場合、その動きに応じて、表示部120の画面における中央の領域に表示されている画像(図12(a)の例では、画像PIC3)の表示領域が狭くなる。
上記のように、ユーザが所定の画像(図12(a)の例では、画像PIC3)の表示領域を狭くするように操作体の移動を行う場合には、その画像は選択しない意図があると考えられる。換言すれば、その画像以外の画像(図12(a)の例では、画像PIC1又はPIC2)を選択しようとしていると考えられる。
また、第1操作体と第2操作体を一定以上接近させると、それ以上接近させることが困難になる上、2つの操作体を区別する必要性が低くなる。
そこで、2本指ファットスワイプモードにおいて、第1操作体と第2操作体との距離DISが所定の閾値未満になった場合には、ファットスワイプモード実行部114は、2本指ファットスワイプモードから1本指ファットスワイプモードへと切り替える。
図12(b)は、2本指ファットスワイプモードから1本指ファットスワイプモードへの切り替え後の画面表示例を示している。
つまり、1本指ファットスワイプモードへの切り替え後には、表示制御部119は、1つのカーソルC1や、カーソルC1を境界とする2つの画像や、ユーザが操作体を移動可能な方向を示す矢印A1_R及びA1_Lを表示させる。
ここで、2本指ファットスワイプモードから1本指ファットスワイプモードへの切り替えられた瞬間に、まだ操作体が2つとも表示部120に接触している場合が考えられる。
この場合に、情報処理装置10は、例えば、表示部120に接触している2つの操作体のうち、いずれか一方を1本指ファットスワイプモード実行における操作体として検知することが考えられる。
上記のようにすることにより、ユーザが接触させている2つの操作体のうち、いずれか一方を表示部120に接触させた状態からそのまま1本指ファットスワイプを行うことが可能である。その結果、2本指ファットスワイプモードから1本指ファットスワイプモードへのシームレスな切り替えが可能である。
1本指ファットスワイプモードに切り替えられた後は、ユーザは1本指ファットスワイプを行うことにより、表示部120に表示されている画像のうち、一方を更に選択することが可能である。
例えば、図12(b)において、ユーザは、画像PIC1及びPIC2のうち、画像PIC1を全画面表示にしたり、画像PIC2を全画面表示にしたりすることが可能である。
以上、図12を参照しながら、ユーザが、表示部120の画面における両端の領域に表示されている画像のうち、いずれか一方を選択したい場合について説明した。
次に、図13を参照しながら、ユーザが、カーソルC1及びC2の間に表示された画像(例えば、図12の画像PIC3)を選択する場合について説明する。
この場合に、ユーザは、第1操作体と第2操作体とを遠ざけるように、第1操作体及び第2操作体のうち、いずれか一方又は両方を移動させる。
その結果、第1操作体と第2操作体との距離DISが所定の閾値以上となった場合には、ファットスワイプモード実行部114は、第1操作体と第2操作体の間に表示された画像(図13(a)では、画像PIC3)が選択されたと判別する。この場合に、ファットスワイプモード実行部114の表示制御部119は、第1操作体と第2操作体の間に表示された画像を、表示部120に全画面表示する。
以上、図13を参照しながら、ユーザが、カーソルC1及びC2の間に表示された画像を選択する場合について説明した。
[3−3:2本指ファットスワイプにおける操作方向の例(図14)]
1本指ファットスワイプにおいて、ユーザが操作体を接触させた方向に応じた表示制御を行うことが可能であることを説明した。2本指ファットスワイプにおいても、ユーザが2つの操作体(第1操作体及び第2操作体)を接触させた方向に応じた表示制御を行うことが可能である。
例えば、ユーザが第1操作体に対して、第2操作体が垂直になるように、2つの操作体を表示部120に接触させて、2本指ファットスワイプを行うことが考えられる。この場合には、第1操作体の長手方向と、第2操作体の短手方向が一致することとなる。
以下では、図14を参照しながら、第1操作体と第2操作体とが垂直な位置関係の場合の2本指ファットスワイプモードについて簡単に説明する。図14は、本変形例における操作方向の例について説明するための説明図である。
図14(a)に示すように、ユーザが第1操作体を表示部120に接触させることにより、1本指ファットスワイプモードが実行される。
この状態において、ユーザは、第2操作体を、第1操作体に垂直な方向に接触させる。操作体位置・形状特定部104は、第1操作体及び第2操作体の位置及び形状を特定する。ファットスワイプモード実行部114の表示制御部119は、特定した位置及び形状に基づいて、表示部120の表示制御を行う。
図14(b)は、2本指ファットスワイプモードにおける表示部120の画面表示例である。第1操作体の長手方向及び第2操作体が垂直な位置関係にある場合には、図14(b)に示すように、第1操作体に対応するカーソルC1及び第2操作体に対応するカーソルC2も垂直な位置関係にある。
そのため、表示制御部119は、1本指ファットスワイプモード実行時から継続して表示されているカーソルC1を優先的に表示させる。2本指ファットスワイプが実行されると、表示制御部119は、カーソルC1により分割された画面領域を更に細かく分割するようにカーソルC2を表示し、カーソルC2を境界として画像PIC2及びPIC3を表示させる。
例えば、図14(b)に示すように、1本指ファットスワイプモードにおいて分割された領域のうち、第2操作体が接触された領域について、2本指ファットスワイプにおいては分割を行うことが可能である。
<4:第2変形例(1.5本指ファットスワイプ;図15及び図16)>
以上では、1つの操作体で行う1本指ファットスワイプ及び2つの操作体で行う2本指ファットスワイプについて説明した。以下では、図15及び図16を参照しながら、1.5本指ファットスワイプに係る第2変形例について説明する。図15及び図16は、本変形例に係る画面表示例を示している。
1.5本指ファットスワイプでは、2つの操作体で操作を行う。但し、2本指ファットスワイプと異なり、一方の操作体で1本指ファットスワイプを行い、他方の操作体で通常の操作を行う。
1.5本指ファットスワイプモードの技術は、1本指ファットスワイプに対応した技術である1本指ファットスワイプモードの技術を応用したものである。
図15(a)のように、ユーザが1つの操作体(第1操作体)で1本指ファットスワイプを行い、ファットスワイプモード実行部114が1本指ファットスワイプモードを実行しているとする。
1本指ファットスワイプモードでは、操作体の方向に応じてカーソルC1が表示され、カーソルC1の位置を境界として表示部120の画面が分割され、分割された画面それぞれに画像PIC1やPIC2が表示されている。
この状態で、ユーザが2つ目の操作体(第2操作体)で通常の操作を行う。図15(b)のように、1本指ファットスワイプモードにおいて分割された表示部120の画面のうち、一方の画面で、ユーザは2つ目の操作体で通常の操作を行うこととなる。
第2操作体が接触された時に、ファットスワイプモード実行部114は、1本指ファットスワイプから1.5本指ファットスワイプモードへ切り替えを行う。
図15(b)では、図15(a)において画像PIC2が表示されていた画面でユーザが第2操作体での操作を行う場合の画面表示例を示している。
図15(b)に示した例では、第1操作体の操作方向と第2操作体の操作方向とが垂直な場合の画面表示例を示している。
図16に示す例も、(a)で1本指ファットスワイプモード実行中の画面表示例を示し、(b)で1.5本指ファットスワイプモード実行中の画面表示例を示している。
但し、1.5本指ファットスワイプモードでの画面表示例を示している。但し、図16では、第1操作体の操作方向と第2操作体の操作方向とが一致している場合の画面表示例を示している。
以上、図15及び図16を参照しながら、本実施形態の第2変形例について説明した。
<5:第3変形例(1本指ツイストファットスワイプ;図17)>
以下では、図17を参照しながら、1本指ツイストファットスワイプに係る第3変形例について説明する。図17は、本変形例に係る画面表示例を示している。
1本指ツイストファットスワイプでは、1つの操作体を広範囲で表示部120に接触させることにより、操作を行う。但し、操作体を表示部120の画面上で平行移動させるように操作を行った1本指ファットスワイプと異なり、1本指ツイストファットスワイプでは、操作体を表示部120の画面上でひねるように操作を行う。
1本指ツイストファットスワイプモードの技術は、1本指ファットスワイプに対応した技術である1本指ファットスワイプモードの技術を応用したものである。
また、上記の1本指ファットスワイプモード実行途中で操作体を所定値以上ひねると、ファットスワイプモード実行部114が、1本指ツイストファットスワイプモードを実行するようにしてもよい。
図17(a)に示すように、1本指ツイストファットスワイプモードにおいても、1本指ファットスワイプモードの場合と同様に、表示制御部119は、操作体が表示部120に接触した方向に応じて、カーソルC1を表示させる。
また、表示制御部119は、カーソルの位置を境界として分割した表示部120の画面それぞれに、画像を表示させる。また、表示制御部119は、操作体をひねることが可能な方向を示す矢印A1を表示させる。
ユーザがツイストファットスワイプを行う、つまり表示部120に接触させた操作体をひねると、表示制御部119は、図17(b)に示すように、段階的に新たな画像(画像PIC3や画像PIC4)を表示させる。
上記のように画像が段階的に表示されることにより、ユーザは扇を広げるような直感的な動きで、所望の機能等に対応付けられた画像を表示させることが可能になる。
情報処理装置10は、表示した画像のうち、最後に表示した画像に対応する機能等にフォーカスを当てて、ユーザがその機能を選択するのを待機する。
表示制御部119は、表示した画像のうち、最後に表示した画像(換言すればその画像に対応付けられた所定の機能)にフォーカスが当たっていることを示すように、例えば、図17(b)の画像PIC4のように、選択中の画像に他の画像と別の色を付けて、ユーザが確認できるようにする。
フォーカスが当たっている画像の強調方法として、選択中の画像に他の画像と別の色を付ける他にも、選択中の画像と他の画像の透明度を異なるものにしたり、選択中の画像を太線で囲ったりしてもよい。
ある画像にフォーカスが当たっている状態で、ユーザが操作体を表示部120から離隔させると、情報処理装置10は、ユーザがその画像に対応付けられた機能等を選択したと認識し、当該機能等の実行を行う。
一方、ユーザが図17(b)に示すような状態で更に操作体をひねると、表示制御部119は、図17(c)に示すように、更に別の機能に対応付けられた画像PIC5を表示し、フォーカスを当てる。
ユーザが操作体のひねりを戻してから表示部120から離隔させると、フォーカスがキャンセルされる。
以上、図17を参照しながら、本実施形態の第3変形例について説明した。
<6:第4変形例(1.5本指ツイストファットスワイプ;図18)>
以下では、図18を参照しながら、1.5本指ツイストファットスワイプに係る第4変形例について説明する。図18は、本変形例に係る画面表示例を示している。
1.5本指ツイストファットスワイプでは、2つの操作体で操作を行う。但し、2本指ファットスワイプや1.5本指ファットスワイプと異なり、一方の操作体(第1操作体)で1本指ツイストファットスワイプを行い、他方の操作体(第2操作体)で通常の操作を行う。
1.5本指ツイストファットスワイプモードの技術は、1本指ツイストファットスワイプに対応した技術である1本指ファットスワイプモードの技術を応用したものである。
1.5本指ツイストファットスワイプモードは、図18に示すように、第1操作体での1本指ツイストファットスワイプモード実行中に、第1操作体の操作により表示させた画像に加え、ユーザが更に第2操作体で別の画像(図18の例では、画像PIC5)を開いたり、タップして選択したりすることを可能にしたものである。
上記のように、1本指ツイストファットスワイプと通常の操作を組み合わせた1.5本指ツイストファットスワイプにより、直感的かつ段階の少ない操作で、多くの種類の機能を選択して実行すること等が可能になる。
以上、図18を参照しながら、本実施形態の第4変形例について説明した。
<7:応用例>
上記の各種ファットスワイプの技術は、様々な情報処理装置10への適用が可能である。また、ファットスワイプにより、ユーザが行うことが可能な情報処理装置10の動作も各種考えられる。以下では、応用例として、その一部について説明する。
[7−1:アプリケーション切り替えへの応用例(図19〜図22)]
以下では、図19〜図22を参照しながら、上記の基本構成及び変形例に係る技術を、アプリケーションに対応した画像の切り替えへ応用する応用例について説明する。図19〜図22は、本実施形態の応用例について説明するための説明図である。
(図19)
図19は、ナビゲーション機能を有する装置11において、詳細地図を表示するアプリケーションに対応付けられた画像PIC1と、広域地図を表示するアプリケーションに対応付けられた画像PIC2とを切り替える例を示している。
詳細地図を表示するアプリケーションに対応付けられた画像PIC1として、詳細地図の一部を表示する画像が、図19では示されている。
また、同様に、広域地図を表示するアプリケーションに対応付けられた画像PIC2として、広域地図の一部を表示する画像が、図19では示されている。
例えば、ユーザは車の運転等をしながら、運転を行なっている手と反対の手でファットスワイプを行うことにより、詳細地図と広域地図の切り替えをスムーズに行うことが可能である。
また、ナビゲーション機能を有する装置11における地図切り替え以外にも、操作体の一方の側に表示した画像の拡大又は縮小画像を、操作体の他方の側に表示すること等も可能である。
(図20)
図20は、ナビゲーション機能を有する装置11において、ナビゲーションを行うアプリケーションに対応付けられた画像PIC1と、音楽再生を行うアプリケーションに対応付けられた画像PIC2とを切り替える例を示している。
例えば、ユーザは、通常は地図を全画面表示させて、地図を見ながら車の運転等を行う。また、ナビゲーションを行うアプリケーションを実行させながら、バックで音楽再生を行うアプリケーションを実行して音楽を聞いているような状況が考えられる。
ユーザは、音楽再生を行うアプリケーションの操作、例えば曲の選択、再生、停止等の操作を行う場合に、ファットスワイプという簡単な操作により画面切り替えを行うことが可能である。
(図21)
本実施形態に係る技術は、テレビ等の表示装置12の画面切り替えにも適用することが可能である。表示装置12のように、ユーザが直接装置の画面に接触して操作を行うことが困難な場合には、例えば図21に示すように、カメラCAを装置に配設し、物体認識によりユーザの操作を検出することが可能である。
物体認識により、表示制御部119は、ユーザの腕ARM等の操作体を認識し、操作体が示している画面上の位置にカーソルC1を表示させる。例えば、表示制御部119は、画像PIC1としてあるテレビ番組を表示させ、画像PIC2として画像PIC1とは別のテレビ番組を表示させる。
その結果、ユーザが、あるテレビ番組を視聴中に別のテレビ番組を一時的に表示させたり、表示部120に表示させるテレビ番組を切り替えたりすることが可能になる。
(図22)
また、テレビ等の表示装置12において、表示制御部119は、カーソルC1で分割した一方の画面にテレビ番組等の動画を表示させ、他方の画面に番組表等の情報を表示させることも可能である。
以上、図19〜図22を参照しながら、上記の基本構成及び変形例に係る技術を、アプリケーションに対応した画像の切り替えへ応用する応用例について説明した。
[7−2:モード切り替えへの応用例(図23及び図24)]
以下では、図23及び図24を参照しながら、上記の基本構成及び変形例に係る技術を、モード切り替えへ応用する応用例について説明する。図23及び図24は、本実施形態の応用例について説明するための説明図である。
(図23)
例えば、複数の撮影モードを有する撮像装置において、ファットスワイプを用いることで、少ない操作段階かつ直感的な操作で、モード切り替えを行うことが可能である。
例えば、図23に示すように、ユーザにより、通常撮影モードMD1と夜間撮影モードMD2との切り替えが行われる。
(図24)
また、例えば撮像装置において、撮影モードMD1と再生モードMD2との切り替えを行うことも可能である。
ファットスワイプに係る技術を用いることにより、撮像を行う撮影モードと、以前に撮像された画像をユーザが確認するための再生モードとを、ユーザが瞬時に切り替えることが可能になる。
その結果、ユーザは、例えば、再生モードを実行して以前に撮像された画像を確認中にも、撮影を行いたい被写体があれば、シャッタチャンスを逃すことなく瞬時に撮影モードに切り替え、撮影を行うことが可能である。
以上、図23及び図24を参照しながら、上記の基本構成及び変形例に係る技術を、モード切り替えへ応用する応用例について説明した。
[7−3:パラメータ値の設定への応用例(図25〜図28)]
以下では、図25〜図28を参照しながら、上記の基本構成及び変形例に係る技術を、パラメータ値の設定へ応用する応用例について説明する。
(図25)
撮像装置で撮影を行うユーザが、プレビュー画面上でファットスワイプを行うことにより、ズーム調整を行うようにしたものが、図25に示す例である。例えば、ユーザがファットスワイプを意図してタッチを行うと、図25(a)に示すように、表示制御部119は、撮影イメージPIC1に、操作体をユーザが移動可能な方向を示す矢印A1_UやA1_Dを重畳表示させる。
また、例えば、表示制御部119は、一方の矢印A1_Uが示す向きに操作体を移動させた場合に対応付けられた撮像装置の動作(例えば、ズーム)を示す文字表示W_Uを行う。また、表示制御部119は、他方の矢印A1_Dが示す向きに操作体を移動させた場合に対応付けられた動作(例えば、ワイド)を示す文字表示W_Dを行う。
図25(b)は、図25(a)において、ユーザが、矢印A1_Uが示す向きに操作体を移動させ、ズーム画像の撮影イメージPIC1が表示される場合を示している。
また、図25(c)は、図25(a)において、ユーザが、矢印A1_Dが示す向きに操作体を移動させ、ワイド画像の撮影イメージPIC2が表示される場合を示している。
ユーザは、プレビュー画面に表示される撮影イメージPIC1から視線を移動させることなくファットスワイプを行うことも可能であり、ズーム調整に時間がかかってしまい、シャッタチャンスを逃してしまうことも防止される。
なお、上記のズーム調整機能は、撮像装置のプレビュー画面に適用する以外にも、様々な装置における表示制御に適用することが可能である。また、撮像装置の動作を示す文字表示の代わりに、アイコン等で表示してもよい。
(図26)
図26に示す例のように、表示装置12等において、音量調整を行う構成も可能である。図26(a)でユーザが表示装置12の前でかざした腕ARMを表示装置12のカメラCAが捉え、物体認識を行なっている。
例えば、ユーザが、図26(a)に示す腕ARMの位置から、図26(b)に示す腕ARMの位置へ腕を移動させると、その動きに応じて、表示装置12は、音量を大きくする。
(図27及び図28)
図27に示す例のように、撮像装置において、シャッタ速度等のパラメータ値の調整を行う際に、本実施形態に係る技術を適用することも可能である。例えば、図27(a)に示すようにファットスワイプモードが開始され、その後、図27(b)に示すように、ユーザが、シャッタ速度を速くする方向に操作体を移動させる。
なお、図27に示すように、現在設定されているパラメータの値を表示することも考えられる。図27の例では、図27(a)のようにシャッタ速度1/50であった場合に、ユーザがシャッタ速度を速くするようにファットスワイプを行うことにより、図27(b)では、シャッタ速度が1/100に調整されたことを示している。
また、各種の情報処理装置10において、設定可能なパラメータが複数ある場合には、異なるパラメータに異なる操作体の移動方向を割り当てることが考えられる。ユーザは、表示部120に対し、調整を行いたいパラメータに対応付けられた所定の方向で操作体を接触させ、操作体を所定の方向で移動させる。
例えば、撮像装置は、図27に示すように、表示部120の短手方向に操作体が接触されたことを検出し、表示部120の長手方向の操作体の動きを検知すると、シャッタ速度を調整する。一方、図28に示すように、表示部120の長手方向に操作体が接触されたことを検出し、表示部120の短手方向の操作体の動きを検知すると、ISO感度を調整する。
以上、図25〜図28を参照しながら、上記の基本構成及び変形例に係る技術を、パラメータ切り替えへ応用する応用例について説明した。
[7−4:ページ移動操作への応用例(図29及び図30)]
以下では、図29及び図30を参照しながら、上記の基本構成及び変形例に係る技術を、ページ移動操作へ応用する応用例について説明する。
(図29)
例えば、図29に示すように、ウェブブラウザ等の画面におけるページ移動操作に、本実施形態に係る技術を適用することも可能である。例えば、あるページに対応付けられた画像PIC2が表示されている状況で、ユーザによるファットスワイプが開始された場合に、図29(a)に示すように、表示制御部119は、操作体の短手方向の一方の向きに矢印A1_Lを表示し、他方の向きに矢印A1_Rを表示させ、ユーザに操作体の短手方向の移動が可能であることを示す。
また、表示制御部119は、「ページを戻る」という動作に対応する文字表示W_Lを操作体の一方の側に表示させ、「ページを進む」という動作に対応する文字表示W_Rを操作体の他方の側に表示させることが考えられる。
例えば、図29(b)に示すように、ユーザが「ページを戻る」という動作に対応付けられた文字表示W_Lが表示された向きに操作体を移動させると、表示制御部119は、現在表示させている画像PIC2とともに、ユーザがその画像PIC2を閲覧する前に閲覧していた画像PIC1を表示させる。ユーザは、これらの画像PIC1及びPIC2の切り替えをファットスワイプにより行うことが可能である。
また、図29(c)に示すように、ユーザが「ページを進む」という動作に対応付けられた文字表示W_Rが表示された向きに操作体を移動させると、表示制御部119は、現在表示させている画像PIC2とともに、ユーザがその画像PIC2を閲覧する前に閲覧していた画像PIC3を表示させる。ユーザは、これらの画像PIC2及びPIC3の切り替えをファットスワイプにより行うことが可能である。
(図30)
また、ブックリーダ13等のページ切り替えに適用することも可能である。例えば、あるページに対応付けられた画像PIC1が表示されているときに、ユーザがファットスワイプを行うと、次のページに対応付けられた画像PIC2に切り替えたりするユーザインターフェースを実現することが可能である。
上記の構成によれば、ユーザは、あるページに対応付けられた画像を確認しながら、その前後のページに対応付けられた画像に移動することができる。
以上、図29及び図30を参照しながら、上記の基本構成及び変形例に係る技術を、ページ移動へ応用する応用例について説明した。
[7−5:追加情報提供への応用例(図31及び図32)]
本実施形態に係る技術を応用して、ある画像PIC1が表示されているときに、その画像PIC1に関連する情報を、画像PIC2として追加して表示することもできる。
例えば、図31のブックリーダ13の例では、電子書籍の本文を示す画像PIC1とともに、電子書籍のタイトルや著者等についての情報を示す画像PIC2を表示させることを示している。
また、例えば、図32の表示装置12の例では、テレビ番組の画像PIC1とともに、その付加情報を画像PIC2として表示させることを示している。例えば、図32に示すように、ユーザは、料理番組を視聴中に当該料理番組で取り上げている料理の材料等の追加情報が必要な場合に、表示装置12を腕ARMの移動により操作し、追加情報を取得することが可能である。
[7−6:ゲームへの応用例(図33)]
本実施形態に係る技術をゲームに応用することも可能である。例えば、図33に示すように、ファットスワイプを行うたびに段階的に画面に表示されたキャラクターの表情が変わるというようなものが考えられる。
図33の例では、図33(a)から図33(c)になるにつれて、キャラクターが段階的に笑っている。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<8:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
例えば、下記(1)のように表現される情報処理装置は、操作体の方向を考慮して、より直感的な操作を可能にする。
操作体の長手方向は、任意の方向をとることが可能であり、ユーザが所望の方向に決定することが可能である。下記(1)のように表現される情報処理装置によれば、より具体的には、ユーザの意図が反映された操作体の方向を基準とした操作が可能になる。
(1)
操作体の長手方向を検出する操作体方向検出部と、
前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定部と、
を備える情報処理装置。
(2)
前記操作方向決定部は、
前記操作体の長手方向を基準とする複数の方向それぞれに、異なるコマンドを割り当てる、
前記(1)に記載の情報処理装置。
(3)
前記操作体の長手方向を表す第1表示オブジェクトを表示させる表示制御部を更に備える、
前記(1)又は(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記操作体の長手方向を基準とする方向を表す第2表示オブジェクトを表示させる、
前記(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記操作体の位置を基準とし、かつ、当該操作体の長手方向に沿った境界で画面領域を分割して表示させる、
前記(3)又は(4)に記載の情報処理装置。
(6)
前記表示制御部は、前記操作体の位置及び動きの一方又は両方に応じて、画面全体における各前記画面領域の割合を調節する、
前記(5)に記載の情報処理装置。
(7)
前記操作体による操作領域の縦横比を算出する縦横比算出部を更に備え、
前記操作体の長手方向は、前記領域の縦横比に基づいて算出される、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記操作体方向検出部は、複数の操作体それぞれの長手方向を検出し、
前記操作方向決定部は、各前記操作体の長手方向を基準とする方向にコマンドを割り当てる、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
前記縦横比算出部は、複数の前記操作体それぞれに対応する領域の縦横比を算出し、
前記操作体方向検出部は、前記操作体のうち、前記操作領域の前記縦横比が所定の範囲内の操作体の長手方向を検出し、
前記操作方向決定部は、当該操作体の長手方向を基準とする方向にコマンドを割り当てる、
前記(7)に記載の情報処理装置。
(10)
前記操作体が、近接又は接触した操作体の位置を検出する操作検出部を更に備える、
前記(1)〜(9)のいずれかに記載の情報処理装置。
(11)
操作体の長手方向を検出するステップと、
前記操作体の長手方向を基準とする方向にコマンドを割り当てるステップと、
を含む情報処理方法。
(12)
コンピュータに、
操作体の長手方向を検出する操作体方向検出機能と、
前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定機能と、
を実現させるためのプログラム。
(備考)
操作体位置・形状特定部104は、操作体形状特定部の一例である。また、表示部120に表示される矢印は、第2表示物の一例である。また、表示部120に表示されるカーソルは、第1表示物の一例である。
10 情報処理装置
102 操作検出部
104 操作体位置・形状特定部
116 操作体方向検出部
118 操作方向決定部
119 表示制御部

Claims (12)

  1. 操作体の長手方向を検出する操作体方向検出部と、
    前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定部と、
    を備える情報処理装置。
  2. 前記操作方向決定部は、
    前記操作体の長手方向を基準とする複数の方向それぞれに、異なるコマンドを割り当てる、
    請求項1に記載の情報処理装置。
  3. 前記操作体の長手方向を表す第1表示オブジェクトを表示させる表示制御部を更に備える、
    請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記操作体の長手方向を基準とする方向を表す第2表示オブジェクトを表示させる、
    請求項3に記載の情報処理装置。
  5. 前記表示制御部は、前記操作体の位置を基準とし、かつ、当該操作体の長手方向に沿った境界で画面領域を分割して表示させる、
    請求項3に記載の情報処理装置。
  6. 前記表示制御部は、前記操作体の位置及び動きの一方又は両方に応じて、画面全体における各前記画面領域の割合を調節する、
    請求項5に記載の情報処理装置。
  7. 前記操作体による操作領域の縦横比を算出する縦横比算出部を更に備え、
    前記操作体の長手方向は、前記領域の縦横比に基づいて算出される、
    請求項1に記載の情報処理装置。
  8. 前記操作体方向検出部は、複数の操作体それぞれの長手方向を検出し、
    前記操作方向決定部は、各前記操作体の長手方向を基準とする方向にコマンドを割り当てる、
    請求項1に記載の情報処理装置。
  9. 前記縦横比算出部は、複数の前記操作体それぞれに対応する領域の縦横比を算出し、
    前記操作体方向検出部は、前記操作体のうち、前記操作領域の前記縦横比が所定の範囲内の操作体の長手方向を検出し、
    前記操作方向決定部は、当該操作体の長手方向を基準とする方向にコマンドを割り当てる、
    請求項7に記載の情報処理装置。
  10. 前記操作体が、近接又は接触した操作体の位置を検出する操作検出部を更に備える、
    請求項1に記載の情報処理装置。
  11. 操作体の長手方向を検出するステップと、
    前記操作体の長手方向を基準とする方向にコマンドを割り当てるステップと、
    を含む情報処理方法。
  12. コンピュータに、
    操作体の長手方向を検出する操作体方向検出機能と、
    前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定機能と、
    を実現させるためのプログラム。
JP2014507458A 2012-03-28 2013-01-11 情報処理装置、情報処理方法及びプログラム Active JP6036807B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012074213 2012-03-28
JP2012074213 2012-03-28
PCT/JP2013/050419 WO2013145804A1 (ja) 2012-03-28 2013-01-11 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2013145804A1 true JPWO2013145804A1 (ja) 2015-12-10
JP6036807B2 JP6036807B2 (ja) 2016-11-30

Family

ID=49259090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014507458A Active JP6036807B2 (ja) 2012-03-28 2013-01-11 情報処理装置、情報処理方法及びプログラム

Country Status (7)

Country Link
US (1) US9582096B2 (ja)
EP (1) EP2837997A4 (ja)
JP (1) JP6036807B2 (ja)
KR (1) KR20140148381A (ja)
CN (1) CN104246681B (ja)
BR (1) BR112014023286A8 (ja)
WO (1) WO2013145804A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
EP2741201A3 (en) 2012-12-06 2017-05-17 Samsung Electronics Co., Ltd Display device and method of controlling the same
CN103513817B (zh) * 2013-04-26 2017-02-08 展讯通信(上海)有限公司 一种触控设备及控制其配置操作模式的方法、装置
KR20140141305A (ko) * 2013-05-31 2014-12-10 삼성전기주식회사 화면분할이 가능한 이동통신단말기 및 그 제어방법
US10996844B2 (en) * 2013-06-12 2021-05-04 Honda Motor Co., Ltd. Program, method, and device for controlling application, and recording medium
WO2015026101A1 (ko) 2013-08-22 2015-02-26 삼성전자 주식회사 디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치
JP5840722B2 (ja) * 2014-04-10 2016-01-06 ヤフー株式会社 情報表示装置、情報表示方法および情報表示プログラム
KR102264220B1 (ko) * 2014-09-02 2021-06-14 삼성전자주식회사 전자 장치 및 전자 장치의 디스플레이 방법
JP6467827B2 (ja) * 2014-09-02 2019-02-13 カシオ計算機株式会社 撮像装置、画像処理装置、表示制御装置、画像補正方法及びプログラム
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP6309926B2 (ja) * 2015-09-16 2018-04-11 本田技研工業株式会社 アプリケーション制御のプログラム、方法、装置、及び記録媒体
KR102461584B1 (ko) * 2015-11-20 2022-11-02 삼성전자주식회사 입력 처리 방법 및 장치
JP7130988B2 (ja) * 2018-03-02 2022-09-06 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US20220374009A1 (en) * 2021-05-21 2022-11-24 Ideaforge Technology Pvt. Ltd. System and method for displaying elements of an application in split-screen view

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257220A (ja) * 2006-03-22 2007-10-04 Matsushita Electric Ind Co Ltd 表示装置
US20070300182A1 (en) * 2006-06-22 2007-12-27 Microsoft Corporation Interface orientation using shadows
JP2008165735A (ja) * 2006-12-29 2008-07-17 Lg Electronics Inc 携帯端末機及びその画面表示方法
JP2010097473A (ja) * 2008-10-17 2010-04-30 Sony Corp 表示装置、表示方法及びプログラム
US20100127997A1 (en) * 2008-11-25 2010-05-27 Samsung Electronics Co., Ltd. Device and method for providing a user interface
JP2010211401A (ja) * 2009-03-09 2010-09-24 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2010250610A (ja) * 2009-04-16 2010-11-04 Sony Corp 情報処理装置、傾き検出方法及び傾き検出プログラム
JP2011014044A (ja) * 2009-07-03 2011-01-20 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
JP2011164767A (ja) * 2010-02-05 2011-08-25 Panasonic Corp 座標入力装置、座標入力方法、座標入力プログラム、及び携帯端末
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164654B2 (en) * 2002-12-10 2015-10-20 Neonode Inc. User interface for mobile computer unit
CN100429610C (zh) * 2006-01-19 2008-10-29 宏达国际电子股份有限公司 直觉式荧幕控制器
JP4609543B2 (ja) * 2008-07-25 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法
KR101531192B1 (ko) * 2008-11-14 2015-06-25 엘지전자 주식회사 이동 단말기 및 이를 이용한 맵 표시 방법
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
JP2011141753A (ja) 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2011221677A (ja) 2010-04-07 2011-11-04 Sony Corp 電子機器及び操作検知方法
US9058186B2 (en) * 2010-04-07 2015-06-16 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
KR101813028B1 (ko) * 2010-12-17 2017-12-28 엘지전자 주식회사 이동 단말기 및 그 디스플레이 제어 방법
KR101718893B1 (ko) * 2010-12-24 2017-04-05 삼성전자주식회사 터치 인터페이스 제공 방법 및 장치
US10042546B2 (en) * 2011-01-07 2018-08-07 Qualcomm Incorporated Systems and methods to present multiple frames on a touch screen

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257220A (ja) * 2006-03-22 2007-10-04 Matsushita Electric Ind Co Ltd 表示装置
US20070300182A1 (en) * 2006-06-22 2007-12-27 Microsoft Corporation Interface orientation using shadows
JP2008165735A (ja) * 2006-12-29 2008-07-17 Lg Electronics Inc 携帯端末機及びその画面表示方法
JP2010097473A (ja) * 2008-10-17 2010-04-30 Sony Corp 表示装置、表示方法及びプログラム
US20100127997A1 (en) * 2008-11-25 2010-05-27 Samsung Electronics Co., Ltd. Device and method for providing a user interface
JP2010211401A (ja) * 2009-03-09 2010-09-24 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2010250610A (ja) * 2009-04-16 2010-11-04 Sony Corp 情報処理装置、傾き検出方法及び傾き検出プログラム
JP2011014044A (ja) * 2009-07-03 2011-01-20 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
JP2011164767A (ja) * 2010-02-05 2011-08-25 Panasonic Corp 座標入力装置、座標入力方法、座標入力プログラム、及び携帯端末
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting

Also Published As

Publication number Publication date
BR112014023286A2 (ja) 2017-06-20
CN104246681A (zh) 2014-12-24
KR20140148381A (ko) 2014-12-31
EP2837997A1 (en) 2015-02-18
EP2837997A4 (en) 2016-04-20
JP6036807B2 (ja) 2016-11-30
US9582096B2 (en) 2017-02-28
BR112014023286A8 (pt) 2017-07-25
US20150015520A1 (en) 2015-01-15
CN104246681B (zh) 2018-07-31
WO2013145804A1 (ja) 2013-10-03

Similar Documents

Publication Publication Date Title
JP6036807B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11604560B2 (en) Application association processing method and apparatus
JP5942978B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10156974B2 (en) Information processing apparatus, display control method, and display control program
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
US9110579B2 (en) Information processing apparatus, information processing method and information processing program
EP1980937B1 (en) Object search method and terminal having object search function
US11366582B2 (en) Screenshot capturing method, device, electronic device and computer-readable medium
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
KR20180018561A (ko) 이미지 영역을 선택 및 추적함으로써 비디오를 확대축소하기 위한 장치 및 방법
KR101586559B1 (ko) 정보 처리 장치 및 정보 처리 방법
KR20150134674A (ko) 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
JP2017174113A (ja) 表示制御装置およびその制御方法
US20130201128A1 (en) Display control apparatus and control method of display control apparatus
US10983686B2 (en) Display control apparatus equipped with touch panel, control method therefor, and storage medium storing control program therefor
US10719190B2 (en) Controlling content transparency and stroke background transmittance
US11010045B2 (en) Control apparatus, control method, and non-transitory computer readable medium
JP6777697B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7337520B2 (ja) 情報処理装置、情報処理装置の制御方法、プログラム、および記憶媒体
JP2022060243A (ja) 情報処理装置、情報処理方法およびプログラム
JP6719276B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R151 Written notification of patent or utility model registration

Ref document number: 6036807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250