JP2017508215A - ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション - Google Patents

ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション Download PDF

Info

Publication number
JP2017508215A
JP2017508215A JP2016553847A JP2016553847A JP2017508215A JP 2017508215 A JP2017508215 A JP 2017508215A JP 2016553847 A JP2016553847 A JP 2016553847A JP 2016553847 A JP2016553847 A JP 2016553847A JP 2017508215 A JP2017508215 A JP 2017508215A
Authority
JP
Japan
Prior art keywords
user interface
computing device
portable computing
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016553847A
Other languages
English (en)
Inventor
ゴヴィンダピライ,ヴィノッド
リダル,トメル
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2017508215A publication Critical patent/JP2017508215A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Abstract

人間のコンピュータインタラクションに関連付けられるコンピューティングデバイス、コンピュータ読取可能記録媒体及び方法。諸実施形態において、コンピューティングデバイスは、ディスプレイ、該ディスプレイに結合されるプロセッサ、該プロセッサ上で動作するユーザインタフェースエンジン及び1つ以上のアプリケーションを含み得る。諸実施形態において、ユーザインタフェースエンジン又は1つ以上のアプリケーションは、ポータブルコンピューティングデバイスのユーザがユーザインタフェースの一部を移動させたい方向を指示するポータブルコンピューティングデバイスの動きを検出し、指示された方向に従って、ディスプレイ上の現在の位置からディスプレイ上の別の位置へユーザインタフェースの一部を移動させるように構成され得る。そのような移動は、ディスプレイのインタラクションゾーンを介して、ユーザがユーザインタフェースの一部と対話することを容易にすることができる。他の実施形態も説明され、かつ/又は特許請求され得る。

Description

関連出願
本出願は、2014年3月24日に出願された「INTERACTION WITH A COMPUTING DEVICE VIA MOVEMENT OF A PORTION OF A USER INTERFACE」という名称の米国特許出願第14/223,832号の優先権を主張する。
技術分野
本開示の実施形態は、人間のコンピュータインタラクションの分野に関し、特に、コンピューティングデバイスのディスプレイを介したコンピューティングデバイスとのインタラクションに関する。
ここで与えられる背景技術の記載は、概して本開示の背景を提示する目的のためである。本明細書において別段の指示がない限り、このセクションで説明される題材は、本出願における特許請求の範囲に対する先行技術ではなく、このセクションに含めることによって先行技術とすることは認められない。
タッチスクリーンは、ポータブルコンピューティングデバイスの市場に大変革をもたらした。同時に、ポータブルコンピューティングデバイスの増大する画面サイズと、コンピューティングデバイスのユーザビリティとの間には絶え間ない戦いがある。ポータブルコンピューティングデバイスの画面サイズは、ますます大きくなっているが、この付加的な画面サイズは、画面全体とのインタラクションを扱いにくいものにし、消費者が1又はそれ以上の手で一貫したグリップを維持しつつ、ポータブルコンピューティングデバイスを制御することを難しくする。この扱いにくいインタラクションは、多くの消費者がそうしているように、単一の手でポータブルコンピューティングデバイスを制御しようとするときに悪化する。これらのインタラクションの問題は、消費者がポータブルコンピューティングデバイスの付加的な画面サイズに悩むことを余儀なくされると感じることがあるという、ユーザビリティの短所を与えることがある。
本開示の様々な実施形態に係る、ポータブルコンピューティングデバイスのユーザインタフェースとの例示のユーザインタラクションを示す図である。 本開示の様々な実施形態に係る、ユーザインタフェースの一部と対話するようインタラクションゾーンの例示的な利用を示す図である。 本開示の様々な実施形態に係る、ポータブルコンピューティングデバイスの例示の複数のインタラクションゾーンを示す図である。 本開示の様々な実施形態に係る、例示の処理フローを示す図である。 本開示の様々な実施形態に係る、別の例示の処理フローを示す図である。 本開示の様々な実施形態に係る、ポータブルコンピューティングデバイスの例示の構成を示す図である。
人間のコンピュータインタラクションのための方法、記録媒体及びコンピューティングデバイスを説明する。実施形態において、コンピューティングデバイスは、ディスプレイと、ディスプレイに結合されるプロセッサと、プロセッサ上で動作する1つ以上のアプリケーションと、プロセッサ上で動作するユーザインタフェースエンジンとを含み得る。ユーザインタフェースエンジン又は1つ以上のアプリケーションは、ポータブルコンピューティングデバイスのユーザがユーザインタフェースの一部を移動させたい方向を指示するポータブルコンピューティングデバイスの動きを検出するよう、プロセッサ上で動作することができる。諸実施形態において、ユーザインタフェースエンジン又は1つ以上のアプリケーションは、指示された方向に従って、ディスプレイ上の現在の位置からディスプレイ上の別の位置へユーザインタフェースの一部を移動させることができる。そのような移動は、ポータブルコンピューティングデバイスのユーザが、ディスプレイを介してユーザインタフェースの一部と対話することを容易にすることができる。例えばポータブルコンピューティングデバイスは、スマートフォンであってよい。ユーザインタフェースの一部は、ユーザがアクティブにしたいと思うユーザインタフェースのアイコンとすることができる。一部の実施形態において、ユーザは、ある方向にスマートフォンを動かすか回転させて、ユーザがユーザインタフェースを移動させたい方向を指示することができ、これに応答して、ユーザインタフェースエンジンは、一部の実施形態ではユーザインタフェースの残りの部分と一緒に、指示された方向にアイコンを動かし、ユーザがそのアイコンをアクティブにすることを容易にすることができる。
以下の詳細な説明では、その説明の一部を形成する添付の図面への参照を行う。図面では、全体を通して同様の符号が同様の部分を指し、実施され得る実施形態が、限定でなく例として図示されている。他の実施形態も利用されることがあり、本開示の範囲から逸脱することなく、構造的又は論理的変更を行うことができることが理解されよう。したがって、以下の詳細な説明は、限定的意味で解釈されるべきではなく、実施形態の範囲は、添付の特許請求の範囲及びその均等物によって定義される。
様々な動作が、特許請求に係る主題を理解する際に最も役立つ方法で順番に複数の別個のアクション又は動作として説明され得る。しかしながら、説明の順序は、これらの動作が必ずしも順序に依存することを示唆するように解釈されるべきではない。特に、これらの動作は提示順に実行されなくてもよい。説明される動作は、説明される実施形態と異なる順序で実行されてよい。更なる実施形態では、様々な追加の動作が実行されてよく、かつ/又は説明される動作が省略されてもよい。
本開示の目的では、「A及び/又はB」というフレーズは、(A)、(B)又は(AとB)を意味する。本開示の目的では、「A、B及び/又はC」というフレーズは、(A)、(B)、(C)、(AとB)、(AとC)、(AとBとC)を意味する。説明では、「実施形態において(実施形態では)」又は「諸実施形態において(諸実施形態では)」というフレーズを使用することがあるが、これらのフレーズは、それぞれ同じ実施形態又は異なる実施形態のうちの1つ以上を指すことがある。さらに、本開示の実施形態に関して使用されるとき、「備える(comprising)」、「含む(including)」、「有する(having)」等の用語は同義である。
図1は、本開示の様々な実施形態に係る、ポータブルコンピューティングデバイス102のユーザインタフェースとの例示のユーザインタラクション100を示す。一部の実施形態において、ユーザインタラクション100は、ユーザがポータブルコンピューティングデバイス、例えばスマートフォン102を保持すると開始し得る。図示されるように、スマートフォン102は、当該スマートフォンと一体化された対話型ディスプレイを有しており、対話型ディスプレイは、ユーザインタフェースをレンダリングするように構成される。諸実施形態において、ポータブルコンピューティングデバイス102は、該ポータブルコンピューティングデバイスが本明細書で説明される動作の1つ以上を実行することを可能にするよう組み込まれる、本明細書の他の箇所で説明されるようなユーザインタフェースエンジンを有することができる。
諸実施形態において、スマートフォン102は、ユーザが、インタラクションを実行するために1つ以上の手を動かす必要なく、1以上の手を使用してユーザインタフェースの全体と対話することを可能にするように構成され得る。これは、例えばユーザがユーザインタフェースを動かしたい方向を指示するユーザ入力又はユーザが対話したいユーザインタフェースの部分を指示する入力を検出するように、スマートフォン102を構成することによって達成され得る。ここでは、106に示されるように、ユーザがユーザインタフェースを動かしたい方向を指示する入力の一例では、スマートフォン102を左下に傾けている。そのような入力は、例えば加速度計、ジャイロスコープ、カメラ又はスマートフォン102の動きを検出する能力を有する任意の他の機構によって検出され得る。そのような入力が検出されると、スマートフォン102はその入力を用いて、ユーザインタフェースの一部とのインタラクションのためにユーザがユーザインタフェースを動かしたいと思う方向(矢印108によって示される)を決定するように構成され得る。ここで図示されるように、スマートフォン102を左下に傾けることは、ユーザによって、該ユーザがユーザインタフェースを左下に動かしたいと思うことを効果的に指示するように利用され得る。そのような効果はウォーターフォール効果として説明され得る。ウォーターフォール効果では、ユーザがスマートフォン102を動かすと、110のように、ユーザが対話したいユーザインタフェースの部分が、入力で指示した方向に下がり、これにより、ユーザインタフェースのその部分を、ユーザがより容易に対話をすることができる画面のエリアのより近くに効果的に持ってくることができる。これは、ユーザがディスプレイの全体に届かない場合であっても、ユーザが対話型ディスプレイを介してユーザインタフェースの全体と対話することを容易にすることができる。ユーザが対話したいユーザインタフェースの部分が、例えばスマートフォン102を一方の手で操作しているときにユーザの親指によって、ユーザの届く範囲内になると、ユーザはその部分と対話することができる。ユーザがユーザインタフェースの部分と対話するよう、ユーザインタフェースの部分が指示された方向に十分動くと、ユーザはアイコン112をアクティブにして、114において、アイコン112に関連付けられるカレンダーアプリケーションを開始することができる。ユーザは、次いで上記と同じプロセスを利用して、示されるカレンダーアプリケーションのユーザインタフェースと対話することができる。
インタラクションは、ユーザがユーザインタフェースの一部を動かしたい方向を指示するスマートフォン102の動きとして、図示及び上述されるが、図1の特定のインタラクションは例示の目的で使用される。他の実施形態では、ユーザはスマートフォン102のディスプレイと対話して、ユーザがユーザインタフェースの一部を動かしたい方向を指示することができる。例えばユーザは、ディスプレイのあるエリア上のユーザの親指を利用して、ユーザインタフェースの一部を、ユーザがより容易に対話することができるディスプレイのエリア内へドラッグすることができる。さらに、スマートフォン102の動きは、上述のものと異なってもよい。例えばユーザは、スマートフォン102を振り、回転させ、傾け又は他の方法で動かして、ユーザがユーザインタフェースの一部を動かしたいと思う方向を指示することができる。
図2は、本開示の様々な実施形態に係る、ユーザインタフェースの一部と対話するようインタラクションゾーンの例示的な利用を示す。図示されるように、スマートフォン202は、対話型ディスプレイと、当該ディスプレイ上にユーザインタフェースをレンダリングするように構成されるユーザインタフェースエンジンに一体化され得る。諸実施形態において、スマートフォン202は、ユーザインタフェースの1つ以上の要素とユーザが対話することができるディスプレイのエリアを包含する、インタラクションゾーン206又は好適エリアを有するように構成され得る。
図示されるように、スマートフォン202をある方向に、例えば下方向に傾けて、ユーザが、ユーザインタフェースの一部204をインタラクションゾーン206内へと下に動かし、ディスプレイを介してその一部204と対話したいことを指示することができる。これに応答して、スマートフォン202は、矢印208によって示されるように、ユーザインタフェースの一部204をインタラクションゾーン206へ動かすように構成され得る。これは、一部の実施形態では、ユーザが対話したいユーザインタフェースの部分がインタラクションゾーン206へ移動するように、ユーザインタフェースの全体を動かすことによって達成され得る。そのような実施形態において、インタフェース全体が移動すると、インタフェースのあるセクションがディスプレイを離れる(leave)ことがある。一部の実施形態では、図1に図示されるように、ユーザインタフェースのセクションがディスプレイを離れると、ユーザインタフェースのそのセクションは、ユーザがインタラクションゾーンを通してユーザインタフェースの一部とのインタラクションを終え、その後、ユーザインタフェースが元のポジション又はホームポジションに戻るまで見えなくなる。他の実施形態では、図2においてユーザインタフェースのセクション210によって示されるように、ユーザインタフェースのセクションがディスプレイのエッジから消える(pass off)と、そのセクションは、ディスプレイの反対側のエッジ上に再び現れることがあり、ユーザインタフェースはディスプレイ上で効果的にループする。図2では、インタラクションゾーン206を用いる実施形態で使用されるように図示されているが、そのようなループは、図1に関連して上述されるような、定義されたインタラクションゾーンを用いない実施形態で使用されてもよい。画面がループする実施形態では、ユーザインタフェースが元の位置に戻るように動く代わりに、スマートフォン202は、単にループを継続して同じ効果を達成するように構成されてもよい。図2のユーザインタフェースの動きは、ドロップダウン通知バー212を移動させずに、アプリケーションのユーザインタフェースを移動させるように示されているが、これは単なる例示の目的である。一部の実施形態では、図示されていないが、ユーザインタフェースの移動は、これらには限定されないが、ドロップダウン通知バー212、スクロールバー(図示せず)又はディスプレイ上にレンダリングされる他の何かを含む、ユーザインタフェースの全体の移動を含んでもよい。
一部の実施形態において、ユーザは、ユーザインタフェースの一部の移動を達成するために、必ずしもスマートフォン202を動かすことや、ディスプレイと対話する必要はない。例えばスマートフォン202は、例えばスマートフォン202のマイクロフォン(図示せず)を介してユーザによって与えられる可聴コマンドを検出するよう構成され得る。可聴コマンドは、ユーザインタフェースの一部、例えばユーザが対話したいユーザインタフェースのセクション又はユーザインタフェースの特定の要素を説明することができる。そのようなコマンドを受け取ることに応答して、スマートフォン202は、ユーザインタフェースの説明された部分をインタラクションゾーン206に移動させて、ユーザインタフェースとのユーザのインタラクションを容易にするように構成され得る。他の例では、スマートフォン202は、スマートフォン202に一体化されるカメラ(図示せず)を使用してユーザの目の動きを追跡することにより、ユーザが対話したいユーザインタフェースの部分を検出するように構成され得る。そのような実施形態では、ユーザは、該ユーザが対話したいと思うユーザインタフェースの部分を見ることができ、そしてユーザインタフェースのその部分が、スマートフォン202によってインタラクションゾーン206へ移動され、ユーザインタフェースのその部分とのユーザのインタラクションを容易にすることができる。
図3は、本開示の様々な実施形態に係る、ポータブルコンピューティングデバイスの可能性のあるユーザインタラクションゾーンを示す。図示されるように、ポータブルコンピューティングデバイス、例えばタブレット302は、複数のインタラクションゾーン304及び306を有する。これらのインタラクションゾーンは、タブレット302の向き及び/又はタブレット302上のユーザの手のうちの1つ以上の手のポジションに基づいて決定され得る。例えば図示されるように、タブレット302は横向きである。諸実施形態において、この向きは、インタラクションゾーン304及び306が図示される位置にあることを決定するのに十分であり得る。他の実施形態では、タブレット302は、圧力センサとともに構成されて、ユーザの手のポジションを決定し、インタラクションゾーン304及び306の位置を決定する際に、決定したポジションを用いることができる。例えばユーザは、タブレット302の両側の中央でタブレット302を把持し、手のそのようなポジショニングを使用してインタラクションゾーン304及び306の位置を決定することができる。インタラクションゾーンの決定は、図5に関連して以下で更に検討される。
図4は、本開示の様々な実施形態に係る、ポータブルコンピューティングデバイスの例示の処理フロー400を示す。一部の実施形態において、処理は、任意選択によりブロック402で開始し、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによって、スクロールアクティブ化アクションを検出する。諸実施形態では、スクロールアクティブ化アクションを利用して、ユーザによるユーザインタフェースの偶発的なスクロール又は移動を防ぐことができる。そのようなスクロールアクティブ化アクションには、これらには限られないが、ポータブルコンピューティングデバイスを振ること、所定の時間の間の対話型ディスプレイの接触、ポータブルコンピューティングデバイスの1つ以上の圧力センサによって検出されるポータブルコンピューティングデバイスのスクイズ(squeeze)、ポータブルコンピューティングデバイスの一連のボタン及び/又はソフトキーを押すか、そのボタン及び/又はソフトキーの組み合わせを押すこと、ポータブルコンピューティングデバイスのユーザにより対話型ディスプレイ上で描かれる所定のジェスチャ、所定の時間の間のポータブルコンピューティングデバイスのカメラのカバー、所定のポイントを越えてポータブルコンピューティングデバイスを傾けること及び/又は回転させること、あるいはユーザインタフェースを移動又はスクロールさせるユーザの意図を明示することが可能な任意の他のそのようなアクションが含まれ得る。他の実施形態では、そのようなスクロールアクティブ化アクションは必要ではないことがあり、ブロック402のプロシージャは省略されてもよい。
ブロック404において、ユーザがユーザインタフェースの一部を移動させたい方向を指示する入力が、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによって検出され得る。一部の実施形態では、そのような入力には、ポータブルコンピューティングデバイスを動かすこと、例えば傾けること及び/又は回転させることが含まれ得る。例えばユーザは、ユーザインタフェースの所望の部分が、ユーザがより容易に対話することができるディスプレイのエリア内に入るように、ポータブルコンピューティングデバイスを配置することができる。他の実施形態では、ユーザは、ディスプレイ上の指を使用して、ユーザが対話したいと思うユーザインタフェースの一部が届く距離内に入るまで、ユーザインタフェースを所望の方向にドラッグしてもよい。上述の入力は単なる例示であるように意図されており、本開示の範囲を逸脱することなく、ユーザがユーザインタフェースの一部を移動させたい方向を指示するユーザによる任意の入力を使用して、ユーザインタフェースの一部とのユーザのインタラクションを容易にすることができる。
ユーザがユーザインタフェースの一部を移動させたい方向が決定されると、ブロック406において、ユーザインタフェースのその部分が、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによって、指示された方向に移動され得る。これは、例えばユーザインタフェースのその部分が、ディスプレイ上のユーザがより容易に届くエリアの近くに移動するように、ユーザインタフェースの全体を移動させることによって達成され得る。一部の実施形態において、これは、ユーザに対して、画面のある位置から別の位置へのジャンプとして見えることがある。他の実施形態では、ユーザに対して、ユーザインタフェースのスライディングであるように見えることがある。そのような実施形態では、スライディングのスピードは、例えばポータブルコンピューティングデバイスの傾き及び/又は回転の角度(degree)に基づいて決定され得る。そのような実施形態では、インタフェース全体が移動すると、インタフェースのセクションがディスプレイを離れることがある。一部の実施形態では、上記の図1に図示されるように、ユーザインタフェースがディスプレイを離れると、ディスプレイのセクションは、ユーザがユーザインタフェースの一部とのインタラクションを完了し、その後、ユーザインタフェースが元のポジション又はホームポジションに戻るまで見えなくなる。他の実施形態では、上記の図2に図示されるように、ユーザインタフェースのセクションがディスプレイのエッジから消えると、そのセクションは、ディスプレイの反対側のエッジ上に再び現れることがあり、ディスプレイ上でユーザインタフェースを本質的にループさせる。そのような実施形態では、ユーザインタフェースは元の位置に戻るよう動くのではなく、ユーザインタフェースは、単にループを継続して同じ効果をもたらす。
ブロック408において、ユーザインタフェースの一部は、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによって、ホーム位置に返される。本明細書で使用されるとき、ホーム位置は、ブロック406の移動に先行する、ユーザインタフェースのその一部の元の位置とすることができる。一部の実施形態において、ブロック408のプロシージャは、ユーザがユーザインタフェースの一部との対話を完了した後に起こり得る。インタラクションの完了は、一部の実施形態では、ユーザのユーザインタフェースの要素のアクティブ化により、例えば関連するアプリケーションを起動するアイコンの選択により、決定され得る。他の実施形態において、インタラクションの完了は、非アクティブ(inactivation)又は任意の他の適切なアクション若しくは非アクション(inaction)の時間に基づくものとすることができる。
一部の環境において、ユーザは、該ユーザがユーザインタフェースの一部を移動させたい方向に関する意思を変える可能性がある。そのような環境では、ユーザは、例えばユーザインタフェースを別の方向に移動させるように傾き又は回転を調整することや、ポータブルコンピューティングデバイスを振ること等のアクションを実行して、現在のアクションを止めるという望み示すことができる。
図5は、本開示の様々な実施形態に係る、ポータブルコンピューティングデバイスの例示の処理フロー500を示す。一部の実施形態において、処理は、任意選択によりブロック502で開始し、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによって、スクロールアクティブ化アクションを検出する。諸実施形態では、スクロールアクティブ化アクションを利用して、ユーザによるユーザインタフェースの偶発的なスクロール又は移動を防ぐことができる。そのようなスクロールアクティブ化アクションには、これらには限られないが、ポータブルコンピューティングデバイスを振ること、所定の時間の間の対話型ディスプレイ又はインタラクションゾーンの接触、ポータブルコンピューティングデバイスの1つ以上の圧力センサによって検出されるポータブルコンピューティングデバイスのスクイズ、ポータブルコンピューティングデバイスの一連のボタン及び/又はソフトキーを押すこと、ポータブルコンピューティングデバイスのユーザにより対話型ディスプレイ又はインタラクションゾーン上で描かれる所定のジェスチャ、所定の時間の間のポータブルコンピューティングデバイスのカメラのカバー、所定のポイントを越えてポータブルコンピューティングデバイスを傾けること及び/又は回転させること、あるいはユーザインタフェースをスクロールさせるユーザの意図を明示することが可能な任意の他のそのようなアクションが含まれ得る。他の実施形態では、そのようなスクロールアクティブ化アクションは必要ではないことがあり、ブロック502のプロシージャは省略されてもよい。
ブロック504において、ユーザが対話したいと思うユーザインタフェースの一部を指示する入力が、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによって検出され得る。一部の実施形態では、そのような入力には、ポータブルコンピューティングデバイスを傾けること及び/又は回転させることが含まれ得る。一部の実施形態では、傾き及び/又は回転の角度における変化が、ユーザインタフェースの異なる部分を指示するように、ユーザインタフェースの複数の部分を、ポータブルコンピューティングデバイスの異なる角度の傾き及び/又は回転に関連付けることができる。例えばディスプレイを、複数のセグメントに分けることができ、参照ポイントからの連続的な回転(例えば10度の回転)により、ユーザが対話したいと思うインタフェースの一部を、あるセグメントから次のセグメントへ変えることができる。他の実施形態では、ユーザは、ディスプレイ上又はディスプレイのインタラクションゾーン上の指を使用して、ユーザが対話したいと思うユーザインタフェースの一部がインタラクションゾーン内に入るまで、ユーザインタフェースをドラッグしてもよい。更に別の実施形態では、インタラクションゾーンのセクションは、ユーザインタフェースのセクションと相関することがあり、インタラクションゾーンの特定のセクションのタッチは、ユーザが、ユーザインタフェースの相関されるセクションと対話したいと思うことを示すことができる。例えばユーザが、ユーザインタフェースの右上の部分と対話したい場合、ユーザは、インタラクションゾーンの右上の部分を触って、ユーザが対話したいユーザインタフェースの部分を示すことができる。上述の入力は単なる例示の入力であるように意図されており、本開示の範囲を逸脱することなく、ユーザが対話したいユーザインタフェースの部分を指示するユーザによる任意の入力を使用することができる。さらに、ユーザインタフェースの部分は、ユーザインタフェースのエリアであってもよく、あるいはユーザインタフェースの特定の要素又はアイコンとすることもできる。
ブロック506において、インタラクションゾーンが、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによって決定され得る。一部の実施形態において、インタラクションゾーンは、ポータブルコンピューティングデバイスの向きに少なくとも部分的に基づいて決定され得る。例えばポータブルコンピューティングデバイスが縦向きの場合には、あるインタラクションゾーンが決定され、横向きの場合には別のインタラクションゾーンが決定され得る。他の実施形態では、インタラクションゾーンは、ポータブルコンピューティングデバイス上のユーザの手のうちの1つ以上の手のポジションに基づいて決定され得る。例えばユーザがポータブルコンピューティングデバイスを右下隅で保持している場合、インタラクションゾーンも右下隅に配置されるように決定され得る。更に他の実施形態では、インタラクションゾーンは、ポータブルコンピューティングデバイスの向きと、ポータブルコンピューティングデバイス上のユーザの手のうちの1つ以上の手のポジションの組合せに基づいて決定され得る。例えばポータブルコンピューティングデバイスが、横向きのポジションで保持されており、ユーザの手の一方がポータブルコンピューティングデバイスの右下隅に配置されている場合、対応するインタラクションゾーンが決定され得る。更に他の実施形態では、ユーザは、画面のエリアをタップして、インタラクションゾーンにしたいと思う位置を特定してもよい。
更なる実施形態において、2つ以上のインタラクションゾーンが決定されてもよい。例えばポータブルコンピューティングデバイスが、該ポータブルコンピューティングデバイスの両側の上の一方の手で操作される場合、インタラクションゾーンは各手の位置に基づいて決定され得る。そのような実施形態では、選択の方法及び/又は上記で決定したユーザインタフェースの部分に基づいて別の決定を行うことができる。例えばユーザが、ユーザインタフェースの一部がインタラクションゾーンに入るようにコンピューティングデバイスを位置決めする実施形態では、2つ以上のインタラクションゾーンが特定されている場合、別のインタラクションゾーンと比べて、そのインタラクションゾーンに入る経路(the path of the fall)内のインタラクションゾーンが選択され得る。別の例では、ユーザがディスプレイ又はインタラクションゾーン上の指を利用して、ユーザが対話したいユーザインタフェースの部分がインタラクションゾーン内に現れるまでドラッグする場合、ドラッグする方向は、ユーザインタフェースの部分と対話する際にユーザが利用したいと思うインタラクションゾーンを決定することができる。
これらの実施形態の一部では、インタラクションゾーンを、複数の可能性のあるインタラクションゾーンから、上述の決定処理又は任意の他の適切な決定処理に基づいて選択することができる。これらの可能性のあるインタラクションゾーンは、デバイスの製造業者によってデバイスにおいて、あるいはソフトウェア/ファームウェアベンダによってデバイスのソフトウェア/ファームウェアにおいて予め定義され得る。他の実施形態では、デバイスのユーザは、1つ以上のインタラクションゾーンを定義することができ、2つ以上のインタラクションゾーンが定義された場合には、定義されたインタラクションゾーンの選択についての基準に従ってその中から選択を行うことができる。例えばユーザは、インタラクションゾーンを定義し、その定義されたインタラクションゾーンを、該インタラクションゾーンが選択されたときの向き及び/又は手のポジションと関連付けることができる。一部の実施形態において、単一のインタラクションゾーンを予め定義することができ、そのような実施形態では、インタラクションゾーンの決定を省略することができる。ここでは、ブロック504の後に起こるように図示されているが、一部の実施形態では、ブロック506について上記したプロシージャが、ブロック504について上記したプロシージャの前に起こってもよい。
ユーザが対話したいと思うユーザインタフェースの一部及びインタラクションゾーンが決定されると、ブロック508において、ユーザインタフェースの一部を、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによってインタラクションゾーンへ移動させることができる。これは、図2に関連して上記したように、ユーザインタフェースの一部が、決定されたインタラクションゾーンと合致するか、決定されたインタラクションゾーンに包含されるよう、ユーザインタフェースの全体を移動させることによって達成され得る。一部の実施形態では、これは、ユーザに対して、画面のある位置から別の位置へのジャンプとして見えることがある。他の実施形態では、これは、ユーザに対して、ユーザインタフェースのスライディングであるように見えることがある。そのような実施形態では、スライディングのスピードは、例えばポータブルコンピューティングデバイスの傾き及び/又は回転の角度に基づいて決定され得る。一部の実施形態では、ユーザインタフェースの一部は、ユーザインタフェースの残りの部分から分離して、インタラクションゾーンへ動いてもよい。そのような実施形態では、ユーザインタフェースの全体ではなく、ユーザインタフェースの一部のみが移動することになり、ユーザインタフェースの残りの部分は元の位置に留まる。更なる実施形態では、ユーザが対話したいユーザインタフェースの一部がインタラクションゾーン内へと移動するように、ユーザインタフェースの全体が移動され得る。そのような実施形態ではインタフェース全体が移動すると、インタフェースのセクションがディスプレイから離れる。一部の実施形態では、上記の図1に図示されるように、ユーザインタフェースのセクションがディスプレイを離れると、ディスプレイのセクションは、ユーザがインタラクションゾーンを通してユーザインタフェースの一部とのインタラクションを完了し、その後ユーザインタフェースが元のポジション又はホームポジションに戻るまで見えなくなる。他の実施形態では、上記の図2に図示されるように、ユーザインタフェースのセクションがディスプレイのエッジから消えると、そのセクションは、ディスプレイの反対側のエッジ上に再び現れることがあり、ユーザインタフェースはディスプレイ上で本質的にループする。そのような実施形態では、ユーザインタフェースは元の位置に戻るよう移動するのではなく、ユーザインタフェースは、単にループを継続して同じ効果をもたらす。
ブロック510において、ユーザインタフェースの一部は、例えばポータブルコンピューティングデバイスのユーザインタフェースエンジンによって、ホーム位置に返される。本明細書で使用されるとき、ホーム位置は、ブロック508の移動に先行するユーザインタフェースの一部の元の位置とすることができる。一部の実施形態において、ブロック510のプロシージャは、ユーザがインタラクションゾーンを通してユーザインタフェースの一部との対話を完了した後に起こり得る。インタラクションの完了は、一部の実施形態では、ユーザのユーザインタフェースの要素のアクティブ化により、例えば関連するアプリケーションを起動するアイコンの選択により、決定され得る。他の実施形態において、インタラクションの完了は、非アクティブ又は任意の他の適切なアクション若しくは非アクションに基づくものとすることができる。
一部の環境において、ユーザは、該ユーザがユーザインタフェースの一部を移動させようと思う方向に関する考えを変える可能性がある。そのような環境では、ユーザは、ポータブルコンピューティングデバイスを振ること等のアクションを実行して、現在のアクションを止めるという望み示すことができる。そのようなアクションが検出されると、ブロック508に関連して説明した移動が開始した場合、ユーザインタフェースの一部はホーム位置に戻ってよい。
図6は、本開示の一部の実施形態に係るポータブルコンピューティングデバイス600の例示の構成を示す。ポータブルコンピューティングデバイス600は、スマートフォン、タブレット、ウルトラブック、eブック、ラップトップコンピュータ、タブレット/ラップトップのハイブリッド、メディアプレーヤ又はゲーミングデバイス等の任意のタイプのコンピューティングデバイスとすることができる。上述のコンピューティングデバイスは、説明的であるよう意図される単なる例示であることが認識されよう。本開示は、コンピューティングデバイスの形式に関わらず等しく適用可能である。
ポータブルコンピューティングデバイス600は、プロセッサ602、ディスプレイ604、センサ606、ユーザインタフェースエンジン610を含むストレージ608、そして他の入出力(I/O)デバイス612を備え得る。プロセッサ602、ディスプレイ604、センサ606、ストレージ608及び他の入出力(I/O)デバイス612は全て、システムバス614を使用して一緒に結合され得る。
プロセッサ602は、単一のプロセッサ又は複数のプロセッサで構成され得る。複数のプロセッサの実施形態では、複数のプロセッサは、同じタイプ、すなわち同種であっても、異なるタイプ、すなわち異種であってもよく、任意のタイプのシングルコア又はマルチコアプロセッサを含み得る。本開示は、プロセッサのタイプ及び/又は数に関わらず等しく適用可能である。
ディスプレイ604は、液晶(LCD)、有機発光ダイオード(OLED)、プラズマディスプレイ又は任意の他の同様のディスプレイを含む、任意のタイプのディスプレイとすることができる。諸実施形態において、ディスプレイ604は、タッチセンサディスプレイ等の対話型ディスプレイであってよい。ディスプレイ604は、コンピューティングデバイス600内に組み込まれてもよく、任意のタイプの有線及び/又は無線接続を通してコンピューティングデバイス600に周辺的に接続されてもよい。本開示は、ディスプレイのタイプに関わらず等しく適用可能である。
センサ606は、一部の実施形態では、カメラ、加速度計、ジャイロスコープ、圧力センサ等のようなセンサを含み得る。これらのセンサは、コンピューティングデバイス600が、図1〜図5に関連して上述した処理の1つ以上を実行することを可能にすることができる。上述のセンサは、説明的であるよう意図される単なる例であることが認識されよう。
諸実施形態において、ストレージ608は、任意のタイプのコンピュータ読取可能記録媒体、又は異なるタイプのコンピュータ読取可能記録媒体の任意の組合せであってよい。ストレージ608は、揮発性及び不揮発性/持続性ストレージを含み得る。揮発性ストレージには、例えば動的ランダムアクセスメモリ(DRAM)が含まれ得る。不揮発性/持続性ストレージは、これらに限定されないが、半導体ドライブ(SSD)、磁気又は光ディスクハードドライブ、フラッシュメモリ又はこれらの任意の複数又は組合せを含み得る。
諸実施形態において、ユーザインタフェースエンジン610は、ソフトウェア、ファームウェア又はこれらの任意の組合せとして実装され得る。一部の実施形態において、ユーザインタフェースエンジン610は、プロセッサ602によって実行されると、コンピューティングデバイス600に本明細書で説明される任意の処理の1つ以上の動作を実行させる、1つ以上の命令を備えることができる。諸実施形態において、ユーザインタフェースエンジン610は、センサ606からデータを受け取るように構成され得る。一部の実施形態において、ユーザインタフェースエンジン610は、センサ606によって生成されたデータのストリームをモニタするように構成され得る。他の実施形態において、ユーザインタフェースエンジン610は、分析のためにセンサ606からのデータの一部を周期的に受け取るように構成され得る。一部の実施形態において、ユーザインタフェースエンジン610は、上述のように、ユーザがユーザインタフェースの一部を移動させたい方向を決定するか、ユーザが対話したいユーザインタフェースの部分を決定するように構成され得るが、ユーザインタフェースの実際の移動を達成させるよう、これらの決定を別のアプリケーション又はポータブルコンピューティングシステムのオペレーティングシステム(OS)にアウトプットしてもよい。これは、一部の実施形態では、ユーザインタフェースエンジン610に統合されるアプリケーションプログラミングインタフェース(API)を通して達成され得る。
諸実施形態において、ユーザインタフェースエンジン610は、センサ606から受け取ったデータを分析するように構成され得る。一部の実施形態では、そのデータを分析して、コンピューティングデバイス600上のユーザの手及び/又は指のポジションを決定することができる。一部の実施形態では、データを分析して、図1〜図5に関連して説明されたアクション等のような所定のアクションがセンサデータ内で生じているかどうかを判断することができる。これは、例えばセンサの1つ以上によってキャプチャされるデータを、所定のアクションのデータベースと比較することによって達成され得る。
この説明の目的では、コンピュータ使用可能又はコンピュータ読取可能媒体は、命令実行システム、装置又はデバイスにより使用するか、これらとともに使用するために、プログラムを包含、格納、通信、伝搬又は移送することができる任意の媒体とすることができる。媒体は、電子、磁気、光、電磁気、赤外又は半導体システム(又は装置若しくはデバイス)又は伝搬媒体とすることができる。コンピュータ読取可能記録媒体の例には、半導体又は固体メモリ、磁気テープ、取外し可能コンピュータディスケット、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、硬質の磁気ディスク及び光ディスクが含まれる。光ディスクの現在の例には、コンパクトディスク読取専用メモリ(CD−ROM)、コンパクトディスク読取/書込(CD−R/W)及びDVDが含まれる。
本開示の実施形態は、全体的にハードウェアの実施形態、全体的にソフトウェアの実施形態及びハードウェア要素とソフトウェア要素の双方を含む実施形態の形をとることができる。様々な実施形態において、ソフトウェアには、これらに限定されないが、ファームウェア、常駐ソフトウェア、マイクロコード等が含まれ得る。さらに、本開示は、コンピュータ又は任意の命令実行システムによって又はこれらとともに使用するためのプログラムコードを提供する、コンピュータ使用可能又はコンピュータ読取可能媒体からアクセス可能なコンピュータプログラム製品の形をとることができる。
本明細書では、具体的な実施形態を図示し、説明してきたが、本開示の実施形態の範囲から逸脱することなく、多様な代替的及び/又は均等の実装を、図示及び説明される特定の実施形態と置き換えてもよいことが当業者には認識されよう。本出願は、本明細書で検討される実施形態の全ての適応又は変形形態を網羅するように意図される。したがって、本開示の実施形態は、特許請求の範囲及びその均等物によってのみ限定されることが明確に意図される。

幾つかの非限定的な例は、次のとおりである。
例1は、ユーザインタフェースとのユーザインタラクションを容易にするポータブルコンピューティングデバイスであって:ディスプレイと、該ディスプレイに結合されるプロセッサと、該プロセッサ上で動作する1つ以上のアプリケーションと、ユーザインタフェースエンジンとを備える。ユーザインタフェースエンジンは、ディスプレイ上に1つ以上のアプリケーションのユーザインタフェースをレンダリングするように、プロセッサ上で動作する。ユーザインタフェースエンジン又は1つ以上のアプリケーションは、プロセッサによって、ポータブルコンピューティングデバイスのユーザがユーザインタフェースの一部を移動させたい方向を指示する、ポータブルコンピューティングデバイスの動きを検出し、ユーザがユーザインタフェースの一部と対話することを容易にするよう、指示された方向に従って、ディスプレイ上の現在の位置からディスプレイ上の別の位置へユーザインタフェースの一部を移動させるように更に動作する。
例2は、例1の主題を含んでよく、ユーザインタフェースエンジン又は1つ以上のアプリケーションは、ユーザインタフェースの一部とのユーザのインタラクションが完了すると、ユーザインタフェースの一部を別の位置から現在の位置に戻すように、プロセッサ上で更に動作する。
例3は、例1の主題を含んでよく、ポータブルコンピューティングデバイスの動きは、ポータブルコンピューティングデバイスの傾き又は回転のうちの少なくとも一方を備える。
例4は、例3の主題を含んでよく、ポータブルコンピューティングデバイスは、ポータブルコンピューティングデバイスの動きに関するデータを検出して出力するよう構成される動きセンサを更に備え、ポータブルコンピューティングデバイスの動きの検出は、動きセンサによって出力されるデータに少なくとも部分的に基づく。
例5は、例4の主題を含んでよく、動きセンサは、加速度計又はジャイロスコープのうちの少なくとも一方を備える。
例6は、例1乃至例5のいずれか1つの主題を含んでよく、別の位置は、ディスプレイのインタラクションゾーンを備える。
例7は、例6の主題を含んでよく、インタラクションゾーンは、ディスプレイの固定エリアを備える。
例8は、例6の主題を含んでよく、ユーザインタフェースエンジンは、インタラクションゾーンを決定するようプロセッサ上で更に動作する。
例9は、例8の主題を含んでよく、インタラクションゾーンの決定は、ポータブルコンピューティングデバイスの向きに基づく、ディスプレイの1つ以上のエリアからのインタラクションゾーンの選択を備える。
例10は、例9の主題を含んでよく、ディスプレイの1つ以上のエリアは、ポータブルコンピューティングデバイスのユーザによって予め定義される。
例11は、例10の主題を含んでよく、ユーザによって予め定義されるディスプレイの1つ以上のエリアは、ユーザが、一方の手を用いてポータブルコンピューティングデバイスを保持しつつ、その一方の手を用いて、インタラクションゾーンを通してユーザインタフェースの全体と対話をすることを可能にする。
例12は、例8の主題を含んでよく、インタラクションゾーンを決定することは、ポータブルコンピューティングデバイスの動きに基づいて、インタラクションゾーンを決定することを備える。
例13は、例8の主題を含んでよく、インタラクションゾーンを決定することは、ポータブルコンピューティングデバイスのユーザの手のうちの1つ以上の手の現在のポジションを所与として、ユーザが対話することができるポータブルコンピューティングデバイスのディスプレイのエリアの決定を備える。
例14は、例13の主題を含んでよく、インタラクションゾーンを決定することは、ポータブルコンピューティングデバイス上のユーザの手のうちの1つ以上の手のポジションを決定することと;決定されたポジションに基づいて、インタラクションゾーンを決定することを備える。
例15は、例1乃至例5のいずれかの主題を含んでよく、ユーザインタフェースの一部は、ユーザインタフェースの対話的要素(interactive element)である。
例16は、例1乃至例5のいずれかの主題を含んでよく、ポータブルコンピューティングデバイスの動きを検出することは更に、ポータブルコンピューティングデバイスの動きを、所定のスクロールアクティブ化アクションの検出においてのみ検出する。
例17は、例1乃至例5のいずれかの主題を含んでよく、ユーザインタフェースの一部をディスプレイ上の現在の位置からディスプレイ上の別の位置へと移動させることは、ユーザインタフェースの全体をスクロールして、ユーザインタフェースの一部をディスプレイ上の現在の位置からディスプレイ上の別の位置へと移動させる。
例18は、例1乃至例5のいずれかの主題を含んでよく、ポータブルコンピューティングデバイスは、スマートフォン、タブレット、パーソナルデジタルアシスタント(PDA)、タブレットとラップトップのハイブリッド、メディアプレーヤ又はゲーミングデバイスのうちの1つである。
例19は、ユーザインタフェースとのユーザインタラクションを容易にするコンピュータ実施方法であって:ポータブルコンピューティングデバイスのユーザインタフェースエンジンによって、ポータブルコンピューティングデバイスのユーザがユーザインタフェースの一部を移動させたい方向を指示するポータブルコンピューティングデバイスの動きを検出するステップと;ユーザインタフェースエンジンによって、ポータブルコンピューティングデバイスのユーザがユーザインタフェースの一部と対話することを容易にするよう、指示された方向に従って、ディスプレイ上の現在の位置からディスプレイ上の別の位置へユーザインタフェースの一部を移動させるステップを備える。
例20は、例19の主題を含んでよく、指示された方向に従ってユーザインタフェースの一部を移動させるステップは、指示された方向にユーザインタフェースの一部を移動させるように、ポータブルコンピューティングデバイスのオペレーティングシステム(OS)又はアプリケーションが使用するために、ユーザインタフェースエンジンによって、指示された方向のインジケータをOS又はアプリケーションに出力するステップを備える。
例21は、例20の主題を含んでよく、ユーザインタフェースの一部とのユーザのインタラクションが完了すると、ユーザインタフェースエンジンによって、ユーザインタフェースの一部を別の位置から現在の位置に戻すステップを更に備える。
例22は、例19の主題を含んでよく、ポータブルコンピューティングデバイスの動きは、ポータブルコンピューティングデバイスの傾き又は回転のうちの少なくとも一方を備える。
例23は、例22の主題を含んでよく、ポータブルコンピューティングデバイスの動きを検出するステップは、ポータブルコンピューティングデバイスの加速度計又はジャイロスコープによって出力されるデータに少なくとも部分的に基づく。
例24は、例19乃至例23のいずれかの主題を含んでよく、別の位置は、ディスプレイのインタラクションゾーンを備える。
例25は、例24の主題を含んでよく、インタラクションゾーンは、ディスプレイの固定エリアを備える。
例26は、例24の主題を含んでよく、ユーザインタフェースエンジンによって、インタラクションゾーンを決定するステップを更に備える。
例27は、例26の主題を含んでよく、インタラクションゾーンを決定するステップは、ポータブルコンピューティングデバイスの向きに基づいて、ディスプレイの1つ以上のエリアからインタラクションゾーンを選択するステップを備える。
例28は、例27の主題を含んでよく、ディスプレイの1つ以上のエリアは、ポータブルコンピューティングデバイスのユーザによって予め定義される。
例29は、例27の主題を含んでよく、ユーザによって予め定義されるディスプレイの1つ以上のエリアは、ユーザが、一方の手を用いてポータブルコンピューティングデバイスを保持しつつ、その一方の手を用いて、インタラクションゾーンを通してユーザインタフェースの全体と対話をすることを可能にする。
例30は、例26の主題を含んでよく、インタラクションゾーンを決定するステップは、ポータブルコンピューティングデバイスの動き又は回転に少なくとも部分的に基づく。
例31は、例26の主題を含んでよく、インタラクションゾーンを決定するステップは、ポータブルコンピューティングデバイスのユーザの手のうちの1つ以上の手の現在のポジションを所与として、ユーザが対話することができるポータブルコンピューティングデバイスのディスプレイのエリアを決定することを備える。
例32は、例31の主題を含んでよく、インタラクションゾーンを決定するステップは、ポータブルコンピューティングデバイス上のユーザの手のうちの1つ以上の手のポジションを決定することと;決定されたポジションに基づいて、インタラクションゾーンを決定することを備える。
例33は、例19乃至例23のいずれかの主題を含んでよく、ユーザインタフェースの一部は、ユーザインタフェースの対話的要素である。
例34は、例19乃至例23のいずれかの主題を含んでよく、ポータブルコンピューティングデバイスの動きを検出するステップは、所定のスクロールアクティブ化アクションを検出したときにのみ、ポータブルコンピューティングデバイスの動きを検出するステップを備える。
例35は、例19乃至例23のいずれかの主題を含んでよく、ユーザインタフェースの一部をディスプレイ上の現在の位置からディスプレイ上の別の位置へと移動させるステップは、ユーザインタフェースの全体をスクロールして、ユーザインタフェースの一部をディスプレイ上の現在の位置からディスプレイ上の別の位置へと移動させるステップを備える。
例36は、ポータブルコンピューティングデバイスによって実行されると、該ポータブルコンピューティングデバイスに例19乃至例35のいずれかの方法を実行させる、ユーザインタフェースの一部とのユーザインタラクションを容易にするための命令を有する少なくとも1つのコンピュータ読取可能記録媒体である。
例37は、ユーザインタフェースとのユーザインタラクションを容易にする装置であって:コンピューティング装置のユーザがユーザインタフェースの一部を移動させたい方向を指示する、コンピューティング装置の動きを検出するための手段と;装置のユーザがユーザインタフェースの一部と対話することを容易にするよう、指示された方向に従って、ディスプレイ上の現在の位置からディスプレイ上の別の位置へユーザインタフェースの一部を移動させるための手段とを備える。
例38は、例37の主題を含んでよく、指示された方向に従ってユーザインタフェースの一部を移動させる手段は、指示された方向にユーザインタフェースの一部を移動させるよう、コンピューティングデバイスのオペレーティングシステム(OS)又はアプリケーションが使用するために、指示された方向のインジケータをOS又はアプリケーションに出力する手段を備える。
例39は、例38の主題を含んでよく、ユーザインタフェースの一部とのユーザのインタラクションが完了すると、ユーザインタフェースエンジンによって、ユーザインタフェースの一部を別の位置から現在の位置に戻す手段を更に備える。
例40は、例37の主題を含んでよく、装置の動きは、装置の傾き又は回転のうちの少なくとも一方を備える。
例41は、例40の主題を含んでよく、装置の動きを検出することは、装置の加速度計又はジャイロスコープによって出力されるデータに少なくとも部分的に基づく。
例42は、例37乃至例41のいずれかの主題を含んでよく、別の位置は、ディスプレイのインタラクションゾーンを備える。
例43は、例42の主題を含んでよく、インタラクションゾーンは、ディスプレイの固定エリアを備える。
例44は、例42の主題を含んでよく、インタラクションゾーンを決定する手段を更に備える。
例45は、例44の主題を含んでよく、インタラクションゾーンを決定する手段は、ポータブルコンピューティングデバイスの向きに基づいて、ディスプレイの1つ以上のエリアからインタラクションゾーンを選択する手段を備える。
例46は、例45の主題を含んでよく、ディスプレイの1つ以上のエリアは、装置のユーザによって予め定義される。
例47は、例45の主題を含んでよく、ユーザによって予め定義されるディスプレイの1つ以上のエリアは、ユーザが、一方の手を用いてポータブルコンピューティングデバイスを保持しつつ、その一方の手を用いて、インタラクションゾーンを通してユーザインタフェースの全体と対話をすることを可能にする。
例48は、例44の主題を含んでよく、インタラクションゾーンを決定することは、装置の動き又は回転に少なくとも部分的に基づく。
例49は、例44の主題を含んでよく、インタラクションゾーンを決定することは、ポータブルコンピューティングデバイスのユーザの手のうちの1つ以上の手の現在のポジションを所与として、ユーザが対話することができるポータブルコンピューティングデバイスのディスプレイのエリアを決定する手段を備える。
例50は、例49の主題を含んでよく、インタラクションゾーンを決定することは、ポータブルコンピューティングデバイス上のユーザの手のうちの1つ以上の手のポジションを決定する手段と;決定されたポジションに基づいて、インタラクションゾーンを決定する手段を備える。
例51は、例37乃至例41のいずれかの主題を含んでよく、ユーザインタフェースの一部は、ユーザインタフェースの対話的要素である。
例52は、例37乃至例41のいずれかの主題を含んでよく、所定のスクロールアクティブ化アクションを検出する手段を更に備え、装置の動きを検出することは、所定のスクロールアクティブ化アクションを検出したときにのみ、装置の動きを検出することを備える。
例53は、例37乃至例41のいずれかの主題を含んでよく、ユーザインタフェースの一部をディスプレイ上の現在の位置からディスプレイ上の別の位置へと移動させる手段は、ユーザインタフェースの全体をスクロールして、ユーザインタフェースの一部をディスプレイ上の現在の位置からディスプレイ上の別の位置へと移動させる手段を備える。
例54は、ポータブルコンピューティングデバイスによって実行されると、該ポータブルコンピューティングデバイスに:ポータブルコンピューティングデバイスのユーザがユーザインタフェースの一部を移動させたい方向を指示するポータブルコンピューティングデバイスの動きを検出させ;ポータブルコンピューティングデバイスのユーザがユーザインタフェースの一部と対話することを容易にするよう、指示された方向に従って、ディスプレイ上の現在の位置からディスプレイ上の別の位置へユーザインタフェースの一部を移動させる、ユーザインタフェースの一部とのユーザインタラクションを容易にするための命令を有する少なくとも1つのコンピュータ読取可能記録媒体である。
例55は、例54の主題を含んでよく、指示された方向に従ってユーザインタフェースの一部を移動させることは、指示された方向にユーザインタフェースの一部を移動させるように、ポータブルコンピューティングデバイスのオペレーティングシステム(OS)又はアプリケーションが使用するために、指示された方向のインジケータをOS又はアプリケーションに出力することを備える。
例56は、例55の主題を含んでよく、命令は、ポータブルコンピューティングデバイスによって実行されると、コンピューティングデバイスに、ユーザインタフェースの一部とのユーザのインタラクションが完了すると、ユーザインタフェースの一部を別の位置から現在の位置に戻すことを更に実行させる。
例57は、例54の主題を含んでよく、ポータブルコンピューティングデバイスの動きは、ポータブルコンピューティングデバイスの傾き又は回転のうちの少なくとも一方を備える。
例58は、例57の主題を含んでよく、ポータブルコンピューティングデバイスの動きを検出することは、ポータブルコンピューティングデバイスの加速度計又はジャイロスコープによって出力されるデータに少なくとも部分的に基づく。
例59は、例54乃至例58のいずれかの主題を含んでよく、別の位置は、ディスプレイのインタラクションゾーンを備える。
例60は、例59の主題を含んでよく、インタラクションゾーンは、ディスプレイの固定エリアを備える。
例61は、例59の主題を含んでよく、ユーザインタフェースエンジンによって、インタラクションゾーンを決定することを更に備える。
例62は、例61の主題を含んでよく、インタラクションゾーンを決定するスことは、ポータブルコンピューティングデバイスの向きに基づいて、ディスプレイの1つ以上のエリアからインタラクションゾーンを選択することを備える。
例63は、例62の主題を含んでよく、ディスプレイの1つ以上のエリアは、ポータブルコンピューティングデバイスのユーザによって予め定義される。
例64は、例62の主題を含んでよく、ユーザによって予め定義されるディスプレイの1つ以上のエリアは、ユーザが、一方の手を用いてポータブルコンピューティングデバイスを保持しつつ、その一方の手を用いて、インタラクションゾーンを通してユーザインタフェースの全体と対話をすることを可能にする。
例65は、例61の主題を含んでよく、インタラクションゾーンを決定することは、ポータブルコンピューティングデバイスの動き又は回転に少なくとも部分的に基づく。
例66は、例62の主題を含んでよく、インタラクションゾーンを決定することは、ポータブルコンピューティングデバイスのユーザの手のうちの1つ以上の手の現在のポジションに少なくとも部分的に基づく。
例67は、例66の主題を含んでよく、インタラクションゾーンを決定することは、ポータブルコンピューティングデバイス上のユーザの手のうちの1つ以上の手のポジションを決定することと;決定されたポジションに基づいて、インタラクションゾーンを決定することを備える。
例68は、例54乃至例58のいずれかの主題を含んでよく、ユーザインタフェースの一部は、ユーザインタフェースの対話的要素である。
例69は、例54乃至例58のいずれかの主題を含んでよく、命令は、ポータブルコンピューティングデバイスによって実行されると、コンピューティングデバイスに更に所定のスクロールアクティブ化アクションを検出させ、ポータブルコンピューティングデバイスの動きを検出することは、所定のスクロールアクティブ化アクションの検出に基づく。
例70は、例54乃至例58のいずれかの主題を含んでよく、ユーザインタフェースの一部をディスプレイ上の現在の位置からディスプレイ上の別の位置へと移動させることは、ユーザインタフェースの全体をスクロールして、ユーザインタフェースの一部をディスプレイ上の現在の位置からディスプレイ上の別の位置へと移動させることを備える。

Claims (26)

  1. ユーザインタフェースとのユーザインタラクションを容易にするポータブルコンピューティングデバイスであって:
    ディスプレイと;
    前記ディスプレイに結合されるプロセッサと;
    前記プロセッサ上で動作する1つ以上のアプリケーションと;
    前記プロセッサ上で動作して、前記ディスプレイ上に前記1つ以上のアプリケーションのユーザインタフェースをレンダリングするユーザインタフェースエンジンと;
    を備え、前記ユーザインタフェースエンジン又は前記1つ以上のアプリケーションは、前記プロセッサによって、
    当該ポータブルコンピューティングデバイスのユーザが前記ユーザインタフェースの一部を移動させたい方向を指示する、当該ポータブルコンピューティングデバイスの動きを検出し、
    前記ユーザが前記ユーザインタフェースの一部と対話することを容易にするよう、前記指示された方向に従って、前記ディスプレイ上の現在の位置から前記ディスプレイ上の別の位置へ前記ユーザインタフェースの一部を移動させる
    ように更に動作する、ポータブルコンピューティングデバイス。
  2. 前記ユーザインタフェースエンジン又は前記1つ以上のアプリケーションは、前記ユーザインタフェースの前記一部との前記ユーザのインタラクションが完了すると、前記ユーザインタフェースの一部を前記別の位置から前記現在の位置に戻すように、前記プロセッサ上で更に動作する、
    請求項1に記載のポータブルコンピューティングデバイス。
  3. 当該ポータブルコンピューティングデバイスの動きは、当該ポータブルコンピューティングデバイスの傾き又は回転のうちの少なくとも一方を備える、
    請求項1に記載のポータブルコンピューティングデバイス。
  4. 当該ポータブルコンピューティングデバイスは、当該ポータブルコンピューティングデバイスの動きに関するデータを検出して出力するよう構成される動きセンサを更に備え、当該ポータブルコンピューティングデバイスの動きの検出は、前記動きセンサによって出力されるデータに少なくとも部分的に基づく、
    請求項3に記載のポータブルコンピューティングデバイス。
  5. 前記動きセンサは、加速度計又はジャイロスコープのうちの少なくとも一方を備える、
    請求項4に記載のポータブルコンピューティングデバイス。
  6. 前記別の位置は、前記ディスプレイのインタラクションゾーンを備える、
    請求項1乃至5のいずれか一項に記載のポータブルコンピューティングデバイス。
  7. 前記インタラクションゾーンは、前記ディスプレイの固定エリアを備える、
    請求項6に記載のポータブルコンピューティングデバイス。
  8. 前記ユーザインタフェースエンジンは、前記インタラクションゾーンを決定するよう前記プロセッサ上で更に動作する、
    請求項6に記載のポータブルコンピューティングデバイス。
  9. 前記ユーザインタフェースの前記一部は、前記ユーザインタフェースの対話的要素である、
    請求項1乃至5のいずれか一項に記載のポータブルコンピューティングデバイス。
  10. 当該ポータブルコンピューティングデバイスの動きを検出することは更に、当該ポータブルコンピューティングデバイスの動きを、所定のスクロールアクティブ化アクションの検出においてのみ検出する、
    請求項1乃至5のいずれか一項に記載のポータブルコンピューティングデバイス。
  11. 前記ユーザインタフェースの一部を前記ディスプレイ上の現在の位置から前記ディスプレイ上の別の位置へと移動させることは、前記ユーザインタフェースの全体をスクロールして、前記ユーザインタフェースの一部を前記ディスプレイ上の現在の位置から前記ディスプレイ上の別の位置へと移動させる、
    請求項1乃至5のいずれか一項に記載のポータブルコンピューティングデバイス。
  12. 当該ポータブルコンピューティングデバイスは、スマートフォン、タブレット、パーソナルデジタルアシスタント(PDA)、タブレットとラップトップのハイブリッド、メディアプレーヤ又はゲーミングデバイスのうちの1つである、
    請求項1乃至5のいずれか一項に記載のポータブルコンピューティングデバイス。
  13. ユーザインタフェースとのユーザインタラクションを容易にするコンピュータ実施方法であって:
    ポータブルコンピューティングデバイスのユーザインタフェースエンジンによって、前記ポータブルコンピューティングデバイスのユーザがユーザインタフェースの一部を移動させたい方向を指示する前記ポータブルコンピューティングデバイスの動きを検出するステップと;
    前記ユーザインタフェースエンジンによって、前記ポータブルコンピューティングデバイスの前記ユーザが前記ユーザインタフェースの一部と対話することを容易にするよう、前記指示された方向に従って、ディスプレイ上の現在の位置から前記ディスプレイ上の別の位置へ前記ユーザインタフェースの一部を移動させるステップと;
    を備える、コンピュータ実施方法。
  14. 前記指示された方向に従って、前記ユーザインタフェースの一部を移動させるステップは、前記指示された方向に前記ユーザインタフェースの前記一部を移動させるよう前記ポータブルコンピューティングデバイスのオペレーティングシステム(OS)又はアプリケーションが使用するために、前記ユーザインタフェースエンジンによって、前記指示された方向のインジケータを前記OS又は前記アプリケーションに出力するステップを備える、
    請求項13に記載のコンピュータ実施方法。
  15. 前記ユーザインタフェースの前記一部との前記ユーザのインタラクションが完了すると、前記ユーザインタフェースエンジンによって、前記ユーザインタフェースの一部を前記別の位置から前記現在の位置に戻すステップ
    を更に備える、請求項14に記載のコンピュータ実施方法。
  16. 前記ポータブルコンピューティングデバイスの動きは、前記ポータブルコンピューティングデバイスの傾き又は回転のうちの少なくとも一方を備える、
    請求項13に記載のコンピュータ実施方法。
  17. 前記ポータブルコンピューティングデバイスの動きを検出するステップは、前記ポータブルコンピューティングデバイスの加速度計又はジャイロスコープによって出力されるデータに少なくとも部分的に基づく、
    請求項16に記載のコンピュータ実施方法。
  18. 前記ユーザインタフェースの前記一部は、前記ユーザインタフェースの対話的要素である、
    請求項13乃至17のいずれか一項に記載のコンピュータ実施方法。
  19. 前記ポータブルコンピューティングデバイスの動きを検出するステップは、所定のスクロールアクティブ化アクションを検出したときにのみ、前記ポータブルコンピューティングデバイスの動きを検出するステップを備える、
    請求項13乃至17のいずれか一項に記載のコンピュータ実施方法。
  20. 前記ユーザインタフェースの一部を前記ディスプレイ上の現在の位置から前記ディスプレイ上の別の位置へと移動させるステップは、前記ユーザインタフェースの全体をスクロールして、前記ユーザインタフェースの一部を前記ディスプレイ上の現在の位置から前記ディスプレイ上の別の位置へと移動させるステップを備える、
    請求項13乃至17のいずれか一項に記載のコンピュータ実施方法。
  21. ポータブルコンピューティングデバイスによって実行されると、該ポータブルコンピューティングデバイスに請求項13乃至17のいずれか一項に記載の方法を実行させる、ユーザインタフェースの一部とのユーザインタラクションを容易にするコンピュータプログラム。
  22. ユーザインタフェースとのユーザインタラクションを容易にする装置であって:
    コンピューティング装置のユーザがユーザインタフェースの一部を移動させたい方向を指示する前記コンピューティング装置の動きを検出するための手段と;
    当該装置の前記ユーザが前記ユーザインタフェースの一部と対話することを容易にするよう、前記指示された方向に従って、ディスプレイ上の現在の位置から前記ディスプレイ上の別の位置へ前記ユーザインタフェースの一部を移動させるための手段と;
    を備える、装置。
  23. 前記指示された方向に従って前記ユーザインタフェースの一部を移動させる手段は、前記指示された方向に記ユーザインタフェースの前記一部を移動させるようコンピューティングデバイスのオペレーティングシステム(OS)又はアプリケーションが使用するために、前記指示された方向のインジケータを前記OS又は前記アプリケーションに出力する手段を備える、
    請求項22に記載の装置。
  24. 前記ユーザインタフェースの前記一部との前記ユーザのインタラクションが完了すると、ユーザインタフェースエンジンによって、前記ユーザインタフェースの一部を前記別の位置から前記現在の位置に戻す手段
    を更に備える、請求項23に記載の装置。
  25. 当該装置の動きは、当該装置の傾き又は回転のうちの少なくとも一方を備える、
    請求項22に記載の装置。
  26. 請求項21に記載のコンピュータプログラムを記録する少なくとも1つのコンピュータ読取可能記録媒体。
JP2016553847A 2014-03-24 2015-01-28 ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション Pending JP2017508215A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/223,832 2014-03-24
US14/223,832 US9477316B2 (en) 2014-03-24 2014-03-24 Interaction with a computing device via movement of a portion of a user interface
PCT/US2015/013257 WO2015147980A1 (en) 2014-03-24 2015-01-28 Interaction with a computing device via movement of a portion of a user interface

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019159427A Division JP7130611B2 (ja) 2014-03-24 2019-09-02 ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション

Publications (1)

Publication Number Publication Date
JP2017508215A true JP2017508215A (ja) 2017-03-23

Family

ID=54142073

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016553847A Pending JP2017508215A (ja) 2014-03-24 2015-01-28 ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション
JP2019159427A Active JP7130611B2 (ja) 2014-03-24 2019-09-02 ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション
JP2022000079A Active JP7263565B2 (ja) 2014-03-24 2022-01-04 ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2019159427A Active JP7130611B2 (ja) 2014-03-24 2019-09-02 ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション
JP2022000079A Active JP7263565B2 (ja) 2014-03-24 2022-01-04 ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション

Country Status (6)

Country Link
US (4) US9477316B2 (ja)
EP (3) EP4044005A1 (ja)
JP (3) JP2017508215A (ja)
KR (2) KR20160110975A (ja)
CN (1) CN106030497B (ja)
WO (1) WO2015147980A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019096182A (ja) * 2017-11-27 2019-06-20 シャープ株式会社 電子装置、表示方法、およびプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD766318S1 (en) 2014-03-07 2016-09-13 Apple Inc. Display screen or portion thereof with animated graphical user interface
US9477316B2 (en) 2014-03-24 2016-10-25 Intel Corporation Interaction with a computing device via movement of a portion of a user interface
US9606710B1 (en) 2014-03-31 2017-03-28 Amazon Technologies, Inc. Configuring movement-based user interface control
US10437447B1 (en) * 2014-03-31 2019-10-08 Amazon Technologies, Inc. Magnet based physical model user interface control
MX2016013962A (es) * 2014-04-24 2017-04-27 Idis Tech Ip Ltd Aplicacion de mensajeria privada y metodos asociados.
US9841292B2 (en) * 2014-08-12 2017-12-12 Google Inc. Screen transitions in a geographic application
CN105808091B (zh) * 2014-12-31 2022-06-24 创新先进技术有限公司 调整界面操作图标分布范围的装置、方法及触摸屏设备
US10372212B2 (en) * 2015-05-29 2019-08-06 Google Llc Techniques for simulated physical interaction between users via their mobile computing devices
WO2017151430A1 (en) * 2016-03-02 2017-09-08 Paul Price Method and apparatus for displaying a collectible
JP6840571B2 (ja) * 2017-02-28 2021-03-10 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
USD910046S1 (en) 2017-09-29 2021-02-09 Apple Inc. Electronic device with graphical user interface
USD857033S1 (en) 2017-11-07 2019-08-20 Apple Inc. Electronic device with graphical user interface
CN108415651B (zh) * 2018-02-01 2021-03-05 Oppo广东移动通信有限公司 电子设备、显示控制方法及相关产品
USD879132S1 (en) 2018-06-03 2020-03-24 Apple Inc. Electronic device with graphical user interface
USD883319S1 (en) 2018-10-29 2020-05-05 Apple Inc. Electronic device with graphical user interface
USD937860S1 (en) 2019-01-04 2021-12-07 Beijing Kuaimajiabian Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
USD916112S1 (en) * 2019-07-23 2021-04-13 Koye Corp. Display screen or portion thereof with graphical user interface
USD916113S1 (en) * 2019-07-23 2021-04-13 Koye Corp. Display screen or portion thereof with graphical user interface
USD949890S1 (en) * 2019-09-05 2022-04-26 Hoffmann-La Roche Inc. Portion of a display screen with a graphical user interface
KR20210045154A (ko) * 2019-10-16 2021-04-26 삼성전자주식회사 전자 장치 및 이를 이용한 키 입력에 따른 전자 장치의 키 운용 방법
USD949184S1 (en) 2020-06-17 2022-04-19 Apple Inc. Display screen or portion thereof with graphical user interface
US11385770B1 (en) * 2021-04-21 2022-07-12 Qualcomm Incorporated User interfaces for single-handed mobile device control

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164375A (ja) * 2002-11-14 2004-06-10 Canon Inc 情報処理装置
US20110115817A1 (en) * 2009-11-19 2011-05-19 Samsung Electronics Co. Ltd. Method and apparatus for operating a display unit of a mobile device
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
JP2011221825A (ja) * 2010-04-09 2011-11-04 Sony Computer Entertainment Inc 情報処理装置
US20130111384A1 (en) * 2011-10-27 2013-05-02 Samsung Electronics Co., Ltd. Method arranging user interface objects in touch screen portable terminal and apparatus thereof
JP2013114640A (ja) * 2011-12-01 2013-06-10 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013235394A (ja) * 2012-05-08 2013-11-21 Softbank Mobile Corp 情報端末装置
JP2013235355A (ja) * 2012-05-08 2013-11-21 Nec Saitama Ltd 表示装置、スクロール方法、及びプログラム
JP2013235568A (ja) * 2012-05-02 2013-11-21 Samsung Electronics Co Ltd 画面を移動させるための方法及びその電子装置
JP2014013507A (ja) * 2012-07-04 2014-01-23 Panasonic Corp ポータブル機器、表示画面操作方法、プログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690391B1 (en) * 2000-07-13 2004-02-10 Sony Corporation Modal display, smooth scroll graphic user interface and remote command device suitable for efficient navigation and selection of dynamic data/options presented within an audio/visual system
JP2003140798A (ja) 2001-11-02 2003-05-16 Casio Comput Co Ltd 表示制御装置およびプログラム
JP4855654B2 (ja) * 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
CN101281443A (zh) 2008-05-13 2008-10-08 宇龙计算机通信科技(深圳)有限公司 一种页面切换的方法、系统及移动通信终端
KR101524616B1 (ko) * 2008-07-07 2015-06-02 엘지전자 주식회사 자이로센서를 구비한 휴대 단말기 및 그 제어방법
KR101495172B1 (ko) * 2008-07-29 2015-02-24 엘지전자 주식회사 이동단말기 및 그의 이미지 제어방법
CN101877736A (zh) 2009-04-30 2010-11-03 深圳富泰宏精密工业有限公司 移动终端用户界面自动调整系统及方法
CN201413507Y (zh) 2009-06-01 2010-02-24 北京汇冠新技术股份有限公司 一种触摸检测装置
US8457651B2 (en) * 2009-10-02 2013-06-04 Qualcomm Incorporated Device movement user interface gestures for file sharing functionality
US9696809B2 (en) * 2009-11-05 2017-07-04 Will John Temple Scrolling and zooming of a portable device display with device motion
CN102096491A (zh) 2009-12-14 2011-06-15 技嘉科技股份有限公司 控制方法及电子装置
JP5062279B2 (ja) * 2010-03-29 2012-10-31 パナソニック株式会社 情報機器および携帯情報機器
JP5615604B2 (ja) 2010-06-30 2014-10-29 第一実業ビスウィル株式会社 チップled検査装置
KR101761612B1 (ko) 2010-07-16 2017-07-27 엘지전자 주식회사 이동 단말기 및 이것의 메뉴 화면 구성 방법
KR101718026B1 (ko) * 2010-09-06 2017-04-04 엘지전자 주식회사 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기
KR101740439B1 (ko) * 2010-12-23 2017-05-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5779064B2 (ja) * 2011-09-28 2015-09-16 京セラ株式会社 装置、方法、及びプログラム
TWI571790B (zh) 2011-11-10 2017-02-21 財團法人資訊工業策進會 依感測信號更改圖示座標值的方法與電子裝置
CN102609210B (zh) * 2012-02-16 2014-09-10 上海华勤通讯技术有限公司 移动终端的功能图标的配置方法和移动终端
KR20130107777A (ko) 2012-03-23 2013-10-02 인포뱅크 주식회사 휴대용 단말기에서의 ui 구성 방법
JP2013214164A (ja) 2012-03-30 2013-10-17 Fujitsu Ltd 携帯電子機器、スクロール処理方法及びスクロール処理プログラム
CN102681778A (zh) 2012-04-25 2012-09-19 中兴通讯股份有限公司 一种对桌面图标进行批量管理的方法及数字移动设备
CN102722280B (zh) * 2012-05-21 2016-03-23 北京智谷技术服务有限公司 控制屏幕移动的方法、装置和终端
CN109144388A (zh) * 2012-06-28 2019-01-04 汉阳大学校产学协力团 用户界面调节方法
KR20140002448A (ko) 2012-06-28 2014-01-08 한양대학교 산학협력단 잠금 해제 유아이 조절 방법 및 이를 사용하는 사용자 단말기
US9747003B2 (en) * 2012-08-01 2017-08-29 Blackberry Limited Multiple-stage interface control of a mobile electronic device
CN103838456B (zh) * 2012-11-21 2017-12-19 中兴通讯股份有限公司 一种桌面图标显示位置的控制方法及系统
CN103034450A (zh) * 2012-12-18 2013-04-10 广东欧珀移动通信有限公司 一种新的滑屏切换图标的方法和装置
CN103353827A (zh) * 2013-04-16 2013-10-16 深圳市中兴移动通信有限公司 一种显示设备及其信息处理方法
US9477393B2 (en) * 2013-06-09 2016-10-25 Apple Inc. Device, method, and graphical user interface for displaying application status information
KR102138505B1 (ko) * 2013-07-10 2020-07-28 엘지전자 주식회사 이동단말기 및 그 제어방법
CN103440082A (zh) * 2013-07-29 2013-12-11 宇龙计算机通信科技(深圳)有限公司 移动终端操作的方法及其移动终端
US9477316B2 (en) 2014-03-24 2016-10-25 Intel Corporation Interaction with a computing device via movement of a portion of a user interface

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164375A (ja) * 2002-11-14 2004-06-10 Canon Inc 情報処理装置
US20110115817A1 (en) * 2009-11-19 2011-05-19 Samsung Electronics Co. Ltd. Method and apparatus for operating a display unit of a mobile device
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
JP2011221825A (ja) * 2010-04-09 2011-11-04 Sony Computer Entertainment Inc 情報処理装置
US20130111384A1 (en) * 2011-10-27 2013-05-02 Samsung Electronics Co., Ltd. Method arranging user interface objects in touch screen portable terminal and apparatus thereof
JP2013114640A (ja) * 2011-12-01 2013-06-10 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013235568A (ja) * 2012-05-02 2013-11-21 Samsung Electronics Co Ltd 画面を移動させるための方法及びその電子装置
JP2013235394A (ja) * 2012-05-08 2013-11-21 Softbank Mobile Corp 情報端末装置
JP2013235355A (ja) * 2012-05-08 2013-11-21 Nec Saitama Ltd 表示装置、スクロール方法、及びプログラム
JP2014013507A (ja) * 2012-07-04 2014-01-23 Panasonic Corp ポータブル機器、表示画面操作方法、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019096182A (ja) * 2017-11-27 2019-06-20 シャープ株式会社 電子装置、表示方法、およびプログラム

Also Published As

Publication number Publication date
US20150268733A1 (en) 2015-09-24
US20230034144A1 (en) 2023-02-02
WO2015147980A1 (en) 2015-10-01
US11392209B2 (en) 2022-07-19
EP3757731A1 (en) 2020-12-30
JP7263565B2 (ja) 2023-04-24
EP4044005A1 (en) 2022-08-17
US11921933B2 (en) 2024-03-05
CN106030497B (zh) 2022-03-29
JP2019220217A (ja) 2019-12-26
CN106030497A (zh) 2016-10-12
US20180196525A1 (en) 2018-07-12
JP7130611B2 (ja) 2022-09-05
JP2022046720A (ja) 2022-03-23
US9740299B2 (en) 2017-08-22
KR20160110975A (ko) 2016-09-23
US20160124515A1 (en) 2016-05-05
EP3123294A4 (en) 2017-11-22
KR20190077631A (ko) 2019-07-03
US9477316B2 (en) 2016-10-25
EP3123294A1 (en) 2017-02-01

Similar Documents

Publication Publication Date Title
JP7263565B2 (ja) ユーザインタフェースの一部の移動を介するコンピューティングデバイスとのインタラクション
US9104305B2 (en) Controlling a cursor on a touch screen
US10387016B2 (en) Method and terminal for displaying a plurality of pages,method and terminal for displaying a plurality of applications being executed on terminal, and method of executing a plurality of applications
US9448643B2 (en) Stylus sensitive device with stylus angle detection functionality
US9891782B2 (en) Method and electronic device for providing user interface
JP6038898B2 (ja) エッジ・ジェスチャー
JP5980913B2 (ja) エッジ・ジェスチャー
KR102027612B1 (ko) 애플리케이션의 썸네일-이미지 선택 기법
US20120169776A1 (en) Method and apparatus for controlling a zoom function
US10496265B2 (en) Slider manipulation with precision alteration
KR101919009B1 (ko) 안구 동작에 의한 제어 방법 및 이를 위한 디바이스
US20130227464A1 (en) Screen change method of touch screen portable terminal and apparatus therefor
WO2018034958A1 (en) Device manipulation using hover
US10430071B2 (en) Operation of a computing device functionality based on a determination of input means
US10599326B2 (en) Eye motion and touchscreen gestures
JP5198548B2 (ja) 電子機器、表示制御方法及びプログラム
CN111240571A (zh) 控制屏幕自动旋转的方法、装置和终端
WO2015001622A1 (ja) 入力装置、入力制御方法、及び入力制御プログラム
KR20150017399A (ko) 터치스크린 입력 방법 및 장치
KR101791132B1 (ko) 다중 터치 입력 방법 및 장치
JP2013101681A (ja) 電子機器、表示制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190507