JP2013054470A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2013054470A
JP2013054470A JP2011191144A JP2011191144A JP2013054470A JP 2013054470 A JP2013054470 A JP 2013054470A JP 2011191144 A JP2011191144 A JP 2011191144A JP 2011191144 A JP2011191144 A JP 2011191144A JP 2013054470 A JP2013054470 A JP 2013054470A
Authority
JP
Japan
Prior art keywords
target object
information processing
processing apparatus
operating body
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011191144A
Other languages
English (en)
Inventor
Wataru Kawamata
済 川又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011191144A priority Critical patent/JP2013054470A/ja
Priority to CN201280040926.2A priority patent/CN103765362B/zh
Priority to KR1020147004212A priority patent/KR20140068024A/ko
Priority to TW101130270A priority patent/TW201319922A/zh
Priority to US14/237,361 priority patent/US10140002B2/en
Priority to BR112014004048A priority patent/BR112014004048A2/pt
Priority to PCT/JP2012/005233 priority patent/WO2013031134A1/en
Priority to EP20120827276 priority patent/EP2751654A4/en
Priority to RU2014106495/08A priority patent/RU2014106495A/ru
Publication of JP2013054470A publication Critical patent/JP2013054470A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

【課題】操作性を向上することのできる情報処理装置、情報処理方法、及びプログラムを提供する。
【解決手段】情報処理装置は、表示画面にオブジェクトを表示させる表示制御部と、検出部が第1操作体の位置及び第2操作体の位置を検出することに応じて生成される検出情報を取得する検出情報取得部と、前記第1操作体の位置に基づいて、前記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識し、前記第1操作体及び前記第2操作体の相対位置の変化に基づいて、前記対象オブジェクトに対する第2の操作を認識する操作認識部と、を有する。
【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、入力デバイスは多様化し、情報処理装置に対するユーザの操作方法が多数考案されている。例えばポインティングデバイスについて考えてみると、従来は同時に入力することのできる座標位置は1点であった。しかし、例えば特許文献1にも示されるように、複数の座標位置を同時に入力することのできるマルチポインティングデバイスが登場している。
特開2008−70968号公報
このように入力デバイスの多様化に伴って、さらに操作性が向上されたユーザインタフェースが求められていた。そこで、本開示では、操作性を向上させることの可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、表示画面にオブジェクトを表示させる表示制御部と、上記表示画面上の第1操作体の位置及び第2操作体の位置を検出する検出部と、上記第1操作体の位置に基づいて、上記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識し、上記第1操作体及び上記第2操作体の相対位置の変化に基づいて、上記対象オブジェクトに対する第2の操作を認識する操作認識部と、を有する情報処理装置が提供される。
また、本開示によれば、表示画面上にオブジェクトを表示させることと、上記表示画面上の第1操作体の位置及び第2操作体の位置を検出することと、上記第1操作体の位置に基づいて、上記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識することと、上記第1操作体及び上記第2操作体の相対位置の変化に基づいて、上記対象オブジェクトに対する第2の操作を認識することと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータを、表示画面上にオブジェクトを表示させる表示制御部と、上記表示画面上の第1操作体の位置及び第2操作体の位置を検出する検出部と、上記第1操作体の位置に基づいて、上記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識し、上記第1操作体及び上記第2操作体の相対位置の変化に基づいて、上記対象オブジェクトに対する第2の操作を認識する操作認識部と、を有する情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、操作性を向上させることができる。
本開示の第1の実施形態にかかる情報処理装置の機能構成を示すブロック図である。 同実施形態にかかる情報処理装置の認識する、オブジェクトの選択操作について示す説明図である。 同実施形態にかかる情報処理装置における対象オブジェクトの拡大操作についての説明図である。 同実施形態にかかる情報処理装置が表示させる対象オブジェクトの表示位置についての説明図である。 同実施形態にかかる情報処理装置が表示させる対象オブジェクトの拡大中心の移動についての説明図である。 重要領域が含まれる場合において、同実施形態にかかる情報処理装置が表示させる対象オブジェクトの表示位置についての説明図である。 同実施形態にかかる情報処理装置の拡大操作における追加機能の表示についての説明図である。 同実施形態にかかる情報処理装置における対象オブジェクトの選択範囲の拡大操作についての説明図である。 同実施形態にかかる情報処理装置において複数の対象オブジェクトが選択されている状態での拡大操作についての説明図である。 同実施形態にかかる情報処理装置におけるオブジェクトのエフェクト変更操作についての説明図である。 同実施形態にかかる情報処理装置における対象オブジェクトの回転操作についての説明図である。 本開示の第2の実施形態にかかる情報処理装置の機能構成を示すブロック図である。 本開示の第1及び第2の実施形態にかかる情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じてオブジェクト5A、オブジェクト5Bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、オブジェクト5A、オブジェクト5Bなどを特に区別する必要が無い場合には、単オブジェクト5と称する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後にハイフンを介して異なる番号を付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じてオブジェクト5C−1、オブジェクト5C−2のように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、オブジェクト5C−1、オブジェクト5C−2などを特に区別する必要が無い場合には、単にオブジェクト5C−2と称する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.機能構成
1−2.拡大操作
1−3.表示位置の移動
1−4.追加機能の表示
1−5.選択範囲の拡大操作
1−6.エフェクトの変更操作
1−7.回転操作
2.第2の実施形態
3.ハードウェア構成例
<1.第1の実施形態>
〔1−1.機能構成〕
まず、図1を参照しながら、本開示の一実施形態にかかる情報処理装置の機能構成について説明する。図1は、本開示の一実施形態にかかる情報処理装置の機能構成を示すブロック図である。
図1に示される情報処理装置100aは、同時に入力される複数の座標位置を認識することのできる装置である。例えば情報処理装置100aは、携帯電話、PC(Personal Computer)、映像処理装置、ゲーム機器、家電機器、音楽再生装置などの装置であってよい。
情報処理装置100aは、表示部101と、検出部103と、操作認識部105と、表示制御部107と、を主に有する。
(表示部101)
表示部101は、ユーザに表示画面を提供する機能を有する。表示部101は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置であってよい。
(検出部103)
検出部103は、表示画面上の操作体の位置を検出する機能を有する。また検出部103は、表示画面上の複数の指Fの位置を検出することができる。検出部103の機能は、例えばタッチセンサ、撮像装置、又はその他のセンサなどを用いて実現される。また操作体の一例としては、指、腕、足などを含むユーザの身体やスタイラスペンなどが挙げられる。本実施形態においては、検出部103は、表示部101上に重畳されるタッチセンサであり、操作体はユーザの指Fとする。ここで用いられるタッチセンサは、例えば表示画面上に接触する指Fの位置を検出する接触式のタッチセンサであってよい。あるいはここで用いられるタッチセンサは、表示画面上の指Fの位置を非接触で検出する非接触式のタッチセンサであってよい。またここで用いられるタッチセンサは、表示画面に対するユーザの押込み操作を検出することができてもよい。
(操作認識部105)
操作認識部105は、ユーザにより入力された操作パターンがどのような処理を意味するか認識する機能を有する。この操作パターンは、操作体の位置に基づいて判断される。具体的には、この操作パターンは、操作体の位置が検出されるタイミング、操作体の位置の変化パターンなど様々な条件に基づいて判断される。操作認識部105は、この操作パターンを判断し、操作パターンと予め対応づけられた処理を認識することができる。
(表示制御部107)
表示制御部107は、表示部101への表示画面の表示を制御する機能を有する。表示制御部107は、操作認識部105の認識した処理に基づいて表示画面を生成し、表示部101に表示させることができる。例えば表示制御部107は、操作認識部105がユーザにより入力された操作パターンがオブジェクトの拡大操作であると認識した場合には、対象オブジェクトを拡大した表示画面を表示させることができる。
表示制御部107は、オブジェクトを表示画面に表示させることができる。例えば表示制御部107は、複数のオブジェクトをランダムに表示画面に表示させてよい。また表示制御部107は、このオブジェクトのうちのいずれかが選択されると、選択されたオブジェクト(以下、操作対象となるオブジェクトという意味で対象オブジェクトとも称する。)を他のオブジェクトと異なる表現で表示させてもよい。なお、この表示制御部107の行う制御の詳細については、後にそれぞれの状況に応じて詳述される。
以上、本実施形態にかかる情報処理装置100aの機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU(Central Processing Unit)などの演算装置がこれらの機能を実現する処理手順を記述した制御プログラムを記憶したROM(Read Only Memory)やRAM(Random Access Memory)などの記憶媒体から制御プログラムを読出し、そのプログラムを解釈して実行することにより行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
なお、上述のような本実施形態にかかる情報処理装置100aの各機能を実現するためのコンピュータプログラムを作成し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
〔1−2.拡大操作〕
次に、図2及び図3を参照しながら、同実施形態にかかる情報処理装置の拡大操作について説明する。図2は、同実施形態にかかる情報処理装置の認識する、オブジェクトの選択操作について示す説明図である。図3は、同実施形態にかかる情報処理装置における対象オブジェクトの拡大操作についての説明図である。
まず、表示制御部107は、(状態1)に示されるように、ランダムに配置された複数のオブジェクト5を表示画面上に表示させることができる。ここでは、オブジェクト5A、オブジェクト5B、オブジェクト5C、オブジェクト5Dの4つのオブジェクト5が示される。このような状態において、ユーザが指F1によってオブジェクト5から操作対象となる対象オブジェクトを選択する(状態2)。ここで指F1は、第1操作体の一例である。例えば操作認識部105は、オブジェクト5のうちのいずれかの上に指F1の位置が検出されると、オブジェクト5の中から操作対象となる対象オブジェクトを選択する第1の操作を認識することができる。より具体的には、操作認識部105は、指F1の位置が検出されると、指F1の下に位置するオブジェクト5Cを選択する第1の操作を認識することができる。表示制御部107は、選択されたオブジェクト5Cを他のオブジェクト5と異なる表現で表示させてもよい。また選択されたオブジェクト5C上に他のオブジェクト5が重なって表示されている場合には、表示制御部107は、選択されたオブジェクト5Cが一番手前に表示されるように制御してもよい。
このように、対象オブジェクト5Cが選択された状態で、指F2で表示画面上のいずれかの位置を指す(状態3)。指F2は、第2操作体の一例である。この指F2は、指F1と同じ手の異なる指であってもよい。あるいは、この指F2は、同じユーザの異なる手のいずれかの指であってもよい。またこの指F2は、異なるユーザの指であってもよい。操作認識部105は、この指F1の位置P1と、指F2の位置P2との相対位置の変化に基づいて、対象オブジェクト5Cに対する第2の操作を認識することができる。
ここで図3を参照すると、第2の操作の一例として拡大操作が示される。状態3の指F2の位置をP2−1とする。ユーザは、状態4に示されるように位置P2−1から位置P2−2に指F2を移動させる。ここで位置P1と位置P2−2との間の距離と、位置P1位置P2−2との間の距離とが変化したとき、操作認識部105は、この第2の操作を選択されたオブジェクト5のサイズ変更操作であると認識することができる。より具体的には、位置P1位置P2−2との間の距離が、位置P1と位置P2−2との間の距離よりも広がったときには、操作認識部105は、この第2の操作を拡大操作と認識することができる。また位置P1位置P2−2との間の距離が、位置P1と位置P2−2との間の距離よりも狭まったときには、操作認識部105は、この第2の操作を縮小操作と認識することができる。状態4においては、第2の操作は拡大操作であると認識され、表示制御部107は、対象オブジェクト5Cを拡大して表示させる。
以上説明したように、ユーザは、情報処理装置100aの提供する表示画面上の複数のオブジェクトのうちのいずれかに対して操作(第2の操作)を行いたいとき、指F1による選択操作(第1の操作)を行ったあと、第2の操作を行うことによって、選択されたオブジェクト5に対して選択的に第2の操作を行うことができる。上述の特許文献1においては、同時に検出される2点の相対距離に基づいて拡大又は縮小処理を行うことが記載されている(いわゆるピンチイン、ピンチアウト操作)。ところが、2本の指で対象オブジェクトを特定する場合には、対象オブジェクトの特定精度が1本の指で指定する場合と比較して低下する。従って、情報処理装置100aの構成によれば、対象オブジェクトを精度よく特定した後に、選択したオブジェクトに対して第2の操作を行うことができる。特に、図2に示されたように、操作対象となりうるオブジェクト5が複数表示されている状況においては、情報処理装置100aの構成は有効である。
なお、ここでは図示されないが、対象オブジェクト5Cが指F1により対象オブジェクトとして選択された後に、指F1の位置が変化すると、表示制御部107は、この指F1の位置変化に追随して対象オブジェクト5Cを移動させることができる(第3の操作)。この第3の操作は、第2の操作の前後に行われてもよいし、第2の操作と同時に行われてもよい。
〔1−3.表示位置の移動〕
ここで、図4〜図6を参照しながら、対象オブジェクトの表示位置の移動について説明する。図4は、同実施形態にかかる情報処理装置が表示させる対象オブジェクトの表示位置についての説明図である。図5は、同実施形態にかかる情報処理装置が表示させる対象オブジェクトの拡大中心の移動についての説明図である。図6は、重要領域が含まれる場合において、同実施形態にかかる情報処理装置が表示させる対象オブジェクトの表示位置についての説明図である。
上述の通り、情報処理装置100aは、指F1によりオブジェクト5を選択した後、この指F1を選択されたオブジェクト5上に置いたまま第2の操作が行われる。このため、第2の操作を行うときにオブジェクトを見づらい状況が発生しうる。そこで、情報処理装置100aの表示制御部107は、対象オブジェクト5の表示位置を見やすい位置に移動させてもよい。表示制御部107は、図4に示されるように、指F1の位置P1が選択したオブジェクト5を外れない範囲内で選択されたオブジェクト5の表示位置を移動させてもよい。
また、表示制御部107は、指F1の位置P1と指F2の位置P2との位置関係に応じて選択されたオブジェクト5の表示位置を移動させることができる。図3においては、オブジェクト5Cの中心点を拡大中心とする場合について説明されたが、本技術はかかる例に限定されない。例えば第2の操作が拡大操作であるときには、表示制御部107は、図5に示されるように、オブジェクト5Cが指F2の方向に拡大するように表示を制御してもよい。このとき拡大中心は、指F1の位置P1がオブジェクト5Cから外れない範囲内で指F2の反対方向に移動される。これにより、指F1が対象オブジェクト5Cを覆うことなく、見やすさを確保しながら第2の操作を行うことができる。
この表示位置の移動は、例えば第2の操作と同時に行われてよい。あるいはこの表示位置の移動は、指F2の位置P2が検出された後に行われてもよい。特にオブジェクト5が画像である場合には、オブジェクト5の表示を見ながら操作を行いたいときがある。かかる場合に、この構成は有効である。
オブジェクト5が画像であるとき、例えば図6に示されるように、オブジェクト5中の所定領域51(例えば重要領域)が含まれるときがある。この所定領域51は、例えば被写体の顔に応じた領域であってもよい。あるいはこの所定領域51は、例えば物体部分であってもよい。この所定領域は、例えば画像オブジェクトであるオブジェクト5の画像解析結果に基づいて設定される領域であってもよい。表示制御部107は、対象オブジェクトに含まれる所定領域と、第1操作体の位置に応じて定め荒れる表示画面上の位置である操作検出位置とに応じて、対象オブジェクトの表示位置を変化させることができる。例えば表示制御部107は、対象オブジェクトの所定領域内に第1の操作位置が含まれることが検出された場合、層亜検出位置が所定領域に含まれないように対象オブジェクトの表示位置を変化させてもよい。表示制御部107は、表示位置の移動において、この所定領域51が指F1の位置P1と重ならないようにオブジェクト5の表示位置を移動させることができる。かかる構成により、特にオブジェクト5中の所定領域51が見にくくなる状況を回避することができる。
〔1−4.追加機能の表示〕
次に、図7を参照しながら、同実施形態にかかる情報処理装置の拡大操作における追加機能の表示について説明する。図7は、同実施形態にかかる情報処理装置の拡大操作における追加機能の表示についての説明図である。
第2の操作が、選択されたオブジェクト5のサイズを変更するサイズ変更操作であるとき、表示制御部107は、選択された対象オブジェクト5のサイズに応じて、この対象オブジェクト5に対する追加機能オブジェクト6を表示画面上に表示させることができる。
例えば図7に示されるように、複数のオブジェクト5が表示された表示画面上に指F1の位置P1と指F2の位置P2とが検出される(状態6)。なお、状態6は、状態3と同様に指F1の位置P1と指F2の位置P2とが検出された状態であるが、指F2の位置が異なる。ここで示されるように、指F2の位置は、オブジェクト5が表示されていない部分であってもよいし、オブジェクト5上であってもよい。ここで、状態7に示されるように、ユーザが拡大操作をすると、表示制御部107は、拡大された対象オブジェクト5Cのサイズに応じて、追加機能オブジェクト6Aを表示する。
また、状態8に示されるように、ユーザがさらに拡大操作を行うと、さらに異なる追加機能オブジェクト6B及び追加機能オブジェクト6Cが表示される。ここで表示される追加機能オブジェクト6は、対象オブジェクトについて追加の処理を行う追加機能を実行させるためのオブジェクトである。例えば検出部103が追加機能オブジェクト6A上に指Fの位置を検出すると、操作認識部105は、対象オブジェクト5Cを再生する再生操作を認識することができる。また検出部103が追加機能オブジェクト6B上に指Fの位置を検出すると、操作認識部105は、対象オブジェクト5Cを削除する削除操作を認識することができる。また追加機能オブジェクト6Cは、対象オブジェクト5Cの撮影日を示すことができる。
〔1−5.選択範囲の拡大操作〕
次に、図8及び図9を参照しながら、同実施形態にかかる情報処理装置における対象オブジェクトの選択範囲の拡大操作について説明する。図8は、同実施形態にかかる情報処理装置における対象オブジェクトの選択範囲の拡大操作についての説明図である。図9は、同実施形態にかかる情報処理装置において複数の対象オブジェクトが選択されている状態での拡大操作についての説明図である。
状態9において、表示制御部107は、オブジェクト5A〜オブジェクト5Gの7つのオブジェクト5を表示している。ここで指F1がオブジェクト5Cを選択する。この状態で、指F2がタップ操作を行う。すると、状態10に示されるように、対象オブジェクトの選択範囲が拡大する。ここでは操作認識部105は、指F2によるタップ操作を、状態9において選択されているオブジェクト5Cと隣接するオブジェクト5(オブジェクト5A、オブジェクト5B、及びオブジェクト5D)まで選択範囲を拡大する操作と認識することができる。ここで選択範囲の拡大操作は、すでに選択されたオブジェクト5と隣接するオブジェクト5への拡大に限らない。例えば、指F1の位置P1から所定距離以内に表示される複数のオブジェクト5まで選択範囲が拡大されてもよい。
選択範囲が拡大されて複数のオブジェクト5が対象オブジェクトになった状態で、図9に示されるようにユーザが指F2の位置P2を移動させて拡大操作をすると、操作認識部105は、対象オブジェクトに選択されている複数のオブジェクト5(オブジェクト5A〜5D)の拡大操作と認識することができる。このとき表示制御部107は、オブジェクト5A〜5Dを拡大して表示することができる。例えばこのとき、拡大中心は、複数のオブジェクト5の重心とすることができる。
また、ここでは選択範囲の拡大操作は、指F2によるタップ操作としたが、本技術はかかる例に限定されない。例えば、選択範囲の拡大操作は、指F2とは異なる指Fにより行われてもよい。また、選択範囲の拡大操作は、タップ操作ではなくダブルタップ操作であってもよい。また、選択範囲の拡大操作は、複数の指によるタップ操作であってもよい。
〔1−6.エフェクトの変更操作〕
次に、図10を参照しながら、同実施形態にかかる情報処理装置における対象オブジェクトのエフェクト変更操作について説明する。図10は、同実施形態にかかる情報処理装置におけるオブジェクトのエフェクト変更操作についての説明図である。
表示画面に表示されているオブジェクト5が、画像オブジェクトであるとき、操作認識部105は、オブジェクト5のエフェクトを変更する操作を認識することができてもよい。例えば操作認識部105は、指F1及び指F2とは異なる指F3によるタップ操作をエフェクト変更操作と認識してもよい。例えば、表示制御部107は、指F3におけるタップ操作が認識される度に、オブジェクト5Cのエフェクトを変更してもよい。例えばここではエフェクトの変更がオブジェクト5Cのフレームの変更である場合について説明する。状態12において、指F1の位置P1によりオブジェクト5Cが対象オブジェクトに選択されている。ここで指F2の位置P2が検出されており、指F3によりタップ操作が行われると、オブジェクト5C1にフレームが重畳されたオブジェクト5C2が表示される(状態13)。ここで再び指F3によりタップ操作が行われると、オブジェクト5C2とは異なるフレームがオブジェクト5C1に重畳されたオブジェクト5C3が表示される。
なお、ここではフレームの変更について説明されたが、本技術はかかる例に限定されない。例えばエフェクトの変更は、画像の色調変更(白黒、セピアなど)、背景の変更、光の方向の変更、オブジェクト5同士の重なり具合の変更、コントラストの変更などであってよい。
〔1−7.回転操作〕
次に、図11を参照しながら、同実施形態にかかる情報処理装置における対象オブジェクトの回転操作について説明する。同実施形態にかかる情報処理装置における対象オブジェクトの回転操作についての説明図である。
上記においては、第2の操作が対象オブジェクトのサイズ変更である場合について説明してきたが、第2の操作は対象オブジェクトの回転操作であってもよい。操作認識部105は、指F1の位置P1と指F2の位置P2との間の距離が概ね一定のまま位置P1と位置P2との相対位置が変化すると、表示制御部107は、指F1により選択されている対象オブジェクト5Cの表示角度を回転させることができる。
例えば図11に示されるように、指F1の位置P1を中心として指F2の位置P2を位置P2−1から位置P2−2に時計回りに回転移動させると、指F1により選択されたオブジェクト5Cは、オブジェクト5C−1の状態からオブジェクト5C−2の状態となるまで時計回りに回転されてよい(状態16)。
<2.第2の実施形態>
次に、図12を参照しながら、本開示の第2の実施形態にかかる情報処理装置の機能構成について説明する、図12は、本開示の第2の実施形態にかかる情報処理装置の機能構成を示すブロック図である。
なお、本開示の第2の実施形態にかかる情報処理装置100bは、検出情報取得部104と、操作認識部105と、表示制御部107とを主に有する。本開示の第1の実施形態に係る情報処理装置100aと比較すると、情報処理装置100bは、表示部101及び検出部103が情報処理装置100bに内蔵されていない点において情報処理装置100aと異なる。このため情報処理装置100bは、外部の検出部103から検出情報を取得する検出情報取得部104を有する。なお、以下第1の実施形態に係る情報処理装置100aとの差異部分についてのみ説明し、共通する構成要素についてはここでは説明を省略する。
(検出情報取得部104)
検出情報取得部104は、検出部103が操作体の位置を検出することに応じて生成される検出情報を取得する機能を有する。検出情報取得部104は、取得した検出情報を操作認識部105に入力することができる。
<3.ハードウェア構成例>
次に、図13を参照しながら、本開示の第1及び第2の実施形態に係る情報処理装置のハードウェア構成の一例について説明する。図17は、本開示の第1及び第2の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
情報処理装置100は、例えば、GPSアンテナ821と、GPS処理部823と、通信アンテナ825と、通信処理部827と、地磁気センサ829と、加速度センサ831と、ジャイロセンサ833と、気圧センサ835と、撮像部837と、CPU(Central Processing Unit)839と、ROM(Read Only Memory)841と、RAM(Random Access Memory)843と、操作部847と、表示部849と、デコーダ851と、スピーカ853と、エンコーダ855と、マイク857と、記憶部859とを有する。
(GPSアンテナ821)
GPSアンテナ821は、測位衛星からの信号を受信するアンテナの一例である。GPSアンテナ821は、複数のGPS衛星からのGPS信号を受信することができ、受信したGPS信号をGPS処理部823に入力する。
(GPS処理部823)
GPS処理部823は、測位衛星から受信された信号に基づいて位置情報を算出する算出部の一例である。GPS処理部823は、GPSアンテナ821から入力された複数のGPS信号に基づいて現在の位置情報を算出し、算出した位置情報を出力する。具体的には、GPS処理部823は、GPS衛星の軌道データからそれぞれのGPS衛星の位置を算出し、GPS信号の送信時刻と受信時刻との差分時間に基づいて、各GPS衛星から当該端末装置100までの距離をそれぞれ算出する。そして、算出された各GPS衛星の位置と、各GPS衛星から当該端末装置100までの距離とに基づいて、現在の3次元位置を算出することができる。なお、ここで用いられるGPS衛星の軌道データは、例えばGPS信号に含まれていてもよい。或いは、GPS衛星の軌道データは、通信アンテナ825を介して外部のサーバから取得されてもよい。
(通信アンテナ825)
通信アンテナ825は、例えば携帯通信網や無線LAN(Local Area Network)通信網を介して通信信号を受信する機能を有するアンテナである。通信アンテナ825は、受信した信号を通信処理部827に供給することができる。
(通信処理部827)
通信処理部827は、通信アンテナ825から供給された信号に各種の信号処理を行う機能を有する。通信処理部827は、供給されたアナログ信号から生成したデジタル信号をCPU839に供給することができる。
(地磁気センサ829)
地磁気センサ829は、地磁気を電圧値として検出するセンサである。地磁気センサ829は、X軸方向、Y軸方向、及びZ軸方向の地磁気をそれぞれ検出する3軸地磁気センサであってよい。地磁気センサ829は、検出した地磁気データをCPU839に供給することができる。
(加速度センサ831)
加速度センサ831は、加速度を電圧値として検出するセンサである。加速度センサ831は、X軸方向に沿った加速度、Y軸方向に沿った加速度、及びZ軸方向に沿った加速度をそれぞれ検出する3軸加速度センサであってよい。加速度センサ831は、検出した加速度データをCPU839に供給することができる。
(ジャイロセンサ833)
ジャイロセンサ833は、物体の角度や角速度を検出する計測器の一種である。このジャイロセンサ833は、X軸、Y軸、及びZ軸周りの回転角の変化する速度(角速度)を電圧値として検出する3軸ジャイロセンサであってよい。ジャイロセンサ833は、検出した角速度データをCPU839に供給することができる。
(気圧センサ835)
気圧センサ835は、周囲の気圧を電圧値として検出するセンサである。気圧センサ835は、気圧を所定のサンプリング周波数で検出し、検出した気圧データをCPU839に供給することができる。
(撮像部837)
撮像部837は、CPU839の制御に従い、レンズを介して静止画像又は動画像を撮影する機能を有する。撮像部837は、撮影した画像を記憶部859に記憶させてもよい。
(CPU839)
CPU839は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。またCPU839は、マイクロプロセッサであってもよい。このCPU839は、各種プログラムに従って様々な機能を実現することができる。
(ROM841、RAM843)
ROM841は、CPU839が使用するプログラムや演算パラメータ等を記憶することができる。RAM843は、CPU839の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶することができる。
(操作部847)
操作部847は、ユーザが所望の操作をするための入力信号を生成する機能を有する。操作部847は、例えばタッチセンサ、マウス、キーボード、ボタン、マイク、スイッチ及びレバーなどユーザが情報を入力するための入力部と、ユーザによる入力に基づいて入力信号を生成し、CPU839に出力する入力制御回路などから構成されてよい。
(表示部849)
表示部849は、出力装置の一例であり、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置であってよい。表示部849は、ユーザに対して画面を表示することにより情報を提供することができる。
(デコーダ851、スピーカ853)
デコーダ851は、CPU839の制御に従い、入力されたデータのデコード及びアナログ変換などを行う機能を有する。デコーダ851は、例えば通信アンテナ825及び通信処理部827を介して入力された音声データのデコード及びアナログ変換などを行い、音声信号をスピーカ853に出力する。スピーカ853は、デコーダ851から供給される音声信号に基づいて音声を出力することができる。
(エンコーダ855、マイク857)
エンコーダ855は、CPU839の制御に従い、入力されたデータのデジタル変換及びエンコードなどを行う機能を有する。エンコーダ855は、マイク857から入力される音声信号のデジタル変換及びエンコードなどを行い、音声データを出力することができる。マイク857は、音声を集音し、音声信号として出力することができる。
(記憶部859)
記憶部859は、データ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ここで記憶媒体としては、例えばフラッシュメモリ、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)、PRAM(Phase change Random Access Memory)、及びEEPROM(Electronically Erasable and Programmable Read Only Memory)などの不揮発性メモリや、HDD(Hard Disk Drive)などの磁気記録媒体などが用いられてよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、まずユーザは指F1によって対象オブジェクトを選択してから指F2を表示画面上で操作することとしたが、本技術はかかる例に限定されない。例えば、指F2によって表示画面上の空白部分(オブジェクトが表示されていない部分)をタッチした後に指F1で対象オブジェクトを選択してもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
表示画面にオブジェクトを表示させる表示制御部と、
検出部が第1操作体の位置及び第2操作体の位置を検出することに応じて生成される検出情報を取得する検出情報取得部と、
前記第1操作体の位置に基づいて、前記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識し、前記第1操作体及び前記第2操作体の相対位置の変化に基づいて、前記対象オブジェクトに対する第2の操作を認識する操作認識部と、
を備える、情報処理装置。
(2)
前記操作認識部は、前記第1の操作が認識された後に検出される前記第1操作体の位置変化に基づいて、前記対象オブジェクトを移動させる第3の操作を認識する、
前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記対象オブジェクトに含まれる所定領域と、前記第1操作体の位置に応じて定められる前記表示画面上の位置である操作検出位置とに応じて、前記対象オブジェクトの表示位置を変化させる、
前記(1)または(2)のいずれかに記載の情報処理装置。
(4)
前記表示制御部は、前記対象オブジェクトの前記所定領域内に前記第1の操作位置が含まれることが検出された場合、前記操作検出位置が前記所定領域に含まれないように前記対象オブジェクトの表示位置を変化させる、
前記(3)に記載の情報処理装置。
(5)
前記検出部は、前記表示画面に設けられるタッチパネルであり、
前記表示制御部は、前記所定領域に前記第1の操作体が重ならないように前記対象オブジェクトの表示位置を変化させる、
前記(4)に記載の情報処理装置。
(6)
前記対象オブジェクトは、画像オブジェクトであり、
前記所定領域は、前記画像オブジェクトの画像解析結果に基づいて設定される領域である、
前記(4)または(5)のいずれかに記載の情報処理装置。
(7)
前記所定領域は、被写体の顔に応じた領域である、
前記(5)または(6)のいずれかに記載の情報処理装置。
(8)
前記第2の操作は、前記対象オブジェクトのサイズを変更するサイズ変更操作であり、
前記表示制御部は、前記第1操作体の位置及び前記第2操作体の位置に基づいて、前記サイズを変更する基準点を決定する、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
前記表示制御部は、前記第1操作体の位置を起点として前記第2操作体の位置と逆側に前記基準点を移動させる、
前記(8)に記載の情報処理装置。
(10)
前記第2の操作は、前記対象オブジェクトのサイズを変更するサイズ変更操作であり、
前記表示制御部は、前記対象オブジェクトのサイズに応じて、前記対象オブジェクトに対する追加機能オブジェクトを前記表示画面上に表示させる、
前記(1)〜(9)のいずれかに記載の情報処理装置。
(11)
前記第2の操作は、前記対象オブジェクトを回転させる回転操作である、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(12)
表示画面にオブジェクトを表示させることと、
検出部が第1操作体の位置及び第2操作体の位置を検出することに応じて生成される検出情報を取得することと、
前記第1操作体の位置に基づいて、前記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識することと、
前記第1操作体及び前記第2操作体の相対位置の変化に基づいて、前記対象オブジェクトに対する第2の操作を認識することと、
を含む、情報処理方法。
(13)
コンピュータを、
表示画面にオブジェクトを表示させる表示制御部と、
検出部が第1操作体の位置及び第2操作体の位置を検出することに応じて生成される検出情報を取得する検出情報取得部と、
前記第1操作体の位置に基づいて、前記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識し、前記第1操作体及び前記第2操作体の相対位置の変化に基づいて、前記対象オブジェクトに対する第2の操作を認識する操作認識部と、
を備える、情報処理装置として機能させるためのプログラム。
100 情報処理装置
101 表示部
103 検出部
104 検出情報取得部
105 操作認識部
107 表示制御部

Claims (13)

  1. 表示画面にオブジェクトを表示させる表示制御部と、
    検出部が第1操作体の位置及び第2操作体の位置を検出することに応じて生成される検出情報を取得する検出情報取得部と、
    前記第1操作体の位置に基づいて、前記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識し、前記第1操作体及び前記第2操作体の相対位置の変化に基づいて、前記対象オブジェクトに対する第2の操作を認識する操作認識部と、
    を備える、情報処理装置。
  2. 前記操作認識部は、前記第1の操作が認識された後に検出される前記第1操作体の位置変化に基づいて、前記対象オブジェクトを移動させる第3の操作を認識する、
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記対象オブジェクトに含まれる所定領域と、前記第1操作体の位置に応じて定められる前記表示画面上の位置である操作検出位置とに応じて、前記対象オブジェクトの表示位置を変化させる、
    請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記対象オブジェクトの前記所定領域内に前記第1の操作位置が含まれることが検出された場合、前記操作検出位置が前記所定領域に含まれないように前記対象オブジェクトの表示位置を変化させる、
    請求項3に記載の情報処理装置。
  5. 前記検出部は、前記表示画面に設けられるタッチパネルであり、
    前記表示制御部は、前記所定領域に前記第1の操作体が重ならないように前記対象オブジェクトの表示位置を変化させる、
    請求項4に記載の情報処理装置。
  6. 前記対象オブジェクトは、画像オブジェクトであり、
    前記所定領域は、前記画像オブジェクトの画像解析結果に基づいて設定される領域である、
    請求項4に記載の情報処理装置。
  7. 前記所定領域は、被写体の顔に応じた領域である、
    請求項5に記載の情報処理装置。
  8. 前記第2の操作は、前記対象オブジェクトのサイズを変更するサイズ変更操作であり、
    前記表示制御部は、前記第1操作体の位置及び前記第2操作体の位置に基づいて、前記サイズを変更する基準点を決定する、
    請求項1に記載の情報処理装置。
  9. 前記表示制御部は、前記第1操作体の位置を起点として前記第2操作体の位置と逆側に前記基準点を移動させる、
    請求項8に記載の情報処理装置。
  10. 前記第2の操作は、前記対象オブジェクトのサイズを変更するサイズ変更操作であり、
    前記表示制御部は、前記対象オブジェクトのサイズに応じて、前記対象オブジェクトに対する追加機能オブジェクトを前記表示画面上に表示させる、
    請求項1に記載の情報処理装置。
  11. 前記第2の操作は、前記対象オブジェクトを回転させる回転操作である、
    請求項1に記載の情報処理装置。
  12. 表示画面にオブジェクトを表示させることと、
    検出部が第1操作体の位置及び第2操作体の位置を検出することに応じて生成される検出情報を取得することと、
    前記第1操作体の位置に基づいて、前記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識することと、
    前記第1操作体及び前記第2操作体の相対位置の変化に基づいて、前記対象オブジェクトに対する第2の操作を認識することと、
    を含む、情報処理方法。
  13. コンピュータを、
    表示画面にオブジェクトを表示させる表示制御部と、
    検出部が第1操作体の位置及び第2操作体の位置を検出することに応じて生成される検出情報を取得する検出情報取得部と、
    前記第1操作体の位置に基づいて、前記オブジェクトから操作対象となる対象オブジェクトを選択する第1の操作を認識し、前記第1操作体及び前記第2操作体の相対位置の変化に基づいて、前記対象オブジェクトに対する第2の操作を認識する操作認識部と、
    を備える、情報処理装置として機能させるためのプログラム。



JP2011191144A 2011-09-01 2011-09-01 情報処理装置、情報処理方法、及びプログラム Pending JP2013054470A (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2011191144A JP2013054470A (ja) 2011-09-01 2011-09-01 情報処理装置、情報処理方法、及びプログラム
CN201280040926.2A CN103765362B (zh) 2011-09-01 2012-08-21 信息处理设备、信息处理方法以及程序
KR1020147004212A KR20140068024A (ko) 2011-09-01 2012-08-21 정보 처리 장치, 정보 처리 방법 및 프로그램
TW101130270A TW201319922A (zh) 2011-09-01 2012-08-21 資訊處理裝置、資訊處理方法與程式
US14/237,361 US10140002B2 (en) 2011-09-01 2012-08-21 Information processing apparatus, information processing method, and program
BR112014004048A BR112014004048A2 (pt) 2011-09-01 2012-08-21 aparelho e método de processamento de informação, e, meio legível por computador não transitório
PCT/JP2012/005233 WO2013031134A1 (en) 2011-09-01 2012-08-21 Information processing apparatus, information processing method, and program
EP20120827276 EP2751654A4 (en) 2011-09-01 2012-08-21 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
RU2014106495/08A RU2014106495A (ru) 2011-09-01 2012-08-21 Устройство обработки информации, способ обработки информации и программа

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011191144A JP2013054470A (ja) 2011-09-01 2011-09-01 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2013054470A true JP2013054470A (ja) 2013-03-21

Family

ID=47755665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011191144A Pending JP2013054470A (ja) 2011-09-01 2011-09-01 情報処理装置、情報処理方法、及びプログラム

Country Status (9)

Country Link
US (1) US10140002B2 (ja)
EP (1) EP2751654A4 (ja)
JP (1) JP2013054470A (ja)
KR (1) KR20140068024A (ja)
CN (1) CN103765362B (ja)
BR (1) BR112014004048A2 (ja)
RU (1) RU2014106495A (ja)
TW (1) TW201319922A (ja)
WO (1) WO2013031134A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075989A (ja) * 2013-10-10 2015-04-20 コニカミノルタ株式会社 オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
JP2016157392A (ja) * 2015-02-26 2016-09-01 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法、ならびに、プログラム
JP2016177639A (ja) * 2015-03-20 2016-10-06 ヤマハ株式会社 入力装置、および音合成装置
JP2017027422A (ja) * 2015-07-24 2017-02-02 アルパイン株式会社 表示装置及び表示処理方法
JP2017534934A (ja) * 2015-06-18 2017-11-24 アップル インコーポレイテッド メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9965173B2 (en) * 2015-02-13 2018-05-08 Samsung Electronics Co., Ltd. Apparatus and method for precise multi-touch input

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302124A (ja) * 2003-03-31 2004-10-28 Toshiba Corp 表示装置
US20090079700A1 (en) * 2007-09-24 2009-03-26 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
JP2009271689A (ja) * 2008-05-07 2009-11-19 Seiko Epson Corp 表示装置、および、表示装置における表示方法
JP2010157070A (ja) * 2008-12-26 2010-07-15 Fujifilm Corp 情報表示装置、方法およびプログラム
JP2011022964A (ja) * 2009-07-21 2011-02-03 Panasonic Corp タッチパネル及び入力表示システム
US20110055773A1 (en) * 2009-08-25 2011-03-03 Google Inc. Direct manipulation gestures
US20110074828A1 (en) * 2009-09-25 2011-03-31 Jay Christopher Capela Device, Method, and Graphical User Interface for Touch-Based Gestural Input on an Electronic Canvas
US20110181527A1 (en) * 2010-01-26 2011-07-28 Jay Christopher Capela Device, Method, and Graphical User Interface for Resizing Objects

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5481710A (en) * 1992-09-16 1996-01-02 International Business Machines Corporation Method of and system for providing application programs with an undo/redo function
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP4803883B2 (ja) * 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
US7213214B2 (en) * 2001-06-12 2007-05-01 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
CA2393887A1 (en) * 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP5210497B2 (ja) 2006-04-12 2013-06-12 クラリオン株式会社 ナビゲーション装置
JP2008070968A (ja) 2006-09-12 2008-03-27 Funai Electric Co Ltd 表示処理装置
US20110069018A1 (en) 2007-05-11 2011-03-24 Rpo Pty Limited Double Touch Inputs
JP2008209915A (ja) * 2008-01-29 2008-09-11 Fujitsu Ten Ltd 表示装置
US8504945B2 (en) 2008-02-01 2013-08-06 Gabriel Jakobson Method and system for associating content with map zoom function
US8400477B1 (en) * 2008-05-20 2013-03-19 Google Inc. Object resizing
JP2010176330A (ja) * 2009-01-28 2010-08-12 Sony Corp 情報処理装置、及び表示制御方法
JP2011053770A (ja) * 2009-08-31 2011-03-17 Nifty Corp 情報処理装置及び入力処理方法
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8347238B2 (en) * 2009-12-16 2013-01-01 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements by dynamic snapping of user interface elements to alignment guides
US8209630B2 (en) * 2010-01-26 2012-06-26 Apple Inc. Device, method, and graphical user interface for resizing user interface content
US8479117B2 (en) * 2010-06-04 2013-07-02 Lenovo (Singapore) Pte. Ltd. Intelligent window sizing for graphical user interfaces
US9207096B2 (en) * 2011-06-09 2015-12-08 Blackberry Limited Map magnifier
US9146660B2 (en) * 2011-08-22 2015-09-29 Trimble Navigation Limited Multi-function affine tool for computer-aided design
US8176435B1 (en) * 2011-09-08 2012-05-08 Google Inc. Pinch to adjust
US20130117711A1 (en) * 2011-11-05 2013-05-09 International Business Machines Corporation Resize handle activation for resizable portions of a user interface

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302124A (ja) * 2003-03-31 2004-10-28 Toshiba Corp 表示装置
US20090079700A1 (en) * 2007-09-24 2009-03-26 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
JP2009271689A (ja) * 2008-05-07 2009-11-19 Seiko Epson Corp 表示装置、および、表示装置における表示方法
JP2010157070A (ja) * 2008-12-26 2010-07-15 Fujifilm Corp 情報表示装置、方法およびプログラム
JP2011022964A (ja) * 2009-07-21 2011-02-03 Panasonic Corp タッチパネル及び入力表示システム
US20110055773A1 (en) * 2009-08-25 2011-03-03 Google Inc. Direct manipulation gestures
US20110074828A1 (en) * 2009-09-25 2011-03-31 Jay Christopher Capela Device, Method, and Graphical User Interface for Touch-Based Gestural Input on an Electronic Canvas
US20110181527A1 (en) * 2010-01-26 2011-07-28 Jay Christopher Capela Device, Method, and Graphical User Interface for Resizing Objects

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075989A (ja) * 2013-10-10 2015-04-20 コニカミノルタ株式会社 オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
JP2016157392A (ja) * 2015-02-26 2016-09-01 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法、ならびに、プログラム
JP2016177639A (ja) * 2015-03-20 2016-10-06 ヤマハ株式会社 入力装置、および音合成装置
JP2017534934A (ja) * 2015-06-18 2017-11-24 アップル インコーポレイテッド メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
US11816303B2 (en) 2015-06-18 2023-11-14 Apple Inc. Device, method, and graphical user interface for navigating media content
JP2017027422A (ja) * 2015-07-24 2017-02-02 アルパイン株式会社 表示装置及び表示処理方法
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device

Also Published As

Publication number Publication date
EP2751654A4 (en) 2015-04-08
US20140189581A1 (en) 2014-07-03
WO2013031134A1 (en) 2013-03-07
RU2014106495A (ru) 2015-08-27
TW201319922A (zh) 2013-05-16
CN103765362B (zh) 2018-06-05
EP2751654A1 (en) 2014-07-09
BR112014004048A2 (pt) 2017-03-07
KR20140068024A (ko) 2014-06-05
US10140002B2 (en) 2018-11-27
CN103765362A (zh) 2014-04-30

Similar Documents

Publication Publication Date Title
JP2013054470A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6011551B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6065369B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5935267B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10915188B2 (en) Information processing apparatus, information processing method, and program
US9483857B2 (en) Display control device, display control method, and program
KR100790896B1 (ko) 촬상부의 움직임을 이용한 어플리케이션의 제어 방법 및장치
JP6090173B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
JP2019079152A (ja) 情報制御プログラム、情報制御方法および端末装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160419