JP2013025464A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2013025464A
JP2013025464A JP2011157973A JP2011157973A JP2013025464A JP 2013025464 A JP2013025464 A JP 2013025464A JP 2011157973 A JP2011157973 A JP 2011157973A JP 2011157973 A JP2011157973 A JP 2011157973A JP 2013025464 A JP2013025464 A JP 2013025464A
Authority
JP
Japan
Prior art keywords
information processing
detection result
processing apparatus
user
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011157973A
Other languages
English (en)
Other versions
JP2013025464A5 (ja
JP5830997B2 (ja
Inventor
Masaaki Isotsu
政明 礒津
Tomohiko Sakamoto
智彦 坂本
Kazuhiro Watanabe
一弘 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011157973A priority Critical patent/JP5830997B2/ja
Priority to US13/546,598 priority patent/US20130024792A1/en
Priority to CN2012102447487A priority patent/CN102890606A/zh
Publication of JP2013025464A publication Critical patent/JP2013025464A/ja
Publication of JP2013025464A5 publication Critical patent/JP2013025464A5/ja
Application granted granted Critical
Publication of JP5830997B2 publication Critical patent/JP5830997B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザの操作性の向上を図ることが可能な、情報処理装置、情報処理方法、およびプログラムを提供する。
【解決手段】ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出する第1検出部と、ユーザインタフェースに対するユーザ操作を検出する第2検出部と、第1検出部の検出結果、第2検出部の検出結果に基づく処理を行う処理部とを備え、処理部は、第1検出部または第2検出部のいずれか一方の検出部の検出結果に基づく処理中に、他方の検出部の検出結果が検出された場合には、他方の検出部の検出結果に基づいて、行われている一方の検出部の検出結果に基づく処理の内容を選択的に変更する、情報処理装置が提供される。
【選択図】図8

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、例えばスマートフォンなどの通信装置のように、表示画面の表示と当該表示画面に対するユーザ操作とが可能なタッチパネルを備える装置の普及が進んでいる。上記のような装置の中には、表示画面に対する1または2以上のユーザ操作(以下、「マルチタッチ操作」と示す場合がある。)を検出可能な装置もある。ここで、マルチタッチ操作を可能とするマルチタッチ・ユーザインタフェースは、ユーザに対してより直感的な操作を提供する上で、重要な技術となっている。
また、タッチパネルへの入力に基づくオブジェクトの選択に係る技術も開発されている。タッチパネルへの入力に基づくオブジェクトの選択に係る技術としては、例えば、特許文献1に記載の技術が挙げられる。
特開2011−34151号公報
しかしながら、マルチタッチ・ユーザインタフェースが採用された装置をユーザが用いたとしても、ユーザが複数の動作を平行して行うことは困難である。例えば、ユーザが、選択されたアイコン(または、アイコングループ。以下、同様とする。)を移動させることと、非選択のアイコンをコピーすることとを行う場合には、ユーザは、選択されたアイコンを移動させた後に、別のアイコン(上記非選択のアイコンに相当する。)を選択してコピーを行う必要がある。よって、マルチタッチ・ユーザインタフェースを用いたとしても、ユーザの操作性を十分に向上させることができるとは、限らない。
本開示では、ユーザの操作性の向上を図ることが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出する第1検出部と、上記ユーザインタフェースに対するユーザ操作を検出する第2検出部と、上記第1検出部の検出結果、上記第2検出部の検出結果に基づく処理を行う処理部と、を備え、上記処理部は、上記第1検出部または上記第2検出部のいずれか一方の検出部の検出結果に基づく処理中に、他方の検出部の検出結果が検出された場合には、上記他方の検出部の検出結果に基づいて、行われている上記一方の検出部の検出結果に基づく処理の内容を選択的に変更する、情報処理装置が提供される。
また、本開示によれば、ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出するステップと、上記ユーザインタフェースに対するユーザ操作を検出するステップと、上記操作デバイスの動きの検出結果、上記ユーザ操作の検出結果に基づく処理を行うステップと、を有し、上記処理を行うステップでは、上記操作デバイスの動きの検出結果または上記ユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、上記他方の検出結果に基づいて、行われている上記一方の検出結果に基づく処理の内容を選択的に変更する、情報処理方法が提供される。
また、本開示によれば、ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出するステップ、上記ユーザインタフェースに対するユーザ操作を検出するステップ、上記操作デバイスの動きの検出結果、上記ユーザ操作の検出結果に基づく処理を行うステップ、をコンピュータに実行させ、上記処理を行うステップでは、上記操作デバイスの動きの検出結果または上記ユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、上記他方の検出結果に基づいて、行われている上記一方の検出結果に基づく処理の内容を選択的に変更する、プログラムが提供される。
本開示によれば、ユーザの操作性の向上を図ることができる。
本実施形態に係る情報処理方法に係る処理を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理を説明するための説明図である。 本実施形態に係る情報処理装置における選択されたオブジェクトの決定方法の一例を説明するための説明図である。 本実施形態に係る情報処理装置における処理の一例を示す流れ図である。 本実施形態に係る情報処理装置の構成の一例を示すブロック図である。 本実施形態に係る情報処理装置のハードウェア構成の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下では、下記に示す順序で説明を行う。
1.本実施形態に係る情報処理方法
2.本実施形態に係る情報処理装置
3.本実施形態に係るプログラム
(本実施形態に係る情報処理方法)
本実施形態に係る情報処理装置の構成について説明する前に、本実施形態に係る情報処理方法について説明する。また、以下では、本実施形態に係る情報処理装置が、本実施形態に係る情報処理方法に係る処理を行うものとして説明する。
[本実施形態に係る情報処理方法の概要]
上述したように、例えば、ユーザがマルチタッチ・ユーザインタフェースを用いて操作を行ったとしても、ユーザが、装置が実行する各処理に対応する複数の動作を並行して行うことは困難である。
そこで、本実施形態に係る情報処理装置は、ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きと、ユーザインタフェースに対するユーザ操作とをそれぞれ検出する(検出処理)。そして、本実施形態に係る情報処理装置は、操作デバイスの動きの検出結果と、ユーザ操作の検出結果とに基づいて、それぞれの検出結果に対応する処理を行う(実行処理)。
ここで、本実施形態に係る操作デバイスとしては、例えば、本実施形態に係る情報処理装置そのもの(すなわち、自装置)が挙げられる。操作デバイスが本実施形態に係る情報処理装置そのものである場合には、本実施形態に係る情報処理装置は、自装置の動きと、ユーザ操作とをそれぞれ検出することとなる。
操作デバイスが本実施形態に係る情報処理装置そのものである場合、本実施形態に係る情報処理装置は、例えば、加速度センサや、ジャイロセンサ、近接センサ、GPS(Global Positioning System)デバイスなどの各種センサを備え、当該各種センサの検出値に基づいて、操作デバイス(すなわち、情報処理装置)の動きを検出する。上記のように操作デバイスの動きを検出することによって、本実施形態に係る情報処理装置は、例えば“操作デバイスを傾ける”、“操作デバイスを振る”などの操作デバイスに対する物理的な操作を検出することができる。また、本実施形態に係る情報処理装置は、操作デバイスに対する物理的な操作における操作量をさらに検出してもよい。また、本実施形態に係る情報処理装置は、上記のように操作デバイスの動きを検出することによって、例えば、操作デバイスが存在する位置(場所)の変化に基づく処理や、操作デバイスが存在する位置に対応する情報(例えば、当該位置における気候の情報など)に基づく処理を行うことも可能となる。
また、操作デバイスが本実施形態に係る情報処理装置そのものである場合、本実施形態に係る情報処理装置は、例えば、各ユーザインタフェースに対するユーザ操作に応じて生成されるユーザ操作に応じた信号に基づいて、ユーザインタフェースに対するユーザ操作を検出する。ここで、本実施形態に係るユーザインタフェースとしては、例えば、表示画面の表示と当該表示画面に対するユーザ操作とが可能なタッチパネルを用いたユーザインタフェースや、ボタンなどの物理操作デバイスを用いたユーザインタフェースなどが挙げられる。上記のようにユーザインタフェースに対するユーザ操作を検出することによって、本実施形態に係る情報処理装置は、例えば、“タッチパネルへのタッチ操作”や“ボタンの押下操作”などのユーザ操作を検出することができる。また、本実施形態に係る情報処理装置は、ユーザインタフェースに対するユーザ操作における操作量をさらに検出してもよい。
なお、本実施形態に係る操作デバイスは、上記に限られない。例えば、本実施形態に係る操作デバイスは、本実施形態に係る情報処理装置の外部装置(すなわち、外部操作デバイス)であってもよい。操作デバイスが外部操作デバイスである場合には、本実施形態に係る情報処理装置は、当該外部操作デバイスと無線/有線で通信を行うことによって、上記検出処理、および上記実行処理を行う。
例えば、操作デバイスが外部操作デバイスである場合には、本実施形態に係る情報処理装置は、外部操作デバイスが備える加速度センサなどの各種センサの検出値と、外部操作デバイスのユーザインタフェースに対するユーザ操作に応じた信号とを、外部操作デバイスから受信する。また、本実施形態に係る情報処理装置は、受信された検出値や信号に基づいて、操作デバイス(すなわち、外部装置)の動きと、ユーザ操作とをそれぞれ検出する(検出処理)。そして、本実施形態に係る情報処理装置は、操作デバイス(すなわち、外部装置)の動きの検出結果と、ユーザ操作の検出結果とに基づいて、それぞれの検出結果に対応する処理を行う(実行処理)。
上記のように、本実施形態に係る情報処理装置は、操作デバイスに対する物理的な操作と、ユーザインタフェースに対するユーザ操作という異なる種類の操作を検出して、検出された操作に対応する処理を行う。ここで、操作デバイスに対する物理的な操作と、ユーザインタフェースに対するユーザ操作とは、同時期に並行して行うことが可能であるので、排他的な操作ではない。よって、本実施形態に係る情報処理装置は、同時期に複数の処理を本実施形態に係る情報処理装置に実行させるために、ユーザが複数の動作を平行して行うことを可能とするので、ユーザの操作性をより向上させることができる。
また、本実施形態に情報処理装置は、操作デバイスの動きの検出結果またはユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、他方の検出結果に基づいて、行われている一方の検出結果に基づく処理の内容を選択的に変更する(実行処理)。
ここで、本実施形態に係る情報処理装置における、一方の検出結果に基づく処理の内容の変更としては、例えば、一方の検出結果に基づいて実行されている処理を中断、または停止させる処理が挙げられる。また、本実施形態に係る情報処理装置における選択的な処理の内容の変更としては、例えば、一方の検出結果に基づく処理の処理対象のオブジェクトに、他方の検出結果が関連するか否かを判定し、関連すると判定した場合に、行われている一方の検出結果に基づく処理の内容を変更することが挙げられる。本実施形態に係る情報処理装置における選択的な処理の内容の変更の具体例については、後述する。
本実施形態に係る情報処理装置は、検出された異なる種類の操作それぞれに対応する処理を行うだけでなく、一方の検出結果に基づく処理の処理中に他方の検出結果が検出された場合には、行っている一方の検出結果に基づく処理の内容を選択的に変更する。つまり、本実施形態に係る情報処理装置を用いることによって、ユーザは、異なる種類の操作を相互に組み合わせて情報処理装置における処理の実行を制御することができる。よって、本実施形態に係る情報処理装置は、ユーザの操作性をさらに向上させることができる。
したがって、本実施形態に係る情報処理装置は、例えば上記に示すような(I)検出処理と、(II)実行処理とを行うことによって、ユーザの操作性をより向上させることができる。
[本実施形態に係る情報処理方法に係る処理の具体例]
次に、本実施形態に係る情報処理方法に係る処理について、より具体的に説明する。以下では、本実施形態に係る情報処理装置(以下、「情報処理装置100」と示す場合がある。)が、本実施形態に係る情報処理方法に係る処理を行うものとして説明する。また、以下では、情報処理装置100が操作デバイスそのものである場合を主に例に挙げて説明する。
また、以下では、情報処理装置100が、操作デバイスに対する物理的な操作と、ユーザインタフェースに対するユーザ操作とに基づいて、選択されたオブジェクト(または、オブジェクトグループ。以下、同様とする。)に対する処理と、選択されていない非選択のオブジェクトに対する処理とを行う場合を例に挙げて説明する。なお、本実施形態に係る情報処理装置100において検出結果に応じて実行する処理は、選択されたオブジェクト、非選択のオブジェクトに対する処理に限られない。例えば、情報処理装置100は、検索処理や、コンテンツデータの再生処理など、様々な処理を検出結果に応じて実行することが可能である。
図1〜図5は、本実施形態に係る情報処理方法に係る処理を説明するための説明図である。ここで、図1〜図4は、A〜Iの9種類のオブジェクトが表示される表示画面の一例を示している。また、図1は、ユーザ操作が行われていない状態(初期状態)を示しており、図2〜図4は、ユーザ操作が開始された後の状態の一例を示している。
また、図5は、選択されたオブジェクト(図5に示す選択グループが該当)、非選択のオブジェクト(図5に示す非選択グループが該当)それぞれと、操作デバイスに対する物理的な操作(図5に示す物理操作が該当)、ユーザインタフェースに対するユーザ操作(図5に示すUI操作が該当)それぞれとの関係の一例を示している。例えば図5に示すように、情報処理装置100は、選択されたオブジェクトと可能な操作との組合せと、非選択のオブジェクトと可能な操作との組合せとが異なるように処理を行う。以下では、選択されたオブジェクトに対してはユーザインタフェースに対するユーザ操作が可能であり、非選択のオブジェクトに対しては操作デバイスに対する物理的な操作が可能である場合を例に挙げて説明する。なお、選択されたオブジェクトに対しては操作デバイスに対する物理的な操作を可能とし、非選択のオブジェクトに対してはユーザインタフェースに対するユーザ操作を可能としてもよいことは、言うまでもない。
例えばユーザがA、B、C、E、G、Iのオブジェクトを選択したことを示すユーザ操作を検出した場合、情報処理装置100は、非選択のオブジェクトであるD、F、Gのオブジェクトを視覚的に振動させる(図2)。
なお、情報処理装置100における選択されたオブジェクトの決定方法は、特定のオブジェクトが選択されたことを示すユーザ操作を検出することに限られない。例えば、オブジェクトに選択の指標となる付加情報(例えばメタ情報)が付加されている場合には、情報処理装置100は、選択を行うことを示すユーザ操作を検出したときに、各オブジェクトの付加情報に基づいて、選択されたオブジェクトを決定してもよい。
図6は、本実施形態に係る情報処理装置100における選択されたオブジェクトの決定方法の一例を説明するための説明図である。ここで、図6は、オブジェクトが静止画像である場合を示しており、また図6では、付加情報の内容A〜Cが視覚的に示された例を示している。図6に示すようなオブジェクトの付加情報の内容は、例えば、情報処理装置100のユーザや、ネットワークなどによって情報処理装置100と接続された外部装置のユーザによって更新される。
情報処理装置100は、選択を行うことを示すユーザ操作を検出した場合には、オブジェクトに設定された付加情報を参照する。そして、情報処理装置100は、例えば付加情報が示す“重要”(図6に示すA)および/または“あとで使う”(図6に示すB)に対応するユーザ数が所定の数以上のとき(または、ユーザ数が所定の数より大きいとき)に、当該付加情報に対応するオブジェクトを、選択されたオブジェクトであると決定する。
情報処理装置100は、例えば、特定のオブジェクトが選択されたことを示すユーザ操作や、各オブジェクトの付加情報に基づいて、選択されたオブジェクトを決定し、図2に示すような選択されたオブジェクトを視覚的に振動させる。
図2に示す状態のときに操作デバイスの動きが検出された場合には、情報処理装置100は、操作デバイスの動きの検出結果に基づいて非選択のオブジェクトを移動させる(実行処理の一例)。例えば、操作デバイスが左に傾いたことを検出した場合には、情報処理装置100は、例えば、図3Aに示すように、非選択のオブジェクトであるD、F、Gのオブジェクトを画面の左側に移動させる。また、例えば、操作デバイスが振られたことを検出した場合には、情報処理装置100は、例えば、図3Bに示すように、非選択のオブジェクトであるD、F、Gのオブジェクトそれぞれが分散するように移動させる。ここで、例えば図4に示すように、情報処理装置100は、表示画面の特定の方向(図4の例では、表示画面の向かって左側)と行われる処理とを対応付けることも可能である。図4に示す例では、移動されたオブジェクトが表示画面の左側に移動されることによって、当該オブジェクトは特定のフォルダに移動することとなる。
なお、本実施形態に係る操作デバイスの動きの検出結果に基づく非選択のオブジェクトの移動方法は、図3A〜図4に示す例に限られない。例えば、情報処理装置100は、図2に示す非選択のオブジェクトであるD、F、Gのオブジェクトを拡大することや、縮小することによって、非選択のオブジェクトの移動を実現してもよい。オブジェクトを拡大する場合には、情報処理装置100は、例えば当該オブジェクトの表示サイズが所定のサイズ以上となった場合(または所定のサイズより大きくなった場合)に、表示画面上における当該オブジェクトの表示をやめる。また、オブジェクトを縮小する場合には、情報処理装置100は、例えば当該オブジェクトの表示サイズが所定のサイズ以下となった場合(または所定のサイズより小さくなった場合)に、表示画面上における当該オブジェクトの表示をやめる。
また、図2に示す状態のときにユーザインタフェースに対するユーザ操作が検出された場合には、ユーザ操作の検出結果に基づいて選択されたオブジェクトを移動させる(実行処理の一例)。例えば、ユーザによるスワイプ操作が検出された場合には、検出されたスワイプ操作の操作方向に対応する方向に、選択されたオブジェクトを移動させる。
情報処理装置100は、例えば上記のように、操作デバイスの動きの検出結果、およびユーザインタフェースに対するユーザ操作の検出結果それぞれに基づいて、選択されたオブジェクト、非選択のオブジェクトそれぞれの移動を実現する。ここで、ユーザは、操作デバイスに対する物理的な操作と、ユーザインタフェースに対するユーザ操作とを、同時期に平行して行うことが可能である。また、操作デバイスに対する物理的な操作とユーザ操作とが平行して行われた場合には、情報処理装置100は、操作デバイスの動きの検出結果とユーザ操作の検出結果とに基づいて、選択されたオブジェクトの移動と非選択のオブジェクトの移動とを平行して行う。
したがって、情報処理装置100は、同時期に複数の処理を情報処理装置100に実行させるためにユーザが複数の動作を平行して行うことを可能とするので、ユーザの操作性をより向上させることができる。
また、情報処理装置100は、上述したように、操作デバイスの動きの検出結果またはユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、他方の検出結果に基づいて、行われている一方の検出結果に基づく処理の内容を選択的に変更する。
例えば、操作デバイスの動きの検出結果に基づく非選択のオブジェクトの移動中に、ユーザインタフェースに対するユーザ操作が検出された場合には、情報処理装置100は、検出されたユーザ操作が、非選択のオブジェクトの移動処理(操作デバイスの動きの検出結果に基づく処理の一例)に関連する操作であるか否かを判定する。そして、情報処理装置100は、非選択のオブジェクトの移動処理に関連する操作であると判定した場合には、非選択のオブジェクトの移動を中断または停止させる。また、情報処理装置100は、非選択のオブジェクトの移動処理に関連する操作であると判定しない場合には、検出されたユーザ操作に対応する処理を行う。
ここで、本実施形態に係る情報処理装置100における、非選択のオブジェクトの移動処理(操作デバイスの動きの検出結果に基づく処理の一例)に関連する操作であるか否かの判定方法としては、例えば、検出されたユーザ操作が移動中の非選択のオブジェクトに対して行われたものであるか否かによって判定する方法が挙げられる。例えば、情報装置100は、移動中の非選択のオブジェクトに対応する表示画面の領域内の座標に対するタッチ操作が検出された場合に、検出されたユーザ操作が非選択のオブジェクトに関連する操作であると判定する。なお、本実施形態に係る操作デバイスの動きの検出結果に基づく処理に関連する操作であるか否かの判定方法が、上記に限られないことは、言うまでもない。
情報処理装置100は、例えば上記のように、操作デバイスの動きの検出結果に基づく処理中にユーザ操作が検出された場合には、ユーザ操作の検出結果に基づいて、行われている操作デバイスの動きの検出結果に基づく処理の内容を選択的に変更する。
また、例えば、ユーザインタフェースに対するユーザ操作の検出結果に基づく選択されたオブジェクトの移動中に、操作デバイスの動きが検出された場合には、情報処理装置100は、検出された操作デバイスの動きが、非選択されたオブジェクトの移動処理(ユーザ操作の検出結果に基づく処理の一例)に関連する操作であるか否かを判定する。そして、情報処理装置100は、選択されたオブジェクトの移動処理に関連する操作であると判定した場合には、選択されたオブジェクトの移動を中断または停止させる。また、情報処理装置100は、選択されたオブジェクトの移動処理に関連する操作であると判定しない場合には、検出された操作デバイスの動きに対応する処理を行う。
ここで、本実施形態に係る情報処理装置100における、選択されたオブジェクトの移動処理(ユーザインタフェースに対するユーザ操作の検出結果に基づく処理の一例)に関連する操作であるか否かの判定方法としては、例えば、検出された操作デバイスの動きが移動中の選択されたオブジェクトに対して行われたものであるか否かによって、判定する方法が挙げられる。例えば、情報装置100は、移動中の選択されたオブジェクトの移動方向と反対方向に対応する操作デバイスの動きが検出された場合に、検出された操作デバイスの動きが選択されたオブジェクトに関連する操作であると判定する。なお、本実施形態に係るユーザ操作の検出結果に基づく処理に関連する操作であるか否かの判定方法が、上記に限られないことは、言うまでもない。
情報処理装置100は、例えば上記のように、ユーザ操作の検出結果に基づく処理中に操作デバイスの動きが検出された場合には、操作デバイスの動きの検出結果に基づいて、行われているユーザ操作の検出結果に基づく処理の内容を選択的に変更する。
情報処理装置100は、例えば上記のように、操作デバイスの動きの検出結果またはユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、他方の検出結果に基づいて、行われている一方の検出結果に基づく処理の内容を選択的に変更する。よって、情報処理装置100を用いることにより、ユーザは、異なる種類の操作を相互に組み合わせて情報処理装置100における処理の実行を制御することができる。
したがって、情報処理装置100は、ユーザの操作性をより向上させることができる。
次に、図1〜図6を参照して示した、選択されたオブジェクトの移動、非選択のオブジェクトの移動の例に係る情報処理装置100における処理について、より具体的に説明する。図7は、本実施形態に係る情報処理装置100における処理の一例を示す流れ図である。図7では、操作デバイスの動きが検出されることにより検出される操作デバイスに対する物理的な操作を、単に「物理的な操作」と示し、また、ユーザインタフェースに対するユーザ操作を「UI操作」と示している。
なお、図7では、便宜上、操作デバイスに対する物理的な操作に係る処理が行われた後に、ユーザインタフェースに対するユーザ操作に係る処理を行う例を示しているが、本実施形態に係る情報処理装置100における処理は、上記に限られない。上述したように、本実施形態に係る情報処理装置100を用いるユーザは、操作デバイスに対する物理的な操作と、ユーザインタフェースに対するユーザ操作とを、同時期に平行して行うことが可能である。よって、情報処理装置100は、ユーザインタフェースに対するユーザ操作に係る処理が行われた後に、操作デバイスに対する物理的な操作に係る処理を行ってもよく、また、操作デバイスに対する物理的な操作に係る処理とユーザ操作に係る処理とを平行して行ってもよい。
情報処理装置100は、オブジェクトが選択されたか否かを判定する(S100)。ステップS100においてオブジェクトが選択されたと判定されない場合には、情報処理装置100は、オブジェクトが選択されたと判定されるまで処理を進めない。
ステップS100においてオブジェクトが選択されたと判定された場合には、情報処理装置100は、非選択のオブジェクトを明示する(S102)。ここで、情報処理装置100は、例えば図2に示すように、非選択のオブジェクトを視覚的に振動させることによって非選択のオブジェクトを明示する。なお、本実施形態に係る非選択のオブジェクトの明示方法が、図2に示すように視覚的に振動させることに限られないことは、言うまでもない。
ステップS102の処理が行われると、情報処理装置100は、物理的な操作が検出されたか否かを判定する(S104)。ここで、情報処理装置100は、例えば、操作デバイスの動きが検出された場合に物理的な操作が検出されたと判定する。ステップS104において物理的な操作が検出されたと判定されない場合には、情報処理装置100は、後述するステップS112の処理を行う。
また、ステップS104において物理的な操作が検出されたと判定された場合には、情報処理装置100は、検出された物理的な操作が選択されたオブジェクトに関連する操作であるか否かを判定する(S106)。ここで、情報装置100は、例えば、移動中の選択されたオブジェクトが存在し、かつ、当該選択されたオブジェクトの移動方向と反対方向に対応する操作デバイスの動きが検出された場合に、選択されたオブジェクトに関連する操作であると判定する。
ステップS106において選択されたオブジェクトに関連する操作であると判定された場合には、情報処理装置100は、選択されたオブジェクトの移動を中断または停止させる(S108)。
また、ステップS106において選択されたオブジェクトに関連する操作であると判定されない場合には、情報処理装置100は、非選択のオブジェクトを移動させる(S110)。ここで、情報処理装置100は、検出された操作デバイスの動きの量に基づいて移動のさせ方を変えてもよい。例えば、情報処理装置100が操作デバイスの動きとして操作デバイスの傾きを検出する場合には、情報処理装置100は、水平方向に対する角度(操作デバイスの動きの量の一例)に応じて、移動速度や移動量、移動の加速度などを変える。
上記のように検出された操作デバイスの動きの量に基づいて移動のさせ方を変えることによって、情報処理装置100は、例えば、ユーザによる操作デバイスの傾かせ方に応じたオブジェクトの移動を実現することが可能となる。また、例えば上記のように検出された操作デバイスの動きの量に基づいて移動のさせ方を変えることによって、オブジェクトの慣性動作が実現されるので、情報処理装置100は、ユーザに対してより快適な操作を提供することができる。
ステップS108の処理またはステップS110の処理が行われると、情報処理装置100は、UI操作が検出されたか否かを判定する(S112)。ここで、情報処理装置100は、例えば、ユーザインタフェースに対するユーザ操作が検出された場合にUI操作が検出されたと判定する。ステップS112においてUI操作が検出されたと判定されない場合には、情報処理装置100は、後述するステップS120の処理を行う。
また、ステップS112においてUI操作が検出されたと判定された場合には、情報処理装置100は、検出されたUI操作が非選択のオブジェクトに関連する操作であるか否かを判定する(S114)。ここで、情報装置100は、例えば、移動中の非選択のオブジェクトが存在し、かつ、当該非選択のオブジェクトに対応する表示画面の領域内の座標に対する操作が検出された場合に、検出されたUI操作が非選択のオブジェクトに関連する操作であると判定する。
ステップS114において検出されたUI操作が非選択のオブジェクトに関連する操作であると判定された場合には、情報処理装置100は、非選択のオブジェクトの移動を中断または停止させる(S116)。
また、ステップS114において検出されたUI操作が非選択のオブジェクトに関連する操作であると判定されない場合には、情報処理装置100は、選択されたオブジェクトを移動させる(S118)。
ステップS112においてUI操作が検出されたと判定されない場合、または、ステップS116の処理またはステップS118の処理が行われると、情報処理装置100は、処理を終了するか否かを判定する(S120)。ここで、情報処理装置100は、例えば、実行されている処理(図7に示す例では、例えば、選択されているオブジェクトの移動、および/または、非選択のオブジェクトの移動が該当する。)が全て完了した場合や、処理を強制的に終了させるための特定のユーザ操作が検出された場合に、処理を終了すると判定する。
ステップS120において処理を終了すると判定されない場合には、情報処理装置100は、ステップS104からの処理を繰り返す。また、ステップS120において処理を終了すると判定されない場合には、情報処理装置100は、図7に示す処理を終了する。
情報処理装置100は、例えば図7に示す処理を行うことによって、操作デバイスの動きの検出結果、ユーザ操作の検出結果に基づいて、選択されたオブジェクトおよび/または非選択のオブジェクトを移動させる。なお、本実施形態に係る情報処理装置100における、選択されたオブジェクトの移動、非選択のオブジェクトの移動の例に係る処理が、図7に示す処理に限られないことは、言うまでもない。
(本実施形態に係る情報処理装置)
次に、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能な、本実施形態に係る情報処理装置100の構成の一例について、説明する。
図8は、本実施形態に係る情報処理装置100の構成の一例を示すブロック図である。
情報処理装置100は、例えば、第1検出部102と、第2検出部104と、処理部106とを備える。
また、情報処理装置100は、例えば、制御部(図示せず)や、ROM(Read Only Memory;図示せず)、RAM(Random Access Memory;図示せず)、記憶部(図示せず)、ユーザが操作可能な操作部(図示せず)、様々な画面を表示画面に表示する表示部(図示せず)、外部装置と通信を行うための通信部(図示せず)などを備えていてもよい。情報処理装置100は、例えば、データの伝送路としてのバス(bus)により上記各構成要素間を接続する。
ここで、制御部(図示せず)は、例えば、MPU(Micro Processing Unit)や、各種処理回路などで構成され、情報処理装置100全体を制御する。また、制御部(図示せず)は、例えば、第1検出部102(または第1検出部102の一部)、第2検出部104(または第2検出部104の一部)、処理部106の役目を果たしてもよい。
ROM(図示せず)は、制御部(図示せず)が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAM(図示せず)は、制御部(図示せず)により実行されるプログラムなどを一時的に記憶する。
記憶部(図示せず)は、情報処理装置100が備える記憶手段であり、例えばアプリケーションなど様々なデータを記憶する。ここで、記憶部(図示せず)としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)などが挙げられる。また、記憶部(図示せず)は、情報処理装置100から着脱可能であってもよい。
操作部(図示せず)としては、例えば、ボタンや、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。また、情報処理装置100は、例えば、情報処理装置100の外部装置としての操作入力デバイス(例えば、キーボードやマウスなど)と接続することもできる。
表示部(図示せず)としては、例えば、液晶ディスプレイ(Liquid Crystal Display;LCD)や有機ELディスプレイ(organic ElectroLuminescence display。または、OLEDディスプレイ(Organic Light Emitting Diode display)ともよばれる。)などが挙げられる。なお、表示部(図示せず)は、例えばタッチスクリーンなどのように、表示とユーザ操作とが可能なデバイスであってもよい。また、情報処理装置100は、表示部(図示せず)の有無に関わらず、情報処理装置100の外部装置としての表示デバイス(例えば、外部ディスプレイなど)と接続することもできる。
通信部(図示せず)は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部装置と無線/有線で通信を行う。ここで、通信部(図示せず)としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11bポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)などが挙げられる。また、本実施形態に係るネットワークとしては、例えば、LANやWAN(Wide Area Network)などの有線ネットワーク、無線LAN(WLAN;Wireless Local Area Network)や基地局を介した無線WAN(WWAN;Wireless Wide Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられる。
[情報処理装置100のハードウェア構成例]
図9は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す説明図である。ここで、図9は、情報処理装置100が、操作デバイスとして機能する場合におけるハードウェア構成の一例を示している。
情報処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、タッチパネル164と、加速度センサ166と、ジャイロセンサ168と、近接センサ170とを備える。また、情報処理装置100は、例えば、データの伝送路としてのバス172で各構成要素間を接続する。
MPU150は、MPUや制御機能を実現するための各種回路が集積された集積回路などで構成され、情報処理装置100全体を制御する制御部(図示せず)として機能する。また、MPU150は、情報処理装置100において、後述する処理部106としての役目を果たすこともできる。
ROM152は、例えばMPU150が使用するプログラムや演算パラメータなどの制御用データを記憶し、また、RAM154は、例えばMPU150により実行されるプログラムなどを一時的に記憶する。
記録媒体156は、情報処理装置100における記憶手段であり、記憶部(図示せず)として機能する。記録媒体156には、例えばアプリケーションなどが記憶される。ここで、記録媒体156としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリが挙げられる。また、記録媒体156は、情報処理装置100から着脱可能であってもよい。
入出力インタフェース158は、例えば、操作入力デバイス160や、表示デバイス162を接続する。ここで、入出力インタフェース158としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)端子、各種処理回路などが挙げられる。なお、入出力インタフェース158は、情報処理装置100の外部装置としての操作入力デバイス(例えば、キーボードやマウスなど)や、表示デバイス(例えば、外部ディスプレイなど)と接続することが可能であることは、言うまでもない。
操作入力デバイス160は、操作部(図示せず)として機能する。また、操作入力デバイス160は、第2検出部104として機能してもよい。操作入力デバイス160は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。操作入力デバイス160としては、例えば、ボタン、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。
表示デバイス162は、タッチパネル164と共に操作表示部102として機能する。表示デバイス162は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。表示デバイス162としては、例えば、液晶ディスプレイや有機ELディスプレイなどが挙げられる。
また、表示デバイス162上には、1または2以上の操作位置を検出可能なタッチパネル164が設けられる。表示デバイス162、およびタッチパネル164は、例えば第2検出部104として機能し、表示とユーザ操作とが可能なユーザインタフェースに対するユーザ操作を検出する。ここで、タッチパネル164としては、例えば静電式タッチパネルが挙げられるが、本実施形態に係るタッチパネル164は、上記に限られない。例えば、情報処理装置100は、1または2以上の操作位置を検出可能な任意の方式のタッチパネルを備えることが可能である。
加速度センサ166、ジャイロセンサ168、および近接センサ170は、第1検出部106として機能し、情報処理装置100(すなわち、操作デバイス)の動きを検出する。
情報処理装置100は、例えば図9に示す構成によって、上述した本実施形態に係る情報処理方法に係る処理を行う。なお、本実施形態に係る情報処理装置100のハードウェア構成は、図9に示す構成に限られない。例えば、情報処理装置100は、1または2以上のGPSデバイスを第1検出部102として備えていてもよい。GPSデバイスを備えることによって、情報処理装置100は、情報処理装置100の位置を特定することができ、また、複数のGPSデバイスの検出結果を組み合わせることによって方位を特定することも可能である。
また、例えば情報処理装置100が操作デバイスとして機能しない場合、すなわち、情報処理装置100が、外部操作デバイスから送信される各種センサの検出値や信号に基づいて、操作デバイス(すなわち、外部装置)の動きと、ユーザ操作とをそれぞれ検出する場合には、情報処理装置100は、さらに通信インタフェース166を備える。また、上記の場合には、情報処理装置100は、図9に示すタッチパネル162や、加速度センサ166、ジャイロセンサ168、近接センサ170を備えていなくてもよい。
ここで、通信インタフェース(図示せず)は、ネットワークを介して(あるいは、直接的に)外部装置と無線/有線で通信を行うための通信部(図示せず)として機能する。通信インタフェース(図示せず)としては、例えば、通信アンテナおよびRF回路(無線通信)や、LAN端子および送受信回路(有線通信)などが挙げられる。なお、本実施形態に係る通信インタフェース(図示せず)は、上記に限られず、例えば、ネットワークに対応する構成をとることができる。
再度図8を参照して、情報処理装置100の構成の一例について説明する。第1検出部102は、上記(I)の処理(検出処理)の一部を主導的に行う役目を果たし、操作デバイスの動きを検出する。
ここで、検出対象の操作デバイスが情報処理装置100そのものである場合には、第1検出部102は、例えば加速度センサ166や、ジャイロセンサ168、近接センサ170などの各種センサを備えることによって、操作デバイス(すなわち、情報処理装置100)の動きを検出する。また、検出対象の操作デバイスが外部装置である場合には、第1検出部102は、例えば通信部(図示せず)を介して受信した、外部装置が備える各種センサの検出値に基づいて、操作デバイス(すなわち、外部装置)の動きを検出する。
第2検出部104は、上記(I)の処理(検出処理)の一部を主導的に行う役目を果たし、ユーザインタフェースに対するユーザ操作を検出する。
ここで、検出対象の操作デバイスが情報処理装置100そのものである場合には、第2検出部104は、ボタンなどの操作デバイスに対するユーザ操作や、タッチパネル164に対するユーザ操作(タッチ操作)を検出する。また、検出対象の操作デバイスが外部装置である場合には、第2検出部104は、例えば通信部(図示せず)を介して受信した、外部操作デバイスのユーザインタフェースに対するユーザ操作に応じた信号に基づいて、外部装置におけるユーザ操作を検出する。
処理部106は、上記(II)の処理(実行処理)を主導的に行う役目を果たし、第1検出部102の検出結果、第2検出部104の検出結果に基づく処理を行う。また、処理部106は、第1検出部102または第2検出部104のいずれか一方の検出部の検出結果に基づく処理中に、他方の検出部の検出結果が検出された場合には、他方の検出部の検出結果に基づいて、行われている一方の検出部の検出結果に基づく処理の内容を選択的に変更する。
情報処理装置100は、例えば図9に示す構成によって、本実施形態に係る情報処理方法に係る処理(例えば、(I)の処理(検出処理)、および(II)の処理(実行処理))を行う。したがって、情報処理装置100は、例えば図9に示す構成によって、ユーザの操作性の向上を図ることができる。
以上のように、本実施形態に係る情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、例えば、(I)の処理(検出処理)、および(II)の処理(実行処理)を行う。情報処理装置100は、操作デバイスに対する物理的な操作と、ユーザインタフェースに対するユーザ操作という異なる種類の操作を検出して((I)の処理)、検出された操作に対応する処理を行う((II)の処理)。よって、情報処理装置100は、ユーザが同時期に複数の処理を実行させるために複数の動作を平行して行うことを可能とするので、ユーザの操作性をより向上させることができる。
また、情報処理装置100は、検出された異なる種類の操作それぞれに対応する処理を行うだけでなく、一方の検出結果に基づく処理の処理中に他方の検出結果が検出された場合には、行っている一方の検出結果に基づく処理の内容を選択的に変更する((II)の処理)。つまり、情報処理装置100を用いることによって、ユーザは、異なる種類の操作を相互に組み合わせて情報処理装置100における処理の実行を制御することが可能となる。したがって、情報処理装置100は、ユーザの操作性をさらに向上させることができる。
したがって、情報処理装置100は、ユーザの操作性をより向上させることができる。
また、情報処理装置100は、上記のように、操作デバイスに対する物理的な操作、ユーザインタフェースに対するユーザ操作それぞれに対応する処理を行うことが可能であるので、ユーザに対して例えば下記の(A)、(B)に示す効果を提供することができる。
(A)操作スピードの向上
例えばスマートフォンなどのような、ユーザが片手で操作することが可能な機器では、操作デバイスに対する物理的な操作、または、ユーザインタフェースに対するユーザ操作のいずれか一方を行うケースがある。情報処理装置100が、例えばスマートフォンなどのようなユーザが片手で操作することが可能な機器に適用される場合には、操作デバイスに対する物理的な操作、およびユーザインタフェースに対するユーザ操作の双方を平行して行うことが可能となる。したがって、情報処理装置100が、例えばスマートフォンなどのようなユーザが片手で操作することが可能な機器に適用される場合には、操作スピードの向上を図ることができる。
(B)より直感的な操作体系の提供
例えば選択したオブジェクト以外はそれほど重要でない場合があり、選択したオブジェクト以外は大雑把に扱いたいという要求が存在する。例えば、大事な写真(オブジェクトの一例)だけを集めて、残りの写真を捨てる、あるいはあとで見る、というケースには、上記要求は強い。情報処理装置100を用いることによって、操作デバイスに対する物理的な操作、およびユーザインタフェースに対するユーザ操作の双方を平行して行うことが可能となる。よって、情報処理装置100は、大切な操作を行う画面上の操作(ユーザインタフェースに対するユーザ操作の一例)と、粗雑に扱うような操作デバイスに対する物理的な操作とを組み合わせた直感的な操作体系を、ユーザに提供することができる。
以上、本実施形態として情報処理装置100を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、携帯電話やスマートフォンなどの通信装置や、映像/音楽再生装置(または映像/音楽記録再生装置)、ゲーム機、PC(Personal Computer)などのコンピュータなど、様々な機器に適用することができる。
(本実施形態に係るプログラム)
コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(例えば、(I)の処理(検出処理)、(II)の処理(実行処理)など、本実施形態に係る情報処理方法に係る処理を実行することが可能なプログラム)によって、ユーザの操作性の向上を図ることができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記では、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(コンピュータプログラム)が提供されることを示したが、本実施形態は、さらに、上記プログラムをそれぞれ記憶させた記録媒体も併せて提供することができる。
上述した構成は、本実施形態の一例を示すものであり、当然に、本開示の技術的範囲に属するものである。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出する第1検出部と、
前記ユーザインタフェースに対するユーザ操作を検出する第2検出部と、
前記第1検出部の検出結果、前記第2検出部の検出結果に基づく処理を行う処理部と、
を備え、
前記処理部は、前記第1検出部または前記第2検出部のいずれか一方の検出部の検出結果に基づく処理中に、他方の検出部の検出結果が検出された場合には、前記他方の検出部の検出結果に基づいて、行われている前記一方の検出部の検出結果に基づく処理の内容を選択的に変更する、情報処理装置。
(2)
前記処理部は、
前記他方の検出部の検出結果が、前記一方の検出部の検出結果に基づく処理の処理対象のオブジェクトに関連するかを判定し、
関連すると判定した場合に、行われている前記一方の検出部の検出結果に基づく処理の内容を変更する、(1)に記載の情報処理装置。
(3)
前記処理部は、前記第1検出部または前記第2検出部のいずれか一方の検出部の検出結果に基づく処理中に、他方の検出部の検出結果が伝達された場合には、前記一方の検出部の検出結果に基づく処理を、選択的に中断または停止させる、(1)または(2)に記載の情報処理装置。
(4)
前記操作デバイスは、自装置である、(1)〜(3)のいずれか1つに記載の情報処理装置。
(5)
前記操作デバイスは、外部装置である、(1)〜(3)のいずれか1つに記載の情報処理装置。
(6)
ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出するステップと、
前記ユーザインタフェースに対するユーザ操作を検出するステップと、
前記操作デバイスの動きの検出結果、前記ユーザ操作の検出結果に基づく処理を行うステップと、
を有し、
前記処理を行うステップでは、前記操作デバイスの動きの検出結果または前記ユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、前記他方の検出結果に基づいて、行われている前記一方の検出結果に基づく処理の内容を選択的に変更する、情報処理方法。
(7)
ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出するステップ、
前記ユーザインタフェースに対するユーザ操作を検出するステップ、
前記操作デバイスの動きの検出結果、前記ユーザ操作の検出結果に基づく処理を行うステップ、
をコンピュータに実行させ、
前記処理を行うステップでは、前記操作デバイスの動きの検出結果または前記ユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、前記他方の検出結果に基づいて、行われている前記一方の検出結果に基づく処理の内容を選択的に変更する、プログラム。
100 情報処理装置
102 第1検出部
104 第2検出部
106 処理部

Claims (7)

  1. ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出する第1検出部と、
    前記ユーザインタフェースに対するユーザ操作を検出する第2検出部と、
    前記第1検出部の検出結果、前記第2検出部の検出結果に基づく処理を行う処理部と、
    を備え、
    前記処理部は、前記第1検出部または前記第2検出部のいずれか一方の検出部の検出結果に基づく処理中に、他方の検出部の検出結果が検出された場合には、前記他方の検出部の検出結果に基づいて、行われている前記一方の検出部の検出結果に基づく処理の内容を選択的に変更する、情報処理装置。
  2. 前記処理部は、
    前記他方の検出部の検出結果が、前記一方の検出部の検出結果に基づく処理の処理対象のオブジェクトに関連するかを判定し、
    関連すると判定した場合に、行われている前記一方の検出部の検出結果に基づく処理の内容を変更する、請求項1に記載の情報処理装置。
  3. 前記処理部は、前記第1検出部または前記第2検出部のいずれか一方の検出部の検出結果に基づく処理中に、他方の検出部の検出結果が伝達された場合には、前記一方の検出部の検出結果に基づく処理を、選択的に中断または停止させる、請求項1に記載の情報処理装置。
  4. 前記操作デバイスは、自装置である、請求項1に記載の情報処理装置。
  5. 前記操作デバイスは、外部装置である、請求項1に記載の情報処理装置。
  6. ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出するステップと、
    前記ユーザインタフェースに対するユーザ操作を検出するステップと、
    前記操作デバイスの動きの検出結果、前記ユーザ操作の検出結果に基づく処理を行うステップと、
    を有し、
    前記処理を行うステップでは、前記操作デバイスの動きの検出結果または前記ユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、前記他方の検出結果に基づいて、行われている前記一方の検出結果に基づく処理の内容を選択的に変更する、情報処理方法。
  7. ユーザが操作を行うことが可能なユーザインタフェースを有する操作デバイスの動きを検出するステップ、
    前記ユーザインタフェースに対するユーザ操作を検出するステップ、
    前記操作デバイスの動きの検出結果、前記ユーザ操作の検出結果に基づく処理を行うステップ、
    をコンピュータに実行させ、
    前記処理を行うステップでは、前記操作デバイスの動きの検出結果または前記ユーザ操作の検出結果のいずれか一方の検出結果に基づく処理中に、他方の検出結果が検出された場合には、前記他方の検出結果に基づいて、行われている前記一方の検出結果に基づく処理の内容を選択的に変更する、プログラム。
JP2011157973A 2011-07-19 2011-07-19 情報処理装置、情報処理方法、およびプログラム Expired - Fee Related JP5830997B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011157973A JP5830997B2 (ja) 2011-07-19 2011-07-19 情報処理装置、情報処理方法、およびプログラム
US13/546,598 US20130024792A1 (en) 2011-07-19 2012-07-11 Information processing device, information processing method, and program
CN2012102447487A CN102890606A (zh) 2011-07-19 2012-07-12 信息处理装置、信息处理方法及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011157973A JP5830997B2 (ja) 2011-07-19 2011-07-19 情報処理装置、情報処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2013025464A true JP2013025464A (ja) 2013-02-04
JP2013025464A5 JP2013025464A5 (ja) 2014-07-17
JP5830997B2 JP5830997B2 (ja) 2015-12-09

Family

ID=47534121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011157973A Expired - Fee Related JP5830997B2 (ja) 2011-07-19 2011-07-19 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20130024792A1 (ja)
JP (1) JP5830997B2 (ja)
CN (1) CN102890606A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD749606S1 (en) * 2012-12-27 2016-02-16 Lenovo (Beijing) Co., Ltd. Display screen with graphical user interface
EP3163403A4 (en) * 2014-06-25 2018-02-28 Sony Corporation Display control device, display control method, and program
USD754727S1 (en) * 2014-09-18 2016-04-26 3M Innovative Properties Company Display screen or portion thereof with animated graphical user interface
USD996452S1 (en) * 2021-11-08 2023-08-22 Airbnb, Inc. Display screen with graphical user interface

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187353A (ja) * 2008-02-07 2009-08-20 Sharp Corp 入力装置
US20100007518A1 (en) * 2008-07-10 2010-01-14 Samsung Electronics Co., Ltd Input apparatus using motions and user manipulations and input method applied to such input apparatus
US20100134312A1 (en) * 2008-11-28 2010-06-03 Samsung Electronics Co., Ltd. Input device for portable terminal and method thereof
JP2011076349A (ja) * 2009-09-30 2011-04-14 Nec Corp 携帯情報端末および表示制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090262074A1 (en) * 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
KR101390103B1 (ko) * 2007-04-03 2014-04-28 엘지전자 주식회사 영상제어방법 및 이동단말기
US8106881B2 (en) * 2007-11-07 2012-01-31 International Business Machines Corporation System, computer program product and method of manipulating windows on portable computing devices through motion
KR101505198B1 (ko) * 2008-08-18 2015-03-23 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
KR101481556B1 (ko) * 2008-09-10 2015-01-13 엘지전자 주식회사 이동 단말기 및 이를 이용한 객체 표시방법
KR101568128B1 (ko) * 2008-11-14 2015-11-12 삼성전자주식회사 모션 센서 기반의 ui 운용 방법 및 이를 이용한 단말기
EP2192474B1 (en) * 2008-12-01 2017-04-12 LG Electronics Inc. Method for operating execution icon of mobile terminal
US8497884B2 (en) * 2009-07-20 2013-07-30 Motorola Mobility Llc Electronic device and method for manipulating graphic user interface elements
KR101623783B1 (ko) * 2009-10-08 2016-05-24 엘지전자 주식회사 이동 단말기 및 이것의 데이터 추출 방법
US9564075B2 (en) * 2009-12-30 2017-02-07 Cyweemotion Hk Limited Electronic control apparatus and method for responsively controlling media content displayed on portable electronic device
US20110316888A1 (en) * 2010-06-28 2011-12-29 Invensense, Inc. Mobile device user interface combining input from motion sensors and other controls
KR101728725B1 (ko) * 2010-10-04 2017-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101691478B1 (ko) * 2011-02-09 2016-12-30 삼성전자주식회사 통합 입력에 따른 단말기 운용 방법 및 이를 지원하는 휴대 단말기
US9483085B2 (en) * 2011-06-01 2016-11-01 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187353A (ja) * 2008-02-07 2009-08-20 Sharp Corp 入力装置
US20100007518A1 (en) * 2008-07-10 2010-01-14 Samsung Electronics Co., Ltd Input apparatus using motions and user manipulations and input method applied to such input apparatus
US20100134312A1 (en) * 2008-11-28 2010-06-03 Samsung Electronics Co., Ltd. Input device for portable terminal and method thereof
JP2011076349A (ja) * 2009-09-30 2011-04-14 Nec Corp 携帯情報端末および表示制御方法

Also Published As

Publication number Publication date
US20130024792A1 (en) 2013-01-24
JP5830997B2 (ja) 2015-12-09
CN102890606A (zh) 2013-01-23

Similar Documents

Publication Publication Date Title
US11635869B2 (en) Display device and method of controlling the same
US8988342B2 (en) Display apparatus, remote controlling apparatus and control method thereof
US10444968B2 (en) Display control device, display control method, and program
US20180299975A1 (en) User terminal device and method for controlling the user terminal device thereof
US11899903B2 (en) Display device and method of controlling the same
US20120005602A1 (en) Methods and apparatuses for facilitating task switching
WO2017097097A1 (zh) 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端
US20120050332A1 (en) Methods and apparatuses for facilitating content navigation
US20130342456A1 (en) Remote control apparatus and control method thereof
US10928948B2 (en) User terminal apparatus and control method thereof
EP3336672A1 (en) Method and apparatus for providing graphic user interface in mobile terminal
US20130222243A1 (en) Method and apparatus for scrolling a screen in a display apparatus
US20120162112A1 (en) Method and apparatus for displaying menu of portable terminal
US20120223898A1 (en) Display control device, display control method, and program
WO2013031134A1 (en) Information processing apparatus, information processing method, and program
US9563345B2 (en) Electronic device and method for controlling the same
EP2829967A2 (en) Method of processing input and electronic device thereof
KR102095039B1 (ko) 터치 인터페이스를 제공하는 장치에서 터치 입력을 수신하는 방법 및 장치
JP5865615B2 (ja) 電子機器および制御方法
JP5830997B2 (ja) 情報処理装置、情報処理方法、およびプログラム
EP2998838A1 (en) Display apparatus and method for controlling the same
JP2014164718A (ja) 情報端末
JP4692465B2 (ja) 携帯電話機、情報処理端末、スクローリング操作方法、及びスクローリング操作プログラム
JP2015158759A (ja) 機能選択実行装置、機能選択実行方法及び機能選択実行プログラム
KR102125100B1 (ko) 웨어러블 디바이스의 제어 방법 및 그 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151012

LAPS Cancellation because of no payment of annual fees