JP5442812B2 - オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラム - Google Patents

オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラム Download PDF

Info

Publication number
JP5442812B2
JP5442812B2 JP2012147134A JP2012147134A JP5442812B2 JP 5442812 B2 JP5442812 B2 JP 5442812B2 JP 2012147134 A JP2012147134 A JP 2012147134A JP 2012147134 A JP2012147134 A JP 2012147134A JP 5442812 B2 JP5442812 B2 JP 5442812B2
Authority
JP
Japan
Prior art keywords
instruction input
input
processing apparatus
predetermined
object processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012147134A
Other languages
English (en)
Other versions
JP2014010648A (ja
Inventor
エリック カークパトリック
滝あ 大貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Priority to JP2012147134A priority Critical patent/JP5442812B2/ja
Priority to US14/371,803 priority patent/US9383906B2/en
Priority to PCT/JP2013/051427 priority patent/WO2014002516A1/ja
Publication of JP2014010648A publication Critical patent/JP2014010648A/ja
Application granted granted Critical
Publication of JP5442812B2 publication Critical patent/JP5442812B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラムに関する。
タッチパネル等に表示された複数のオブジェクトのうちのいくつかのオブジェクトに対して処理を実施する場合、通常では、ユーザインターフェースを介して処理対象のオブジェクトを選択した後に所望の処理の実行のための操作を行うことにより、処理が実施される。また、表示された複数のオブジェクトのうち、処理対象のオブジェクトが多数であり且つ処理対象でないオブジェクトが少数である場合に、処理対象でないオブジェクトを選択した後に、選択したオブジェクトと非選択のオブジェクトとを反転させるユーザインターフェースが知られている(例えば、特許文献1参照)。
特開2007−334785号公報
上記特許文献1に記載された技術では、オブジェクトの選択操作を受け付けた後に、選択されたオブジェクトと非選択のオブジェクトとを反転させるために、選択反転ボタンを操作しなければならず、処理のための手間が煩雑であった。このように、多くのオブジェクトに対して所望の処理を実行するためには、多くの手順及び煩雑な操作が必要であった。
そこで本発明は、タッチパネルに表示された処理対象のオブジェクトに対して所望の処理を実行するための手間を軽減することを目的とする。
上記課題を解決するために、本発明の一形態に係るオブジェクト処理装置は、複数のオブジェクトを含む画像を表示する表示手段と、該表示手段における位置を示すユーザからの入力を検出可能であって該表示手段と一体に構成された入力手段と、入力手段により検出された入力に基づく、表示手段に表示された1以上のオブジェクトに対する選択入力を受信する選択受信手段と、を備えるオブジェクト処理装置であって、選択受信手段におけるオブジェクトの選択入力とは異なる指示入力を検出する検出手段と、検出手段により検出された指示入力が所定の指示入力である場合に、表示手段に表示された複数のオブジェクトのうちの、該指示入力が検出されたときにユーザが選択入力中のオブジェクト以外のオブジェクトである非選択オブジェクトに対して、所定の指示入力に対応する所定の処理を実行する実行手段と、を備える。
本発明の一形態に係るオブジェクト処理方法は、複数のオブジェクトを含む画像を表示する表示手段と、該表示手段における位置を示すユーザからの入力を検出可能であって該表示手段と一体に構成された入力手段と、入力手段により検出された入力に基づく、表示手段に表示された1以上のオブジェクトに対する選択入力を受信する選択受信手段と、を備えるオブジェクト処理装置におけるオブジェクト処理方法であって、選択受信手段におけるオブジェクトの選択入力とは異なる指示入力を検出する検出ステップと、検出ステップにおいて検出された指示入力が所定の指示入力である場合に、表示手段に表示された複数のオブジェクトのうちの、該指示入力が検出されたときにユーザが選択入力中のオブジェクト以外のオブジェクトである非選択オブジェクトに対して、所定の指示入力に対応する所定の処理を実行する実行ステップと、を有する。
本発明の一形態に係るオブジェクト処理プログラムは、コンピュータを、複数のオブジェクトを含む画像を表示する表示手段と、該表示手段における位置を示すユーザからの入力を検出可能であって該表示手段と一体に構成された入力手段と、入力手段により検出された入力に基づく表示手段に表示された1以上のオブジェクトに対する選択入力を受信する選択受信手段と、を備えるオブジェクト処理装置として機能させるためのオブジェクト処理プログラムであって、コンピュータに、選択受信手段におけるオブジェクトの選択入力とは異なる指示入力を検出する検出機能と、検出機能により検出された指示入力が所定の指示入力である場合に、表示手段に表示された複数のオブジェクトのうちの、該指示入力が検出されたときにユーザが選択入力中のオブジェクト以外のオブジェクトである非選択オブジェクトに対して、所定の指示入力に対応する所定の処理を実行する実行機能と、を実現させる。
上記形態によれば、表示された複数のオブジェクトのうちの1以上のオブジェクトに対する選択が受け付けられ、さらに指示入力が検出されることにより選択されなかったオブジェクトに対する処理が実行される。これにより、多くのオブジェクトを処理対象として容易に設定できる。また、例えば、表示手段に表示されたオブジェクトに対する選択操作といった、オブジェクトの選択とは異なる指示入力によりオブジェクトに対する処理が実行されるので、処理対象のオブジェクトに対する所定の処理のための手間が軽減される。
別の形態に係るオブジェクト処理装置では、検出手段は、当該オブジェクト処理装置の状態に関しての方向のパラメータを含む事象を検出可能であり、所定の方向のパラメータを有する事象を指示入力として検出することとしてもよい。
この形態によれば、方向の概念を含む所定の事象を当該オブジェクト処理装置に発生させることにより、所定の処理を実行させるための指示入力を行うことができるので、オブジェクトに対する処理を容易に実施できる。
別の形態に係るオブジェクト処理装置では、検出手段は、当該オブジェクト処理装置の状態に関しての方向及び大きさのパラメータを含む事象を検出可能であり、所定の方向及び大きさのパラメータを有する事象を指示入力として検出することとしてもよい。
この形態によれば、方向及び大きさの概念を含む所定の事象を当該オブジェクト処理装置に発生させることにより、所定の処理を実行させるための指示入力を行うことができるので、オブジェクトに対する処理を容易に実施できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、当該オブジェクト処理装置に対して所定の操作が行われている時間を検出可能であり、当該操作に関する所定の操作時間を指示入力として検出することとしてもよい。
この形態によれば、当該オブジェクト処理装置に対する所定の操作を所定時間行うことにより、所定の処理を実行させるための指示入力を行うことができるので、オブジェクトに対する処理を容易に実施できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、当該オブジェクト処理装置が備えるジャイロセンサからの検出値を検出可能であり、所定の検出値を指示入力として検出することとしてもよい。
この形態によれば、方向の概念を含む事象の検出にジャイロセンサを採用できるので、当該オブジェクト処理装置を容易に構成できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、当該オブジェクト処理装置が備える加速度センサからの検出値を検出可能であり、所定の検出値を指示入力として検出する、こととしてもよい。
この形態によれば、方向の概念を含む事象の検出又は方向及び大きさの概念を含む事象の検出に加速度センサを採用できるので、当該オブジェクト処理装置を容易に構成できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、ユーザの音声を検出可能であり、該音声に含まれる所定のキーワードを指示入力として検出することとしてもよい。
この形態によれば、当該オブジェクト処理装置に対して所定のキーワードを発することにより所定の処理を実行させるための指示入力を行うことができるので、オブジェクトに対する処理を容易に実施できる。また、例えばマイクロフォンといった装置により音声の検出が可能であるので、当該オブジェクト処理装置を容易に構成できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、入力手段により検出されたユーザによる所定の入力を指示入力として検出することとしてもよい。
この形態によれば、表示手段に対する入力の操作により、所定の処理を実行させるための指示入力を行うことができるので、オブジェクトに対する処理を容易に実施できる。
さらに別の形態に係るオブジェクト処理装置では、実行手段は、所定の処理として、表示手段における非選択オブジェクトの配置をランダムに変更する処理、非選択オブジェクトを消去する処理、及び非選択オブジェクトが表示されているページとは異なる他のページに該非選択オブジェクトを移動させる処理のいずれかを実行することとしてもよい。この形態では、非選択オブジェクトに対して種々の処理を実行できる。
さらに別の形態に係るオブジェクト処理装置では、実行手段は、非選択オブジェクトに対して第1の処理を実行すると共に、選択受付手段により選択されたオブジェクトである選択オブジェクトに対して第1の処理とは異なる第2の処理を実行することとしてもよい。
この形態では、指示入力が検出されることにより、非選択オブジェクトに対して第1の処理が実施されるだけでなく、選択オブジェクトに対しても第2の処理が実施されるので、表示された複数のオブジェクトの各々に対して、第1及び第2のうちのいずれかの処理を容易に実施できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、オブジェクトに対する処理の指示入力として、第1の指示入力及び該第1の指示入力とは異なる第2の指示入力を検出可能であり、実行手段は、検出手段により第1の指示入力が検出された場合には、非選択オブジェクトに対して第1の処理を実行し、検出手段により第2の指示入力が検出された場合には、非選択オブジェクトに対して第1の処理とは異なる第2の処理を実行することとしてもよい。
この形態によれば、第1及び第2の指示入力を受け付け可能であって、受け付けた指示入力に応じた第1又は第2の処理が非選択オブジェクトに対して実施されるので、非選択オブジェクトに対して、第1及び第2の処理のうちの所望の処理を容易に実施できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、オブジェクトに対する処理の指示入力として、第1の指示入力及び該第1の指示入力とは異なる第2の指示入力を検出可能であり、実行手段は、検出手段により第1の指示入力が検出された場合には、第1の処理を非選択オブジェクトに対して実行し、検出手段により第2の指示入力が検出された場合には、第1の処理とは異なる又は同様の第2の処理を選択受付手段により選択されたオブジェクトである選択オブジェクトに対して実行することとしてもよい。
この形態によれば、第1及び第2の指示入力を受け付け可能であって、受け付けた指示入力に応じた非選択オブジェクトに対する第1の処理又は選択オブジェクトに対する第2の処理が実施されるので、非選択オブジェクトまたは選択オブジェクトに対する所望の処理を容易に実施できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、当該オブジェクト処理装置の状態に関しての方向のパラメータを含む事象を検出し、第1の方向のパラメータを有する事象を第1の指示入力として検出し、第1の方向とは異なる第2の方向のパラメータを有する事象を第2の指示入力として検出することとしてもよい。
この形態によれば、当該オブジェクト処理装置に対して、方向の概念を含む所定の事象を第1又は第2の方向に発生させることにより、第1又は第2の指示入力が検出されるので、操作が容易なユーザインターフェースにより所望の処理をオブジェクトに対して実施できる。
さらに別の形態に係るオブジェクト処理装置では、検出手段は、当該オブジェクト処理装置に対して所定の操作が行われている時間を検出可能であり、検出された操作時間が予め設定された第1の時間範囲に該当する場合に、検出した操作を第1の指示入力として検出し、操作時間が予め設定された第2の時間範囲に該当する場合に、検出した操作を第2の指示入力として検出することとしてもよい。
この形態によれば、当該オブジェクト処理装置に対して第1又は第2の時間範囲に該当する時間の所定の操作を実施することにより、第1又は第2の指示入力が検出されるので、操作が容易なユーザインターフェースにより所望の処理をオブジェクトに対して実施できる。
さらに別の形態に係るオブジェクト処理装置では、実行手段は、第1の処理及び第2の処理のそれぞれとして、表示手段における処理対象のオブジェクトの配置をランダムに変更する処理、処理対象のオブジェクトを消去する処理、及び処理対象のオブジェクトが表示されているページとは異なる他のページに該オブジェクトを移動させる処理のいずれかを実行することとしてもよい。この形態では、非選択オブジェクトまたは選択オブジェクトに対して所望の種々の処理を実行できる。
さらに別の形態に係るオブジェクト処理装置では、複数のオブジェクトの各々が有する属性間の関係に基づき、互いの属性の近似の度合いを示すオブジェクト間距離を、オブジェクト間ごとに算出可能であり、検出手段は、オブジェクトに対する処理の指示入力として、段階的な入力値を伴う指示入力を検出可能であり、実行手段は、選択受付手段により選択されたオブジェクトである選択オブジェクトとのオブジェクト間距離が、指示入力に伴う入力値に予め対応付けられたオブジェクト間距離に該当する非選択オブジェクトに対して所定の処理を実行することとしてもよい。
この形態によれば、指示入力における段階的な入力値に応じた、選択オブジェクトを基準としたオブジェクト間距離を有する非選択オブジェクトに対して所定の処理が実施される。これにより、操作容易なユーザインターフェースにより、処理対象とするオブジェクトを制御しながら、非選択オブジェクトに対する処理の実行を制御できる。
本発明の一側面によれば、タッチパネルに表示された処理対象のオブジェクトに対して所望の処理を実行するための手間を軽減することが可能となる。
オブジェクト処理装置の機能構成を示すブロック図である。 オブジェクト処理装置のハードウェア構成を示す図である。 オブジェクトの選択の受け付けの例を示す図である。 検出部による指示入力の検出の一例を説明する図である。 検出部による指示入力の検出の他の例を説明する図である。 非選択オブジェクトの配置がランダムに変更される処理の例を示す図である。 非選択オブジェクトが消去される処理の例を示す図である。 非選択オブジェクトが他のページに移動される処理の例を示す図である。 非選択オブジェクト及び選択オブジェクトに対する処理の例を示す図である。 検出部による第1及び第2の指示入力の検出の例を示す図である。 第1及び第2の指示入力の検出に応じて実行される処理の例を示す図である。 第1及び第2の指示入力の検出に応じて実行される処理の例を示す図である。 カテゴリ間距離を記憶しているテーブル、オブジェクトが属性として有するカテゴリ及び他のオブジェクトとの間のオブジェクト間距離を記憶しているテーブル、及びオブジェクトに対する処理の指示入力に付随する入力値と当該入力値が取得された場合に処理対象となるオブジェクトのオブジェクト間距離とを対応付けて記憶しているテーブルの例である。 オブジェクト間距離に基づく非選択オブジェクトに対する処理の具体例を示す図である。 オブジェクト処理方法の処理内容の例を示すフローチャートである。 オブジェクト処理方法の処理内容の他の例を示すフローチャートである。 オブジェクト処理プログラムの構成を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態に係るオブジェクト処理装置1の機能的構成を示すブロック図である。オブジェクト処理装置1は、複数のオブジェクトを含む画像を表示する表示手段と、その表示手段における位置を示すユーザからの入力を検出可能であって表示手段と一体に構成された入力手段とを備える装置である。オブジェクト処理装置1は、例えば、いわゆるタッチパネルを搭載した端末である。タッチパネルは、画像をディスプレイに表示すると共に、ディスプレイに対する物理的接触を検知する入力手段を有しており、ディスプレイにおける物理的接触が検知された位置を検出できる。
本実施形態のオブジェクト処理装置1は、タッチパネル10を備えた端末の例により説明される。図1に示すように、オブジェクト処理装置1は、機能的には、選択受付部11(選択受付手段)、検出部12(検出手段)、実行部13(実行手段)及び記憶部14を備える。タッチパネル10は、入力部10a及び表示部10b(表示手段)を含む。表示部10bは、ディスプレイといった装置により構成される。また、入力部10aは、ディスプレイにおける物理的接触が検知された位置を検出する。
図2は、オブジェクト処理装置1のハードウェア構成図である。オブジェクト処理装置1は、物理的には、図2に示すように、CPU101、RAM及びROMといったメモリにより構成される主記憶装置102、ハードディスク等で構成される補助記憶装置103、ネットワークカード等で構成される通信制御装置104、入力デバイスであるキーボード、マウス等の入力装置105、ディスプレイ等の出力装置106などを含むコンピュータシステムとして構成されている。
図1に示した各機能は、図2に示すCPU101、主記憶装置102等のハードウェア上に所定のコンピュータソフトウェア(オブジェクト処理プログラム)を読み込ませることにより、CPU101の制御のもとで通信制御装置104、入力装置105、出力装置106を動作させるとともに、主記憶装置102や補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶装置102や補助記憶装置103内に格納される。
本実施形態において、処理の対象となるオブジェクトは、例えば、ファイル及びアプリケーション等を表すアイコン、テキストの集合及びテキストボックス等である。オブジェクトは、その種別に応じて、各種の属性情報を伴っており、それらの属性情報はオブジェクトに対応付けられて記憶部14に記憶されている。オブジェクトの属性情報は、アイコンであるオブジェクトが示すアプリケーションに関する情報、テキストボックス等であるオブジェクトのテキストの内容等を含む。
選択受付部11は、表示部10bに表示された複数のオブジェクトのうちの1以上のオブジェクトに対する選択を受け付ける部分である。図3を参照して、オブジェクトの選択の受け付けについて説明する。図3(a)に示す例では、オブジェクト処理装置1のタッチパネル10に、アイコンからなるオブジェクトが12個表示されている。
このとき、指FによるオブジェクトO,Oに対する物理的接触が入力部10aにより検出されると、選択受付部11は、オブジェクトO,Oに対する選択を受け付ける。具体的には、例えば記憶部14に、各オブジェクトOの表示位置及び表示領域がオブジェクトごとに記憶されているので、選択受付部11は、入力部10aにより検出された指Fによる物理的接触の位置を示す位置情報を取得し、取得した位置情報がいずれかのオブジェクトの表示領域に該当するか否かを判断することにより、オブジェクトに対する選択を受け付けることができる。ここで、選択されたオブジェクトO,Oは、オブジェクト処理装置1において選択オブジェクトOとして認識される。一方、表示部10bに表示された複数のオブジェクトのうちの選択されなかったオブジェクトOは、オブジェクト処理装置1において非選択オブジェクトOとして認識される。
図3(b)に示す例では、オブジェクト処理装置1のタッチパネル10に、テキストボックスからなるオブジェクトO〜Oが6個表示されている。このとき、指FによるオブジェクトO,Oに対する物理的接触が入力部10aにより検出されると、選択受付部11は、オブジェクトO,Oに対する選択を受け付ける。ここで、選択されたオブジェクトO,Oは、オブジェクト処理装置1において選択オブジェクトOとして認識される。一方、選択されなかったオブジェクトO,O,O,Oは、オブジェクト処理装置1において非選択オブジェクトOとして認識される。
検出部12は、選択受付部11におけるオブジェクトの選択とは異なる指示入力を検出する部分である。即ち、選択受付部11は、タッチパネル10の表示部10bに表示されたオブジェクトに対する物理的接触の検出といった態様によりオブジェクトに対する選択の受け付けを行うので、検出部12は、タッチパネル10に対する物理的接触によるオブジェクトの選択とは異なる操作に基づき、オブジェクトに対する処理の指示入力を検出する。図4,5を参照して、指示入力の検出について説明する。
図4は、検出部12による指示入力の検出の一例を説明する図である。検出部12は、オブジェクト処理装置1の状態に関しての方向の概念を含む事象を検出可能であり、所定の方向を有する事象の検出を指示入力として検出することができる。即ち、検出部12は、方向をパラメータとして含む事象を検出できる。図4に示す例では、オブジェクト処理装置1は、方向のパラメータを含む事象を検出するための構成として、例えばジャイロセンサを含む。タッチパネル10の表示部10bを構成する画面が略垂直方向に沿うような状態に保持されることが、オブジェクト処理装置1の状態に関しての所定の方向を有する事象として設定されている場合には、図4に示すように、オブジェクト処理装置1が符号1A1に示される状態から符号1B1に示される状態にユーザにより操作されたときに、検出部12は、その操作をオブジェクトに対する処理の指示入力として検出する。このように指示入力を検出するので、特別なグラフィカルユーザインターフェースを表示部10bの画面上に配置することなく、オブジェクトに対する処理を容易に実施できる。なお、図4に示す例では、方向のパラメータを含む事象を検出するための構成としてジャイロセンサを例示しているが、オブジェクト処理装置1は、その他の、方向のパラメータを含む事象を検出可能な構成を有することができ、例えば、重力加速度を検出可能な加速度センサ、地磁気を検出可能な電子コンパスを含むこととしてもよい。オブジェクト処理装置1が電子コンパスを含む場合には、検出部12は、オブジェクト処理装置1における所定の方向が、いかなる方向に保持されているかを検出することが可能であり、検出した方向を本実施形態における所定の方向を有する事象として捉えることができる。
図5は、検出部12による指示入力の検出の他の例を説明する図である。検出部12は、オブジェクト処理装置1の状態に関しての方向及び大きさのパラメータを含む事象を検出可能であり、所定の方向及び大きさを有する事象の検出を指示入力として検出することができる。即ち、検出部12は、方向及び大きさをパラメータとして含む事象を検出できる。図5に示す例では、オブジェクト処理装置1は、方向及び大きさのパラメータを含む事象を検出するための構成として、例えば加速度センサを含む。例えば、オブジェクト処理装置1の長手方向に沿ってオブジェクト処理装置1を振るように操作した際に検出される加速度が所定の事象として設定されている場合には、図5に示すように、オブジェクト処理装置1が、符号1A2に示される状態及び符号1A2に示される状態を往復させて振るようにユーザにより操作されたときに、検出部12は、その操作をオブジェクトに対する処理の指示入力として検出する。このように指示入力を検出するので、特別なグラフィカルユーザインターフェースを表示部10bの画面上に配置することなく、オブジェクトに対する処理を容易に実施できる。なお、オブジェクト処理装置1を所定の向きに保持した状態で所定の方向に振るような操作が、検出部12が指示入力を検出するための所定の事象として設定されていることとしてもよい。なお、図5に示す例では、方向及び大きさのパラメータを含む事象を検出するための構成として加速度センサを例示しているが、オブジェクト処理装置1は、その他の、方向及び大きさのパラメータを含む事象を検出可能な構成を有することができる。
また、検出部12は、オブジェクト処理装置1に対して所定の操作が行われている時間を検出可能であり、その操作に関する所定の操作時間の検出を指示入力として取得することとしてもよい。例えば、検出部12は、図5を参照して説明したようなオブジェクト処理装置1が所定に方向に振られる操作が、所定時間継続して行われたことを、オブジェクトに対する処理の指示入力として検出することとしてもよい。
また、オブジェクト処理装置1がユーザの音声を検出可能なマイクロフォンを有する場合には、検出部12は、取得したユーザの音声からの所定のキーワードの検出を、オブジェクトに対する処理の指示入力として検出することとしてもよい。なお、検出部12が指示入力を検出するための所定の事象に関する情報は、例えば記憶部14に予め設定されていることとしてもよい。
また、検出部12は、入力部10aにより検出されたユーザによる所定の入力を指示入力として検出することとしてもよい。具体的には、検出部12は、選択受付部11によるオブジェクトに対する選択の受け付けが維持された状態で、タッチパネル10におけるオブジェクトが表示された領域以外の領域に対する物理的接触が入力部10aにより検出された場合に、その検出事象を指示入力として検出してもよい。これにより、例えば、ユーザが第1〜4指を用いてオブジェクトの選択操作を実施しながら、第5指を用いてタッチパネルに対するタップ操作を行うことにより、所定の処理の実行が可能となる。
再び図1を参照して、オブジェクト処理装置1の機能部の説明をする。実行部13は、選択受付部11により1以上のオブジェクトに対する選択が受け付けられている状態において検出部12により検出された指示入力が所定の指示入力である場合に、複数のオブジェクトのうち選択受付部11により選択が受け付けられていないオブジェクトである非選択オブジェクトに対して、所定の指示入力に対応する所定の処理を実行する部分である。図6〜8を参照して、実行部13による所定の処理の具体例を説明する。図6〜7は、アンケートを作成するアプリケーションにおいて、設問に対する選択肢を設定する処理の例を示す図である。なお、後に参照される図9,11,12も同様に、アンケートを作成するアプリケーションにおける、設問に対する選択肢を設定する処理の例を示す図である。
実行部13は、所定の処理として、表示部10bにおける非選択オブジェクトの配置をランダムに変更する処理を実施する。図6は、非選択オブジェクトの配置がランダムに変更される処理の例を示す図である。図6に示すように、処理実行前のタッチパネル10A1に表示された複数のオブジェクトのうち、オブジェクトO,Oに対する選択が受け付けられると、オブジェクトO,Oは、選択オブジェクトOとして認識され、オブジェクトO,O,O,Oは、非選択オブジェクトOとして認識される。そして、選択受付部11によりオブジェクトO,Oに対する選択が受け付けられている状態において、検出部12により所定の指示入力が検出されると、実行部13は、検出された所定の指示入力に応じた所定の処理として、処理実行後のタッチパネル10B1において、非選択オブジェクトOであるオブジェクトO,O,O,Oの配置をランダムに変更する。
また、実行部13は、所定の処理として、非選択オブジェクトを消去する処理を実施することとしてもよい。図7は、非選択オブジェクトが消去される処理の例を示す図である。図7に示すように、処理実行前のタッチパネル10A2に表示された複数のオブジェクトのうち、オブジェクトO,Oに対する選択が受け付けられると、オブジェクトO,Oは、選択オブジェクトOとして認識され、選択されなかったオブジェクトは、非選択オブジェクトOとして認識される。そして、選択受付部11によりオブジェクトO,Oに対する選択が受け付けられている状態において、検出部12により所定の指示入力が検出されると、実行部13は、検出された所定の指示入力に応じた所定の処理として、処理実行後のタッチパネル10B2において、非選択オブジェクトOを消去し、選択オブジェクトOであるオブジェクトO,Oの表示のみを残す。
また、実行部13は、非選択オブジェクトが表示されているページとは異なる他のページに非選択オブジェクトを移動させる処理を実施することとしてもよい。図8は、非選択オブジェクトが他のページに移動される処理の例を示す図である。図8に示すように、処理実行前のタッチパネル10A3に表示された複数のオブジェクトのうち、オブジェクトに対する選択が受け付けられると、選択されたオブジェクトは、選択オブジェクトOとして認識され、選択されなかったオブジェクトは、非選択オブジェクトOとして認識される。そして、選択受付部11により選択オブジェクトOに対する選択が受け付けられている状態において、検出部12により所定の指示入力が検出されると、実行部13は、処理実行後のタッチパネルの表示において、非選択オブジェクトOを元のページ10B31から他のページ10B32に移動させ、選択オブジェクトOであるオブジェクトO,Oの表示のみを元のページ10B31に残す。これにより、例えば、類似する属性を有するオブジェクトを選択した上で処理を実行することにより、非選択オブジェクトが他のページに移動されるので、類似する属性を有するオブジェクトを一のページに集めることが可能となり、オブジェクトの整理を容易に実施できる。
なお、ユーザが表示部10bの画面に表示されたオブジェクトに指で触れながら指示入力のための操作を実施することが、ユーザによる本実施形態のオブジェクト処理の実施の一態様として想定されるが、指示入力のための操作の実施中に、選択オブジェクトに触れた指の位置が移動した場合であっても、選択済みの選択オブジェクトが変更されないように制御されることとしてもよい。このような制御により、ユーザによる指示入力が容易となる。また、ユーザが表示部10bの画面に表示されたオブジェクトに指で触れながら指示入力のための操作を実施し、実行部13による所定の処理が実行された後、ユーザが画面に接触させた指の位置を画面に接触させたまま所定距離移動させた後に指を画面から離した場合には、実行部13により実行された処理を元の状態に戻す、いわゆるアンドゥ処理が行われるように制御されることとしてもよい。
また、実行部13は、オブジェクトに対する処理の指示入力に応じて、非選択オブジェクトだけでなく選択オブジェクトに対しても処理を実行することとしてもよい。即ち、実行部13は、指示入力が検出されると、非選択オブジェクトに対して第1の処理を実行すると共に、選択オブジェクトに対して第1の処理とは異なる第2の処理を実行することができる。図9は、非選択オブジェクト及び選択オブジェクトに対する処理の例を示す図である。図9(a)に示すように、タッチパネル10に表示された複数のオブジェクトのうち、オブジェクトO,Oに対する選択が受け付けられると、オブジェクトO,Oは、選択オブジェクトOとして認識され、オブジェクトO,O,O,Oは、非選択オブジェクトOとして認識される。そして、選択受付部11により選択オブジェクトOに対する選択が受け付けられている状態において、検出部12により所定の指示入力が検出されると、実行部13は、所定の処理として、図9(b)に示すように、オブジェクトの表示属性を記憶しているテーブルにおいて、非選択オブジェクトOであるオブジェクトO,O,O,Oに対して「ランダム」といった表示属性を付与すると共に、選択オブジェクトOであるオブジェクトO,Oに対して「固定」といった表示属性を付与する。そして、実行部13は、このように付与された表示属性に従ってオブジェクトの再表示処理を実行できる。検出部12により検出された指示入力に応じて、非選択オブジェクト及び選択オブジェクトに対する処理が実行されるので、特別なグラフィカルユーザインターフェースを表示部10bの画面上に配置することなく、オブジェクトに対する処理を容易に実施できる。
なお、図9(b)に示したテーブルは、例えば記憶部14に記憶されている。再表示処理後のオブジェクトの表示は、例えば、図6に示したタッチパネル10B1におけるオブジェクトの表示を同様である。図9では、実行部13が非選択オブジェクトOに表示属性「ランダム」が付与する第1の処理を実行すると共に、選択オブジェクトOに表示属性「固定」を付与する第2の処理を実行する例を示したが、非選択オブジェクトO及び選択オブジェクトOそれぞれに対して、どのような第1及び第2の処理が実行されることとしてもよい。
以上の説明において、検出部12が、オブジェクトに対する処理の指示入力を検出する旨示したが、検出部12は、オブジェクトに対する処理の指示入力として、第1の指示入力及び第1の指示入力とは異なる第2の指示入力を検出可能であることとしてもよい。即ち、検出部12は、オブジェクト処理装置1において検出可能であって、且つ判別可能な2種類の事象を第1及び第2の指示入力として検出することができる。以下、第1及び第2の指示入力について具体的に説明する。
検出部12は、オブジェクト処理装置1の状態に関しての方向のパラメータを含む事象を検出し、第1の方向のパラメータを有する事象を検出した場合に、検出した事象を第1の指示入力として受け付け、第1の方向とは異なる第2の方向のパラメータを有する事象を検出した場合に、検出した事象を第2の指示入力として検出する。図10は、検出部12による第1及び第2の指示入力の検出の例を示す図である。
図10(a)に示すように、ユーザがオブジェクト処理装置1を振るように操作したことにより、オブジェクト処理装置1が、略垂直方向に沿うように符号1A3に示される状態及び符号1B3に示される状態を往復移動されるような事象を検出したときに、検出部12は、その事象をオブジェクトに対する処理の第1の指示入力として検出する。即ち、検出部12は、略垂直方向を第1の方向のパラメータとして有する、第1の方向に沿う往復移動といった事象の検出を、第1の指示入力として検出する。このような事象は、例えば加速度センサにより取得可能である。
一方、図10(b)に示すように、ユーザがオブジェクト処理装置1を振るように操作したことにより、オブジェクト処理装置1が、略水平方向に沿うように符号1A4に示される状態及び符号1B4に示される状態を往復移動されるような事象を検出したときに、検出部12は、その事象をオブジェクトに対する処理の第2の指示入力として検出する。即ち、検出部12は、略水平方向を第2の方向のパラメータとして有する、第2の方向に沿う往復移動といった事象の検出を、第2の指示入力として検出する。このように、第1又は第2の方向のパラメータを含む事象をオブジェクト処理装置1に発生させることにより、第1又は第2の指示入力が検出されるので、特別なグラフィカルユーザインターフェースを表示部10bの画面上に配置することなく、操作が容易なインターフェースにより所望の処理をオブジェクトに対して実施できる。
なお、検出部12は、オブジェクト処理装置1を所定の第1の方向に保持した状態で所定の方向に振るような操作を第1の指示入力として受け付け、オブジェクト処理装置1を所定の第2の方向に保持した状態で所定の方向に振るような操作を第2の指示入力として検出することとしてもよい。
また、検出部12は、オブジェクト処理装置1に対して所定の操作が行われている時間を検出可能であり、検出された操作時間が予め設定された第1の時間範囲に該当する場合に、検出した操作を第1の指示入力として受け付け、操作時間が予め設定された第2の時間範囲に該当する場合に、検出した操作を第2の指示入力として検出することとしてもよい。
例えば、検出部12は、オブジェクト処理装置1がユーザにより振られるような操作を、例えば加速度センサにより検出し、さらに、その操作が継続実施されている操作時間を取得し、取得した操作時間が予め設定された第1の時間範囲に該当する場合に、検出した操作を第1の指示入力として受け付け、操作時間が予め設定された第2の時間範囲に該当する場合に、検出した操作を第2の指示入力として検出することができる。このように、オブジェクト処理装置1に対して所定時間の操作を継続することにより、第1又は第2の指示入力が検出されるので、特別なグラフィカルユーザインターフェースを表示部10bの画面上に配置することなく、操作が容易なインターフェースにより所望の処理をオブジェクトに対して実施できる。なお、ここで検出する操作は、操作の状態及び操作時間を検出可能なものであればいかなる操作であってもよい。
続いて、検出部12において第1及び第2の指示入力が受け付け可能な場合における、実行部13による処理の実行について説明する。実行部13は、検出部12により第1の指示入力が受け付けられた場合には、非選択オブジェクトに対して第1の処理を実行し、検出部12により第2の指示入力が受け付けられた場合には、非選択オブジェクトに対して第1の処理とは異なる第2の処理を実行する。図11は、第1及び第2の指示入力の検出に応じて実行される処理の例を示す図である。
図11に示すように、処理実行前のタッチパネル10A4に表示された複数のオブジェクトのうち、オブジェクトO,Oに対する選択が受け付けられると、オブジェクトO,Oは、選択オブジェクトOとして認識され、オブジェクトO,O,O,Oは、非選択オブジェクトOとして認識される。そして、選択受付部11により選択オブジェクトOに対する選択が受け付けられている状態において、検出部12により第1の指示入力が検出されると、処理実行後のタッチパネル10B41において、実行部13は、非選択オブジェクトOであるオブジェクトO,O,O,Oの配置をランダムに変更する。一方、選択オブジェクトOに対する選択が受け付けられている状態において、検出部12により第2の指示入力が検出されると、処理実行後のタッチパネル10B42において、実行部13は、非選択オブジェクトOを消去し、選択オブジェクトOであるオブジェクトO,Oの表示のみを残す。このように、第1又は第2の指示入力に応じて第1又は第2の処理が非選択オブジェクトに対して実施されるので、非選択オブジェクトに対して、第1及び第2の処理のうちの所望の処理を容易に実施できる。
また、実行部13は、検出部12により第1の指示入力が受け付けられた場合には、第1の処理を非選択オブジェクトに対して実行し、検出部12により第2の指示入力が受け付けられた場合には、第1の処理とは異なる又は同様の第2の処理を選択オブジェクトに対して実行することとしてもよい。図12は、第1及び第2の指示入力の検出に応じて実行される処理の例を示す図である。
図12に示すように、処理実行前のタッチパネル10A5に表示された複数のオブジェクトのうち、オブジェクトO,Oに対する選択が受け付けられると、オブジェクトO,Oは、選択オブジェクトOとして認識され、選択されなかったオブジェクトは、非選択オブジェクトOとして認識される。そして、選択受付部11により選択オブジェクトOに対する選択が受け付けられている状態において、検出部12により第1の指示入力が検出されると、実行部13は、処理実行後のタッチパネル10B51において、非選択オブジェクトOを消去し、選択オブジェクトOの表示のみを残す。一方、そして、選択受付部11により選択オブジェクトOに対する選択が受け付けられている状態において、検出部12により第2の指示入力が検出されると、処理実行後のタッチパネル10B52において、実行部13は、選択オブジェクトOであるオブジェクトO,Oの配置をランダムに変更する。このように、第1又は第2の指示入力に応じて、非選択オブジェクトに対する第1の処理又は選択オブジェクトに対する第2の処理が実施されるので、非選択オブジェクトまたは選択オブジェクトに対する所望の処理を容易に実施できる。なお、図12を参照して説明した例では、第2の指示入力に応じて選択オブジェクトに対して実施される処理は、第1の指示入力に応じて非選択オブジェクトに対して実施される処理と異なるが、同様の処理であってもよい。
なお、図11,12では、第1及び第2の処理として、オブジェクトの配置のランダムな変更、オブジェクトの消去等を例示したが、オブジェクトに対する処理内容は、いかなる処理であってもよく、例えば、処理対象のオブジェクトを他のページに移動させる処理等であってもよい。
次に、図13,14を参照して、検出部12における指示入力の検出処理、及び実行部13におけるオブジェクトに対して実行する処理のその他の例を説明する。
この例では、複数のオブジェクトの各々が有する属性間の関係に基づき、互いの属性の近似の度合いを示すオブジェクト間距離が、オブジェクト間ごとに算出可能である。また、検出部12は、オブジェクトに対する処理の指示入力として、段階的な入力値を伴う指示入力を検出可能である。そして、実行部13は、選択オブジェクトに対するオブジェクト間距離が、指示入力に伴う入力値に予め対応付けられたオブジェクト間距離に該当する非選択オブジェクトに対して所定の処理を実行する。以下に具体的に説明する。
図13(a)は、オブジェクトが属性として有するカテゴリ相互の類似の度合いを示すカテゴリ間距離を記憶しているテーブルの例を示す図である。即ち、カテゴリ間距離が小さいほど、カテゴリ相互の類似の度合いが大きいことを意味する。図13(a)に示す例では、「ビジネス」と「ゲーム」の類似の度合いは比較的小さいので、それらのカテゴリ間距離として「12」が記憶されており、「ビジネス」と「ニュース」の類似の度合いは比較的大きいので、それらのカテゴリ間距離として「6」が記憶されている。
図13(b)は、オブジェクトが属性として有するカテゴリ及び他のオブジェクトとの間のオブジェクト間距離を、オブジェクトを識別するオブジェクトIDごとに記憶しているテーブルを示す図である。オブジェクト間距離は、オブジェクトの属性間の類似度合いに基づき算出される値であって、例えば、図13(a)に示したテーブルに記憶されたカテゴリ間距離に基づき算出できる。図13(b)に示す例では、オブジェクトID「D」のオブジェクトOは、カテゴリ「ビジネス」を属性として有している。また、例えば、オブジェクトOからの、オブジェクトID「A」のオブジェクトOに対するオブジェクト間距離は「12」である。
図13(c)は、オブジェクトに対する処理の指示入力に伴う入力値と、当該入力値が取得された場合に処理対象となるオブジェクトのオブジェクト間距離とを対応付けて記憶しているテーブルの例である。ここでは、検出部12は、ユーザによるオブジェクト処理装置1を振る操作を例えば加速度センサ等により検出した事象を指示入力として検出することとし、ユーザによるオブジェクト処理装置1を振る操作の検出が継続された時間である振動時間を、指示入力に伴う入力値として取得することとする。図13(c)に示すテーブルの例では、振動時間が「2秒未満」である場合には、選択オブジェクトとのオブジェクト間距離が「10以上」である非選択オブジェクトが処理対象となる旨が設定されている。
なお、図13(a)〜(c)に示した各テーブルは、例えば、予め設定された記憶部14に記憶されていることとしてもよい。また、図13(b)のテーブルにおけるオブジェクト間距離は、実行部13により算出されることとしてもよい。
続いて、図14を参照して、オブジェクト間距離に基づく非選択オブジェクトに対する処理の具体例を説明する。なお、本実施形態の例では、非選択オブジェクトに対する所定の処理は、オブジェクトの消去処理であることとする。
図14に示すように、処理実行前のタッチパネル10A6に表示された複数のオブジェクトO〜Oのうち、オブジェクトOに対する選択が受け付けられると、オブジェクトOは、選択オブジェクトとして認識され、オブジェクトO〜O,O,Oは、非選択オブジェクトとして認識される。このようにオブジェクトOに対する選択が受け付けられた状態で、振動時間が2秒未満の、ユーザによるオブジェクト処理装置1を振る操作に基づく指示入力が検出部12により検出された場合には、実行部13は、選択オブジェクトであるオブジェクトOからのオブジェクト間距離が10以上の非選択オブジェクトを消去する処理を実行する(図13(c)参照)。即ち、実行部13は、図13(b)のテーブルを参照して、オブジェクトOからのオブジェクト間距離が10以上であるオブジェクトO及びOを認識し、処理実行後のタッチパネル10B61に示されるように、オブジェクトO及びOを消去する。
また、振動時間が2秒以上4秒未満の、ユーザによるオブジェクト処理装置1を振る操作に基づく指示入力が検出部12により検出された場合には、実行部13は、オブジェクトOからのオブジェクト間距離が5以上の非選択オブジェクトを消去する処理を実行する(図13(c)参照)。即ち、実行部13は、図13(b)のテーブルを参照して、オブジェクトOからのオブジェクト間距離が5以上であるオブジェクトO,O,O、Oを認識し、処理実行後のタッチパネル10B62に示されるように、オブジェクトO,O,O,Oを消去する。
また、振動時間が4秒以上の、ユーザによるオブジェクト処理装置1を振る操作に基づく指示入力が検出部12により検出された場合には、実行部13は、オブジェクトOからのオブジェクト間距離が0以上の非選択オブジェクトを消去する処理を実行する(図13(c)参照)。即ち、実行部13は、図13(b)のテーブルを参照して、オブジェクトOからのオブジェクト間距離が0以上であるオブジェクトO,O,O,O、Oを認識し、処理実行後のタッチパネル10B63に示されるように、オブジェクトO,O,O,O,Oを消去する。
続いて、図15を参照して、本実施形態のオブジェクト処理装置1におけるオブジェクト処理方法について説明する。図15は、オブジェクト処理方法の処理内容の例を示すフローチャートである。
まず、選択受付部11は、表示部10bに表示された複数のオブジェクトのうちの1以上のオブジェクトに対する選択を受け付ける(S1)。ここで選択されたオブジェクトは選択オブジェクトとして認識され、選択されなかったオブジェクトは、非選択オブジェクトとして認識される。
次に、検出部12は、選択受付部11における選択の受け付けとは異なる指示入力を検出する(S2)。
そして、実行部13は、ステップS2において検出部12により検出された指示入力に対応する所定の処理を、非選択オブジェクトに対して実行する(S3)。なお、ステップS3において、非選択オブジェクトに対して第1の処理が実行され、選択オブジェクトに対して第1の処理とは異なる第2の処理が実施されることとしてもよい。
続いて、図16を参照して、本実施形態のオブジェクト処理装置1におけるオブジェクト処理方法の他の形態について説明する。図16は、オブジェクト処理方法の処理内容の他の例を示すフローチャートである。
まず、選択受付部11は、表示部10bに表示された複数のオブジェクトのうちの1以上のオブジェクトに対する選択を受け付ける(S11)。ここで選択されたオブジェクトは選択オブジェクトとして認識され、選択されなかったオブジェクトは、非選択オブジェクトとして認識される。
次に、検出部12は、選択受付部11における選択の受け付けとは異なる指示入力を検出する(S12)。この形態では、検出部12は、オブジェクトに対する処理の指示入力として、第1の指示入力及び第1の指示入力とは異なる第2の指示入力を検出可能である。
続いて、実行部13は、検出部12により検出された指示入力が第1の指示入力及び第2の指示入力のいずれに該当するか判定する(S13)。指示入力が第1の指示入力に該当する場合には、処理手順はステップS14に進められる。一方、指示入力が第2の指示入力に該当する場合には、処理手順はステップS15に進められる。
ステップS14において、実行部13は、第1の指示入力に応じた第1の処理を、非選択オブジェクトに対して実行する(S14)。一方、ステップS15において、実行部13は、第2の指示入力に応じた第2の処理を非選択オブジェクトに対して実行する(S15)。なお、ステップS15において、実行部13は、選択オブジェクトに対して第2の処理を実行することとしてもよい。
次に、図17を参照して、コンピュータをオブジェクト処理装置1として機能させるためのオブジェクト処理プログラムを説明する。オブジェクト処理プログラムP1は、メインモジュールP10、選択受付モジュールP11、検出モジュールP12及び実行モジュールP13を備える。
メインモジュールP10は、オブジェクト処理を統括的に制御する部分である。選択受付モジュールP11、検出モジュールP12及び実行モジュールP13を実行することにより実現される機能はそれぞれ、図1に示されるオブジェクト処理装置1の選択受付部11、検出部12及び実行部13の機能と同様である。
オブジェクト処理プログラムP1は、例えば、CD−ROMやDVD、ROM等の記憶媒体D1または半導体メモリによって提供される。また、オブジェクト処理プログラムP1は、搬送波に重畳されたコンピュータデータ信号として通信ネットワークを介して提供されてもよい。
以上説明した本実施形態のオブジェクト処理装置1、オブジェクト処理方法、オブジェクト処理プログラムP1によれば、表示された複数のオブジェクトのうちの1以上のオブジェクトに対する選択が受け付けられ、さらに指示入力が検出されることにより選択されなかったオブジェクトに対する処理が実行される。これにより、多くのオブジェクトを処理対象として容易に設定できる。また、例えば、表示部10bに表示されたオブジェクトに対する選択操作といった、オブジェクトの選択とは異なる指示入力によりオブジェクトに対する処理が実行されるので、処理対象のオブジェクトに対する所定の処理のための手間が軽減される。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
1…オブジェクト処理装置、10…タッチパネル、10a…入力部、10b…表示部、11…選択受付部、12…検出部、13…実行部、14…記憶部、D1…記憶媒体、P1…オブジェクト処理プログラム、P10…メインモジュール、P11…選択受付モジュール、P12…指示入力モジュール、P13…実行モジュール、O…選択オブジェクト、O…非選択オブジェクト。

Claims (18)

  1. 複数のオブジェクトを含む画像を表示する表示手段と、該表示手段における位置を示すユーザからの入力を検出可能であって該表示手段と一体に構成された入力手段と、前記入力手段により検出された入力に基づく、前記表示手段に表示された1以上のオブジェクトに対する選択入力を受信する選択受信手段と、を備えるオブジェクト処理装置であって、
    前記選択受信手段におけるオブジェクトの選択入力とは異なる指示入力を検出する検出手段と、
    記検出手段により検出された指示入力が所定の指示入力である場合に、前記表示手段に表示された前記複数のオブジェクトのうちの、該指示入力が検出されたときに前記ユーザが選択入力中のオブジェクト以外のオブジェクトである非選択オブジェクトに対して、前記所定の指示入力に対応する所定の処理を実行する実行手段と、
    を備えるオブジェクト処理装置。
  2. 前記検出手段は、当該オブジェクト処理装置の状態に関しての方向のパラメータを含む事象を検出可能であり、所定の方向のパラメータを有する事象を前記指示入力として検出する、
    請求項1に記載のオブジェクト処理装置。
  3. 前記検出手段は、当該オブジェクト処理装置の状態に関しての方向及び大きさのパラメータを含む事象を検出可能であり、所定の方向及び大きさのパラメータを有する事象を前記指示入力として検出する、
    請求項1に記載のオブジェクト処理装置。
  4. 前記検出手段は、当該オブジェクト処理装置に対して所定の操作が行われている時間を検出可能であり、当該操作に関する所定の操作時間を前記指示入力として検出する、
    請求項1に記載のオブジェクト処理装置。
  5. 前記検出手段は、当該オブジェクト処理装置が備えるジャイロセンサからの検出値を検出可能であり、所定の検出値を前記指示入力として検出する、
    請求項2に記載のオブジェクト処理装置。
  6. 前記検出手段は、当該オブジェクト処理装置が備える加速度センサからの検出値を検出可能であり、所定の検出値を前記指示入力として検出する、
    請求項2または3に記載のオブジェクト処理装置。
  7. 前記検出手段は、ユーザの音声を検出可能であり、該音声に含まれる所定のキーワードを前記指示入力として検出する、
    請求項1に記載のオブジェクト処理装置。
  8. 前記検出手段は、前記入力手段により検出されたユーザによる所定の入力を前記指示入力として検出する、
    請求項1に記載のオブジェクト処理装置。
  9. 前記実行手段は、前記所定の処理として、前記表示手段における前記非選択オブジェクトの配置をランダムに変更する処理、前記非選択オブジェクトを消去する処理、及び前記非選択オブジェクトが表示されているページとは異なる他のページに該非選択オブジェクトを移動させる処理のいずれかを実行する、
    請求項1〜8のいずれか1項に記載のオブジェクト処理装置。
  10. 前記実行手段は、前記非選択オブジェクトに対して第1の処理を実行すると共に、前記選択受付手段により選択されたオブジェクトである選択オブジェクトに対して前記第1の処理とは異なる第2の処理を実行する、
    請求項1〜8のいずれか1項に記載のオブジェクト処理装置。
  11. 前記検出手段は、オブジェクトに対する処理の指示入力として、第1の指示入力及び該第1の指示入力とは異なる第2の指示入力を検出可能であり、
    前記実行手段は、前記検出手段により前記第1の指示入力が検出された場合には、前記非選択オブジェクトに対して第1の処理を実行し、前記検出手段により前記第2の指示入力が検出された場合には、前記非選択オブジェクトに対して前記第1の処理とは異なる第2の処理を実行する、
    請求項1に記載のオブジェクト処理装置。
  12. 前記検出手段は、オブジェクトに対する処理の指示入力として、第1の指示入力及び該第1の指示入力とは異なる第2の指示入力を検出可能であり、
    前記実行手段は、前記検出手段により前記第1の指示入力が検出された場合には、第1の処理を前記非選択オブジェクトに対して実行し、前記検出手段により前記第2の指示入力が検出された場合には、前記第1の処理とは異なる又は同様の第2の処理を前記選択受付手段により選択されたオブジェクトである選択オブジェクトに対して実行する、
    請求項1に記載のオブジェクト処理装置。
  13. 前記検出手段は、当該オブジェクト処理装置の状態に関しての方向のパラメータを含む事象を検出し、第1の方向のパラメータを有する事象を前記第1の指示入力として検出し、前記第1の方向とは異なる第2の方向のパラメータを有する事象を前記第2の指示入力として検出する、
    請求項11または12に記載のオブジェクト処理装置。
  14. 前記検出手段は、当該オブジェクト処理装置に対して所定の操作が行われている時間を検出可能であり、検出された操作時間が予め設定された第1の時間範囲に該当する場合に、検出した操作を前記第1の指示入力として検出し、前記操作時間が予め設定された第2の時間範囲に該当する場合に、検出した操作を前記第2の指示入力として検出する、
    請求項11または12に記載のオブジェクト処理装置。
  15. 前記実行手段は、前記第1の処理及び前記第2の処理のそれぞれとして、前記表示手段における処理対象の前記オブジェクトの配置をランダムに変更する処理、処理対象の前記オブジェクトを消去する処理、及び処理対象の前記オブジェクトが表示されているページとは異なる他のページに該オブジェクトを移動させる処理のいずれかを実行する、
    請求項10〜14のいずれか1項に記載のオブジェクト処理装置。
  16. 前記複数のオブジェクトの各々が有する属性間の関係に基づき、互いの属性の近似の度合いを示すオブジェクト間距離を、オブジェクト間ごとに算出可能であり、
    前記検出手段は、オブジェクトに対する処理の指示入力として、段階的な入力値を伴う指示入力を検出可能であり、
    前記実行手段は、前記選択受付手段により選択されたオブジェクトである選択オブジェクトとの前記オブジェクト間距離が、前記指示入力に伴う入力値に予め対応付けられたオブジェクト間距離に該当する非選択オブジェクトに対して所定の処理を実行する、
    請求項1に記載のオブジェクト処理装置。
  17. 複数のオブジェクトを含む画像を表示する表示手段と、該表示手段における位置を示すユーザからの入力を検出可能であって該表示手段と一体に構成された入力手段と、前記入力手段により検出された入力に基づく、前記表示手段に表示された1以上のオブジェクトに対する選択入力を受信する選択受信手段と、を備えるオブジェクト処理装置におけるオブジェクト処理方法であって、
    前記選択受信手段におけるオブジェクトの選択入力とは異なる指示入力を検出する検出ステップと、
    記検出ステップにおいて検出された指示入力が所定の指示入力である場合に、前記表示手段に表示された前記複数のオブジェクトのうちの、該指示入力が検出されたときに前記ユーザが選択入力中のオブジェクト以外のオブジェクトである非選択オブジェクトに対して、前記所定の指示入力に対応する所定の処理を実行する実行ステップと、
    を有するオブジェクト処理方法。
  18. コンピュータを、複数のオブジェクトを含む画像を表示する表示手段と、該表示手段における位置を示すユーザからの入力を検出可能であって該表示手段と一体に構成された入力手段と、前記入力手段により検出された入力に基づく前記表示手段に表示された1以上のオブジェクトに対する選択入力を受信する選択受信手段と、を備えるオブジェクト処理装置として機能させるためのオブジェクト処理プログラムであって、
    前記コンピュータに、
    前記選択受信手段におけるオブジェクトの選択入力とは異なる指示入力を検出する検出機能と、
    記検出機能により検出された指示入力が所定の指示入力である場合に、前記表示手段に表示された前記複数のオブジェクトのうちの、該指示入力が検出されたときに前記ユーザが選択入力中のオブジェクト以外のオブジェクトである非選択オブジェクトに対して、前記所定の指示入力に対応する所定の処理を実行する実行機能と、
    を実現させるオブジェクト処理プログラム。
JP2012147134A 2012-06-29 2012-06-29 オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラム Active JP5442812B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012147134A JP5442812B2 (ja) 2012-06-29 2012-06-29 オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラム
US14/371,803 US9383906B2 (en) 2012-06-29 2013-01-24 Object processing device, object processing method, and object processing program
PCT/JP2013/051427 WO2014002516A1 (ja) 2012-06-29 2013-01-24 オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012147134A JP5442812B2 (ja) 2012-06-29 2012-06-29 オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラム

Publications (2)

Publication Number Publication Date
JP2014010648A JP2014010648A (ja) 2014-01-20
JP5442812B2 true JP5442812B2 (ja) 2014-03-12

Family

ID=49782701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012147134A Active JP5442812B2 (ja) 2012-06-29 2012-06-29 オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラム

Country Status (3)

Country Link
US (1) US9383906B2 (ja)
JP (1) JP5442812B2 (ja)
WO (1) WO2014002516A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6264198B2 (ja) * 2014-05-30 2018-01-24 京セラドキュメントソリューションズ株式会社 携帯端末、選択処理方法
EP3012728B1 (en) * 2014-10-24 2022-12-07 Electrolux Appliances Aktiebolag Graphical user interface

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4217051B2 (ja) * 2002-10-31 2009-01-28 キヤノンイメージングシステムズ株式会社 情報処理装置、オブジェクト選択方法、及びオブジェクト選択プログラム
US7545392B2 (en) * 2003-05-30 2009-06-09 Apple Inc. Dynamic guides
JP2007334785A (ja) 2006-06-19 2007-12-27 Seiko Epson Corp コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択プログラム、及び記憶媒体
US8194037B2 (en) * 2007-12-14 2012-06-05 Apple Inc. Centering a 3D remote controller in a media system
US20090158222A1 (en) * 2007-12-14 2009-06-18 Apple Inc. Interactive and dynamic screen saver for use in a media system
DE602008003680D1 (de) * 2008-05-29 2011-01-05 Lg Electronics Inc Transparente Anzeige und Betriebsverfahren dafür
JP2009301166A (ja) * 2008-06-11 2009-12-24 Panasonic Corp 電子機器制御装置
US8423916B2 (en) 2008-11-20 2013-04-16 Canon Kabushiki Kaisha Information processing apparatus, processing method thereof, and computer-readable storage medium
JP5118609B2 (ja) 2008-11-20 2013-01-16 キヤノン株式会社 オブジェクト処理装置、その処理方法及びプログラム
KR20110128567A (ko) * 2010-05-24 2011-11-30 삼성전자주식회사 사용자 인터페이스에 포함되는 오브젝트의 제어 방법 및 상기 방법이 채용된 장치
KR101361333B1 (ko) * 2011-08-26 2014-02-10 주식회사 팬택 잠금 상태 제어 장치 및 방법
US8527904B2 (en) * 2011-09-30 2013-09-03 Oracle International Corporation Quick data entry lanes for touch screen mobile devices

Also Published As

Publication number Publication date
US20140375585A1 (en) 2014-12-25
JP2014010648A (ja) 2014-01-20
US9383906B2 (en) 2016-07-05
WO2014002516A1 (ja) 2014-01-03

Similar Documents

Publication Publication Date Title
US11675476B2 (en) User interfaces for widgets
JP4560062B2 (ja) 筆跡判定装置、方法およびプログラム
US11423209B2 (en) Device, method, and graphical user interface for classifying and populating fields of electronic forms
CN111339032B (zh) 管理具有多页面的文件夹的设备、方法和图形用户界面
RU2501068C2 (ru) Интерпретация неоднозначных вводов на сенсорном экране
KR101145004B1 (ko) 백업 인터페이스를 위한 그래픽 사용자 인터페이스
US20020177944A1 (en) Navigation device, information display device, object creation method, and recording medium
US20110047514A1 (en) Recording display-independent computerized guidance
EP1542122A2 (en) Graphical user interface selection disambiguation using zooming and confidence scores based on input position information
KR101132598B1 (ko) 디스플레이 장치의 화면 크기 제어 방법 및 장치
EP3500918A1 (en) Device manipulation using hover
CN101681218A (zh) 视觉反馈显示
US10067664B2 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
US9405558B2 (en) Display-independent computerized guidance
US9652132B2 (en) Handling touch inputs based on user intention inference
CN102314305A (zh) 显示控制装置和显示控制方法、显示控制程序和记录介质
KR101518439B1 (ko) 점프 스크롤링
JP2011081778A (ja) ディスプレイ非依存のコンピュータによるガイダンス方法および装置
US8762867B1 (en) Presentation of multi-category graphical reports
US20150088524A1 (en) Apparatus and method for generating an event by voice recognition
JP5442812B2 (ja) オブジェクト処理装置、オブジェクト処理方法及びオブジェクト処理プログラム
WO2015026381A1 (en) Gesture-based visualization of financial data
KR20100107611A (ko) 단말 제어 장치 및 방법
JP5683764B1 (ja) データ入力システム、データ入力方法、データ入力プログラム及びデータ入力装置
JP7248279B2 (ja) コンピュータシステム、プログラム、及び方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131218

R150 Certificate of patent or registration of utility model

Ref document number: 5442812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250