JP2017021859A - オブジェクト処理方法、プログラムを記録する記録媒体及び情報処理装置 - Google Patents

オブジェクト処理方法、プログラムを記録する記録媒体及び情報処理装置 Download PDF

Info

Publication number
JP2017021859A
JP2017021859A JP2016212069A JP2016212069A JP2017021859A JP 2017021859 A JP2017021859 A JP 2017021859A JP 2016212069 A JP2016212069 A JP 2016212069A JP 2016212069 A JP2016212069 A JP 2016212069A JP 2017021859 A JP2017021859 A JP 2017021859A
Authority
JP
Japan
Prior art keywords
screen
menu
group
object group
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016212069A
Other languages
English (en)
Other versions
JP6145550B2 (ja
Inventor
貴弘 中
Takahiro Naka
貴弘 中
俊治 矢部
Toshiharu Yabe
俊治 矢部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Publication of JP2017021859A publication Critical patent/JP2017021859A/ja
Application granted granted Critical
Publication of JP6145550B2 publication Critical patent/JP6145550B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】簡易な操作で複数のオブジェクトの処理を可能にする。【解決手段】実施形態によれば、情報処理装置は、ユーザによって指定された画面上の位置を検出するタッチパネルを備える。情報処理装置は、画面上に複数のオブジェクトを表示し、タブレットによって連続的に画面上の複数の位置を検出し、画面に表示されている複数のオブジェクトのうち、前記複数の位置を結ぶ軌跡によって特定される画面上の閉領域内に表示されている少なくとも1つのオブジェクトに応じたアクションを実行する。【選択図】図3

Description

本発明は、画面に表示されているオブジェクトを選択するオブジェクト処理方法、プログラムを記録する記録媒体及び情報処理装置に関する。
近年では、ユーザからの入力操作を受け付ける入力装置としてタッチパネルが広く用いられている。このタッチパネルは、例えばスマートフォン等にも採用されている。
タッチパネルは、ユーザの指先等で触れられた画面上の位置を検出することができる。
これにより、スマートフォンのようなタッチパネルを備えた情報処理装置の画面にユーザによる操作の対象として各種オブジェクト(例えば、ゲームのキャラクタやアイコン等)が表示されている場合に、ユーザは、当該画面上において例えば指先で所望のオブジェクトを選択することができる。
なお、このような技術に関連して、タッチパネルを用いた際にプレイヤーであるユーザが所望の項目を選択しやすくするための技術が開示されている(例えば、特許文献1を参照)。
特開2012−198924号公報
しかしながら、タッチパネルを備えた情報処理装置において、当該情報処理装置の画面に表示されたオブジェクトの中から複数のオブジェクトを包括的に選択する場合、その操作は煩雑となる。
具体的には、例えばオブジェクトが表示された画面上で複数のオブジェクトを選択可能なモードを設定した上で、所望の複数のオブジェクトを1つずつ指先で選択していくような操作が必要となる。
そこで、本発明の目的は、簡易な操作で複数のオブジェクトの処理を可能とするオブジェクト処理方法、プログラムを記録する記録媒体及び情報処理装置を提供することにある。
本発明の1つの態様によれば、画面上で指定された位置を検出するタッチパネルを備える情報処理装置が実行するオブジェクト処理方法が提供される。このオブジェクト処理方法は、画面に複数のオブジェクトを表示し、前記画面上で連続的に指定される複数の位置を前記タッチパネルによって検出し、前記複数の位置を結ぶ軌跡によって特定される閉領域に表示されている少なくとも1つのオブジェクトを含むオブジェクトグループを作成し、前記閉領域内において指定された位置をもとに、前記オブジェクトグループが指定されたか、または前記オブジェクトグループに含まれる一つのオブジェクトが指定されたか判別し、前記オブジェクトグループが指定されたと判別された場合に、前記オブジェクトグループに含まれるオブジェクトに対して実行されるアクションを含む第1メニューを表示し、前記オブジェクトグループに含まれる一つのオブジェクトが指定されたと判別された場合に、前記一つのオブジェクトに対して実行されるアクションを含む第2メニューを表示し、前記第1メニューあるいは前記第2メニューから選択されたアクションをオブジェクトに応じて実行する。
本発明は、簡易な操作で複数のオブジェクトの処理を可能とする。
図1は、本発明の実施形態に係る情報処理装置が使用される環境を説明するための図である。 図2は、図1に示す携帯端末3のハードウェア構成の一例を示す図である。 図3は、図1に示す携帯端末3の主として機能構成を示すブロック図である。 図4は、本実施形態に係る携帯端末3によって実行されるオブジェクト選択処理の処理手順を示すフローチャートである。 図5は、ソーシャルゲームにおける複数のキャラクタが表示された画面の一例を示す図である。 図6は、動作モードがグルーピングモードに設定されている場合における携帯端末3の処理手順を示すフローチャートである。 図7は、閉曲線形成処理の処理手順を示すフローチャートである。 図8は、動作モードがグルーピングモードに設定されている場合におけるユーザの操作の概要について説明するための図である。 図9は、動作モードがグルーピングモードに設定されている場合におけるユーザの操作の概要について説明するための図である。 図10は、動作モードが大域グルーピングモードに設定されている場合における携帯端末3の処理手順を示すフローチャートである。 図11は、動作モードが大域グルーピングモードに設定されている場合におけるユーザの操作の概要について説明するための図である。 図12は、動作モードが大域グルーピングモードに設定されている場合におけるユーザの操作の概要について説明するための図である。 図13は、動作モードが大域グルーピングモードに設定されている場合におけるユーザの操作の概要について説明するための図である。 図14は、動作モードがオブジェクト選択モードに設定されている場合における携帯端末3の処理手順を示すフローチャートである。 図15は、動作モードがオブジェクト選択モードに設定されている場合における携帯端末3の処理手順を示すフローチャートである。 図16は、動作モードがオブジェクト選択モードに設定されている場合におけるユーザの操作の概要について説明するための図。 図17は、動作モードがオブジェクト選択モードに設定されている場合におけるユーザの操作の概要について説明するための図である。 図18は、動作モードがメニューモードに設定されている場合における携帯端末3の処理手順を示すフローチャートである。 図19は、動作モードがメニューモードに設定されている場合におけるユーザの操作の概要について説明するための図である。 図20は、ユーザによって「メッセージを送る」のアクションが選択された場合におけるアクション実行部306の処理手順を示すフローチャートである。 図21は、ユーザによって「削除」のアクションが選択された場合におけるアクション実行部306の処理手順を示すフローチャートである。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本実施形態に係る情報処理装置が使用される環境を説明するための図である。なお、本実施形態に係る情報処理装置は携帯端末であるものとして説明する。
図1に示すように、インターネット等のネットワーク1には、サーバ群2及び携帯端末3がアクセスポイント4または基地局5を介して接続されている。
サーバ群2は、1つのコンピュータで実現されてもよいし、その機能毎に、例えばWebサーバ、処理サーバ、データベースサーバ等の複数のコンピュータで構成されてもよい。
携帯端末3は、例えばスマートフォン及びタブレット型端末等を含む。この携帯端末3は、例えばアンドロイド(登録商標)及びiOS(登録商標)等のOS上で動作する。携帯端末3は、ユーザによって指定された位置を検出可能なタッチパネルを備える。
なお、携帯端末3は、その機種固有のハードウェア構成、採用しているOS、インストールされているアプリケーション等が多岐に渡る。サーバ群2は、多様な携帯端末3に対応した各種アプリケーションプログラムを配信可能である。携帯端末3は、サーバ群2から配信されたアプリケーションプログラムを実行することによって各種機能を実現することができる。
上記したような環境で使用される本実施形態に係る携帯端末3(情報処理装置)は、当該携帯端末3上で実行されるアプリケーションプログラムに応じた複数のオブジェクトをその画面に表示し、当該携帯端末3に備えられているタッチパネルに対するユーザの操作に応じて当該複数のオブジェクトの中から当該ユーザが目的とするオブジェクトを選択する処理(以下、オブジェクト選択処理と表記)を実行する機能を有する。なお、ここで説明するオブジェクトには、ユーザの操作対象として携帯端末3の画面(以下、単に画面と表記)に表示されるゲームのキャラクタやアイコン等が含まれる。
図2は、図1に示す携帯端末3のハードウェア構成の一例を示す。図2に示すように、携帯端末3においては、バス31に記憶装置32、CPU33、無線通信部34、メモリ35、ディスプレイ36及びタッチパネル37等が接続されている。
記憶装置32は、上記したオブジェクト選択処理を含む各種処理を実行するために必要とされるプログラムやデータを格納するためのものであり、例えばハードディスクドライブ(HDD:Hard Disk Drive)、光ディスクドライブ、DVD、MOなどの大容量記憶装置である。具体的には、記憶装置32には、例えば携帯端末3の基本的な機能を実現するためのプログラムであるOS(オペレーティングシステム)及び上記したオブジェクト選択処理を実現するためのプログラム(以下、オブジェクト選択プログラムと表記)等が記憶されている。
CPU33は、記憶装置32に記憶されたオブジェクト選択プログラムと協働して、オブジェクト選択処理を行う。なお、CPU33は、携帯端末3全体の制御を司るものである。
無線通信部34は、ネットワーク1を介したサーバ群2等の外部装置との通信の制御を司る。また、無線通信部34は、無線LAN、Bluetooth(登録商標)、WiFi等の無線通信機能をも有する。
メモリ35は、例えばオブジェクト選択プログラムを実行する際に必要とされるワークエリア等として使用される。
ディスプレイ36は、例えば液晶表示パネル及び表示制御を行う駆動回路を備えることにより、各種データ等を表示する機能を有する。携帯端末3において所定のアプリケーションプログラムが実行された場合、ディスプレイ36には、例えば当該アプリケーションプログラムに対応した複数のオブジェクトが表示される。
タッチパネル37は、ディスプレイ36の前面に重畳して配置され、ユーザの指先等で指定された画面上の位置を検出する機能を有する。タッチパネル37は、検出された画面上の位置を示す位置情報(XY座標)をCPU33に出力する。CPU33は、タッチパネル37からの位置情報に基づいて、ユーザによる各種操作を検出する。なお、タッチパネル37を介して行われるユーザの操作には、例えばタップ操作(画面を指で軽く叩く操作)、ドラッグ操作(指を画面に接触させた状態のまま移動させる操作)、フリック操作(画面上を指で払うような操作)及びピンチ操作(2本の指を画面に接触させた状態のまま広げるまたは狭める操作)等が含まれる。
図3は、図1に示す携帯端末3の主として機能構成を示すブロック図である。ここでは、本実施形態において実行されるオブジェクト選択処理に関する機能についてのみ説明し、携帯端末3が有する他の機能について便宜的に説明を省略する。
携帯端末3は、格納部301、表示処理部302、位置情報取得部303、モード設定部304、オブジェクト選択処理部305及びアクション実行部306を含む。本実施形態において、格納部301は、例えば上記した記憶装置32に格納される。また、表示処理部302、位置情報取得部303、モード設定部304、オブジェクト選択処理部305及びアクション実行部306は、CPU33(携帯端末3のコンピュータ)がオブジェクト選択プログラム(が組み込まれたアプリケーションプログラム)を実行することにより実現されるものとする。
格納部301には、例えば本実施形態において実行されるオブジェクト選択処理に必要な各種情報が格納される。格納部301には、例えば画面に表示されるオブジェクトに関する情報や後述する各種リスト等が格納される。
表示処理部302は、例えば格納部301を参照して携帯端末3において実行されたアプリケーションプログラムに応じた複数のオブジェクトをディスプレイ36に表示する。携帯端末3において実行されたアプリケーションプログラムが例えばソーシャルゲーム等を行うためのアプリケーションプログラム(以下、単にゲームプログラムと表記)である場合には、当該ソーシャルゲームのキャラクタがオブジェクトとして表示される。
位置情報取得部303は、タッチパネル37によって検出された位置(表示処理部302によって複数のオブジェクトが表示された画面上のユーザによって指定された位置)を示す位置情報を取得する機能を有する。
なお、ユーザが例えば画面上において任意の閉曲線(例えば、円等)をなぞるような操作をした場合、タッチパネル37は、当該操作に応じて連続的に画面上の位置(ユーザによって連続的に指定された画面上の各位置)を検出する。この場合、位置情報取得部303は、タッチパネル37によって検出された各位置を示す複数の位置情報を取得する。位置情報取得部303によって検出された位置情報は、例えば格納部301に格納される。
モード設定部304は、複数のオブジェクトが表示された画面に対するユーザの操作に応じて、携帯端末3の動作モードを設定する。モード設定部304によって設定される動作モードには、待機モード、メニューモード、グルーピングモード、大域グルーピングモード及びオブジェクト選択モード等が含まれる。これらの動作モードの詳細については後述する。
オブジェクト選択処理部305は、上記したようにユーザが画面上において閉曲線をなぞるような操作をした場合、モード設定部304によって設定された動作モードに従って、当該画面に表示されている複数のオブジェクトのうち、位置情報取得部303によって取得された位置情報によって示される各位置(つまり、タッチパネル37によって検出された各位置)を結ぶ軌跡によって特定(規定)される当該画面の閉領域内に表示されている少なくとも1つのオブジェクトを選択する。
アクション実行部306は、オブジェクト選択処理部305によって選択されたオブジェクトに対して各種アクションを実行する。また、オブジェクト選択部303によって選択されたオブジェクトに対して実行されるアクションが複数存在する場合には、アクション実行部306は、当該アクションの一覧を当該選択されたオブジェクトの近傍に表示し、当該一覧の中からユーザの操作に応じて選択されたアクションを実行する。
次に、図4のフローチャートを参照して、本実施形態に係る携帯端末3によって実行されるオブジェクト選択処理の処理手順について説明する。
ここでは、携帯端末3において上記したオブジェクト選択プログラムが組み込まれたゲームプログラムが実行され、図5に示すように例えばソーシャルゲームにおける複数のオブジェクト(キャラクタ)A〜U及びXが表示されているものとする。
ここで、ユーザは、図5に示すような複数のオブジェクトが表示されている画面上で各種操作を行うことができる。携帯端末3においては、ユーザの操作に応じて以下に説明する各動作モードが設定される。なお、図5に示すような画面に対してユーザが操作を行っていない場合には、携帯端末3の動作モードは待機モードに設定されているものとする。待機モードは、現在の状態を保持し、ユーザの操作を待つモードである。
上記したように画面上でユーザによる操作が行われた場合、タッチパネル37は、当該ユーザによって指定された当該画面上の位置(当該ユーザの指先等で触れられた位置)を検出する。
この場合、位置情報取得部303は、ユーザの操作に応じてタッチパネル37によって検出された画面上の位置を示す位置情報(入力座標)を取得する(ステップS1)。なお、この位置情報取得部303によって取得される位置情報に基づいてユーザの操作(例えば、タップ操作等)の種類を判別することができる。
次に、モード設定部304は、位置情報取得部303によって取得された位置情報に基づいてユーザの操作の種類がダブルタップ操作であるか否かを判定する(ステップS2)。
ダブルタップ操作であると判定された場合(ステップS2のYES)、モード設定部304は、携帯端末3の動作モードをメニューモードに設定する(ステップS3)。このメニューモードは、後述する他のモードにおいて選択されたオブジェクトに対して実行されるアクションの一覧(メニュー)を表示するモードである。動作モードがメニューモードに設定された場合の処理(メニューイベント)の詳細については後述する。
ここでは、ダブルタップ操作が行われた場合に動作モードがメニューモードに設定されるものとして説明したが、他の動作モードが設定される際の操作と異なる操作であれば、動作モードがメニューモードに設定される際の操作は、ダブルタップ操作以外の操作であっても構わない。
一方、ダブルタップ操作でないと判定された場合(ステップS2のNO)、モード設定部304は、位置情報取得部303によって取得された位置情報に基づいて、画面に表示されているオブジェクトが指定された(ユーザが画面上においてオブジェクトをタップした)か否かを判定する(ステップS4)。この場合、モード設定部304は、位置情報取得部303によって取得された位置情報によって示される位置(入力座標)がオブジェクトが表示されている領域内である(オブジェクトコリジョン領域内である)か否かを判定する。
オブジェクトが指定されたと判定された場合(ステップS4のYES)、モード設定部304は、携帯端末3の動作モードをオブジェクト選択モードに設定する(ステップS5)。このオブジェクト選択モードは、例えば後述するグルーピングモードにおいて選択された複数のオブジェクト(を含むグループ)に対して、ユーザによって指定された1つのオブジェクトを追加するまたは除外するモードである。動作モードがオブジェクト選択モードに設定された場合の処理(オブジェクト選択イベント)の詳細については後述する。
一方、オブジェクトが指定されていない場合、つまり、オブジェクト以外の領域が指定されたと判定された場合(ステップS4のNO)、モード設定部304は、位置情報取得部303によって取得された位置情報によって示される位置(ユーザによって指定された画面上の位置)が、ユーザによって連続的に指定された画面上の各位置を時系列的に結ぶ軌跡(つまり、画面上におけるユーザの指先の軌跡)によって特定される閉領域内であるか否かを判定する(ステップS6)。なお、この閉領域は、後述するようにグルーピングモードにおいてユーザが画面上で閉曲線を描くような操作を行うことによって特定される画面上の領域である。
ユーザによって指定された画面上の位置が閉領域内であると判定された場合(ステップS6のYES)、モード設定部304は、携帯端末3の動作モードを大域グルーピングモードに設定する(ステップS7)。この大域グルーピングモードは、グルーピングモードにおいて選択された複数のオブジェクトを含む例えば2つの異なるグループを組み合わせるモードである。動作モードが大域グルーピングモードに設定された場合の処理(大域グルーピングイベント)の詳細については後述する。
一方、ユーザによって指定された画面上の位置が閉領域内でないと判定された場合(ステップS6のNO)、モード設定部304は、携帯端末3の動作モードをグルーピングモードに設定する(ステップS8)。このグルーピングモードは、ユーザが指先で画面上に閉曲線を描くような操作を行うことによって、画面に表示されている全てのオブジェクトの中から所望のオブジェクトを選択するモードである。動作モードがグルーピングモードに設定された場合の処理(グルーピングイベント)の詳細については後述する。
上記したようにモード設定部304によって各動作モードが設定され、当該動作モードに応じた処理が実行されると、携帯端末3におけるゲームプログラムの実行を終了させる旨の指示(以下、終了指示と表記)がユーザによってされたか否かを判定する(ステップS9)。
終了指示がユーザによってされていない場合(ステップS9のNO)、上記したステップS1に戻って処理が繰り返される。
一方、終了指示がユーザによってされた場合(ステップS9のYES)、携帯端末3ではゲームプログラムの実行が終了される。
次に、上記した各動作モードが設定されている場合における携帯端末3の動作について詳細に説明する。
まず、図6のフローチャートを参照して、動作モードがグルーピングモードに設定されている場合における携帯端末3の処理手順について説明する。このグルーピングモードにおいては、上記したようにユーザが指先で画面上に閉曲線を描くような操作が行われる。このような操作がユーザによって行われる場合、位置情報取得部303は、ユーザの指が画面(パネル)から離れるまで当該操作に応じて連続的に位置情報を取得する。
まず、オブジェクト選択処理部305は、位置情報取得部303によって位置情報が取得されている(つまり、ユーザの指先が画面に触れている状態である)か否かを判定する(ステップS11)。
位置情報が取得されていると判定された場合(ステップS11のYES)、オブジェクト選択処理部305は、当該位置情報を予め格納部301に格納されているリスト(以下、位置情報リストと表記)に追加する(ステップS12)。
次に、表示処理部302は、位置情報リストに追加された位置情報に基づいてライン(以下、グループラインと表記)を画面上で描画する(ステップS13)。これにより、画面上にユーザが指先で描くラインが表示される。
表示処理部302は、グループラインの始点と終点との距離が予め定められた値(以下、閾値と表記)以下であるか否かを判定する(ステップS14)。
グループラインの始点と終点との距離が閾値以下であると判定された場合(ステップS14のYES)、表示処理部302は、当該始点と終点を結ぶライン(以下、補間ラインと表記)を画面上に描画する(ステップS15)。このような補間ラインが表示されることにより、ユーザは、後述する補間可能距離であることを認識できる。なお、補間ラインは、グループラインとは種類の異なるラインであることが好ましい。具体的には、グループラインが実線で描画されている場合には、補間ラインは例えば破線等によって描画される。
ステップS15の処理が実行されると、上記したステップS11に戻って処理が繰り返される。このように処理が繰り返されることによって、画面上で移動するユーザの指先の軌跡に合わせてグループラインが画面上に表示されることになる。
なお、ステップS14においてグループラインの始点と終点との距離が閾値以下でないと判定された場合には、ステップS15の処理は実行されない。
一方、上記したステップS11において位置情報が取得されていない(つまり、ユーザの指が画面から離れた)と判定された場合、オブジェクト選択処理部305は、位置情報リストに保持されている複数の位置情報(つまり、画面上におけるユーザの指先の軌跡)に基づいて、閉曲線形成処理を実行する(ステップS16)。この閉曲線形成処理によれば、位置情報リストに保持されている複数の位置情報によって示される各位置を結ぶ軌跡に基づいて画面上の閉曲線を形成し、当該閉曲線を表す閉曲線データが作成される。なお、閉曲線形成処理では、ユーザの指先の軌跡(の形状)によっては後述するように閉曲線データが作成されない場合もある。この閉曲線形成処理の詳細については後述する。
オブジェクト選択処理部305は、閉曲線形成処理が実行されることによって閉曲線データが作成されたか否かを判定する(ステップS17)。
閉曲線データが作成されたと判定された場合(ステップS17のYES)、オブジェクト選択処理部305は、閉曲線形成処理によって作成された閉曲線データによって表される閉曲線によって囲まれる画面上の閉領域(当該閉曲線によって特定される閉領域)内に存在するオブジェクトを選択する(ステップS18)。この場合、オブジェクト選択処理部305は、画面に表示されているオブジェクトの各々について画面上の閉領域内に存在するか否かを判定し、当該閉領域内に存在するオブジェクトを選択する。
なお、オブジェクト選択処理部305は、選択されたオブジェクトを含むグループ(以下、オブジェクトグループと表記)を作成する。これにより、オブジェクト選択処理部305によって作成されたオブジェクトグループ(に含まれるオブジェクト)を、ユーザによって包括的に選択された複数のオブジェクトとして後述する他の動作モード等において一括して処理することが可能となる。
なお、画面上の閉領域内に存在するオブジェクトには、全体が当該閉領域内に内包されているオブジェクト以外に、例えば重心(の座標)が当該閉領域内に存在するオブジェクトが含まれる。
このようにグルーピングモードにおいて複数のオブジェクトを含むオブジェクトグループが作成された場合、携帯端末3の内部ではこれらのオブジェクトがオブジェクトグループに含まれることを示す情報(グループ情報)が管理される。
ステップS18の処理が実行されると、モード設定部304は、動作モードを待機モードに設定する(ステップS19)。待機モードに設定された後は、上述した図4に示すステップS9の処理が実行される。
なお、閉曲線データが作成されていないと判定された場合(ステップS17のNO)、ステップS18の処理は実行されず、ステップS19の処理が実行される。
次に、図7のフローチャートを参照して、上述した閉曲線形成処理(図6に示すステップS16の処理)の処理手順について説明する。
オブジェクト選択処理部305は、位置情報リストに保持されている複数の位置情報(画面上におけるユーザの指先の軌跡を一定間隔でサンプリングした位置情報)によって示される各位置を結ぶ軌跡(つまり、ユーザの指先の軌跡)によって閉領域が特定可能であるか否かを判定する(ステップS21)。換言すれば、オブジェクト選択処理部305は、ユーザの指先の軌跡が閉曲線を形成しているか否かを判定する。
ユーザの指先の軌跡によって閉領域が特定可能でないと判定された場合(ステップS21のNO)、オブジェクト選択処理部305は、ユーザの指先の軌跡の始点と終点との距離が閾値以下であるか否かを判定する(ステップS22)。なお、このステップS22の処理において用いられる閾値は、上述したステップS14の処理において用いられる閾値と同じ値であるものとする。
ユーザの指先の軌跡の始点と終点との距離が閾値以下であると判定された場合(ステップS22のYES)、オブジェクト選択処理部305は、ユーザの指先の軌跡が2箇所以上の自己交差を含む形状を形成しているか否かを判定する(ステップS23)。
ユーザの指の軌跡が2箇所以上の自己交差を含む形状を形成していないと判定された場合(ステップS23のNO)、オブジェクト選択処理部305は、位置情報リストに保持されている複数の位置情報に基づいてユーザの指先の軌跡の始点と終点とを結ぶように補間することによって形成された閉曲線を表す閉曲線データを作成する(ステップS24)。なお、この補間は、例えばスプライン関数等を用いることによって行われる。
一方、ユーザの指先の軌跡によって閉領域を特定可能であると判定された場合(ステップS21のYES)、オブジェクト選択処理部305は、ステップS22の処理を実行することなく、ステップS23以降の処理を実行する。なお、ユーザの指先の軌跡が閉領域を特定可能である(つまり、ユーザの指先の軌跡が閉曲線を形成している)場合、オブジェクト選択処理部305は、上記したステップS24において、例えば補間処理をすることなく、閉曲線データを作成する。
上記したように閉曲線データが作成された場合、画面上には、当該閉曲線データによって表される閉曲線を表すグルーピングラインが描画される。
また、ユーザの指先の軌跡の始点と終点との距離が閾値以下でないと判定された場合(ステップS22のNO)、及びユーザの指先の軌跡が2箇所以上の自己交差を含む形状を形成していると判定された場合(ステップS23のYES)、表示処理部302は、画面上に描画されているグループラインを削除する(ステップS25)。また、オブジェクト選択処理部305は、位置情報リスト内の位置情報を削除する(ステップS26)。つまり、この場合には閉曲線データは作成されない。
なお、ユーザの指先の軌跡が1箇所の自己交差を含む形状である場合、オブジェクト選択処理部305は、上記したステップS21において、閉領域を特定可能であると判定する。これにより、本実施形態における閉曲線形成処理においては、ユーザが閉曲線を描いた際に当該閉曲線の一部が交差した場合であっても閉曲線データが作成される一方で、例えばユーザが作為的に複雑な曲線を描いた場合(つまり、自己交差が2箇所以上存在する場合)には閉曲線データが作成されないようにすることができる。
ここで、図8及び図9を参照して、動作モードがグルーピングモードに設定されている場合におけるユーザの操作の概要について説明する。
上記したように、動作モードがグルーピングモードに設定されている場合には、ユーザは、図8に示すように画面上に指先で閉曲線を描くような操作を行う。このとき、画面上ではユーザの指先の軌跡に応じてグループライン101が描画される。これにより、ユーザは、当該ユーザの指先の軌跡によって特定される閉領域(選択しようとしているオブジェクトの範囲)を明確に認識することが可能となる。
また、グループライン101の始点と終点との距離が閾値以下である場合には、図8に示すように補間ライン102が表示される。このように補間ライン102が表示された場合には、ユーザは、補間によって閉曲線を形成することができることを認識可能となるため、簡易に操作することができる。
また、上述した閉曲線形成処理によってユーザの指先の軌跡(位置情報リストに保持されている複数の位置情報によって示される各位置を結ぶ軌跡)に応じて閉曲線データが作成されると、図9に示すように当該閉曲線データによって表される閉曲線103で囲まれる領域内に存在するオブジェクトが選択される(選択されている状態となる)。図9に示す例では、5つのオブジェクトJ,K,L,O及びPが選択されている。なお、この場合、図9に示すように選択されたオブジェクトは、他のオブジェクトと区別可能な態様で表示されることが好ましい。また、閉曲線データが作成されると、図9に示すように、画面上には当該閉曲線データによって表される閉曲線103がグルーピングライン101として描画される。
次に、図10のフローチャートを参照して、動作モードが大域グルーピングモードに設定されている場合における携帯端末3の処理手順について説明する。
この大域グルーピングモードは、上述したグルーピングモードにおいて選択された複数のオブジェクトを含むオブジェクトグループが作成された後に、当該オブジェクトグループを囲む閉曲線内の領域(つまり、画面上に描画されているグルーピングラインの内部の閉領域)内であってオブジェクトが表示されていない位置がユーザの指先でタップされた際に設定されるモードである。つまり、動作モードが大域グルーピングモードに設定される場合には、少なくとも1つのオブジェクトグループが作成され、当該オブジェクトグループがグルーピングラインによって画面に表示されている状態となっている。
ここで、ユーザは、画面に表示されているオブジェクトグループに対してドラッグ操作(画面上の閉領域内に指を接触させた状態のまま移動させる操作)を行うことができる。以下、ユーザがドラッグ操作を行っているオブジェクトグループを対象オブジェクトグループと称する。
表示処理部302は、ユーザのドラッグ操作に応じて、対象オブジェクトグループの位置を再計算する(ステップS31)。具体的には、表示処理部302は、対象オブジェクトグループに含まれる各オブジェクト及び当該対象オブジェクトグループを囲む閉曲線(グルーピングライン)等の位置を再計算する。
表示処理部302は、再計算された結果に基づいて画面上に対象オブジェクトグループを再描画する。これにより、画面上の対象オブジェクトグループ(に含まれる複数のオブジェクト)をユーザのドラッグ操作に応じて移動させることができる。
次に、オブジェクト選択処理部305は、位置情報取得部303によって取得される位置情報に基づいて、ユーザのドラッグ操作が終了し、当該ユーザの指先が画面から離れたか否かを判定する(ステップS32)。この場合、位置情報取得部303によって位置情報が取得されない場合にはユーザの指先が画面から離れたと判定され、位置情報取得部303によって位置情報が取得されている場合にはユーザの指先が画面から離れていないと判定される。
ここで、動作モードが大域グルーピングモードに設定されている場合、当該大域グルーピングモードの前に上述したグルーピングモードにおける処理が複数回繰り返されることによって、複数のオブジェクトグループが作成されている場合がある。
そこで、ユーザの指先が画面から離れていないと判定された場合(ステップS32のNO)、オブジェクト選択処理部305は、ユーザのドラッグ操作に応じて移動している対象オブジェクトグループが画面上で他のオブジェクトグループと重複しているか否かを判定する(ステップS33)。具体的には、オブジェクト選択処理部305は、対象オブジェクトグループを囲む閉曲線(グルーピングライン)が他のオブジェクトグループを囲む閉曲線(他のグルーピングライン)と交差している場合、または対象オブジェクトグループが他のオブジェクトグループに内包されている場合に、対象オブジェクトグループが他のオブジェクトグループと重複していると判定する。
対象オブジェクトグループが他のオブジェクトグループと重複していると判定された場合(ステップS33のYES)、オブジェクト選択処理部305は、他のオブジェクトグループを対象オブジェクトグループの移動先候補とする(ステップS34)。このとき、対象オブジェクトグループの移動先候補が他のオブジェクトグループであることがユーザに認識可能なように、対象オブジェクトグループ及び他のオブジェクトグループやこれらのオブジェクトグループを囲むグルーピングラインの色等を変更させる構成であっても構わない。
なお、ステップS34の処理が実行されると、上記したステップS31に戻って処理が繰り返される。
また、対象オブジェクトグループが他のオブジェクトグループと重複していないと判定された場合(ステップS33のNO)、オブジェクト選択処理部305は、ステップS34の処理を実行せず、ステップS31に戻って処理を繰り返す。なお、対象オブジェクトグループが他のオブジェクトグループと重複していないと判定された場合において、上記したように対象オブジェクトグループの移動先候補となっている他のオブジェクトグループが存在していた場合には、オブジェクト選択処理部305は、当該移動先候補を解除する。このとき、移動先候補の存在によって上記したように色等が変更されていた場合には、当該色等については変更前の状態に戻される。
一方、ユーザの指先が画面から離れたと判定された場合(ステップS35のYES)、オブジェクト選択処理部305は、対象オブジェクトグループの移動先候補とされている他のオブジェクトグループ(以下、移動先候補オブジェクトグループと表記)があるか否かを判定する(ステップS35)。
移動先候補オブジェクトグループがあると判定された場合、オブジェクト選択処理部305は、対象オブジェクトグループ及び移動先候補オブジェクトグループを組み合わせる(結合する)処理を実行する。具体的には、オブジェクト選択処理部305は、対象オブジェクトグループに含まれる複数のオブジェクトを移動先候補オブジェクトグループに追加する(ステップS36)。この場合、対象オブジェクトグループについては、画面上から削除される。
すなわち、ステップS36の処理が実行されることによって、対象オブジェクトグループに含まれる複数のオブジェクト及び移動先候補オブジェクトグループに含まれる複数のオブジェクトからなる1つのオブジェクトグループが作成される。
ステップS36の処理が実行されると、モード設定部304は、動作モードを待機モードに設定する(ステップS37)。待機モードに設定された後は、上述した図4に示すステップS9の処理が実行される。
なお、移動先候補オブジェクトグループがないと判定された場合(ステップS35のNO)、ステップS36の処理は実行されず、ステップS37の処理が実行される。
ここで、図11〜図13を参照して、動作モードが大域グルーピングモードに設定されている場合におけるユーザの操作の概要について説明する。
ここでは、図11に示すように、2つのオブジェクトグループ201及び202が作成されており、当該オブジェクトグループ201及び202が画面に表示されているものとする。なお、図11に示す例では、オブジェクトグループ201はオブジェクトB,C,Dを含み、オブジェクトグループ202はオブジェクトJ,K、L,O及びPを含む。
上記したように、動作モードがグルーピングモードに設定されている場合には、ユーザは、図12に示すように例えばオブジェクトグループ201に対してドラッグ操作を行うことによって、当該オブジェクトグループ201を画面上で移動させることができる。
ここで、ユーザのドラッグ操作に応じてオブジェクトグループ201がオブジェクトグループ202と重複する位置に移動された場合、当該オブジェクトグループ202は、オブジェクトグループ201の移動先候補とされる。
オブジェクトグループ202がオブジェクトグループ201の移動先候補とされた後、ユーザの指先が画面から離れると、図13に示すように当該オブジェクトグループ201に含まれるオブジェクトB,C,Dがオブジェクトグループ202に追加されて、オブジェクトグループ203が作成される。この場合、オブジェクトグループ201は画面上から削除される。
このように動作モードが大域グルーピングモードに設定されている場合、ユーザは、オブジェクトグループ201をオブジェクトグループ202と重複する位置にドラッグ操作するのみで、当該オブジェクトグループ201,202(を構成する複数のオブジェクト)を結合し、1つのオブジェクトグループ203を作成することができる。
なお、ここでは2つのオブジェクトグループを結合することについて主に述べたが、動作モードが大域グルーピングモードに設定されている場合において、あるオブジェクトグループから複数のオブジェクト(を含むオブジェクトグループ)を除外するような構成とすることも可能である。具体的に説明すると、例えば図11に示すオブジェクトグループ202の他に、当該オブジェクトグループ202に含まれる例えばオブジェクトK及びLを含む他のオブジェクトグループが存在する場合を想定する。この場合において、画面上で他のオブジェクトグループに対してドラッグ操作を行うことによって、当該他のオブジェクトグループがオブジェクトグループ202と重複しない位置に移動された場合には、オブジェクトグループ202からオブジェクトK及びLが除外されるようにしてもよい。
また、動作モードが大域グルーピングモードに設定されている場合には、画面上において単にオブジェクトグループを移動させることも可能である。
次に、図14及び図15のフローチャートを参照して、動作モードがオブジェクト選択モードに設定されている場合における携帯端末3の処理手順について説明する。
このオブジェクト選択モードは、画面に表示されているオブジェクトがユーザによって指定(タップ)された際に設定されるモードである。なお、動作モードがオブジェクト選択モードに設定される場合、オブジェクトグループが作成(表示)されていてもよいし、作成(表示)されていなくてもよい。
ここで、ユーザは、画面に表示されているオブジェクトに対してドラッグ操作を行うことができる。以下、ユーザがドラッグ操作を行っているオブジェクトを対象オブジェクトと称する。
表示処理部302は、ユーザのドラッグ操作に応じて、対象オブジェクトの位置を再計算する(ステップS41)。表示処理部302は、再計算された結果に基づいて画面上に対象オブジェクトを再描画する。これにより、画面上の対象オブジェクトをユーザのドラッグ操作に応じて移動させることができる。
次に、オブジェクト選択処理部305は、位置情報取得部303によって取得される位置情報に基づいて、ユーザのドラッグ操作が終了し、当該ユーザの指先が画面から離れたか否かを判定する(ステップS42)。なお、このステップS42の処理は、上述した図10に示すステップS32の処理と同様の処理である。
ユーザの指先が画面から離れていないと判定された場合(ステップS42のNO)、オブジェクト選択処理部305は、対象オブジェクトが上述した動作モードがグルーピングモードに設定されている場合に作成されたオブジェクトグループに含まれる(つまり、対象オブジェクトがオブジェクトグループに所属している)オブジェクトであるか否かを判定する(ステップS43)。なお、対象オブジェクトがオブジェクトグループに含まれるオブジェクトであるか否かは、前述したようにオブジェクトグループが作成された際に携帯端末3の内部で管理されるグループ情報等を参照することによって判定可能である。
ここで、対象オブジェクトがオブジェクトグループに含まれるオブジェクトであると判定された場合(ステップS43のYES)、オブジェクト選択処理部305は、ユーザのドラッグ操作に応じて移動された対象オブジェクトの位置が当該オブジェクトグループを囲むグルーピングライン(閉曲線)の外側であるか否かを判定する(ステップS44)。なお、対象オブジェクトの位置は、ユーザのドラッグ操作に応じて位置情報取得部303によって取得される位置情報によって特定することができる。
対象オブジェクトの位置が当該対象オブジェクトを含むオブジェクトグループを囲むグルーピングラインの外側であると判定された場合(ステップS44のYES)、オブジェクト選択部305は、対象オブジェクトを当該オブジェクトグループから除外するオブジェクトの候補(以下、除外候補と表記)とする(ステップS45)。このとき、対象オブジェクトが除外候補となっていることをユーザが認識可能とするために、対象オブジェクトの色等を変更させる構成であっても構わない。以下の説明では、対象オブジェクトが除外候補とされたオブジェクトグループを除外対象オブジェクトグループと称する。
なお、ステップS45の処理が実行されると、上記したステップS41に戻って処理が繰り返される。
また、対象オブジェクトの位置が当該対象オブジェクトを含むオブジェクトグループを囲むグルーピングラインの外側でないと判定された場合(ステップS44のNO)、オブジェクト選択処理部305は、ステップS45の処理を実行せず、ステップS41に戻って処理を繰り返す。
一方、対象オブジェクトがオブジェクトグループに含まれるオブジェクトでないと判定された場合(ステップS43のNO)、オブジェクト選択処理部305は、ユーザのドラッグ操作に応じて移動された対象オブジェクトの位置が、動作モードがグルーピングモードに設定されている場合に作成された任意のオブジェクトグループを囲むグルーピングライン(閉曲線)の内側であるか否かを判定する(ステップS47)。なお、対象オブジェクトの位置は、上記したようにユーザのドラッグ操作に応じて位置情報取得部303によって取得される位置情報によって特定することができる。
対象オブジェクトの位置が任意のオブジェクトグループを囲むグルーピングラインの内側であると判定された場合(ステップS46のYES)、オブジェクト選択処理部305は、対象オブジェクトを当該オブジェクトグループに追加するオブジェクトの候補(以下、追加候補と表記)とする(ステップS47)。このとき、対象オブジェクトが追加候補となっていることをユーザが認識可能とするために、対象オブジェクトの色等を変更させる構成であっても構わない。以下の説明では、対象オブジェクトが追加候補とされたオブジェクトグループを追加対象オブジェクトグループと称する。
なお、ステップS47の処理が実行されると、上記したステップS41に戻って処理が繰り返される。
また、対象オブジェクトの位置が任意のオブジェクトグループを囲むグルーピングラインの内側でないと判定された場合(ステップS46のNO)、オブジェクト選択処理部305は、ステップS47の処理を実行せず、ステップS41に戻って処理を繰り返す。
一方、ユーザの指先が画面から離れたと判定された場合(ステップS42のYES)、オブジェクト選択処理部305は、対象オブジェクトが除外候補であるか否かを判定する(ステップS48)。上記したステップS45において対象オブジェクトが除外候補とされている場合、ステップS48において対象オブジェクトが除外候補であると判定される。
対象オブジェクトが除外候補であると判定された場合(ステップS48のYES)、オブジェクト選択処理部305は、対象オブジェクトを上記した除外対象オブジェクトグループから除外する(ステップS49)。
一方、対象オブジェクトが除外候補でないと判定された場合(ステップS48のNO)、オブジェクト選択処理部305は、対象オブジェクトが追加候補であるか否かを判定する(ステップS50)。上記したステップS47において対象オブジェクトが追加候補とされている場合、ステップS50において対象オブジェクトが追加候補であると判定される。
対象オブジェクトが追加候補であると判定された場合(ステップS50のYES)、オブジェクト選択処理部305は、対象オブジェクトを上記した追加対象オブジェクトグループに追加する(ステップS51)。
なお、上記したステップS49またはS51の処理が実行されると、モード設定部304は、動作モードを待機モードに設定する(ステップS52)。待機モードに設定された後は、上述した図4に示すステップS9の処理が実行される。
また、ステップS50において対象オブジェクトが追加候補でないと判定された場合には、ステップS52の処理が実行される。
ここで、図16及び図17を参照して、動作モードがオブジェクト選択モードに設定されている場合におけるユーザの操作の概要について説明する。
まず、図16に示すように、オブジェクトグループ401が作成されており、当該オブジェクトグループ401が画面に表示されているものとする。図16に示す例では、オブジェクトグループ401は、オブジェクトJ,K,L,O及びPを含む。
ここで、動作モードがオブジェクト選択モードに設定されている場合には、ユーザは、図16に示すようにオブジェクトグループ401に含まれる例えばオブジェクトLに対してドラッグ操作を行うことによって、当該オブジェクトLをオブジェクトグループ401(を囲むグルーピングライン)の外側に移動させることができる。
この場合、オブジェクトLは、オブジェクトグループ401から除外され、オブジェクトグループ401の外側に表示されることになる。つまり、ユーザによってこのような操作が行われることによって、オブジェクトグループ401は、オブジェクトJ、K、O及びPを含むオブジェクトグループとなる。
次に、図17に示すように、オブジェクトグループ402が作成されており、当該オブジェクトグループ402が画面に表示されているものとする。図17に示す例では、オブジェクトグループ402は、オブジェクトJ,K,L,O及びPを含む。
ここで、動作モードがオブジェクト選択モードに設定されている場合には、ユーザは、図17に示すようにオブジェクトグループ402に含まれるオブジェクト以外の例えばオブジェクトGに対してドラッグ操作を行うことによって、当該オブジェクトGをオブジェクトグループ402(を囲むグルーピングライン)の内側に移動させることができる。
この場合、オブジェクトGは、オブジェクトグループ402に追加され、オブジェクトグループ402の内側に表示されることになる。つまり、ユーザによってこのような操作が行われることによって、オブジェクトグループ402は、オブジェクトG、J,K,L,O及びPを含むオブジェクトグループとなる。
このように動作モードがオブジェクト選択モードに設定されている場合、ユーザは、画面に表示されている1つのオブジェクトを選択(指定)し、当該選択されたオブジェクトをオブジェクトグループから除外する、または当該選択されたオブジェクトをオブジェクトグループに追加するといった操作(グルーピング操作)を行うことが可能となる。
なお、ここではオブジェクトの除外または追加について主に述べたが、単にユーザによって選択されたオブジェクトを別の位置に移動するような操作も可能である。
また、上記したオブジェクトの除外及び追加を組み合わせて、任意のオブジェクトグループに含まれるオブジェクトを他のオブジェクトグループに移動させる構成とすることも可能である。具体的には、上述したステップS44及びS45の処理の後にステップS46及びS47に相当する処理が実行され、対象オブジェクトを除外候補かつ追加候補とすることによって、対象オブジェクトを除外対象オブジェクトグループから除外した後に、当該対象オブジェクトを追加対象オブジェクトグループに追加することができる。
次に、図18のフローチャートを参照して、動作モードがメニューモードに設定されている場合における携帯端末3の処理手順について説明する。
このメニューモードは、上記したように複数のオブジェクトが表示されている画面上においてユーザによってダブルタップ操作が行われた際に設定されるモードである。なお、動作モードがメニューモードに設定される場合、オブジェクトグループが作成(表示)されていてもよいし、作成(表示)されていなくてもよい。
まず、オブジェクト選択処理部305は、位置情報取得部303によって取得された位置情報に基づいて、画面に表示されているオブジェクト単体がダブルタップ操作によって指定されたか否かを判定する(ステップS61)。
オブジェクト単体が指定されたと判定された場合(ステップS61のYES)、オブジェクト選択処理部305は、当該指定されたオブジェクトをリスト(以下、オブジェクトリストと表記)に追加する(ステップS62)。
一方、オブジェクト単体が指定されていないと判定された場合(ステップS61のNO)、オブジェクト選択処理部305は、位置情報取得部303によって取得された位置情報に基づいて、上述した動作モードがグルーピングモードに設定されている場合に作成されたオブジェクトグループ(または動作モードが大域グルーピングモードに設定されている場合に2つのオブジェクトグループを結合することによって作成されたオブジェクトグループ)が指定されたか否かを判定する(ステップS63)。なお、位置情報取得部303によって取得された位置情報によって示される位置が例えばオブジェクトグループを囲むグルーピングラインの内側の領域(閉領域)内である場合には、当該オブジェクトグループが指定されたと判定される。
オブジェクトグループが指定されたと判定された場合(ステップS63のYES)、オブジェクト選択処理部305は、当該指定されたオブジェクトグループに含まれるオブジェクトをオブジェクトリストに追加する(ステップS64)。
なお、オブジェクトグループが作成されている場合において、当該オブジェクトグループに含まれるオブジェクト単体が指定された場合には、当該オブジェクト単体が指定されたものとしてもよいし、当該オブジェクトグループが指定されたものとしてもよい。
ステップS62またはステップS64の処理が実行されると、表示処理部302は、画面上(例えば、指定されたオブジェクトまたはオブジェクトグループの近傍)に、オブジェクトリストに保持されているオブジェクトに対して実行されるアクションの一覧(メニュー)を表示する(ステップS65)。
ここでメニューに一覧として表示されるアクションの内容は、携帯端末3において実行されているアプリケーションプログラム等に応じて異なる。なお、携帯端末3においてゲームプログラムが実行されている場合には、メニューに一覧として表示されるアクションの一例としては、例えばオブジェクトリストに保持されているキャラクタ(オブジェクト)を所有するユーザに対してメッセージを送るアクションを実行するための「メッセージを送る」、当該キャラクタに攻撃させるアクションを実行するための「攻撃する」、当該キャラクタを逃亡させるアクションを実行するための「逃げる」及び当該キャラクタを画面上から削除するアクションを実行するための「削除」等がある。
ここで、ユーザは、メニューに一覧として表示されているアクションの中から所望のアクションをタップすることによって選択することができる。
このようにユーザによってタップ操作が行われた場合、オブジェクト選択処理部305は、位置情報取得部303によって取得された位置情報に基づいて、表示処理部302によって表示されたメニューに対して当該タップ操作が行われた(つまり、ユーザがメニュー内をタップした)か否かを判定する(ステップS66)。
メニューに対してタップ操作が行われたと判定された場合(ステップS66のYES)、アクション実行部306は、ユーザによって選択されたアクション(つまり、メニューに一覧として表示されているアクションのうち、ユーザによってタップされたアクション)を実行する(ステップS67)。なお、このステップS67におけるアクション実行部306の処理(アクション)の具体例については後述する。
ステップS67の処理が実行されると、モード設定部304は、動作モードを待機モードに設定する(ステップS68)。待機モードに設定された後は、上述した図4に示すステップS9の処理が実行される。
一方、メニューに対してタップ操作が行われていない(つまり、メニュー外がタップされた)と判定された場合(ステップS66のNO)、表示処理部302は、表示されているメニューを非表示とする(ステップS69)。なお、ステップS69の処理が実行されると、上記したステップS68の処理が実行される。
また、オブジェクトグループが指定されていないと判定された場合(ステップS63のNO)、ステップS68の処理が実行される。
なお、ここではメニューに対してタップ操作が行われていない場合にメニューが非表示とされるものとして説明したが、例えばメニューに「メニューを閉じる」の項目が設けられており、当該「メニューを閉じる」の項目がタップされた場合に当該メニューを非表示としても構わない。
ここで、図19を参照して、動作モードがメニューモードに設定されている場合におけるユーザの操作の概要について説明する。
ここでは、図19に示すように、オブジェクトグループ501が作成されており、当該オブジェクトグループ501が画面に表示されているものとする。図19に示す例では、オブジェクトグループ401は、オブジェクトJ,K,L、O及びPを含む。
上記したように動作モードをメニューモードに設定する場合、ユーザは、画面上に表示されているオブジェクト単体またはオブジェクトグループに対してダブルタップ操作を行う。
ここで、ユーザがオブジェクトグループ501(を囲むグルーピングラインの内側の領域)に対してダブルタップ操作をした場合、当該オブジェクトグループ501に含まれるオブジェクトJ,K,L,O及びPに対して実行されるアクションの一覧がメニュー402として画面に表示される。
図19に示す例では、メニュー502には、アクションとして「メッセージを送る」、「攻撃する」、「逃げる」、「削除」及び「メニューを閉じる」が表示されている。
ユーザは、メニュー502に表示されているアクションの中から所望のアクションをタップ(選択)することによって、アクション実行部306に当該アクションを実行させることができる。
以下、アクション実行部306によって実行されるアクションについて具体的に説明する。
まず、図20のフローチャートを参照して、ユーザによって例えば図19に示す「メッセージを送る」のアクションが選択された場合におけるアクション実行部306の処理手順(アクション実行部306によって実行されるアクション)について説明する。なお、この「メッセージを送る」のアクションは、オブジェクトリストに保持されているオブジェクト(キャラクタ)を所有するユーザに対してメッセージを送信するためのアクションである。
この場合、アクション実行部306は、表示処理部302を介して、例えば携帯端末3のディスプレイ36にメッセージの作成画面を表示する。アクション実行部306は、表示されたメッセージの作成画面に対するユーザの操作に応じて、メッセージを作成する(ステップS71)。
次に、アクション実行部306は、オブジェクトリストに保持されているオブジェクトの各々に対して以下のステップS72〜S75の処理を実行する。以下、この処理の対象となるオブジェクトを対象オブジェクトと称する。
まず、アクション実行部306は、作成されたメッセージを対象オブジェクト(キャラクタ)を所有するユーザ(以下、送信対象ユーザと表記)によって利用される携帯端末等に送信する(ステップS72)。なお、この送信処理に必要な情報は、例えば携帯端末3の内部で管理されていてもよいし、サーバ群2から取得されても構わない。
ここで、アクション実行部306は、送信対象ユーザに対するメッセージの送信が成功したか否かを判定する(ステップS73)。
送信対象ユーザに対するメッセージの送信が成功したと判定された場合(ステップS73のYES)、アクション実行部306は、送信(成功)数に1を加算する(ステップS74)。
一方、送信対象ユーザに対するメッセージの送信が例えば障害等の発生により成功しないと判定された場合(ステップS73のNO)、アクション実行部306は、エラー数に1を加算する(ステップS75)。
なお、ステップS74における送信数及びステップS75におけるエラー数は、アクション実行部306の処理の開始時には初期値として0が設定されているものとする。
次に、ステップS74またはステップS75の処理が実行されると、アクション実行部306は、オブジェクトリストに保持されている全てのオブジェクトについて上記したステップS72〜S75の処理が実行されたか否かを判定する(ステップS76)。
全てのオブジェクトについて処理が実行されていないと判定された場合(ステップS76のNO)、アクション実行部306は、上記したステップS72に戻って処理を繰り返す。この場合、オブジェクトリストに保持されているオブジェクトのうち、ステップS72〜S75の処理が実行されていないオブジェクトを対象オブジェクトとして処理が実行される。
一方、全てのオブジェクトについて処理が実行されたと判定された場合(ステップS76のYES)、アクション実行部306は、表示処理部302を介して、送信数及びエラー数を画面に表示する。
このように例えば図19に示すメニューにおいて「メッセージを送る」のアクションがユーザによって選択された場合には、ユーザによって指定されたオブジェクトグループに含まれるオブジェクト(キャラクタ)の各々を所有する全てのユーザに対して一括で同一のメッセージを送信することが可能となる。
次に、図21のフローチャートを参照して、ユーザによって例えば図19に示す「削除」のアクションが選択された場合におけるアクション実行部306の処理手順(アクション実行部306によって実行されるアクション)について説明する。なお、この「削除」のアクションは、オブジェクトリストに保持されているオブジェクト(キャラクタ)を画面上から削除するためのアクションである。
この場合、アクション実行部306は、オブジェクトリストに保持されているオブジェクトの各々に対して以下のステップS81〜S83の処理を実行する。以下、この処理の対象となるオブジェクトを対象オブジェクトと称する。
まず、アクション実行部306は、対象オブジェクトが削除可能なオブジェクトであるか否かを判定する(ステップS81)。削除可能なオブジェクトであるか否かは、例えば携帯端末3において実行されているアプリケーションプログラムによって予め定められているものとする。具体的には、携帯端末3において実行されているアプリケーションプログラムがゲームプログラムである場合において、前述した図5等に示すオブジェクト(キャラクタ)Xが当該ゲームにおける敵キャラクタ(ボスキャラクタ)であるような場合には、当該オブジェクトXは削除可能なオブジェクトでないと規定されている。
対象オブジェクトが削除可能なオブジェクトであると判定された場合(ステップS81のYES)、アクション実行部306は、対象オブジェクトを画面上から削除する(ステップS82)。
次に、アクション実行部306は、削除数に1を加算する(ステップS83)。なお、このステップS83における削除数は、アクション実行部306の処理の開始時には初期値として0が設定されているものとする。
ステップS83の処理が実行されると、アクション実行部306は、オブジェクトリストに保持されている全てのオブジェクトについて上記したステップS81〜S83の処理が実行されたか否かを判定する(ステップS84)。
全てのオブジェクトについて処理が実行されていないと判定された場合(ステップS84のNO)、アクション実行部306は、上記したステップS81に戻って処理を繰り返す。この場合、オブジェクトリストに保持されているオブジェクトのうち、ステップS81〜S83の処理が実行されていないオブジェクトを対象オブジェクトとして処理が実行される。
一方、全てのオブジェクトについて処理が実行されたと判定された場合(ステップS84のYES)、アクション実行部306は、表示処理部302を介して、削除数を画面に表示する(ステップS85)。
なお、対象オブジェクトが削除可能なオブジェクトでないと判定された場合(ステップS81のNO)、アクション実行部306は、ステップS82及びS83の処理を実行せず、ステップS84の処理を実行する。
ここでは、ステップS85において削除数のみが表示されるものとして説明したが、例えばステップS81において削除可能なオブジェクトでないと判定されたことにより削除されなかったオブジェクトの数をも表示する構成としても構わない。
このように例えば図19に示すメニューにおいて「削除」のアクションがユーザによって選択された場合には、ユーザによって指定されたオブジェクトグループに含まれる複数のオブジェクトの全てを一括で削除することができる。
上記したように本実施形態においては、ユーザによって連続的に指定された画面上の各位置を検出し、当該画面上に表示されている複数のオブジェクトのうち、当該検出された各位置を結ぶ軌跡によって特定される当該画面上の閉領域内に表示されている少なくとも1つのオブジェクトを選択する構成により、ユーザは、画面上において例えば閉曲線をなぞる(描く)ような簡易な操作で、画面に表示されている複数のオブジェクトを選択することが可能となる。
また、本実施形態においては、選択されたオブジェクトを他のオブジェクトと識別可能に表示することにより、ユーザは選択されているオブジェクトを画面上で容易に認識することができる。
また、本実施形態においては、ユーザによって連続的に指定された画面上の各位置(つまり、タッチパネルによって検出された各位置)を結ぶ軌跡を表すライン(グルーピングライン)を画面上に描画することにより、ユーザは当該ユーザの指先の軌跡及び当該軌跡によって特定される閉領域等を容易に認識することができる。
また、本実施形態においては、ユーザによって連続的に指定された画面上の各位置を結ぶ軌跡によって閉領域が特定されない場合であって、当該軌跡の始点と終点とが画面上の予め定められた範囲内に存在する場合、当該始点と終点とを結ぶように補間し、当該補間された軌跡によって特定される画面上の閉領域内に表示されている少なくとも1つのオブジェクトを選択することにより、ユーザによる画面上における操作において適切な閉曲線が描かれていない場合であっても補間によって閉領域を特定することができるようにするため、ユーザの操作をより簡易にすることが可能となる。
また、本実施形態においては、選択された少なくとも1つのオブジェクトを含むオブジェクトグループを作成し、当該作成されたオブジェクトグループがユーザによって指定された場合に、当該オブジェクトグループの近傍に当該オブジェクトグループに含まれるオブジェクトに対して実行されるアクションの一覧を表示し、当該表示されたアクションの一覧の中からユーザの操作に応じて選択されたアクションを実行する構成により、ユーザによって指定されたオブジェクトグループに含まれるオブジェクトに対して一括して同一のアクションを実行することができるため、当該オブジェクトの各々に対してアクションを実行するための操作を行うという煩雑さを解消することができる。
また、本実施形態においては、オブジェクトグループに含まれるオブジェクトのうちのユーザによって指定されたオブジェクトを当該オブジェクトグループから除外する、またはオブジェクトグループに含まれるオブジェクト以外のユーザによって指定されたオブジェクトを当該オブジェクトグループに追加するような操作を画面上でユーザが行うことが可能となる。
なお、本実施形態においては、画面上でユーザが閉曲線を描くような操作を行うものとして説明したが、画面上の閉領域を特定可能なものであれば閉曲線に限られない。具体的には、ユーザによって例えば矩形や多角形等が描かれても構わない。
また、本実施形態においては、携帯端末3においてゲームプログラムが実行されるものとして主に説明したが、他のアプリケーションプログラムが実行されても構わない。具体的には、携帯端末3内部で保持されている各種ファイル(データ)等を管理するアプリケーションプログラム(以下、ファイル管理プログラムと表記)や当該携帯端末3において登録されているメールアドレス等のアドレス帳を管理するアプリケーションプログラム(以下、アドレス管理プログラムと表記)等が携帯端末3において実行されても構わない。
例えば携帯端末3においてファイル管理プログラムが実行された場合には、画面に携帯端末3内部で保持されている各種ファイルのアイコンがオブジェクトとして表示され、ユーザは当該画面上において閉曲線を描くような操作を行うことで複数のファイル(のアイコン)を包括的に選択することができる。更に、ファイル管理プログラムが実行されている場合に表示されるメニューには、包括的に選択された複数のファイルの削除やコピー等がアクションの一覧として表示される。例えばサムネイル画像がオブジェクトとして表示されている場合には、当該サムネイル画像の中から複数のサムネイル画像が選択されることによって、当該選択された画像からなるアルバム(フォルダ)を作成するような構成とすることも可能である。
また、携帯端末3においてアドレス管理プログラムが実行された場合には、画面にアドレス帳に登録されているユーザ(ユーザ名、住所、メールアドレスまたは電話番号等)がオブジェクトとして表示され、ユーザは、当該画面上において閉曲線を描くような操作を行うことでアドレス帳に登録されているユーザを包括的に選択することができる。更に、アドレス管理プログラムが実行されている場合に表示されるメニューには、包括的に選択された複数のユーザに対するメールの送信やゲームへの招待等がアクションの一覧として表示される。
すなわち、本実施形態は、複数のオブジェクトが画面上に表示されるようなアプリケーションプログラムを実行するような場合であれば適用可能である。
なお、前述した説明では、携帯端末3が単独でオブジェクト選択処理を実行するものとして説明しているが、サーバ群2に含まれるコンピュータ(例えばWebサーバ)が携帯端末3と共同してオブジェクト選択処理を実行するようにしても良い。この場合、Webサーバ(情報処理装置)は、図2に示すハードウェア構成、図3に示す機能構成と同等の構成を有するものとする。ただし、図2に示す無線通信部34は、無線通信に限らず、ネットワーク1を介した携帯端末3等の外部装置との有線通信の制御を司る。また、図3に示す各部(格納部301、表示処理部302、位置情報取得部303、モード設定部304、オブジェクト選択処理部305及びアクション実行部306)は、WebサーバのCPU(コンピュータ)がオブジェクト選択プログラム(が組み込まれたアプリケーションプログラム)を実行することにより実現されるものとする。以下、Webサーバ(情報処理装置)により実現される各機能部について説明する。
格納部301には、例えば本実施形態において実行されるオブジェクト選択処理に必要な各種情報が格納される。格納部301には、例えば画面に表示されるオブジェクトに関する情報や後述する各種リスト等が格納される。
表示処理部302は、例えば格納部301を参照して携帯端末3において実行されるアプリケーションプログラムに応じた複数のオブジェクトを、ネットワーク1を通じて、携帯端末3において表示させる。例えば、携帯端末3においてソーシャルゲームが実行される場合には、表示処理部302は、ソーシャルゲームのキャラクタをオブジェクトとして携帯端末3において表示させる。
位置情報取得部303は、携帯端末3が有するタッチパネル37によって検出された位置を示す位置情報を入力する機能を有する。例えば、携帯端末3は、タッチパネル37に対して、ユーザにより任意の閉曲線(例えば、円等)をなぞるような操作がされた場合、当該操作に応じて連続的に画面上の位置を検出する。位置情報取得部303は、タッチパネル37によって検出された各位置を示す複数の位置情報を携帯端末3から取得する。位置情報取得部303によって検出された位置情報は、例えば格納部301に格納される。
モード設定部304は、複数のオブジェクトが表示された画面に対するユーザの操作に応じて、携帯端末3の動作モードを設定する。モード設定部304によって設定される動作モードには、前述と同様にして、待機モード、メニューモード、グルーピングモード、大域グルーピングモード及びオブジェクト選択モード等が含まれる。
オブジェクト選択処理部305は、携帯端末3において、ユーザにより画面(タッチパネル)上において閉曲線をなぞるような操作がされた場合、モード設定部304によって設定された動作モードに従って、携帯端末3の画面に表示させている複数のオブジェクトのうち、位置情報取得部303によって取得された位置情報によって示される複数の位置を結ぶ軌跡によって特定される画面の閉領域内に表示されている少なくとも1つのオブジェクトを選択する。
アクション実行部306は、オブジェクト選択処理部305によって選択されたオブジェクトに対して各種アクションを実行する。また、オブジェクト選択部303によって選択されたオブジェクトに対して実行されるアクションが複数存在する場合には、アクション実行部306は、当該アクションの一覧を当該選択されたオブジェクトの近傍に表示させ、当該一覧の中からユーザの操作に応じて選択されたアクションを実行する。
Webサーバは、図4、図6、図7、図10、図14、図15図18、図20、図21に示すフローチャートの処理を実行し、携帯端末3に対して、前述と同様の処理を実行させる。これにより、Webサーバによるオブジェクト選択処理は、携帯端末3が単独でオブジェクト選択処理を実行する場合と同様の効果を得ることが可能である。
なお、本願発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組合せてもよい。

Claims (10)

  1. 画面上で指定された位置を検出するタッチパネルを備える情報処理装置が実行するオブジェクト処理方法であって、
    画面に複数のオブジェクトを表示し、
    前記画面上で連続的に指定される複数の位置を前記タッチパネルによって検出し、
    前記複数の位置を結ぶ軌跡によって特定される閉領域に表示されている少なくとも1つのオブジェクトを含むオブジェクトグループを作成し、
    前記閉領域内において指定された位置をもとに、前記オブジェクトグループが指定されたか、または前記オブジェクトグループに含まれる一つのオブジェクトが指定されたか判別し、
    前記オブジェクトグループが指定されたと判別された場合に、前記オブジェクトグループに含まれるオブジェクトに対して実行されるアクションを含む第1メニューを表示し、
    前記オブジェクトグループに含まれる一つのオブジェクトが指定されたと判別された場合に、前記一つのオブジェクトに対して実行されるアクションを含む第2メニューを表示し、
    前記第1メニューあるいは前記第2メニューから選択されたアクションをオブジェクトに応じて実行する
    オブジェクト処理方法。
  2. 前記第1メニュー及び前記第2メニューにはメッセージの送信のアクションを含み、
    前記第1メニューからメッセージの送信のアクションが選択された場合に、前記オブジェクトグループに含まれる全てのオブジェクトに対応する他の情報処理装置に対してメッセージを送信し、
    前記第2メニューからメッセージの送信のアクションが選択された場合に、前記一つのオブジェクトに対応する情報処理装置に対して、メッセージを送信する請求項1記載のオブジェクト処理方法。
  3. 他の情報処理装置に対してメッセージを送信した結果、送信が成功した送信数を表示する請求項2記載のオブジェクト処理方法。
  4. 前記第1メニューにはオブジェクト削除のアクションを含み、
    前記第1メニューからオブジェクト削除のアクションが選択された場合に、前記オブジェクトグループに含まれる全てのオブジェクトについて削除可能なオブジェクトであるかを判定し、削除可能と判定されたオブジェクトを削除し、
    前記第2メニューからオブジェクト削除のアクションが選択された場合に、前記一つのオブジェクトについて削除可能なオブジェクトであるかを判定し、削除可能と判定された場合に前記一つのオブジェクトを削除する請求項1記載のオブジェクト処理方法。
  5. 削除可能なオブジェクトであるかを判定した結果、オブジェクトを削除した削除数を表示する請求項4記載のオブジェクト処理方法。
  6. 更に、前記軌跡を表すラインを前記画面上に描画する請求項1記載のオブジェクト処理方法。
  7. 更に、前記軌跡によって閉領域が特定されない場合であって、当該軌跡の始点と終点とが前記画面の予め定められた範囲内に存在する場合、前記始点と前記終点とを結ぶ軌跡を補間し、
    前記始点と前記終点とを結ぶ軌跡によって特定される前記画面の閉領域内に表示されている少なくとも1つのオブジェクトを含むオブジェクトグループを作成する請求項1記載のオブジェクト処理方法。
  8. 画面上で指定された位置を検出するタッチパネルを備える情報処理装置のコンピュータが実行するプログラムを記憶するコンピュータ読み取り可能な記録媒体であって、前記コンピュータが、
    画面に複数のオブジェクトを表示し、
    前記画面上で連続的に指定される複数の位置を前記タッチパネルによって検出し、
    前記複数の位置を結ぶ軌跡によって特定される閉領域に表示されている少なくとも1つのオブジェクトを含むオブジェクトグループを作成し、
    前記閉領域内において指定された位置をもとに、前記オブジェクトグループが指定されたか、または前記オブジェクトグループに含まれる一つのオブジェクトが指定されたか判別し、
    前記オブジェクトグループが指定されたと判別された場合に、前記オブジェクトグループに含まれるオブジェクトに対して実行されるアクションを含む第1メニューを表示し、
    前記オブジェクトグループに含まれる一つのオブジェクトが指定されたと判別された場合に、前記一つのオブジェクトに対して実行されるアクションを含む第2メニューを表示し、
    前記第1メニューあるいは前記第2メニューから選択されたアクションをオブジェクトに応じて実行する機能を実行するように制御するプログラムを記録した記録媒体。
  9. 画面上で指定された位置を検出するタッチパネルを備える情報処理装置において、
    画面に複数のオブジェクトを表示する表示ユニットと、
    前記画面上で連続的に指定される複数の位置を前記タッチパネルによって検出する検出ユニットと、
    前記複数の位置を結ぶ軌跡によって特定される閉領域に表示されている少なくとも1つのオブジェクトを含むオブジェクトグループを作成する作成ユニットと、
    前記閉領域内において指定された位置をもとに、前記オブジェクトグループが指定されたか、または前記オブジェクトグループに含まれる一つのオブジェクトが指定されたか判別する判別ユニットと、
    前記オブジェクトグループが指定されたと判別された場合に、前記オブジェクトグループに含まれるオブジェクトに対して実行されるアクションを含む第1メニューを表示する第1メニュー表示ユニットと、
    前記オブジェクトグループに含まれる一つのオブジェクトが指定されたと判別された場合に、前記一つのオブジェクトに対して実行されるアクションを含む第2メニューを表示する第2メニュー表示ユニットと、
    前記第1メニューあるいは前記第2メニューから選択されたアクションをオブジェクトに応じて実行する実行ユニットと
    を有する情報処理装置。
  10. 情報処理装置が実行するオブジェクト選択方法であって、
    端末装置の画面に複数のオブジェクトを表示させ、
    前記端末装置が有するタッチパネルによって連続的に検出される前記画面上の複数の位置を入力し、
    前記複数の位置を結ぶ軌跡によって特定される閉領域に含まれる少なくとも1つのオブジェクトを含むオブジェクトグループを作成し、
    前記端末装置において前記において指定された位置をもとに、前記オブジェクトグループが指定されたか、または前記オブジェクトグループに含まれる一つのオブジェクトが指定されたか判別し、
    前記オブジェクトグループが指定されたと判別された場合に、前記オブジェクトグループに含まれるオブジェクトに対して実行されるアクションを含む第1メニューを表示し、
    前記オブジェクトグループに含まれる一つのオブジェクトが指定されたと判別された場合に、前記一つのオブジェクトに対して実行されるアクションを含む第2メニューを表示し、
    前記第1メニューあるいは前記第2メニューから選択されたアクションをオブジェクトに応じて実行する
    オブジェクト処理方法。
JP2016212069A 2012-12-27 2016-10-28 オブジェクト処理方法、プログラムを記録する記録媒体及び情報処理装置 Active JP6145550B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012285747 2012-12-27
JP2012285747 2012-12-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014554274A Division JP6034878B2 (ja) 2012-12-27 2013-12-04 オブジェクト選択方法、プログラムを記憶する記憶媒体及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2017021859A true JP2017021859A (ja) 2017-01-26
JP6145550B2 JP6145550B2 (ja) 2017-06-14

Family

ID=51020729

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014554274A Expired - Fee Related JP6034878B2 (ja) 2012-12-27 2013-12-04 オブジェクト選択方法、プログラムを記憶する記憶媒体及び情報処理装置
JP2016212069A Active JP6145550B2 (ja) 2012-12-27 2016-10-28 オブジェクト処理方法、プログラムを記録する記録媒体及び情報処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014554274A Expired - Fee Related JP6034878B2 (ja) 2012-12-27 2013-12-04 オブジェクト選択方法、プログラムを記憶する記憶媒体及び情報処理装置

Country Status (2)

Country Link
JP (2) JP6034878B2 (ja)
WO (1) WO2014103635A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102441018B1 (ko) * 2022-05-30 2022-09-06 (주) 아하 전자 칠판에서의 이동 궤적에 따른 가변식 크기 변경 방식의 지우개 기능 작동 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101727533B1 (ko) * 2015-10-12 2017-04-17 유지훈 바지 다림질 장치
KR101715057B1 (ko) * 2015-12-15 2017-03-10 유지훈 바지 다림질 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091323A (ja) * 1996-06-26 1998-04-10 Xerox Corp グラフィックオブジェクトのグループを作成し操作するための方法及びコンピュータ制御グラフィックディスプレイシステム
JP2004110734A (ja) * 2002-09-20 2004-04-08 Ricoh Co Ltd 情報処理装置、情報処理方法、及び情報処理プログラム
JP2007328457A (ja) * 2006-06-06 2007-12-20 Univ Of Tokyo オブジェクト表示処理装置、オブジェクト表示処理方法、およびオブジェクト表示処理用プログラム
JP2008027397A (ja) * 2006-07-25 2008-02-07 Sony Computer Entertainment Inc 情報処理装置、ユーザインタフェース方法及びプログラム
WO2010044151A1 (ja) * 2008-10-15 2010-04-22 富士通株式会社 選択入力受付プログラム、情報処理装置および選択入力受付方法
JP2010113217A (ja) * 2008-11-07 2010-05-20 Sony Corp 表示状態設定装置、表示状態設定方法及び表示状態設定プログラム
JP2012155475A (ja) * 2011-01-25 2012-08-16 Ntt Docomo Inc 端末装置およびアイコン管理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091323A (ja) * 1996-06-26 1998-04-10 Xerox Corp グラフィックオブジェクトのグループを作成し操作するための方法及びコンピュータ制御グラフィックディスプレイシステム
JP2004110734A (ja) * 2002-09-20 2004-04-08 Ricoh Co Ltd 情報処理装置、情報処理方法、及び情報処理プログラム
JP2007328457A (ja) * 2006-06-06 2007-12-20 Univ Of Tokyo オブジェクト表示処理装置、オブジェクト表示処理方法、およびオブジェクト表示処理用プログラム
JP2008027397A (ja) * 2006-07-25 2008-02-07 Sony Computer Entertainment Inc 情報処理装置、ユーザインタフェース方法及びプログラム
WO2010044151A1 (ja) * 2008-10-15 2010-04-22 富士通株式会社 選択入力受付プログラム、情報処理装置および選択入力受付方法
JP2010113217A (ja) * 2008-11-07 2010-05-20 Sony Corp 表示状態設定装置、表示状態設定方法及び表示状態設定プログラム
JP2012155475A (ja) * 2011-01-25 2012-08-16 Ntt Docomo Inc 端末装置およびアイコン管理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102441018B1 (ko) * 2022-05-30 2022-09-06 (주) 아하 전자 칠판에서의 이동 궤적에 따른 가변식 크기 변경 방식의 지우개 기능 작동 방법

Also Published As

Publication number Publication date
JPWO2014103635A1 (ja) 2017-01-12
JP6034878B2 (ja) 2016-11-30
JP6145550B2 (ja) 2017-06-14
WO2014103635A1 (ja) 2014-07-03

Similar Documents

Publication Publication Date Title
KR101485787B1 (ko) 단말 및 그의 컨텐츠 저장 및 실행 방법
US8793605B2 (en) Smart drag-and-drop
EP2613238A2 (en) Method and apparatus for managing icon in portable terminal
US20160139748A1 (en) Mobile terminal, memory, and folder control method
EP2610725A2 (en) Drag and drop operation in a graphical user interface with size alteration of the dragged object
JP2016533556A (ja) パン及び選択ジェスチャの検出
EP2690588A1 (en) Function based on a cloud service
JP6448639B2 (ja) テキスト選択方法、装置および端末
JP5925046B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2012155475A (ja) 端末装置およびアイコン管理方法
CN102985904A (zh) 跳转、复选标记和删除姿势
CN106354378B (zh) 一种快速选中多个目标的方法和装置
JP6026363B2 (ja) 情報処理装置および制御プログラム
JP2013149158A (ja) 情報処理装置およびその制御方法およびプログラム
JP6145550B2 (ja) オブジェクト処理方法、プログラムを記録する記録媒体及び情報処理装置
JP5908046B1 (ja) 複数領域を結合して表示する方法、装置及びプログラム。
JP2016170613A (ja) 会議支援装置、会議支援システム、会議支援プログラム、及び会議支援方法
JP6445777B2 (ja) オブジェクトを管理する情報処理装置およびその制御方法
JP6050992B2 (ja) 情報処理プログラム、表示制御装置、表示制御システム及び表示方法
US20170322723A1 (en) Method and apparatus for executing function on a plurality of items on list
JP5905550B1 (ja) 情報処理装置、情報表示プログラムおよび情報表示方法
JP6129220B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
KR101325535B1 (ko) 화면 출력을 제어하는 방법, 단말기 및 기록매체
JP7421230B2 (ja) 強化されたタッチセンシング選択
JP7056094B2 (ja) 表示制御装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161028

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20161028

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170515

R150 Certificate of patent or registration of utility model

Ref document number: 6145550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250