JP5645530B2 - Information processing apparatus and control method thereof - Google Patents

Information processing apparatus and control method thereof Download PDF

Info

Publication number
JP5645530B2
JP5645530B2 JP2010170860A JP2010170860A JP5645530B2 JP 5645530 B2 JP5645530 B2 JP 5645530B2 JP 2010170860 A JP2010170860 A JP 2010170860A JP 2010170860 A JP2010170860 A JP 2010170860A JP 5645530 B2 JP5645530 B2 JP 5645530B2
Authority
JP
Japan
Prior art keywords
group
distance
objects
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010170860A
Other languages
Japanese (ja)
Other versions
JP2012032945A (en
JP2012032945A5 (en
Inventor
基起 仲間
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010170860A priority Critical patent/JP5645530B2/en
Publication of JP2012032945A publication Critical patent/JP2012032945A/en
Publication of JP2012032945A5 publication Critical patent/JP2012032945A5/ja
Application granted granted Critical
Publication of JP5645530B2 publication Critical patent/JP5645530B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示オブジェクトに対する操作性を向上する技術に関する。   The present invention relates to a technique for improving operability for a display object.

電子化されたドキュメントを大型のテーブル・ディスプレイや壁面ディスプレイに表示し、表示されたドキュメントをインタラクティブに操作可能にすることで、アイディアの整理や議論の活性化を支援するシステムが注目されている。このようなシステムでは、ディスプレイにタッチパネルやデジタイザなどが組み込まれており、画面上に表示されたドキュメント(以下、オブジェクト)をタッチ操作するといった、直感的なオブジェクト操作が可能である。一般的にタッチパネルを利用した操作は、情報機器に不慣れなユーザにも馴染みやすいため、モバイル端末やコピー機など多くの情報機器で利用されるようになっている。   Attention has been focused on systems that support organizing ideas and activating discussion by displaying digitized documents on a large table display or wall display and making the displayed documents interactively operable. In such a system, a touch panel, a digitizer, and the like are incorporated in the display, and an intuitive object operation such as a touch operation on a document (hereinafter referred to as an object) displayed on the screen is possible. In general, an operation using a touch panel is easily used by a user who is unfamiliar with information equipment, and is used in many information equipment such as mobile terminals and copiers.

これらタッチパネル式の情報処理装置は、誰でも簡単に目的のオブジェクトをタッチ操作で選択できるが、オブジェクトのグループ化(以下、グルーピング)といった複数オブジェクトに対する操作を伴う作業では操作性が低下してしまう。   In these touch panel type information processing apparatuses, anyone can easily select a target object by a touch operation, but the operability decreases in an operation involving operations on a plurality of objects such as grouping of objects (hereinafter, grouping).

一般的にタッチ操作でグルーピングを行う場合、1つずつオブジェクトを選んでグルーピングするか、手書きジェスチャを利用して円などの図形を描いてオブジェクトを囲み、囲まれたオブジェクトをグルーピングするといった手段が考えられる。しかし、1つずつオブジェクトを選んでグルーピングするのは煩わしい。また、多くのオブジェクトが表示されている場合にオブジェクトを囲んでグルーピングを行おうとすれば、関係のないオブジェクトもグルーピングされてしまう可能性が高い。   In general, when performing grouping by touch operation, it is possible to select and group objects one by one, or draw a figure such as a circle using handwritten gestures to enclose the objects, and group the enclosed objects. It is done. However, selecting and grouping objects one by one is cumbersome. In addition, if many objects are displayed and an attempt is made to perform grouping by surrounding the objects, there is a high possibility that unrelated objects will be grouped.

他にも、オブジェクトに付加された情報を元に自動でグルーピングを行う手段がある。この場合のグルーピングは、一般的にボタンの押下といったアクションに伴って画面全体をグルーピング表示に表示切替えするため、グルーピングする度に表示切替え操作が必要となり煩わしい。また、画面全体をグルーピング表示に切替えるため、注目しているオブジェクトのみを対象にグルーピングするといった操作ができない。   There is another means for automatically grouping based on information added to an object. The grouping in this case is generally cumbersome because a display switching operation is required every time grouping is performed because the entire screen is switched to a grouping display in accordance with an action such as pressing a button. Further, since the entire screen is switched to the grouping display, it is not possible to perform operations such as grouping only the object of interest.

このような課題を解決するため、特許文献1は、表示画面上の任意の位置に表示されたボタンを押下することによって、注目するオブジェクトのみを対象にしたグルーピング表示処理を行う。   In order to solve such a problem, Patent Literature 1 performs grouping display processing for only an object of interest by pressing a button displayed at an arbitrary position on the display screen.

特開2008‐299818号公報JP 2008-299818 A

しかし特許文献1では、表示切替えのためのボタンの表示と押下が必要となる。また、表されているオブジェクトを、いくつかのグループレベルの中から選択したグループレベルでグルーピングして表示することが難しい。特許文献1の技術で複数のグループレベルでグルーピングを行おうとすれば、複数のボタンを表示する(無駄な表示領域の使用)、もしくは複数回ボタンを押下するといった煩わしい操作が必要になる。   However, in Patent Document 1, it is necessary to display and press a button for display switching. In addition, it is difficult to group and display the represented object at a group level selected from among several group levels. If grouping is to be performed at a plurality of group levels using the technique of Patent Document 1, a cumbersome operation such as displaying a plurality of buttons (use of a useless display area) or pressing a button a plurality of times is required.

本発明は上記課題を考慮してなされたもので、簡単なジェスチャ操作によって、表示オブジェクトを、所望のグループレベルのグループに容易にグルーピングできることを目的とする。   The present invention has been made in consideration of the above-described problems, and an object of the present invention is to easily group display objects into groups of a desired group level by a simple gesture operation.

上記課題を解決するために、本発明の情報処理装置は、表示面に表示されている複数のオブジェクトから、ユーザ操作により指示されたオブジェクトを選択する選択手段と、前記操作を行う物体と前記表示面との間の距離に基づく操作距離を取得する距離取得手段と、前記選択手段によって選択されたオブジェクトが属するグループのうち、前記距離取得手段によって取得された操作距離に対応付けられたグループレベルを特定し、前記複数のオブジェクトのうち、当該特定されたグループレベルのグループに属するオブジェクトを、前記選択されたオブジェクト付近に集合させる表示制御手段を有することを特徴とする。 In order to solve the above problems, an information processing apparatus according to the present invention includes a selection unit that selects an object instructed by a user operation from a plurality of objects displayed on a display surface, an object that performs the operation, and the display A distance acquisition unit that acquires an operation distance based on a distance to a surface; and a group level that is associated with the operation distance acquired by the distance acquisition unit among the groups to which the object selected by the selection unit belongs. It has a display control means for specifying and collecting objects belonging to the specified group level group among the plurality of objects in the vicinity of the selected object .

本発明によれば、簡単なジェスチャ操作によって、表示オブジェクトを、所望のグループ毎に集合させることができる。 According to the present invention, display objects can be assembled for each desired group by a simple gesture operation.

情報処理装置のシステム概要図。The system schematic diagram of information processing apparatus. 情報処理装置のハードウェア構成図。The hardware block diagram of information processing apparatus. 情報処理装置の機能ブロック図。The functional block diagram of information processing apparatus. グルーピング処理の説明図。Explanatory drawing of a grouping process. 情報処理装置の処理を示すメインフローチャート。The main flowchart which shows the process of information processing apparatus. 初期画面表示処理のフローチャート。The flowchart of an initial screen display process. グループレベル選択処理のフローチャート。The flowchart of a group level selection process. 画面に表示されるオブジェクトの具体例を示す図(UI画面例)。The figure which shows the specific example of the object displayed on a screen (UI screen example). 遠隔操作距離算出方法を示す図。The figure which shows the remote operation distance calculation method. 対応付けのテーブルを示す図。The figure which shows the table of matching.

以下、本発明の実施形態について図面を参照して詳細に説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すものであり、これに限るものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, embodiment described below shows an example at the time of implementing this invention concretely, and is not restricted to this.

[第1の実施形態]
図1(A)は、本実施形態におけるシステム概要図である。テーブル型ディスプレイ(以下、ディスプレイ101)、壁面型ディスプレイ102を利用して、アイディアの整理や議論をインタラクティブに行うためのシステムである。参加者A、Bは表示部であるディスプレイ(101、102)に表示されたオブジェクト(103a〜103e)を指や手を使ってタッチ操作、もしくはジェスチャ操作することで選択・操作できる。
[First Embodiment]
FIG. 1A is a system outline diagram in this embodiment. This is a system for interactively organizing and discussing ideas using a table type display (hereinafter referred to as display 101) and a wall surface type display 102. Participants A and B can select and operate the objects (103a to 103e) displayed on the displays (101 and 102), which are display units, by touch operation or gesture operation using fingers or hands.

図1(B)は、下方と側方の両方向に投影可能なプロジェクタ104を利用してディスプレイ101、壁面型ディスプレイ102の両方にオブジェクトを投影するシステム1001の例である。また、オブジェクトに対するジェスチャ操作を認識するためのセンサとして距離センサ105を利用する。これらの各デバイスは、情報処理装置100とネットワークもしくはUSBによって接続されており、協調して機能する。図1(B)では、2つの表示部と一つの距離センサを利用する例を示したが、その限りではない。表示部は1つでも良く、プロジェクタ104のような投影型表示部ではなく、図1(C)に示したような、タッチパネルが組み込まれた大型ディスプレイをテーブルもしくは壁面に設置して利用してもよい。また、センサも距離情報を算出可能なセンサとして、複数の近接センサや超音波センサを利用してもよい。また画像の解析結果から距離情報を算出することも可能である。   FIG. 1B illustrates an example of a system 1001 that projects an object on both the display 101 and the wall surface display 102 using a projector 104 that can project in both a downward direction and a lateral direction. Further, the distance sensor 105 is used as a sensor for recognizing a gesture operation on the object. Each of these devices is connected to the information processing apparatus 100 via a network or USB, and functions in cooperation. Although FIG. 1B illustrates an example in which two display units and one distance sensor are used, the present invention is not limited thereto. There may be only one display unit, not a projection display unit such as the projector 104, but a large display incorporating a touch panel as shown in FIG. Good. Also, a plurality of proximity sensors and ultrasonic sensors may be used as sensors that can calculate distance information. It is also possible to calculate distance information from the analysis result of the image.

図2は本実施形態における、情報処理装置100のハードウェア構成図である。情報処理装置100は、CPU(Central Processing Unit)200、RAM(Random Access Memory)201、ROM(Read Only Memory)202、バス203から構成される。またさらに、ディスプレイI/F204、ストレージI/F205、ストレージ206、入力I/F207から構成される。ただし、本発明はこれらのインターフェースだけに限らない。タッチパネルI/FやメモリーカードI/Fなどのインターフェースを含み、それを利用して情報処理装置を実現しても構わない。   FIG. 2 is a hardware configuration diagram of the information processing apparatus 100 in the present embodiment. The information processing apparatus 100 includes a CPU (Central Processing Unit) 200, a RAM (Random Access Memory) 201, a ROM (Read Only Memory) 202, and a bus 203. Further, the display I / F 204, the storage I / F 205, the storage 206, and the input I / F 207 are included. However, the present invention is not limited to these interfaces. An information processing apparatus may be realized using an interface such as a touch panel I / F or a memory card I / F.

以下、情報処理装置100のハードウェア構成について、その詳細を説明する。   Hereinafter, details of the hardware configuration of the information processing apparatus 100 will be described.

CPU200は、RAM201、ROM202、バス203を利用して情報処理装置100全体の制御を行う。ここでは図示されていないが、オペレーティングシステム(以下OS)をはじめ、本発明に係る各処理プログラム、デバイスドライバ等はROM202に記憶されており、RAM201に一時記憶され、CPU200によって適宜実行される。ここでOSおよび各処理プログラム等はストレージ206に記憶されていてもよく、その場合は電源投入時にRAM201に適宜読み込まれ、CPU200によって起動される。   The CPU 200 controls the entire information processing apparatus 100 using the RAM 201, the ROM 202, and the bus 203. Although not shown here, an operating system (hereinafter referred to as OS), each processing program according to the present invention, a device driver, and the like are stored in the ROM 202, temporarily stored in the RAM 201, and appropriately executed by the CPU 200. Here, the OS, each processing program, and the like may be stored in the storage 206, in which case they are appropriately read into the RAM 201 when the power is turned on, and are activated by the CPU 200.

ディスプレイI/F204は、情報処理装置100内部で作成される表示画面をディスプレイ101が処理可能な信号に変換する。ストレージI/F205は、情報処理装置100内部で利用可能なデータ形式とストレージ206に記憶するためのデータ形式を互いに変換する。入力I/F207は、距離センサ105からの距離情報を入力信号として受信し、情報処理装置100が処理可能な情報に変換する。   The display I / F 204 converts a display screen created in the information processing apparatus 100 into a signal that can be processed by the display 101. The storage I / F 205 mutually converts a data format that can be used inside the information processing apparatus 100 and a data format that is stored in the storage 206. The input I / F 207 receives distance information from the distance sensor 105 as an input signal, and converts the information into information that can be processed by the information processing apparatus 100.

ストレージ206は、ハードディスクドライブ装置に代表される大容量情報記憶装置であって、ストレージ206には情報処理装置100で表示するためのオブジェクトのデータが膨大に格納されている。ストレージ206自体は、情報処理装置100内部に搭載されていても良いし、USB、メモリーカードI/Fなどの各種インターフェースを介して接続されていてもよい。またその際、ストレージ206は複数台接続されていても構わない。尚、以下特に断らない限り、他図を用いて説明されたものは同一の符号を付し、その説明を省略する。   The storage 206 is a large-capacity information storage device represented by a hard disk drive device, and the storage 206 stores a large amount of object data to be displayed on the information processing apparatus 100. The storage 206 itself may be mounted in the information processing apparatus 100, or may be connected via various interfaces such as a USB and a memory card I / F. At that time, a plurality of storages 206 may be connected. In addition, unless otherwise indicated below, what was demonstrated using the other figure attaches | subjects the same code | symbol, and abbreviate | omits the description.

図3(A)は本実施形態における情報処理装置100の機能ブロック図である。情報処理装置100は、オブジェクト選択部300、グループ情報生成部301、オブジェクト取得部302、表示制御部303、グループ選択部304、距離取得部305、ジェスチャ認識部308、保持部309から構成される。上記これらの各機能ブロックはハードウェア、ソフトウェアの組み合わせによって様々な形態で実現できる。   FIG. 3A is a functional block diagram of the information processing apparatus 100 in the present embodiment. The information processing apparatus 100 includes an object selection unit 300, a group information generation unit 301, an object acquisition unit 302, a display control unit 303, a group selection unit 304, a distance acquisition unit 305, a gesture recognition unit 308, and a holding unit 309. Each of these functional blocks can be realized in various forms by a combination of hardware and software.

本実施形態では、ストレージ206に記憶されているデータ(オブジェクト)は主にマルチメディアデータであり、映像や静止画、音声データ、各種電子化ドキュメントである。以降これらデータをオブジェクトと記述する。これらオブジェクトには作成日時情報や編集日時情報、場所情報、人物情報など、グループ情報を生成するために必要な付加情報が付与されているものとする。しかし、本実施形態はこれらの付加情報に限定して利用されるものではない。例えば、グループ情報を生成するための付加情報がない場合は、オブジェクトを読み込んだ後、各オブジェクトの名前(アルファベット)を基にグループ情報を生成してもよい。またオブジェクトが表示されている位置情報を基に、グループ情報を生成してもよい。   In the present embodiment, data (objects) stored in the storage 206 are mainly multimedia data, such as video, still images, audio data, and various electronic documents. These data are hereinafter referred to as objects. It is assumed that additional information necessary for generating group information such as creation date / time information, edit date / time information, location information, and person information is given to these objects. However, this embodiment is not limited to these additional information. For example, when there is no additional information for generating group information, group information may be generated based on the name (alphabet) of each object after reading the object. Further, group information may be generated based on position information where the object is displayed.

情報処理装置100が起動すると、オブジェクト取得部302は表示するオブジェクトと付加情報をストレージ206から読み出す。読み出したオブジェクト及び付加情報はRAM201に保持される。この時、読み出したデータがRAM201に対して大きすぎる場合は、読み込むデータを小分けにして順次読み込んで処理しても構わない。または、即座に読み出し可能なスワップデータとしてストレージ206に退避させておいても構わない。   When the information processing apparatus 100 is activated, the object acquisition unit 302 reads an object to be displayed and additional information from the storage 206. The read object and additional information are held in the RAM 201. At this time, if the read data is too large for the RAM 201, the read data may be subdivided and processed sequentially. Alternatively, it may be saved in the storage 206 as swap data that can be read immediately.

グループ情報生成部301は、RAM201に保持されているオブジェクトの付加情報から、オブジェクト毎に、複数のグループレベルのグループ情報を生成し、保持する。本実施形態では、オブジェクトに付加されている日付情報から、グループ情報を生成するものとし、グループレベルを、「日」「月」「年」の3つとする。グループ情報は、オブジェクト毎に生成され、かつ、それぞれのグループレベルにおいてどのグループに属するかを示す情報が生成される。例えば、「2009年7月30日」という日付情報を有するオブジェクトの場合、日グループでは、「2009年7月30日」、月グループでは、「2009年7月」、年グループでは、「2009年」といったグループ情報が生成される。   The group information generation unit 301 generates and holds a plurality of group level group information for each object from the additional information of the object held in the RAM 201. In this embodiment, group information is generated from date information added to an object, and there are three group levels: “day”, “month”, and “year”. The group information is generated for each object, and information indicating which group belongs to each group level is generated. For example, in the case of an object having date information of “July 30, 2009”, “July 30, 2009” in the day group, “July 2009” in the month group, “2009” in the year group Is generated.

表示制御部303は、RAM201に保持されているオブジェクトから表示画面を生成しディスプレイ101に出力する。表示制御部303で作成される表示画面の一例を図4の400に示す。図4では、401a、401b、401cがディスプレイ101に表示出力されたオブジェクトを示している。   The display control unit 303 generates a display screen from the objects held in the RAM 201 and outputs the display screen to the display 101. An example of a display screen created by the display control unit 303 is shown by 400 in FIG. In FIG. 4, 401 a, 401 b, and 401 c indicate objects displayed and output on the display 101.

情報処理装置100に対する操作は、手や指などの物体を使いジェスチャ操作(遠隔操作指示)することによって行う。以下では、物体の一例である手を用いて説明する。   The information processing apparatus 100 is operated by performing a gesture operation (remote operation instruction) using an object such as a hand or a finger. Below, it demonstrates using the hand which is an example of an object.

オブジェクトが表示部(ディスプレイ101)に表示されている状態で、距離取得部305が、物体を検出すると、オブジェクト選択部300がオブジェクトの選択を開始する。オブジェクト選択部300は、物体の検出位置とオブジェクトの表示位置情報を基にオブジェクトを選択する。距離取得部305は、物体を検出し、物体から表示画面までの遠隔操作距離を算出する。そして算出した遠隔操作距離をグループ選択部304に入力する。保持部309は、グループレベルと操作距離との対応つけを示すテーブルを保持している。   When the distance acquisition unit 305 detects an object while the object is displayed on the display unit (display 101), the object selection unit 300 starts selecting the object. The object selection unit 300 selects an object based on the detected position of the object and the display position information of the object. The distance acquisition unit 305 detects an object and calculates a remote operation distance from the object to the display screen. Then, the calculated remote operation distance is input to the group selection unit 304. The holding unit 309 holds a table indicating the association between the group level and the operation distance.

グループ選択部304は、グループ情報生成部301で生成したグループ情報と距離取得部305で取得した遠隔操作距離と保持部309のテーブルに基づいて、グループレベルを選択する。ジェスチャ認識部308は、距離センサを用いて、物体である手が行う動作が、予め定められたジェスチャかどうかを認識する。本実施形態では、選択、グルーピング、グループ選択の確定、データ表示終了を、それぞれ、ジェスチャを認識することによって実行するものとする。   The group selection unit 304 selects a group level based on the group information generated by the group information generation unit 301, the remote operation distance acquired by the distance acquisition unit 305, and the table of the holding unit 309. The gesture recognition unit 308 uses a distance sensor to recognize whether the action performed by the hand that is the object is a predetermined gesture. In this embodiment, selection, grouping, group selection confirmation, and data display end are executed by recognizing a gesture.

図4(A)は、本実施形態におけるグルーピング処理の説明図である。また図5は本実施形態における情報処理装置100のデータ表示処理を示すフローチャートである。図4(A)ならびに図5を用いて、本実施形態のデータ表示処理とグループレベル選択処理の詳細を説明する。   FIG. 4A is an explanatory diagram of grouping processing in the present embodiment. FIG. 5 is a flowchart showing data display processing of the information processing apparatus 100 in the present embodiment. Details of the data display processing and group level selection processing of this embodiment will be described with reference to FIG.

情報処理装置100はデータ表示処理を開始すると、まずオブジェクト取得部302において、ストレージ206から、表示するオブジェクトとグループ情報を生成するために利用する付加情報を取得し、RAM201に保持する(S10)。次にグループ情報生成部301で、前記取得した付加情報からグループ情報を生成し、このグループ情報もRAM201に保持する(S11)。   When the information processing apparatus 100 starts the data display process, first, the object acquisition unit 302 acquires additional information used to generate the object to be displayed and group information from the storage 206, and stores the additional information in the RAM 201 (S10). Next, the group information generation unit 301 generates group information from the acquired additional information, and this group information is also stored in the RAM 201 (S11).

また本実施形態では、オブジェクト取得部302で取得したオブジェクトに付加されている付加情報からグループ情報を生成しているが、その限りではない。例えば、ストレージ206に格納されている全てのオブジェクトの付加情報を利用してグループ情報を生成しても構わない。   In this embodiment, the group information is generated from the additional information added to the object acquired by the object acquisition unit 302. However, the present invention is not limited to this. For example, group information may be generated using additional information of all objects stored in the storage 206.

グループの生成処理が完了すると、初期画面表示処理(S12)を実行する。   When the group generation process is completed, an initial screen display process (S12) is executed.

図6は初期画面表示処理(S12)の処理フロー図である。初期画面表示処理は、RAM201に保持されたオブジェクトとグループ情報から表示画面を作成する。表示制御部303は、オブジェクトをランダムに並べて表示画面を作成し(S20)、作成した画面をディスプレイ101に表示出力する(S21)。この時、ディスプレイ101に表示される初期画面の一例を図8(A)の500に示す。オブジェクト501をはじめ、計12個のオブジェクトがランダムに表示されている。   FIG. 6 is a process flow diagram of the initial screen display process (S12). In the initial screen display process, a display screen is created from the object and group information held in the RAM 201. The display control unit 303 creates a display screen by randomly arranging objects (S20), and displays and outputs the created screen on the display 101 (S21). At this time, an example of the initial screen displayed on the display 101 is shown as 500 in FIG. A total of 12 objects including the object 501 are displayed at random.

以上の処理で初期画面表示処理(S12)は完了し、呼び出し元にその結果がリターンされる。   The initial screen display process (S12) is completed by the above process, and the result is returned to the caller.

図8(A)の画面例500が表示されている状態で、物体を使ってジェスチャ入力を行う。ここでは、物体の一例である手(図4の401)を用いて説明する。本実施形態におけるジェスチャ入力は表示画面400上で手401を動かすことである。表示画面400に対して水平にて手401を動かすことによってオブジェクトの選択ジェスチャを、表示画面400に対して垂直に動かすことによってグルーピングジェスチャを入力できる。そのジェスチャ入力を距離取得部305によって検出・認識するとともに、手401の表示画面上での相対位置や遠隔操作距離(高さ)を算出する。本実施形態では、ジェスチャ入力を表示画面400や手401よりも上部に取り付けられた距離センサ105を用いて、ジェスチャ認識部308で検出し、認識する。本実施形態では、ジェスチャ認識部308は、距離画像を20フレームずつ解析することでジェスチャ認識を行うものとする。   While the screen example 500 in FIG. 8A is displayed, gesture input is performed using an object. Here, a description will be given using a hand (401 in FIG. 4) which is an example of an object. The gesture input in the present embodiment is to move the hand 401 on the display screen 400. An object selection gesture can be input by moving the hand 401 horizontally with respect to the display screen 400, and a grouping gesture can be input by moving the hand 401 vertically with respect to the display screen 400. The gesture input is detected and recognized by the distance acquisition unit 305, and the relative position and the remote operation distance (height) of the hand 401 on the display screen are calculated. In the present embodiment, gesture input is detected and recognized by the gesture recognition unit 308 using the distance sensor 105 attached above the display screen 400 and the hand 401. In the present embodiment, the gesture recognition unit 308 performs gesture recognition by analyzing the distance image every 20 frames.

初期画面表示処理(S12)が終了すると、ジェスチャ認識部308は、オブジェクトの選択ジェスチャの認識を行う(S13)。選択ジェスチャを認識しなかった場合(S13、N)は、何も行わず、再びS13の処理に移行し、選択ジェスチャ待ちのループとなる。選択ジェスチャを認識した場合(S13、Y)は、距離センサ105の情報から、表示画面400に対する手401の相対位置を算出し、手401の相対位置と同じ位置に表示されているオブジェクトを選択する(S14)。選択された状態のオブジェクトを図4(A)(1)の402に示す。選択されたオブジェクトは選択されたことがユーザに認識されるよう強調表示を行う。手401の相対位置は、画面を表示するプロジェクタ104と距離センサ105を正しくキャリブレーションすれば、算出できる。   When the initial screen display process (S12) ends, the gesture recognition unit 308 recognizes the object selection gesture (S13). If the selection gesture has not been recognized (N in S13), nothing is performed and the process proceeds to S13 again to enter a loop for waiting for the selection gesture. When the selection gesture is recognized (S13, Y), the relative position of the hand 401 with respect to the display screen 400 is calculated from the information of the distance sensor 105, and the object displayed at the same position as the relative position of the hand 401 is selected. (S14). The selected object is indicated by reference numeral 402 in FIGS. The selected object is highlighted so that the user can recognize that it has been selected. The relative position of the hand 401 can be calculated if the projector 104 displaying the screen and the distance sensor 105 are correctly calibrated.

オブジェクトの選択(S14)が終了すると、距離取得部305は、オブジェクトが選択されたときの遠隔操作距離z1(表示画面400と手401までの垂直距離)とその時刻t1を取得し、RAM201に保持する(S15)。遠隔操作距離と時刻の取得が完了すると、グループレベル選択処理が開始される(S16)。   When the object selection (S14) is completed, the distance acquisition unit 305 acquires the remote operation distance z1 (vertical distance between the display screen 400 and the hand 401) and the time t1 when the object is selected, and stores it in the RAM 201. (S15). When acquisition of the remote operation distance and time is completed, group level selection processing is started (S16).

ここで、本実施形態における具体的な遠隔操作距離の算出方法を図9に示す。まず距離センサ105から表示画面400までの垂直距離Dh1を距離センサ105で取得する。そしてさらに、ジェスチャ操作を行う手の甲を認識し、距離センサ105から手の甲までの垂直距離Dh2を距離センサ105で取得する。本実施形態で算出する遠隔操作距離zは表示画面と手の垂直距離であり、z=Dh1−Dh2で算出できる。本実施形態では距離センサを利用して遠隔操作距離を算出したが、その限りではない。表示画面400上に近接センサや超音波センサを設置して、センサの情報から遠隔操作距離を算出しても良い。   Here, a specific method for calculating the remote operation distance in the present embodiment is shown in FIG. First, the distance sensor 105 acquires the vertical distance Dh1 from the distance sensor 105 to the display screen 400. Further, the back of the hand performing the gesture operation is recognized, and the distance sensor 105 acquires the vertical distance Dh2 from the distance sensor 105 to the back of the hand. The remote operation distance z calculated in the present embodiment is a vertical distance between the display screen and the hand, and can be calculated by z = Dh1−Dh2. In the present embodiment, the remote operation distance is calculated using the distance sensor, but this is not a limitation. A proximity sensor or an ultrasonic sensor may be installed on the display screen 400, and the remote operation distance may be calculated from the sensor information.

図7(A)は、第1の実施形態のグループレベル選択処理(S16)の処理フロー図である。グループレベル選択処理が開始されると、ジェスチャ認識部308は、グルーピングジェスチャの認識を行う(S30)。グルーピングジェスチャを認識しなかった場合(S30、N)は、何も行わず、グループレベル選択処理(S16)は完了し、呼び出し元にその結果がリターンされる。グルーピングジェスチャを認識した場合(S30、Y)、距離取得部305は、距離センサ105の情報から、グルーピングジェスチャを認識したときの遠隔操作距離z2を取得する(S31)。取得方法は図9を用いて説明したz1の場合と同様である。距離取得部305は、z2を取得したら、RAM201からz1を読出し、遠隔操作距離の差分z=|z2−z1|を算出する(S32)。そして、その結果をRAM201に保持する。   FIG. 7A is a process flow diagram of the group level selection process (S16) of the first embodiment. When the group level selection process is started, the gesture recognition unit 308 recognizes a grouping gesture (S30). If the grouping gesture is not recognized (S30, N), nothing is performed, the group level selection process (S16) is completed, and the result is returned to the caller. When the grouping gesture is recognized (S30, Y), the distance acquisition unit 305 acquires the remote operation distance z2 when the grouping gesture is recognized from the information of the distance sensor 105 (S31). The acquisition method is the same as that for z1 described with reference to FIG. When the distance acquisition unit 305 acquires z2, the distance acquisition unit 305 reads z1 from the RAM 201, and calculates a remote operation distance difference z = | z2-z1 | (S32). Then, the result is held in the RAM 201.

グループ選択部304は、RAM201に保持したグループ情報及び遠隔操作距離の差分zを読出し、さらに、予め作成されているグループレベルと遠隔操作距離と対応つけを示すテーブルの情報に基づいてグループレベルを選択する(S33)。本実施形態では、日グループ、月グループ、年グループの順にグループレベルが上位であるとし、このグループレベル順に基づいて、グループレベルと操作距離との対応つけを示すテーブルを作成し、保持部309に保持しているものとする。図10(A)に保持しているテーブルの例を示す。   The group selection unit 304 reads the group information stored in the RAM 201 and the difference z between the remote operation distances, and further selects the group level based on the table information indicating the correspondence between the group level and the remote operation distance created in advance. (S33). In this embodiment, it is assumed that the group level is higher in the order of day group, month group, and year group, and based on this group level order, a table indicating the correspondence between the group level and the operation distance is created and stored in the holding unit 309. It shall be held. An example of a table held in FIG.

例えば、図4(A)の状態でグルーピングジェスチャを行ない、zが0<z<a場合は、グループを選択しない。しかし、zがa<=z<bの場合は、日(Day)レベルのグループを選択する。同様にzがb<=z<cの場合は、月(Month)のグループを、z>=cの場合は年(Year)グループをそれぞれ選択する。選択したグループレベルはRAM201に保持される。   For example, when a grouping gesture is performed in the state of FIG. 4A and z is 0 <z <a, no group is selected. However, if z is a <= z <b, a day level group is selected. Similarly, when z is b <= z <c, a month group is selected, and when z> = c, a year group is selected. The selected group level is held in the RAM 201.

以上の処理でグループレベル選択処理(S16)は完了し、呼び出し元の処理にその結果がリターンされる。   With the above processing, the group level selection processing (S16) is completed, and the result is returned to the calling source processing.

グループレベル選択処理(S16)が終了すると、グループ表示の変更が行われる。表示制御部303は、RAM201から選択したグループレベルを読出し、選択したオブジェクト402と同じグループレベルに属するオブジェクトをグルーピングした表示画面を生成して、画面表示する(S17)。例えば、図4(A)の状態から日グループのレベルが選択された場合、選択したオブジェクト402と同じ日グループのグループ情報をもつオブジェクト403a、403bが、オブジェクト402を中心にグルーピングされ、図4(B)の状態になる。さらに、この状態から月グループのレベルが選択された場合は、オブジェクト402と同じ月グループのグループ情報をもつオブジェクト403c、403d、403eがグルーピングされ、図4(C)の状態になる。そして、さらに、年グループのレベルが選択された場合は、オブジェクト402と同じ年グループのグループ情報をもつオブジェクト403f、403gがグルーピングされ、図4(D)の状態になる。   When the group level selection process (S16) ends, the group display is changed. The display control unit 303 reads the selected group level from the RAM 201, generates a display screen that groups objects belonging to the same group level as the selected object 402, and displays the screen (S17). For example, when the day group level is selected from the state of FIG. 4A, the objects 403a and 403b having the same day group group information as the selected object 402 are grouped around the object 402, and FIG. B). Furthermore, when the month group level is selected from this state, the objects 403c, 403d, and 403e having the same month group group information as the object 402 are grouped, and the state shown in FIG. Further, when the year group level is selected, the objects 403f and 403g having the same year group group information as the object 402 are grouped, and the state shown in FIG.

グループ表示変更(S17)が終了すると、ジェスチャ認識部308は、グループの選択を確定するかどうかの判定が行われる。例えば、グループ選択の確定は、手401の位置が所定の時間移動していないかを判定して行う。グループ選択を確定しない場合(S18、N)は、再びS16に処理が移行する。グループ選択を確定する場合(S18、Y)は、ジェスチャ認識部308は、データ表示を終了するかどうかの判定が行われる(S19)。データ表示を終了しない場合(S19、N)は、再びS13に処理が移行する。データ表示を終了する場合(S19、Y)は、情報処理装置100は、データ表示処理を終了する。   When the group display change (S17) ends, the gesture recognition unit 308 determines whether to confirm the group selection. For example, the group selection is confirmed by determining whether the position of the hand 401 has moved for a predetermined time. If the group selection is not confirmed (S18, N), the process returns to S16 again. When group selection is confirmed (S18, Y), the gesture recognition unit 308 determines whether to end the data display (S19). If the data display is not finished (S19, N), the process proceeds to S13 again. When the data display is ended (S19, Y), the information processing apparatus 100 ends the data display process.

以上、本実施形態で述べたように、グループレベルと遠隔操作距離の差分zを対応付けることで、手401の上下操作という簡単なジェスチャ操作でグループレベルを素早く変更できる。また本実施形態では、グループレベルが上位のグループを長い遠隔操作距離に対応付けしたが、これにより直感的(ユーザの操作感にマッチする)で使い易いグルーピングUIを実現できる。   As described above, as described in the present embodiment, by associating the difference z between the group level and the remote operation distance, the group level can be quickly changed by a simple gesture operation such as an up / down operation of the hand 401. In this embodiment, a group having a higher group level is associated with a long remote operation distance. This makes it possible to realize a grouping UI that is intuitive (matches the user's feeling of operation) and is easy to use.

尚、本実施形態では、グループ情報生成部301で予めグループ情報を生成しておき、生成されたグループ情報を用いてグルーピングした。そのため、予めグループ情報を生成しておくことで、グルーピング処理を高速に行うことができるという効果がある。しかしながら、グループ情報を生成せずに、グルーピング処理する際に、付加情報に基づいて、グルーピングしてもよい。グループ情報を生成しない場合は、グループ情報を持てなくてよいので、保持すべきデータ量を削減できるという効果がある。   In the present embodiment, group information is generated in advance by the group information generation unit 301, and grouping is performed using the generated group information. Therefore, by generating group information in advance, there is an effect that the grouping process can be performed at high speed. However, grouping may be performed based on the additional information when the grouping process is performed without generating the group information. When the group information is not generated, it is not necessary to have the group information, so that the amount of data to be held can be reduced.

尚、本実施形態では、初期画面表示処理において、オブジェクトをランダムに並べて画面を作成したがその限りではない。オブジェクトの名前順に画面左上から整列して画面を作成してもよい。   In the present embodiment, in the initial screen display process, a screen is created by randomly arranging objects, but this is not restrictive. The screen may be created by arranging the objects in the order of the names from the upper left of the screen.

尚、本実施形態では、グルーピングジェスチャを行うと自動的に日付情報を基に複数粒度のグループを作成し、グルーピングを行ったが、複数種類の付加情報がある場合は、どの付加情報を用いてグルーピングを行うかをユーザが選択できた方が便利である。そのような場合は、図8(B)の画面例500に示したように、オブジェクト502が選択されたと同時に、利用する付加情報を選択する吹き出し503を表示するような処理を行ってもよい。図8(B)の場合は、利用可能な付加情報としてtagA、tagB、tagCがあり、tagAがフォーカスされている状態を表している。例えば、tagAは日付情報、tagBは場所情報、tagCは人物情報を用いて、グループ情報を生成されているとし、グルーピング処理にオブジェクトの選択と同様の方法で利用したい付加情報を選択した後、グルーピング処理を行うことができる。   In this embodiment, when a grouping gesture is performed, a group of multiple granularities is automatically created based on date information and grouping is performed. However, if there are multiple types of additional information, which additional information is used. It is more convenient if the user can select whether to perform grouping. In such a case, as shown in the screen example 500 of FIG. 8B, processing may be performed in which a balloon 503 for selecting additional information to be used is displayed at the same time as the object 502 is selected. In the case of FIG. 8B, there are tagA, tagB, and tagC as additional information that can be used, and represents a state in which tagA is focused. For example, it is assumed that group information is generated using date information for tagA, location information for tagB, and person information for tagC. After selecting additional information to be used in a grouping process in the same way as selecting an object, grouping is performed. Processing can be performed.

[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。グループレベル選択処理のフローチャート以外は、第1の実施形態と同様である。尚、第2の実施形態においても、特に断らない限り、他図を用いて説明されたものには同一の符号を付し、その説明を省略する。第2の実施形態は、不用意なグルーピングジェスチャによるグループレベルの誤変更、例えば、オブジェクトをタッチ操作するために表示画面に手を近づけただけなのに、グループレベルが変更されてしまうことを解決したものである。
[Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. Except for the flowchart of the group level selection process, it is the same as that of the first embodiment. Also in the second embodiment, unless otherwise specified, the same reference numerals are given to those described with reference to other drawings, and the description thereof is omitted. The second embodiment solves an erroneous change of the group level due to an inadvertent grouping gesture, for example, the group level is changed even when the hand is brought close to the display screen to touch the object. It is.

図7(B)は、第2の実施形態におけるグループレベル選択処理(S16)の処理フローを示す。グループレベル選択処理(S16)が開始されるまでの処理は第1の実施形態と同様である。   FIG. 7B shows a process flow of the group level selection process (S16) in the second embodiment. Processing until the group level selection processing (S16) is started is the same as that in the first embodiment.

グループレベル選択処理が開始されると、ジェスチャ認識部308は、グルーピングジェスチャの認識を行う(S30)。グルーピングジェスチャを認識しなかった場合(S30、N)は、何も行わず、グループレベル選択処理(S16)は完了し、呼び出し元にその結果がリターンされる。グルーピングジェスチャを認識した場合(S30、Y)は、距離取得部305は、時刻 t2 を取得し、差分t=t2−t1を算出する(S34)。tが閾値(例えば1秒)以上でない場合(S35、N)は、グループレベル選択処理(S16)は完了し、呼び出し元にその結果がリターンされる。tが閾値(例えば1秒)以上の場合(S35、Y)は、距離取得部305は、距離センサ105の情報から、その時点の遠隔操作距離 z2 を取得する(S31)。距離取得部305は、z2を取得したら、RAM201からz1を読出し、遠隔操作距離の差分z=|z2−z1|を算出する(S32)。そして、その結果をRAM201に保持する。尚、tの閾値は、情報処理装置100のROM202で予め保持しているものとする。   When the group level selection process is started, the gesture recognition unit 308 recognizes a grouping gesture (S30). If the grouping gesture is not recognized (S30, N), nothing is performed, the group level selection process (S16) is completed, and the result is returned to the caller. When the grouping gesture is recognized (S30, Y), the distance acquisition unit 305 acquires time t2, and calculates the difference t = t2-t1 (S34). If t is not equal to or greater than a threshold value (for example, 1 second) (S35, N), the group level selection process (S16) is completed, and the result is returned to the caller. When t is equal to or greater than a threshold (for example, 1 second) (S35, Y), the distance acquisition unit 305 acquires the remote operation distance z2 at that time from the information of the distance sensor 105 (S31). When the distance acquisition unit 305 acquires z2, the distance acquisition unit 305 reads z1 from the RAM 201, and calculates a remote operation distance difference z = | z2-z1 | (S32). Then, the result is held in the RAM 201. It is assumed that the threshold value t is stored in advance in the ROM 202 of the information processing apparatus 100.

グループ選択部304は、RAM201に保持したグループの情報及び遠隔操作距離の差分zに応じて、グループレベルとzの対応付けを行ない、その対応結果に基づいてグループレベルを選択する(S33)。選択したグループレベルはRAM201に保持される。   The group selection unit 304 associates the group level with z in accordance with the group information stored in the RAM 201 and the remote control distance difference z, and selects the group level based on the correspondence result (S33). The selected group level is held in the RAM 201.

以上の処理でグループレベル選択処理(S16)は完了し、呼び出し元の処理にその結果がリターンされる。グループレベル変更処理(S16)が完了した後の処理は第1の実施形態と同様である。   With the above processing, the group level selection processing (S16) is completed, and the result is returned to the calling source processing. The processing after the group level change processing (S16) is completed is the same as in the first embodiment.

以上、本実施形態で述べたように、グルーピングジェスチャが認識されるまでの時間 tを算出し、閾値でフィルタリングすることで、不用意なグルーピングジェスチャによるグループレベルの誤変更を防ぐことができる。   As described above, by calculating the time t until the grouping gesture is recognized and filtering with the threshold value as described in the present embodiment, it is possible to prevent erroneous group level changes due to careless grouping gestures.

[第3の実施形態]
次に、本発明の第3の実施形態について図面を参照して詳細に説明する。第2の実施形態は、表示制御部303で行うグループの表示変更速度がシステム規定の速度で一定としていた。本実施形態では、グループ変更表示速度を、グルーピングジェスチャの速度に対応させる例を示す。尚、第3の実施形態においても、特に断らない限り、他図を用いて説明されたものには同一の符号を付し、その説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. In the second embodiment, the display change speed of the group performed by the display control unit 303 is constant at a system-defined speed. In the present embodiment, an example in which the group change display speed is made to correspond to the speed of the grouping gesture is shown. Also in the third embodiment, unless otherwise specified, the same reference numerals are given to those described with reference to other drawings, and the description thereof is omitted.

図3(B)に、第3の実施形態における機能ブロック図を示す。速度算出部306以外は第2の実施形態と同様である。   FIG. 3B shows a functional block diagram according to the third embodiment. Except for the speed calculation unit 306, the second embodiment is the same as the second embodiment.

速度算出部306は、遠隔操作距離の差分zと時刻の差分tを使って、グルーピングジェスチャをしたジェスチャ速度z/tを算出する。表示制御部307は、ジェスチャ速度を利用して、グループング表示変更速度を制御する。   The speed calculation unit 306 calculates the gesture speed z / t of the grouping gesture using the difference z in the remote operation distance and the difference t in time. The display control unit 307 controls the grouping display change speed using the gesture speed.

図5(B)は、第3の実施形態におけるフローチャートである。S40、S41以外は、第2の実施形態と同様である。   FIG. 5B is a flowchart in the third embodiment. Except for S40 and S41, the second embodiment is the same as the second embodiment.

S40では、速度算出部306は、S32で算出した遠隔操作距離の差分zと、S34で算出した時刻の差分tを使って、グルーピングジェスチャをしたジェスチャ速度z/tを算出する。S41では、表示制御部307は、入力されたジェスチャ速度を利用して、グループ表示変更速度を制御する。具体的には、グループ表示変更速度を、ジェスチャ速度z/tに比例させて表示させる。   In S40, the speed calculation unit 306 calculates the gesture speed z / t of the grouping gesture using the remote control distance difference z calculated in S32 and the time difference t calculated in S34. In S41, the display control unit 307 controls the group display change speed by using the input gesture speed. Specifically, the group display change speed is displayed in proportion to the gesture speed z / t.

例えば、アニメーションを利用してグルーピングの表示制御を行う場合などに利用できる。算出したジェスチャ速度が速い場合は、グルーピングのアニメーションを高速にし、逆に遅い場合は、グルーピングのアニメーションを低速にする。こうすることで、ユーザがグルーピングされるオブジェクトを確認しつつグルーピングを行いたい場合は、ゆっくりした速度でグルーピングジェスチャを行うといった使い方ができるようになる。   For example, it can be used when grouping display control is performed using animation. When the calculated gesture speed is fast, the grouping animation is accelerated, and when it is slow, the grouping animation is slowed. In this way, when the user wants to perform grouping while confirming the object to be grouped, the user can use a grouping gesture at a slow speed.

以上、本実施形態で述べたように、ジェスチャ速度を算出し、表示制御に利用することで、よりユーザの意図を反映することが可能なグルーピングUIを実現できる。   As described above, the grouping UI that can reflect the user's intention can be realized by calculating the gesture speed and using it for display control, as described in the present embodiment.

[第4の実施形態]
次に、本発明の第4の実施形態について図面を参照して詳細に説明する。機能ブロック図のオブジェクト選択部の機能と図4(E)〜(H)で示すグループレベル選択処理の説明図以外は、第1の実施形態と同様である。尚、第4の実施形態においても、特に断らない限り、他図を用いて説明されたものには同一の符号を付し、その説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings. Except for the function of the object selection unit in the functional block diagram and the explanatory diagram of the group level selection process shown in FIGS. 4E to 4H, it is the same as in the first embodiment. Also in the fourth embodiment, unless otherwise specified, the same reference numerals are given to those described with reference to other drawings, and the description thereof is omitted.

第4の実施形態は、第1の実施形態のバリエーションである。オブジェクト選択部300でオブジェクトを選択する際に、オブジェクトを1つ以上選択できる点が第1の実施形態と異なる。本実施形態4におけるグループレベル選択処理の説明図を図4(E)〜(H)に示す。   The fourth embodiment is a variation of the first embodiment. When the object selection unit 300 selects an object, one or more objects can be selected, which is different from the first embodiment. FIGS. 4E to 4H are explanatory diagrams of the group level selection process in the fourth embodiment.

複数のオブジェクトを選択することで、選択された複数のオブジェクトに共通する付加情報を利用して複数粒度のグループ情報を生成できる。これによりアンドのグルーピング(絞込み)が実現できる。   By selecting a plurality of objects, group information with a plurality of granularities can be generated using additional information common to the selected objects. As a result, AND grouping can be realized.

図4の(E)は、AさんとBさんが写っている2つのサムネイル(オブジェクト)404を選択した例である。グループ情報生成部301では付加情報を利用して、「AさんとBさんのみが写っている」というグループ、「AさんとBさんを含め、その他数人が写っている」というグループ、「AさんとBさんを含んだ全て」というグループ情報を生成する。生成したグループ情報はRAM201に保持する。   FIG. 4E shows an example in which two thumbnails (objects) 404 in which A and B are shown are selected. The group information generation unit 301 uses additional information to make a group “only Mr. A and Mr. B are shown”, a group “some other people including Mr. A and B” are shown, “A The group information “All including Mr. and Mr. B” is generated. The generated group information is held in the RAM 201.

本実施形態でも、RAM201に保持したグループの情報及び遠隔操作距離の差分zに応じて、グループの粒度とzの対応付けを行ない、その対応結果に基づいてグループの粒度を選択する。対応付けは、グループレベルと遠隔操作距離の差分zと対応つけを示すテーブルを作成して行う。テーブルの例としては図10(B)で示すようなテーブルを作成し、保持部309が保持する。例えば、図4(E)の状態でグルーピングジェスチャを行ない、zが0<z<a場合は、グループを選択しない。しかし、zがa<=z<bの場合は、「AとBのみが写っている」グループを選択する。同様にzがb<=z<cの場合は、「AとBを含め数人が写っている」グループを、z>=cの場合は、「AとBを含んだ全て」というグループをそれぞれ選択する。選択したグループレベルはRAM201に保持される。   Also in this embodiment, group granularity and z are associated according to the group information held in the RAM 201 and the remote control distance difference z, and the group granularity is selected based on the correspondence result. The association is performed by creating a table indicating the correspondence between the group level and the remote operation distance difference z. As an example of the table, a table as shown in FIG. 10B is created and held by the holding unit 309. For example, when a grouping gesture is performed in the state of FIG. 4E and z is 0 <z <a, no group is selected. However, if z is a <= z <b, the group “only A and B are shown” is selected. Similarly, when z is b <= z <c, a group “several people including A and B” is displayed. When z> = c, a group “all including A and B” is selected. Select each one. The selected group level is held in the RAM 201.

また表示制御部303では、RAM201から選択したグループレベルを読出し、選択したオブジェクト404に関連するオブジェクトをグルーピングした表示画面を生成して、ディスプレイ101に出力する。例えば、図4(E)の状態で「AとBのみが写っている」グループが選択された場合、AとBのみ写っているオブジェクト405a、405bが、オブジェクト404を中心にグルーピングされ、図4(F)の状態になる。さらにこの状態で「AとBを含め数人が写っている」グループが選択された場合は、AとBを含め数人が写っているオブジェクト405c、405d、405eがグルーピングされ、図4(G)の状態になる。同様に続けて「AとBを含んだ全て」というグループが選択された場合は、AとBが写っている全てのオブジェクト405f、405gがグルーピングされ、図4(H)の状態になる。   The display control unit 303 reads the selected group level from the RAM 201, generates a display screen in which objects related to the selected object 404 are grouped, and outputs the display screen to the display 101. For example, when the group “only A and B are shown” is selected in the state of FIG. 4E, the objects 405a and 405b showing only A and B are grouped around the object 404, and FIG. It will be in the state of (F). Further, in this state, when the group “Several people including A and B” is selected, the objects 405c, 405d, and 405e including several people including A and B are grouped, and FIG. ) State. Similarly, when the group “all including A and B” is selected, all the objects 405f and 405g in which A and B are shown are grouped, and the state shown in FIG.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (9)

表示面に表示されている複数のオブジェクトから、ユーザ操作により指示されたオブジェクトを選択する選択手段と、
前記操作を行う物体と前記表示面との間の距離に基づく操作距離を取得する距離取得手段と、
前記選択手段によって選択されたオブジェクトが属するグループのうち、前記距離取得手段によって取得された操作距離に対応付けられたグループレベルを特定し、前記複数のオブジェクトのうち、当該特定されたグループレベルのグループに属するオブジェクトを、前記選択されたオブジェクト付近に集合させる表示制御手段を有することを特徴とする情報処理装置。
A selection means for selecting an object designated by a user operation from a plurality of objects displayed on the display surface;
Distance acquisition means for acquiring an operation distance based on a distance between the object to be operated and the display surface;
Among the groups to which the object selected by the selection unit belongs, the group level associated with the operation distance acquired by the distance acquisition unit is specified, and the group at the specified group level among the plurality of objects is specified. An information processing apparatus comprising: display control means for collecting objects belonging to the vicinity of the selected object .
前記表示制御手段は、前記複数のオブジェクトのうち、前記特定されたグループレベルのグループに属するオブジェクトを、前記選択されたオブジェクトに向かって移動させ、前記複数のオブジェクトのうち、前記特定されたグループレベルのグループに属さないオブジェクトは移動させないことを特徴とする請求項1に記載の情報処理装置。The display control means moves an object belonging to the group of the specified group level among the plurality of objects toward the selected object, and the specified group level of the plurality of objects. The information processing apparatus according to claim 1, wherein an object that does not belong to the group is not moved. 前記表示制御手段は、前記操作を行う物体が所定時間の間、一定の操作距離を維持したことに応じて、前記集合させるオブジェクトの移動を開始することを特徴とする請求項1に記載の情報処理装置。2. The information according to claim 1, wherein the display control unit starts moving the objects to be gathered in response to the object performing the operation maintaining a certain operation distance for a predetermined time. Processing equipment. 前記表示制御手段は、前記操作を行う物体が移動されることで、前記表示面との間の距離が変化する速度に応じた速度で、前記集合させるオブジェクトを移動させることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。The display control means moves the objects to be gathered at a speed corresponding to a speed at which a distance to the display surface changes when an object to be operated is moved. The information processing apparatus according to any one of 1 to 3. さらに、前記オブジェクトに付加されている付加情報から、複数のグループレベルのグループ情報を生成する生成手段を有し、
前記表示制御手段は、前記グループ情報に基づいて、前記選択手段によって選択されたオブジェクトが属するグループのうち、前記距離取得手段によって取得された操作距離に対応付けられたグループレベルを特定し、当該グループレベルのグループに属するオブジェクトを集合させることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
And generating means for generating a plurality of group level group information from the additional information added to the object,
The display control unit specifies a group level associated with the operation distance acquired by the distance acquisition unit among the groups to which the object selected by the selection unit belongs based on the group information, and the group The information processing apparatus according to claim 1, wherein objects belonging to a level group are aggregated .
前記距離取得手段は、前記選択手段が選択するオブジェクトを指示するユーザ操作を行うときの前記物体と前記表示面との間の距離と、前記選択手段によって選択されたオブジェクトが属するグループのグルーピングを指示するユーザ操作を行うときの前記物体と前記表示面との間の距離との差分に基づいて、前記操作距離を取得することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   The distance acquisition means instructs a distance between the object and the display surface when performing a user operation to designate an object to be selected by the selection means, and a grouping of a group to which the object selected by the selection means belongs. The information according to any one of claims 1 to 5, wherein the operation distance is acquired based on a difference between a distance between the object and the display surface when a user operation is performed. Processing equipment. 選択手段により、表示面に表示されている複数のオブジェクトから、ユーザ操作により指示されたオブジェクトを選択する選択工程と、
距離取得手段により、前記操作を行う物体と前記表示面との間の距離に基づく操作距離を取得する距離取得工程と、
表示制御手段により、前記選択手段によって選択されたオブジェクトが属するグループのうち、前記距離取得手段によって取得された操作距離に対応付けられたグループレベルを特定し、前記複数のオブジェクトのうち、当該特定されたグループレベルのグループに属するオブジェクトを、前記選択されたオブジェクト付近に集合させる表示制御工程を有することを特徴とする情報処理装置の制御方法。
A selection step of selecting an object instructed by a user operation from a plurality of objects displayed on the display surface by the selection means;
A distance acquisition step of acquiring an operation distance based on a distance between the object to be operated and the display surface by distance acquisition means;
The display control means, of the selected object belongs group by said selection means, to identify the group level associated with the operation distance obtained by the distance obtaining means, among the plurality of objects, is the specific A control method for an information processing apparatus , further comprising: a display control step of collecting objects belonging to a group at a group level near the selected object .
コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項1乃至のいずれか1項に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。 By executing read into the computer, the computer program for causing to function as each unit of the information processing apparatus according to any one of claims 1 to 6. 請求項に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 8 .
JP2010170860A 2010-07-29 2010-07-29 Information processing apparatus and control method thereof Expired - Fee Related JP5645530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010170860A JP5645530B2 (en) 2010-07-29 2010-07-29 Information processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010170860A JP5645530B2 (en) 2010-07-29 2010-07-29 Information processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2012032945A JP2012032945A (en) 2012-02-16
JP2012032945A5 JP2012032945A5 (en) 2013-09-12
JP5645530B2 true JP5645530B2 (en) 2014-12-24

Family

ID=45846295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010170860A Expired - Fee Related JP5645530B2 (en) 2010-07-29 2010-07-29 Information processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5645530B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2916209B1 (en) * 2014-03-03 2019-11-20 Nokia Technologies Oy Input axis between an apparatus and a separate apparatus

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120619B2 (en) * 2003-04-22 2006-10-10 Microsoft Corporation Relationship view
JP2005010854A (en) * 2003-06-16 2005-01-13 Sony Computer Entertainment Inc Information presenting method and system
WO2006028154A1 (en) * 2004-09-09 2006-03-16 Kyoto University Information management system, information management method, information management program, and recording medium
CN101124572A (en) * 2004-09-24 2008-02-13 微软公司 File system shell
JP2008210348A (en) * 2007-02-28 2008-09-11 Univ Of Tokyo Image display device
JP4863908B2 (en) * 2007-03-16 2012-01-25 株式会社ソニー・コンピュータエンタテインメント Data processing apparatus, data processing method, and data processing program
JP5247260B2 (en) * 2008-06-27 2013-07-24 キヤノン株式会社 Information processing apparatus and information processing method
EP2338114B1 (en) * 2008-09-03 2017-03-15 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP4849351B2 (en) * 2009-06-08 2012-01-11 ソニー株式会社 Image display control apparatus and method
JP5627314B2 (en) * 2010-06-24 2014-11-19 キヤノン株式会社 Information processing device
US20120272171A1 (en) * 2011-04-21 2012-10-25 Panasonic Corporation Apparatus, Method and Computer-Implemented Program for Editable Categorization

Also Published As

Publication number Publication date
JP2012032945A (en) 2012-02-16

Similar Documents

Publication Publication Date Title
JP6816858B2 (en) How to control the display of multiple objects by operation-related input to the mobile terminal and the mobile terminal
KR102035305B1 (en) Method for providing haptic effect in portable terminal, machine-readable storage medium and portable terminal
CN105144069B (en) For showing the navigation based on semantic zoom of content
JP6062416B2 (en) Information input device and information display method
US10431259B2 (en) Systems and methods for reviewing video content
US20140165013A1 (en) Electronic device and page zooming method thereof
US9069445B2 (en) Electronic device with touch screen and page flipping method
CN107831991A (en) For determining the equipment, method and the graphic user interface that are rolling or selection content
JP5627314B2 (en) Information processing device
JP2016521418A (en) Method and apparatus for generating and editing an image with an object inserted
WO2014019207A1 (en) Widget processing method, device and mobile terminal
US20140043255A1 (en) Electronic device and image zooming method thereof
JP2013200660A (en) Display controller and control method of the same
US20170212906A1 (en) Interacting with user interfacr elements representing files
WO2014066180A1 (en) Interactive visual assessment after a rehearsal of a presentation
US20140149904A1 (en) Information processing apparatus, method for controlling the same, and storage medium
CN110083813A (en) User interface element for content selection and expansion content selection
US20140331141A1 (en) Context visual organizer for multi-screen display
JP6237135B2 (en) Information processing apparatus and information processing program
JP2008305339A (en) Operation time measuring instrument and method, skill level determining device and method, and program
TW201318423A (en) Real-time image manipulation method and electronic device
AU2017330785A1 (en) Electronic apparatus and controlling method thereof
JP5645530B2 (en) Information processing apparatus and control method thereof
EP3407174B1 (en) Method and apparatus for operating a plurality of objects on pressure touch-control screen
US20160028961A1 (en) Visual Media Capture Device For Visual Thinking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141104

R151 Written notification of patent or utility model registration

Ref document number: 5645530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees