JP5843544B2 - Information processing apparatus and control method thereof - Google Patents

Information processing apparatus and control method thereof Download PDF

Info

Publication number
JP5843544B2
JP5843544B2 JP2011207347A JP2011207347A JP5843544B2 JP 5843544 B2 JP5843544 B2 JP 5843544B2 JP 2011207347 A JP2011207347 A JP 2011207347A JP 2011207347 A JP2011207347 A JP 2011207347A JP 5843544 B2 JP5843544 B2 JP 5843544B2
Authority
JP
Japan
Prior art keywords
objects
metadata
display
displayed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011207347A
Other languages
Japanese (ja)
Other versions
JP2013069127A5 (en
JP2013069127A (en
Inventor
基起 仲間
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011207347A priority Critical patent/JP5843544B2/en
Publication of JP2013069127A publication Critical patent/JP2013069127A/en
Publication of JP2013069127A5 publication Critical patent/JP2013069127A5/ja
Application granted granted Critical
Publication of JP5843544B2 publication Critical patent/JP5843544B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示オブジェクトに対する操作性を向上する技術に関する。   The present invention relates to a technique for improving operability for a display object.

電子化されたオブジェクトをテーブル型ディスプレイや壁面型ディスプレイに表示し、表示されたオブジェクトを操作可能にすることで、オブジェクトの整理を支援するシステムが注目されている。このようなシステムのディスプレイには、タッチパネルやデジタイザ等のデバイスが組み込まれており、ディスプレイに表示されたオブジェクトをタッチできる。一般的にタッチパネルを利用した操作は、機器に不慣れなユーザにも馴染みやすいため、モバイル端末やコピー機等多くの機器で利用される。このようなシステムによって、ディスプレイに表示されたオブジェクトに対して直感的な操作(移動等)を行い、視覚的に整理・分類することができる。
特許文献1では、画面上に表示された写真オブジェクトを、周囲4方向の何れかの方向に移動させる操作を行うと、その操作方向に対応するグループに写真が振り分けられる。ユーザは、振り分けられたグループ毎に写真を呼び出し、印刷等の作業を行う事が出来る。ここでは、ユーザの意思によって複数のオブジェクトを4方向に移動させた結果、その結果を示す4種類にグループ分けしているだけである。すなわち、ユーザの移動の作業は、分類するための作業である。
A system that supports organizing objects by drawing electronic objects on a table-type display or a wall-type display and enabling the displayed objects to be operated has attracted attention. Devices such as a touch panel and a digitizer are incorporated in the display of such a system, and an object displayed on the display can be touched. In general, an operation using a touch panel is easily used by a user who is unfamiliar with the device, and is used in many devices such as a mobile terminal and a copy machine. With such a system, it is possible to visually organize and classify the objects displayed on the display by performing intuitive operations (movement, etc.).
In Patent Document 1, when an operation for moving a photographic object displayed on a screen in any one of four surrounding directions is performed, the photos are sorted into groups corresponding to the operation direction. The user can call up a photograph for each group that has been assigned, and perform operations such as printing. Here, as a result of moving a plurality of objects in four directions according to the user's intention, they are only grouped into four types indicating the results. That is, the user movement work is a work for classification.

特開2010−134859号公報JP 2010-134859 A

上述したシステムの使い方は様々であり、特許文献1のように表示中のオブジェクトを分類することを主目的として各オブジェクトを移動させているとは限らない。しかしながら、例えユーザが分類を主目的にして作業していないとしても、会議などでオブジェクトを配置、移動した場合には、それら位置関係には何等かの意味がある可能性が高い。
本発明は上記課題を考慮してなされたものであり、何等かの目的で複数のオブジェクトを配置、移動した場合に、それらオブジェクトに対して、オブジェクト同士の関係を理解しやすくするためのメタデータを付与する一手法を提供することを目的とする。
There are various uses of the above-described system, and each object is not always moved with the main purpose of classifying the objects being displayed as in Patent Document 1. However, even if the user is not working for the main purpose of classification, if the objects are arranged and moved in a meeting or the like, there is a high possibility that the positional relationship has some meaning.
The present invention has been made in consideration of the above-mentioned problems. When a plurality of objects are arranged and moved for any purpose, metadata for facilitating understanding of the relationship between the objects for these objects. An object is to provide a method for providing the above.

上記の課題を解決するために、本発明は、表示部に複数のオブジェクトを表示させる情報処理装置であって、前記表示部に表示された複数のオブジェクトのレイアウトを取得する取得手段と、前記取得手段により取得されたレイアウトにおける、前記複数のオブジェクト同士の表示上の視覚的な関係を特定する特定手段と、前記特定された視覚的関係に基づくデータを、前記複数のオブジェクトそれぞれに対してメタデータとして付与する付与手段と、前記表示される複数のオブジェクトのうち、少なくとも1つのオブジェクトを選択する操作を実行する操作手段と、前記操作手段により選択された少なくとも1つのオブジェクトにおいて、キーオブジェクトを分類する分類手段とを備え、前記取得手段は、前記操作手段により選択されたオブジェクトのうち少なくとも1つを更に移動させる操作がなされた場合には、前記移動に伴って変更されたレイアウトを取得し、前記特定手段は、前記キーオブジェクトと表示される他のオブジェクトそれぞれとの前記表示上の視覚的な関係を特定し、前記付与手段は、前記複数のオブジェクトそれぞれに前記特定手段により特定された結果に基づくメタデータを付与するものであって、前記複数のオブジェクト同士の表示上の視覚的な関係とは、オブジェクトの間の距離、またはオブジェクトが表示されるサイズ、またはオブジェクトが配置される位置のいずれか1つまたはその組み合わせに基づく関係であることを特徴とする。 In order to solve the above-described problem, the present invention provides an information processing apparatus that displays a plurality of objects on a display unit, the acquisition unit acquiring a layout of the plurality of objects displayed on the display unit, and the acquisition in the acquired layout by means and identifying means for identifying a visual relationship on the display among the plurality of objects, the data based on the identified visual relationships, meta to each of the plurality of objects Classifying a key object in an assigning means for giving as data, an operating means for executing an operation for selecting at least one of the displayed objects, and at least one object selected by the operating means and a classifying means for, said obtaining means is selected by said operation means When an operation for further moving at least one of the objects is performed, a layout changed in accordance with the movement is acquired, and the specifying unit is configured to acquire the key object and each of the other objects displayed. The visual relationship on the display is specified, and the assigning means assigns metadata based on the result specified by the specifying means to each of the plurality of objects, the visual relationship, characterized by relationship der Rukoto based on any one or combination of positions where the distance or size object is displayed or object, is placed between the object.

本発明によれば、何等かの目的で複数のオブジェクトを配置、移動した場合に、それらオブジェクトに対して、オブジェクト同士の関係を理解しやすくするためのメタデータを付与することができる。   According to the present invention, when a plurality of objects are arranged and moved for some purpose, metadata for facilitating understanding of the relationship between the objects can be given to the objects.

情報処理装置のシステム概要図System overview of information processing equipment 情報処理装置のハードウェア及び機能構成図Hardware and functional configuration diagram of information processing apparatus メタデータ付与処理の説明図Explanatory drawing of metadata grant processing 情報処理装置の処理を示す処理フロー図Processing flow chart showing processing of information processing apparatus 付与されるメタデータの一例であるテーブルを示す図The figure which shows the table which is an example of the metadata provided 情報処理装置の処理を示す処理フロー図Processing flow chart showing processing of information processing apparatus メタデータ付与処理の説明図Explanatory drawing of metadata grant processing 情報処理装置の処理を示す処理フロー図Processing flow chart showing processing of information processing apparatus 付与されるメタデータの一例であるテーブルを示す図The figure which shows the table which is an example of the metadata provided

以下、本発明の実施形態について図面を参照して詳細に説明する。尚、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すものであり、これに限るものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, embodiment described below shows an example at the time of implementing this invention concretely, and is not restricted to this.

[第1の実施形態]
第1の実施形態では、表示部に表示された複数のオブジェクトを操作して移動させた配置において、オブジェクト間の距離が小さい程、そのオブジェクト同士の関連度が高いことを示す値(度数)をメタデータとして各オブジェクトに付与する例を説明する。
[First Embodiment]
In the first embodiment, in the arrangement in which a plurality of objects displayed on the display unit are operated and moved, a value (frequency) indicating that the degree of association between the objects is higher as the distance between the objects is smaller. An example of giving to each object as metadata will be described.

図1は、本実施形態を適応可能なシステムの例を示す概要図である。図1(A)は、テーブル型ディスプレイ101、壁面型ディスプレイ102を利用して、会議におけるアイデア出しや議論をインタラクティブに行うための会議システムである。参加者A、Bは表示部であるディスプレイ101、102に表示されたオブジェクト103、104を、指や手を使ってタッチ操作、もしくはジェスチャ操作することで、オブジェクトの選択や移動等の各種操作を実行できる。図1(A)では、下方と側方の両方向に投影可能なプロジェクタ105を利用して、ディスプレイ101、壁面型ディスプレイ102の両方にオブジェクトを投影するシステムを示す。また、オブジェクトに対するタッチまたはジェスチャによる操作を特定するために、タッチセンサおよび距離画像センサを各ディスプレイ周辺で利用する。タッチセンサはディスプレイ101に組み込まれており、参加者A、Bの手が届く位置に表示されているオブジェクト103をタッチ操作する際のタッチ検出に利用する。また距離画像センサは壁面型ディスプレイ102に設置されており、参加者A、Bの手の届かない位置に表示されているオブジェクト104をジェスチャ操作する際のジェスチャ検出に利用する。これらの各デバイスは、情報処理装置100とネットワークもしくはUSBによって接続されており、協調して機能する。ただし、図1(A)では、2つの表示部を用い、そのそれぞれに距離画像センサ、タッチセンサを搭載する例を示したが、表示部の数やセンサの方式はこれに限定されない。例えば、表示部は1つでも良い。また、プロジェクタ105のような投影型表示部ではなく、液晶ディスプレイのような大画面ディスプレイをテーブルもしくは壁面に設置して利用することもできる。また、図1(A)では、情報処理装置100は天井に設置されるが、設置位置は別の場所であっても良い。   FIG. 1 is a schematic diagram showing an example of a system to which this embodiment can be applied. FIG. 1A is a conference system for interactively generating ideas and discussions in a conference using a table type display 101 and a wall surface type display 102. Participants A and B perform various operations such as selection and movement of objects by touching or gesturing the objects 103 and 104 displayed on the displays 101 and 102, which are display units, using fingers or hands. Can be executed. FIG. 1A shows a system that projects an object on both the display 101 and the wall surface display 102 using a projector 105 that can project in both the downward and lateral directions. In addition, a touch sensor and a distance image sensor are used around each display in order to specify an operation by touch or gesture on the object. The touch sensor is incorporated in the display 101 and is used for touch detection when touching the object 103 displayed at a position where the hands of the participants A and B can reach. The distance image sensor is installed on the wall surface display 102 and is used for gesture detection when the object 104 displayed at a position out of the reach of the participants A and B is operated. Each of these devices is connected to the information processing apparatus 100 via a network or USB, and functions in cooperation. Note that although FIG. 1A illustrates an example in which two display units are used and a distance image sensor and a touch sensor are mounted on each of the two display units, the number of display units and the sensor method are not limited thereto. For example, the number of display units may be one. In addition, a large screen display such as a liquid crystal display can be used on a table or wall instead of the projection display unit such as the projector 105. In FIG. 1A, the information processing apparatus 100 is installed on the ceiling, but the installation position may be another place.

図1(B)は、情報処理装置100がタブレット型端末である例を示す。この場合、使用者は、タッチセンサを備えた表示部であるタッチスクリーンディスプレイ106に表示されたオブジェクト107を、指等を使ってタッチ操作することでオブジェクトの選択や移動等の各種操作を実行できる。   FIG. 1B illustrates an example in which the information processing apparatus 100 is a tablet terminal. In this case, the user can perform various operations such as selection and movement of an object by touching the object 107 displayed on the touch screen display 106, which is a display unit including a touch sensor, using a finger or the like. .

このように、本発明は、タッチ操作やジェスチャ操作を用いて、表示部に表示されたオブジェクトを操作することが可能な情報処理装置に適応されるものである。以下、本実施形態は、図1(A)のシステムにおいて、主にテーブル型ディスプレイ101を用いて操作する例について説明する。   As described above, the present invention is applied to an information processing apparatus that can operate an object displayed on a display unit by using a touch operation or a gesture operation. Hereinafter, in the present embodiment, an example in which operation is mainly performed using the table type display 101 in the system of FIG.

図2(A)は本実施形態における、情報処理装置100のハードウェアの構成図である。情報処理装置100は、CPU(Central Processing Unit)200、RAM(Random Access Memory)201、ROM(Read Only Memory)202、バス203から構成される。またさらに、ディスプレイI/F204、ストレージI/F205、ストレージ206、入力I/F207から構成される。ただし、さらにネットワークI/FやメモリーカードI/F等のインタフェースを含み、それを利用して情報処理装置を実現することもできる。以下、情報処理装置100のハードウェア構成について、その詳細を説明する。   FIG. 2A is a hardware configuration diagram of the information processing apparatus 100 in the present embodiment. The information processing apparatus 100 includes a CPU (Central Processing Unit) 200, a RAM (Random Access Memory) 201, a ROM (Read Only Memory) 202, and a bus 203. Further, the display I / F 204, the storage I / F 205, the storage 206, and the input I / F 207 are included. However, an interface such as a network I / F or a memory card I / F is further included, and an information processing apparatus can be realized using the interface. Hereinafter, details of the hardware configuration of the information processing apparatus 100 will be described.

CPU200は、RAM201、ROM202、及びバス203を利用して情報処理装置100全体の制御を行う。オペレーティングシステム(OS)をはじめ、本発明に係る各処理プログラム、デバイスドライバ等はROM202に記憶されており、RAM201に一時記憶され、CPU200によって適宜実行される。ここでOSおよび各処理プログラム等はストレージ206に記憶されていてもよく、その場合は電源投入時にRAM201に適宜読み込まれ、CPU200によって起動される。   The CPU 200 controls the entire information processing apparatus 100 using the RAM 201, the ROM 202, and the bus 203. In addition to the operating system (OS), each processing program, device driver, and the like according to the present invention are stored in the ROM 202, temporarily stored in the RAM 201, and appropriately executed by the CPU 200. Here, the OS, each processing program, and the like may be stored in the storage 206, in which case they are appropriately read into the RAM 201 when the power is turned on, and are activated by the CPU 200.

ディスプレイI/F204は、情報処理装置100内部で作成される表示画像をディスプレイ101(投影型表示部を利用する場合にはプロジェクタ105)が処理可能な信号に変換する。ストレージI/F205は、情報処理装置100内部で利用可能なデータ形式とストレージ206に記憶するためのデータ形式を互いに変換する。入力I/F207は、距離画像センサ105からの距離情報ならびに、タッチセンサからの位置情報を入力信号として受信し、情報処理装置100が処理可能な情報に変換する。   The display I / F 204 converts a display image created in the information processing apparatus 100 into a signal that can be processed by the display 101 (or the projector 105 when the projection display unit is used). The storage I / F 205 mutually converts a data format that can be used inside the information processing apparatus 100 and a data format that is stored in the storage 206. The input I / F 207 receives distance information from the distance image sensor 105 and position information from the touch sensor as input signals, and converts them into information that can be processed by the information processing apparatus 100.

ストレージ206は、ハードディスクドライブ装置に代表される大容量情報記憶装置であって、ストレージ206には情報処理装置100で表示するためのオブジェクトのデータが膨大に格納されている。ストレージ206自体は、情報処理装置100内部に搭載されていても良いし、イーサネット(登録商標)やUSB、メモリーカードI/F等の各種インタフェースを介して接続されていてもよい。またその際、ストレージ206は複数台接続されることもできる。   The storage 206 is a large-capacity information storage device represented by a hard disk drive device, and the storage 206 stores a large amount of object data to be displayed on the information processing apparatus 100. The storage 206 itself may be mounted inside the information processing apparatus 100, or may be connected via various interfaces such as Ethernet (registered trademark), USB, and memory card I / F. At that time, a plurality of storages 206 can be connected.

以下、説明済みの図を用いて説明された要素については同一の符号を付し、その説明を省略する。   Hereinafter, the same reference numerals are given to the elements described with reference to the already described drawings, and the description thereof is omitted.

図2(B)は本実施形態における情報処理装置100の機能ブロック図である。情報処理装置100の機能は、オブジェクト読み出し部300、表示制御部301、操作部302、レイアウト取得部303、検出部304、特定部305、付与部306、分類部307から構成される。これらの各機能ブロックはハードウェア、ソフトウェアの組み合わせによって様々な形態で実現できる。本実施形態では、各機能ブロックは上述したCPU200の機能部に相当する。   FIG. 2B is a functional block diagram of the information processing apparatus 100 in the present embodiment. The function of the information processing apparatus 100 includes an object reading unit 300, a display control unit 301, an operation unit 302, a layout acquisition unit 303, a detection unit 304, a specification unit 305, an assignment unit 306, and a classification unit 307. Each of these functional blocks can be realized in various forms by a combination of hardware and software. In the present embodiment, each functional block corresponds to the functional unit of the CPU 200 described above.

ストレージ206に記憶されているデータは、音声、手書き文字、テキスト、画像、動画等、様々な形式で電子化されたデータ(以下、オブジェクト)である。初期状態において、これらオブジェクトには、作成日時の情報は付与されているが、オブジェクト同士の関連を表すような情報は付与されていないものとする。また、ストレージ206には、システムの利用中に考え出されたオブジェクトだけでなく、過去に作成済みのオブジェクトが記憶されていても良い。本実施形態においては、オブジェクトとして特に写真等の静止画像を扱う例を示す。   Data stored in the storage 206 is data (hereinafter, objects) digitized in various formats such as voice, handwritten characters, text, images, and moving images. In the initial state, it is assumed that information about the creation date and time is given to these objects, but information indicating the relationship between the objects is not given. In addition, the storage 206 may store not only objects that have been conceived during use of the system but also objects that have been created in the past. In this embodiment, an example in which a still image such as a photograph is handled as an object will be described.

オブジェクト読み出し部300は表示するオブジェクトをストレージ206から読み出し、RAM201に保持する。本実施形態では、簡単に説明するためにローカルに接続されたストレージ206からオブジェクトを読み出す例を示しているが、ネットワーク上に存在するストレージやインターネット上から表示するオブジェクトをネットワーク経由で読み出すことも可能である。読み出したオブジェクトはRAM201に保持される。この時、読み出したデータがRAM201に対して大きすぎる場合は、読み込むデータを小分けにして順次読み込んで処理しても構わない。または、即座に読み出し可能なスワップデータとしてストレージ206に退避させておいてもよい。   The object reading unit 300 reads an object to be displayed from the storage 206 and holds it in the RAM 201. In this embodiment, an example of reading an object from the locally connected storage 206 is shown for the sake of simplicity. However, it is also possible to read a storage existing on the network or an object displayed on the Internet via the network. It is. The read object is held in the RAM 201. At this time, if the read data is too large for the RAM 201, the read data may be subdivided and processed sequentially. Alternatively, it may be saved in the storage 206 as swap data that can be read immediately.

表示制御部301は、RAM201に保持されているオブジェクトから表示画像を生成しディスプレイ101に出力する。表示制御部301で作成される表示画像の一例を図3(A)の400に示す。図3(A)では、401a〜401eが、プロジェクタ105に投影されることによってディスプレイ101、102に表示されたオブジェクトを示している。このような表示画像上での、各オブジェクトの配置される位置やサイズ等を示す情報をレイアウト情報といい、オブジェクトを移動させる操作によって各オブジェクトが配置される位置やサイズを変えることを「レイアウトを変更する」という。   The display control unit 301 generates a display image from the object held in the RAM 201 and outputs it to the display 101. An example of a display image created by the display control unit 301 is shown at 400 in FIG. In FIG. 3A, 401 a to 401 e indicate objects displayed on the displays 101 and 102 by being projected on the projector 105. Information indicating the position and size of each object on the display image is called layout information, and changing the position and size of each object by moving the object is called “layout. "Change."

操作部302は、選択したオブジェクトに対して操作を行う。本実施形態で操作部302がオブジェクトに対して行う操作は、オブジェクトの選択、および移動操作である。また、本実施形態のシステムにおいて、情報処理装置100に対する操作は、手や指等の物体を使い、タッチ操作もしくはジェスチャ操作することによって行う。ここでは、タッチセンサを搭載したテーブル型ディスプレイ101に対して、ユーザが手を使ったタッチ操作を行う例に基づいて説明する。まず、操作部302は、検出部304から、ユーザがタッチ操作で指示する位置情報を取得する。そして表示制御部301からオブジェクト401の表示位置情報を取得し、タッチされた位置とオブジェクトが表示されている位置が重なっていれば、その位置に表示されたオブジェクトを選択する。さらに、操作部302は、検出部304から取得したユーザのタッチ位置情報から、移動方向および移動距離を判断し、その位置までオブジェクトを移動させる操作を実行する。この際、表示制御部301は、操作部302から移動に関する情報を得て、移動操作に伴って表示すべき画像を生成し、ディスプレイ101に出力する。ここで検出部304は、タッチセンサがディスプレイ101上のタッチを検知し出力する信号を基に、ユーザによるタッチ操作を検出している。尚、壁面型ディスプレイ102に表示されるオブジェクトの場合は、距離画像センサが出力する信号に基づいて、検出部304がジェスチャ操作によって指示される位置情報を検出する。操作部302はその位置情報を取得して選択および移動の操作を実行する。   The operation unit 302 performs an operation on the selected object. In the present embodiment, the operations performed on the object by the operation unit 302 are object selection and movement operations. Further, in the system of the present embodiment, the operation on the information processing apparatus 100 is performed by performing a touch operation or a gesture operation using an object such as a hand or a finger. Here, a description will be given based on an example in which a user performs a touch operation with a hand on a table-type display 101 equipped with a touch sensor. First, the operation unit 302 acquires, from the detection unit 304, position information instructed by the user through a touch operation. Then, the display position information of the object 401 is acquired from the display control unit 301. If the touched position and the position where the object is displayed overlap, the object displayed at the position is selected. Further, the operation unit 302 determines a moving direction and a moving distance from the user's touch position information acquired from the detecting unit 304, and executes an operation of moving the object to that position. At this time, the display control unit 301 obtains information regarding movement from the operation unit 302, generates an image to be displayed in accordance with the movement operation, and outputs the image to the display 101. Here, the detection unit 304 detects a touch operation by the user based on a signal output by the touch sensor detecting and outputting a touch on the display 101. In the case of an object displayed on the wall surface display 102, the detection unit 304 detects position information instructed by a gesture operation based on a signal output from the distance image sensor. The operation unit 302 acquires the position information and executes selection and movement operations.

レイアウト取得部303は、表示制御部301から初期画像のレイアウト情報を取得し、さらに操作部302によって少なくとも1つのオブジェクトが移動された場合には、それに伴って変更されたレイアウト情報を取得する。例えば、図3(C)では、図3(A)のの状態から、オブジェクト401cとオブジェクト401dが選択され、オブジェクト401dが移動された事に伴い変更されたレイアウトを示している。   The layout acquisition unit 303 acquires the layout information of the initial image from the display control unit 301, and further acquires the layout information changed in accordance with the movement of at least one object by the operation unit 302. For example, FIG. 3C shows a layout that is changed as the object 401c and the object 401d are selected from the state of FIG. 3A and the object 401d is moved.

特定部305は、レイアウト取得部303から現在表示部に表示されているレイアウトの情報を得て、複数のオブジェクトの表示上の視覚的な関係を特定する。ここで、表示上の視覚的な関係とは、例えば、オブジェクトの間の距離の大小関係、表示されるサイズの大小関係、あるいは互いの上下左右どの方向に表示されるかという位置関係等である。付与部306は、特定部305が取得した、オブジェクト同士の表示上の視覚的な関係の情報に基づき、各オブジェクトそれぞれに対してメタデータを付与する。ここで付与するメタデータは、付与する対象となるオブジェクトのある指標における程度(レベル)を示す値(度数)である。例えば、オブジェクトの間の距離が小さい程、オブジェクト同士の関連度が高いことを示す度数を、メタデータとして該当する両オブジェクトに付与する。オブジェクトに付与されたメタデータは、メタデータテーブルに格納され、ストレージに記憶される。また、本実施形態では、付与部306によって付与されたメタデータが示す情報が、オブジェクトと共に表示されるように、表示制御部301によって表示部(ディスプレイ101)上に出力される。例えば図3(C)おける円弧403aは、オブジェクト401cとオブジェクト401dの距離を小さくする操作が行われたことに応じて、関連度を示すメタデータが両オブジェクトに付与されたことを示すために表示されている。   The specifying unit 305 obtains information on the layout currently displayed on the display unit from the layout acquisition unit 303, and specifies the visual relationship on the display of a plurality of objects. Here, the visual relationship on display is, for example, the relationship between the distances between the objects, the relationship between the displayed sizes, or the positional relationship in which directions are displayed in the vertical and horizontal directions. . The assigning unit 306 assigns metadata to each object based on information on the visual relationship between the objects acquired by the specifying unit 305. The metadata to be assigned here is a value (frequency) indicating the degree (level) in a certain index of the object to be assigned. For example, a frequency indicating that the degree of association between objects is higher as the distance between the objects is smaller is assigned to both the corresponding objects as metadata. The metadata assigned to the object is stored in the metadata table and stored in the storage. In this embodiment, the information indicated by the metadata provided by the assigning unit 306 is output on the display unit (display 101) by the display control unit 301 so that the information is displayed together with the object. For example, the arc 403a in FIG. 3C is displayed to indicate that the metadata indicating the degree of association has been given to both objects in response to an operation to reduce the distance between the object 401c and the object 401d. Has been.

分類部307は、操作部302が選択したオブジェクトを、キーオブジェクトとサブオブジェクトに分類する。キーオブジェクト、サブオブジェクトという分類は、特定部305が注目すべきオブジェクトを限定したり、付与部306が付与されたメタデータが示す情報をディスプレイ101上に表示させたりする際に利用する。本実施形態では、移動していないオブジェクトをキーオブジェクト、移動しているオブジェクトをサブオブジェクトとしてそれぞれ分類する。例えば、図3(C)の例では、移動されたオブジェクト401dがサブオブジェクトであり、キーオブジェクト401cに対するサブオブジェクト401dの関連度を示すように、キーオブジェクト401cを中心とした円弧403aが表示されているものである。この円弧403aを表示させる処理については後述する。   The classification unit 307 classifies the object selected by the operation unit 302 into a key object and a sub object. The classification of key object and sub-object is used when the identifying unit 305 limits the object to be noted, or when the information indicated by the metadata provided by the assigning unit 306 is displayed on the display 101. In this embodiment, an object that has not moved is classified as a key object, and an object that has moved is classified as a sub-object. For example, in the example of FIG. 3C, the moved object 401d is a sub-object, and an arc 403a centered on the key object 401c is displayed so as to indicate the degree of association of the sub-object 401d with the key object 401c. It is what. Processing for displaying the arc 403a will be described later.

本実施形態では、表示部に表示された複数のオブジェクトのレイアウトを取得し、オブジェクトとオブジェクトの間の距離が小さい程、そのオブジェクト同士の関連度が高いことを示す値(度数)をメタデータとして各オブジェクトに付与する。図3は、本実施形態におけるメタデータ付与処理の説明図である。また図4は本実施形態における情報処理装置100のデータ表示処理を示す処理フロー図である。図3ならびに図4を用いて、本実施形態のデータ表示処理とメタデータ付与処理の詳細を説明する。   In the present embodiment, a layout of a plurality of objects displayed on the display unit is acquired, and a value (frequency) indicating that the degree of association between the objects is higher as the distance between the objects is smaller as metadata. Give to each object. FIG. 3 is an explanatory diagram of the metadata providing process in the present embodiment. FIG. 4 is a processing flowchart showing data display processing of the information processing apparatus 100 in the present embodiment. Details of the data display process and the metadata providing process of this embodiment will be described with reference to FIGS. 3 and 4.

まず、本実施形態で表示されているオブジェクトは人物の写真であるとする。以下、
図3、図4で示すメタデータ付与処理によって、写真のオブジェクトに写っているAさん、Bさん、Cさん、Dさん、Eさんの親密度をメタデータとして付与する例を示す。写真に対して、被写体である人物の親密度を示すメタデータを付与すると、情報処理装置100がそのメタデータを利用することができる。例えば、親密度をオブジェクト同士の間の距離の大小関係に対応付けメタデータ付与時の表示画像を後から再現することも可能である。さらに、付与されたメタデータを基に、特定の人物とある程度以上親密な仲にある人物が写った写真だけ抽出して、アルバムを作成する等の利用方法も可能になる。
First, it is assumed that the object displayed in the present embodiment is a photograph of a person. Less than,
An example in which the intimacy of Mr. A, Mr. B, Mr. C, Mr. D, and Mr. E reflected in the object of the photograph is assigned as metadata by the metadata adding process shown in FIGS. When metadata indicating the closeness of a person who is a subject is assigned to a photograph, the information processing apparatus 100 can use the metadata. For example, it is also possible to reproduce the display image at the time of adding metadata by associating the closeness with the magnitude relationship of the distance between objects. In addition, based on the given metadata, it is possible to extract only photographs showing a person who has a close relationship with a specific person to a certain extent and create an album.

以降、本実施形態では図1(A)の情報処理装置100のシステムにおいて、テーブル型ディスプレイ101に対してユーザが指でタッチ操作を行うものとして説明する。   Hereinafter, in this embodiment, the description will be made assuming that the user performs a touch operation with the finger on the table type display 101 in the system of the information processing apparatus 100 in FIG.

本実施形態では、情報処理装置100の電源が投入されたのに従って、データ表示処理が開始される。情報処理装置100は、データ表示処理を開始すると、ステップS10を実行する。ステップS10では、オブジェクト読み出し部300が、ストレージ206から表示するオブジェクトを読み出し、RAM201に保持する。次に表示制御部301は、ステップS11において、RAM201に保持されたオブジェクトをランダムに並べて表示画像を作成し、ステップS12において、作成した画面を初期画像としてディスプレイ101に出力する。この時、ディスプレイ101に表示される初期画像の一例を図3(A)に示す。ここで表示される写真のオブジェクトには、Aさん、Bさん、Cさん、Dさん、Eさんという5人の人物がそれぞれ1人ずつ写っているものとする。図3(A)では、計5つのオブジェクトが等しいサイズでランダムに配置されたレイアウトで表示されている。ただし、オブジェクトの名前順に画面左上から整列する等して初期画像を作成しても構わない。   In the present embodiment, the data display process is started as the information processing apparatus 100 is turned on. When starting the data display process, the information processing apparatus 100 executes Step S10. In step S <b> 10, the object reading unit 300 reads an object to be displayed from the storage 206 and holds it in the RAM 201. Next, in step S11, the display control unit 301 creates a display image by randomly arranging the objects held in the RAM 201, and outputs the created screen to the display 101 as an initial image in step S12. An example of the initial image displayed on the display 101 at this time is shown in FIG. It is assumed that the photograph object displayed here includes five persons A, B, C, D, and E, one by one. In FIG. 3A, a total of five objects are displayed in a layout in which the same size is randomly arranged. However, the initial image may be created by arranging the objects in the order of the names from the upper left of the screen.

ステップS13では、情報処理装置100は、表示されている複数のオブジェクトのうち、2つ以上のオブジェクトを選択する操作がなされたかを判断する。すなわち、検出部304がディスプレイ上の2以上の箇所でタッチ操作を検出し、その位置がオブジェクトの表示されている位置であるかを、操作部302が判断する。図3(A)の初期画像が表示されている状態で、ユーザが選択したいオブジェクトをタッチすると、ディスプレイ101に埋め込まれたタッチセンサがそのタッチを検知し、検出部304によって位置情報に変換され、操作部302へ出力される。操作部302は、検出部304から出力された位置情報と、表示制御部301から取得した初期画像のレイアウト情報とを利用し、タッチされた位置にオブジェクトが表示されていれば、オブジェクトを選択する操作を実行する。タッチ操作に従って、2つ以上のオブジェクトが選択される場合は(S13でYES)、ステップS14に移行する。本実施形態では、図3(B)のように、オブジェクト401cとオブジェクト401dの2つのオブジェクトがユーザのタッチ操作に従って選択されるとする。タッチ操作によって2つ以上のオブジェクトが選択されない場合は(S13でNO)、ステップS17の処理ステップに進む。   In step S13, the information processing apparatus 100 determines whether an operation for selecting two or more objects among the plurality of displayed objects has been performed. That is, the detection unit 304 detects a touch operation at two or more places on the display, and the operation unit 302 determines whether the position is a position where an object is displayed. When the user touches an object that the user wants to select in the state where the initial image of FIG. 3A is displayed, the touch sensor embedded in the display 101 detects the touch and is converted into position information by the detection unit 304. The data is output to the operation unit 302. The operation unit 302 uses the position information output from the detection unit 304 and the layout information of the initial image acquired from the display control unit 301. If the object is displayed at the touched position, the operation unit 302 selects the object. Perform the operation. When two or more objects are selected according to the touch operation (YES in S13), the process proceeds to step S14. In the present embodiment, as shown in FIG. 3B, it is assumed that two objects, an object 401c and an object 401d, are selected according to a user's touch operation. If two or more objects are not selected by the touch operation (NO in S13), the process proceeds to step S17.

ステップS14では、選択したオブジェクトを移動させる操作が検出されたかを、操作部302が判断する。すなわち、操作部302は、検出部304から出力された位置情報により、表示されたオブジェクトを選択するタッチに続いて、そのタッチした位置の移動が検出されたかどうかを確認する。ユーザによってオブジェクトの表示された位置をタッチする指をディスプレイ101上で動かしたことを、タッチセンサが検知すると、検出部304は、移動していくタッチ位置を位置情報として操作部302に出力する。ステップS14において操作部302は、ステップS13で検知されていたタッチ位置のうち、少なくとも1つが移動したことを示す情報を検知部304から取得すれば、オブジェクトを移動させる操作が検出されたと判断する。図3(B)の例は、上述したように2つのオブジェクトを選択した状態の表示画像を示している。選択されたオブジェクトは、Cさんが写っているオブジェクト401cとDさんが写っているオブジェクト401dである。選択されたオブジェクトは、選択されたことをユーザが特定できるよう強調表示される。強調表示は、図4(B)ではわかり易くするため色を変化させたが、選択されたオブジェクトのみオブジェクトを囲む枠を表示させる、チェックマークを付ける等の方法を用いても構わない。選択したオブジェクトの移動が検出されなかった場合(ステップS14でNO)は、ステップS17の処理に移行する。選択したオブジェクトの移動が検出された場合(ステップS14でYES)は、ステップS15のメタデータ付与処理が開始される。   In step S14, the operation unit 302 determines whether an operation for moving the selected object has been detected. That is, the operation unit 302 confirms whether the movement of the touched position has been detected following the touch for selecting the displayed object, based on the position information output from the detection unit 304. When the touch sensor detects that the user moves a finger touching the position where the object is displayed on the display 101, the detection unit 304 outputs the moving touch position to the operation unit 302 as position information. In step S14, the operation unit 302 determines that an operation for moving the object has been detected if information indicating that at least one of the touch positions detected in step S13 has moved is acquired from the detection unit 304. The example of FIG. 3B shows a display image in a state where two objects are selected as described above. The selected objects are an object 401c in which Mr. C is photographed and an object 401d in which Mr. D is photographed. The selected object is highlighted so that the user can identify that it has been selected. In FIG. 4B, for highlighting, the color is changed for easy understanding, but a method of displaying a frame surrounding the object only for the selected object or adding a check mark may be used. When the movement of the selected object is not detected (NO in step S14), the process proceeds to step S17. When the movement of the selected object is detected (YES in step S14), the metadata providing process in step S15 is started.

図4(B)は、第1の実施形態のメタデータ付与処理(ステップS15)の処理を示す処理フロー図である。メタデータ付与処理が開始されると、ステップS20で、選択したオブジェクトのうち、移動されるのは一部のみか(2つのオブジェクトのうちの片方のみか)を判断する。選択したオブジェクトのうち、移動しないオブジェクトがある場合、すなわち片方が移動され、片方が移動されない場合(ステップS20でYES)、続くステップS21において、分類部307によるオブジェクトの分類処理が行われる。選択したオブジェクトの全てが移動される場合、すなわち両方のオブジェクトが移動される場合(ステップS20でYES)は、ステップS24の処理に移行する。本実施形態の例では、図3(C)に示すように、選択した2つのオブジェクトのうち、オブジェクト401dのみが移動操作されるので、ステップS21に進む。   FIG. 4B is a process flowchart showing the process of adding metadata (step S15) according to the first embodiment. When the metadata providing process is started, it is determined in step S20 whether only a part of the selected objects is moved (only one of the two objects). If there is an object that does not move among the selected objects, that is, one of the selected objects is moved and one of them is not moved (YES in step S20), the object classification processing by the classification unit 307 is performed in subsequent step S21. If all of the selected objects are moved, that is, if both objects are moved (YES in step S20), the process proceeds to step S24. In the example of the present embodiment, as shown in FIG. 3C, since only the object 401d is moved among the selected two objects, the process proceeds to step S21.

ステップS21では、分類部307が、操作部302が選択した2つのオブジェクトをキーオブジェクトとサブオブジェクトに分類する。本実施形態では、選択したオブジェクトのうち、タッチ操作によって移動されないオブジェクトをキーオブジェクト、移動されるオブジェクトをサブオブジェクトとしてそれぞれ分類する。従って、図3の例では、移動されなかったオブジェクト401cがキーオブジェクト、移動されたオブジェクト401dがサブオブジェクトとして分類される。キーオブジェクト401cにはCさんが写っており、サブオブジェクト401dにはDさんが写っている。さらに、キーオブジェクトとサブオブジェクトをユーザが特定できるように、キーオブジェクトを強調表示してもよい。図3(C)では、キーオブジェクトの背景が網掛けとなり、オブジェクト401dとの相違を表現している。分類部307での分類処理が完了すると、ステップS22において、付与部306がストレージ206にオブジェクトに付属して記憶されたメタデータテーブルが参照し、RAM201に保持する。オブジェクトがメタデータテーブルを有していないときは、空のテーブルを生成して参照し、RAM201に保持する。メタデータテーブルは、表示オブジェクトに付与するメタデータを保持するテーブルで、図5に示すような構造をしており、初期状態ではメタデータは付与されていない(図5A)。本実施形態で付与するメタデータは、オブジェクトに写っているAさん、Bさん、Cさん、Dさん、Eさんがそれぞれどの程度親しいのかという親密度を示す度数であり、親密度が大きい程対象となる2人は親密であるとする。ただし、ステップS10において、オブジェクト読み出し部300によってオブジェクトと共に読み出され、RAM201に保持されたメタデータテーブルを、ステップS22において付与部306が参照しても構わない。   In step S21, the classification unit 307 classifies the two objects selected by the operation unit 302 into a key object and a sub object. In the present embodiment, among the selected objects, an object that is not moved by a touch operation is classified as a key object, and an object that is moved is classified as a sub-object. Therefore, in the example of FIG. 3, the object 401c that has not been moved is classified as a key object, and the moved object 401d is classified as a sub-object. Mr. C is shown in the key object 401c, and Mr. D is shown in the sub-object 401d. Further, the key object may be highlighted so that the user can specify the key object and the sub-object. In FIG. 3C, the background of the key object is shaded to express a difference from the object 401d. When the classification process in the classification unit 307 is completed, the assigning unit 306 refers to the metadata table stored in the storage 206 attached to the object and stores it in the RAM 201 in step S22. When the object does not have a metadata table, an empty table is generated and referred to and stored in the RAM 201. The metadata table is a table that holds metadata to be given to the display object, and has a structure as shown in FIG. 5, and no metadata is given in the initial state (FIG. 5A). The metadata given in the present embodiment is a frequency indicating the familiarity of how close each of Mr. A, Mr. B, Mr. C, Mr. D, and Mr. E is reflected in the object. Assume that the two people are intimate. However, the adding unit 306 may refer to the metadata table read together with the object by the object reading unit 300 in step S10 and held in the RAM 201 in step S22.

次にステップS23において、操作部302は移動されたオブジェクト、すなわちサブオブジェクトの移動位置の情報を検出部304から取得し、これをRAM201に保持する。ステップS24において、表示制御部301は、RAM201に保持されているメタデータの情報とサブオブジェクトの位置情報を用いて、移動操作に伴って変化した表示画像をディスプレイ101に出力して表示画像を更新する。図3(C)では、オブジェクト401dの移動させる手の操作に追従して、オブジェクト401dが表示される位置が変化していく様子を表示している。ステップS25において、操作部302はサブオブジェクトの移動が完了するかを判断する。すなわち、操作部302が検出部304から取得するタッチ位置の移動が継続しているかを確認し、移動が継続している場合(ステップS25でNO)は、再びステップS23でサブオブジェクトの移動位置を取得し、ステップS24で表示画像を更新する。ユーザがサブオブジェクトを選択し移動する操作のためにディスプレイ101に触れていた指を離した場合、すなわち検知部304がタッチの解除を検知した場合には、サブオブジェクトの移動を完了し(ステップS25でYES)、ステップS26に進む。   In step S <b> 23, the operation unit 302 acquires information on the moved position of the moved object, that is, the sub-object, from the detection unit 304, and holds this in the RAM 201. In step S <b> 24, the display control unit 301 uses the metadata information and the sub-object position information held in the RAM 201 to output a display image that has changed due to the movement operation to the display 101 to update the display image. To do. FIG. 3C shows how the position where the object 401d is displayed changes following the operation of the hand that moves the object 401d. In step S25, the operation unit 302 determines whether the movement of the sub object is completed. That is, the operation unit 302 confirms whether or not the movement of the touch position acquired from the detection unit 304 is continued. If the movement continues (NO in step S25), the movement position of the sub object is set again in step S23. The display image is updated in step S24. When the user releases the finger touching the display 101 for the operation of selecting and moving the sub-object, that is, when the detection unit 304 detects the release of the touch, the movement of the sub-object is completed (step S25). YES), the process proceeds to step S26.

ステップS26では、まずレイアウト取得部303が、現在表示されている表示画像におけるオブジェクトのレイアウトを取得する。本実施形態では、レイアウト取得部305は、ディスプレイ101上の表示される表示画像全体を座標平面と考えて原点を設定し、キーオブジェクトの中心座標(x1、y1)、サブオブジェクトの中心座標(x2、y2)を取得する。レイアウト取得部305はその他、必要に応じて表示画像におけるオブジェクトの形状やサイズ、色等のレイアウト情報を取得する。次に、特定部305が、取得されたレイアウト情報を基に、各オブジェクトの表示上の視覚的な関係を特定する。このような視覚的な関係は、ユーザが情報処理装置100上に表示された複数のオブジェクトを操作する上で最も認識しやすい要素のひとつである。本実施形態では、ここで特定する表示上の視覚的な関係とは、操作部302によって選択されているキーオブジェクトとサブオブジェクトの間の距離ΔLの大小関係である。所望とするオブジェクト間の距離ΔLは、
D=√{(x1−x2)*(x1−x2)+(y1−y2)*(y1−y2)}
で求めることができる。さらに、特定部305は、求めた距離ΔLをRAM201に保持する。図3(C)の例では、情報処理装置を起動した直後の初回の操作を説明しているため、RAM201に保持された距離ΔLの情報は1つである。従って大小関係を判断することはしないが、2度目以降の処理では、既にRAM201に保持されている他のオブジェクトに関する距離ΔLとの大小関係を特定する。2度目以降の処理については後述する。
In step S26, the layout acquisition unit 303 first acquires the layout of the object in the currently displayed display image. In this embodiment, the layout acquisition unit 305 considers the entire display image displayed on the display 101 as a coordinate plane, sets the origin, sets the center coordinates (x1, y1) of the key object, and the center coordinates (x2) of the sub object. , Y2). In addition, the layout acquisition unit 305 acquires layout information such as the shape, size, and color of the object in the display image as necessary. Next, the specifying unit 305 specifies the visual relationship on the display of each object based on the acquired layout information. Such a visual relationship is one of the elements that are most easily recognized when the user operates a plurality of objects displayed on the information processing apparatus 100. In the present embodiment, the visual relationship on display specified here is the magnitude relationship of the distance ΔL between the key object selected by the operation unit 302 and the sub-object. The desired distance between objects ΔL is:
D = √ {(x1-x2) * (x1-x2) + (y1-y2) * (y1-y2)}
Can be obtained. Further, the specifying unit 305 holds the obtained distance ΔL in the RAM 201. In the example of FIG. 3C, the first operation immediately after starting the information processing apparatus is described, and therefore there is only one information on the distance ΔL held in the RAM 201. Accordingly, the magnitude relationship is not determined, but in the second and subsequent processes, the magnitude relationship with the distance ΔL regarding other objects already held in the RAM 201 is specified. The second and subsequent processes will be described later.

次にステップS27では、特定部305が、RAM201に保持されているメタデータと、オブジェクト間の距離ΔLを利用して、各オブジェクトのメタデータに更新が必要かを判断する。特定部305は、具体的には、算出した距離ΔLから定義されるメタデータを定義し、メタデータテーブルに設定されているメタデータと比較して、同じであれば更新する必要はなく、相違していれば更新する必要があると判断する。本実施形態の例では、図3(C)の状態における関連(メタデータテーブル)の状態は図5(A)であり、メタデータは定義されていない。従って、Cさんが写っているオブジェクト401cとDさんが写っているオブジェクト401dとの親密度を示すメタデータを新たに設定する必要がある。このように、初回使用時には常にメタデータは更新される。2度目以降の処理において、オブジェクトが移動されてもオブジェクト間の距離の大小関係に変化がない場合には、NOの判断がされる。メタデータテーブルを更新する場合(ステップS27でYES)、ステップS28で、特定部305は、図5(B)で示すように、CさんのメタデータテーブルとDさんのメタデータテーブルに、互いに親密度1というメタデータを付与することを決定する。ここでメタデータの更新が必要ない場合(ステップS27でNO)は、メタデータ付与処理を終了し、呼び出し元にリターンする。ステップS29において、付与部306は、決定されたメタデータに基づいて、RAM201上に保持されているCさんが写っているオブジェクト401cのテーブルに、図5(B)で示される「親密度1」、「親密な人物D」というメタデータを付与する。同様に付与部306は、RAM201上に保持されているDさんが写っているオブジェクト401dのテーブルに、図5(B)で示される「親密度1」、「親密な人物C」というメタデータを付与することで更新する。   In step S27, the specifying unit 305 determines whether the metadata of each object needs to be updated using the metadata held in the RAM 201 and the distance ΔL between the objects. Specifically, the identifying unit 305 defines metadata defined from the calculated distance ΔL, and does not need to be updated if the metadata is the same as compared with the metadata set in the metadata table. If so, it is determined that it needs to be updated. In the example of this embodiment, the state of the association (metadata table) in the state of FIG. 3C is FIG. 5A, and no metadata is defined. Therefore, it is necessary to newly set metadata indicating the intimacy between the object 401c in which Mr. C is reflected and the object 401d in which Mr. D is reflected. Thus, the metadata is always updated at the first use. In the second and subsequent processes, if the magnitude relationship of the distance between the objects does not change even if the objects are moved, NO is determined. When updating the metadata table (YES in step S27), in step S28, the identifying unit 305 establishes a parent of the metadata table of Mr. C and the metadata table of Mr. D as shown in FIG. It is decided to give metadata of density 1. If no metadata update is necessary (NO in step S27), the metadata providing process is terminated and the process returns to the caller. In step S29, the assigning unit 306 displays “intimacy 1” shown in FIG. 5B in the table of the object 401c in which Mr. C is stored in the RAM 201 based on the determined metadata. , Metadata “intimate person D” is attached. Similarly, the assigning unit 306 adds metadata such as “intimacy 1” and “intimate person C” illustrated in FIG. 5B to the table of the object 401d in which Mr. D is stored in the RAM 201. Update by granting.

以上でメタデータ付与処理(ステップS15)は完了し、呼び出し元の処理にその結果がリターンされる。メタデータ付与処理(ステップS15)が終了すると、ステップS16において表示画像の更新が行われる。本実施形態では、ここで更新される表示画像では、複数のオブジェクトとともに、付与されたメタデータを表現するため、図3(C)に示す円弧403aを表示する。円弧403aは、Cさんが写っているオブジェクト401cを中心、ステップS26で求めた距離ΔLを半径とし、この円弧上で示される位置に表示されるオブジェクトは、オブジェクト401cに対して、被写体の人物同士の親密度が1であることを示す。この円弧は、オブジェクト同士の関係の強さ(本実施形態では、親密度の高さ)という指標での程度を視覚的に表現する手段として利用され、以降、このような表示手段を関連度スケールと定義する。   Thus, the metadata providing process (step S15) is completed, and the result is returned to the caller process. When the metadata providing process (step S15) ends, the display image is updated in step S16. In the present embodiment, in the display image updated here, an arc 403a shown in FIG. 3C is displayed together with a plurality of objects in order to express the given metadata. The arc 403a is centered on the object 401c in which Mr. C is shown, the distance ΔL obtained in step S26 is the radius, and the object displayed at the position indicated on the arc is the object person with respect to the object 401c. The intimacy of is 1. This arc is used as a means for visually expressing the degree of the strength of the relationship between objects (in this embodiment, the degree of closeness) visually. Hereinafter, such a display means is used as a relevance scale. It is defined as

表示画像の更新(ステップS16)が終了すると、情報処理装置100ではデータ表示を終了するかどうかの判断が行われる。例えば、アプリケーションから終了の指示があった場合や、検出部304がユーザによる所定の終了操作を検出した場合、一定時間以上何の操作も検出されなかった場合等に、データ表示を終了する(ステップS17でYES)。そして、ステップS18に進み、RAM201上に保持されているレイアウト情報及びメタデータテーブルをストレージ206に保存する。データ表示を終了しない場合(ステップS17でNO)は、再びS13に処理が移行し、オブジェクトの選択(ステップS13)、移動処理(ステップS14、ステップS15)、表示画像の更新(ステップS16)によって実現されるメタデータ付与処理を繰返す。図3(D)〜(J)は、図3(C)の状態から、指402aで選択するオブジェクトは401cのままで、402bで選択するオブジェクトを次々変えながらメタデータ付与処理を行う様子を示している。本実施形態では、ユーザが、CさんはAさん、Eさん、Dさんの順により親密であり、BさんはDさんと同程度Cさんに対して親密であるという事実を基に操作する場合を例として、重複する処理ステップの詳細な内容を適宜省略しながら説明を続ける。   When the update of the display image (step S16) ends, the information processing apparatus 100 determines whether to end the data display. For example, the data display is ended when an end instruction is issued from the application, when the detection unit 304 detects a predetermined end operation by the user, or when no operation is detected for a certain period of time or more (step S30). YES in S17). In step S 18, the layout information and the metadata table stored on the RAM 201 are stored in the storage 206. If the data display is not terminated (NO in step S17), the process proceeds to S13 again, which is realized by object selection (step S13), movement process (step S14, step S15), and display image update (step S16). The metadata adding process is repeated. FIGS. 3D to 3J show a state where the object to be selected with the finger 402a remains 401c from the state of FIG. 3C and the metadata adding process is performed while changing the objects to be selected with 402b one after another. ing. In the present embodiment, the user operates based on the fact that Mr. C is more intimate in the order of Mr. A, Mr. E, and Mr. D, and Mr. B is as close to Mr. C as Mr. D. As an example, the description will be continued while appropriately omitting the detailed contents of the overlapping processing steps.

図3(D)は、Cさんが写っているオブジェクト401cとAさんが写っているオブジェクト401aを選択した状態を示している(ステップS13)。Aさんは、DさんよりもCさんと親密であるので、ユーザは図3(E)で示すように、Aさんが写っているオブジェクト401aを、親密度1を示す円弧403aよりも内側に移動させる(ステップS14)。その操作に従って、情報処理装置100はメタデータ付与処理を実行する(ステップS15)。移動操作の結果、特定部305は、Cさんが写っているオブジェクト401cとAさんが写っているオブジェクト401aの間の距離ΔL(C、A)は、CさんとDさんの相対距離ΔL(C、D)よりも小さいと特定する(ステップS26)。つまり、Cさんに対するDさんの親密度1よりも、Cさんに対するAさんの親密度の方が大きいと判断できる。また、この時点で参照されている(ステップS22)メタデータテーブルには、CさんとAさんの親密度を示すメタデータは設定されていないため、メタデータテーブルの更新が必要だと判断される(ステップS27)。特定部305は、親密度1よりも大きい親密度を設定するためには、図5(B)で示すCさんのメタデータテーブルに対して、Aさんに対する親密度2を設定する必要がある。そして同様に図5(B)で示すAさんの親密度テーブルに対してCさんに対する親密度1を生成する必要がある、とそれぞれ決定する(S28)。従って、付与部306は、図5(C)で示すように、Cさんのテーブルに「親密度2」、「親密な人物A」というメタデータを、Aさんのテーブルに「親密度1」、「親密な人物C」というメタデータをそれぞれ付与する(ステップS29)。そして、表示制御部301によって親密度2を示す円弧403bが表示される(ステップS16)。   FIG. 3D shows a state where the object 401c in which Mr. C is reflected and the object 401a in which Mr. A is selected are selected (step S13). Since Mr. A is more intimate with Mr. C than Mr. D, the user moves the object 401a in which Mr. A is reflected to the inside of the arc 403a indicating the familiarity 1, as shown in FIG. (Step S14). In accordance with the operation, the information processing apparatus 100 executes a metadata providing process (step S15). As a result of the moving operation, the specifying unit 305 determines that the distance ΔL (C, A) between the object 401c in which Mr. C is reflected and the object 401a in which Mr. A is reflected is the relative distance ΔL (C , D) is specified (step S26). That is, it can be determined that Mr. A's familiarity with Mr. C is greater than Mr. D's familiarity 1 with Mr. C. In addition, since the metadata indicating the closeness of Mr. C and Mr. A is not set in the metadata table referred to at this time (step S22), it is determined that the metadata table needs to be updated. (Step S27). In order to set the familiarity greater than the familiarity 1, the specifying unit 305 needs to set the familiarity 2 for Mr. A in the metadata table of Mr. C shown in FIG. Similarly, it is determined that it is necessary to generate intimacy 1 for Mr. C from Mr. A's intimacy table shown in FIG. 5B (S28). Therefore, as shown in FIG. 5C, the granting unit 306 stores metadata of “intimacy 2” and “intimate person A” in the table of C, and “intimacy 1” in the table of A. Metadata “intimate person C” is assigned (step S29). Then, the display control unit 301 displays the arc 403b indicating the familiarity 2 (step S16).

図4(F)は、ユーザの操作に従って、Cさんが写っているオブジェクト401cと、Eさんが写っているオブジェクト401eが選択された状態を示している(ステップS13)。Eさんは、DさんよりもCさんと親密で、かつAさんよりは親密でない。従って、ユーザは図4(G)で示すように、Eさんが写っているオブジェクト401eを、親密度1を示す円弧403aよりも内側かつ、親密度2を示す円弧403bよりも外側の位置に移動させる(S14)。その結果、Cさんが写っているオブジェクト図4(G)401cとEさんが写っているオブジェクト図(G)401eの相対距離ΔL(C、E)は、CさんとDさんの相対距離ΔL(C、D)よりも小さいと特定される。同様に、CさんとAさんの相対距離ΔL(C、A)よりも大きいと特定される(S26)。そして、現在参照されているメタデータテーブルの内容と相違があるため、更新が必要であると判断できる(ステップS27)。Cさんに対するDさんの親密度1よりも、Eさんの親密度の方が大きく、Aさんの親密度2よりも小さく、親密度1よりも大きく、親密度2よりも小さい親密度を設定するため必要がある。そのため、特定部305によって、図5(D)で示すように、Cさんのメタデータテーブルに親密度3を、Eさんのメタデータテーブルに親密度1を付与することが決定され、付与部306によってメタデータテーブルに付与される。この際、Cに対するAのメタデータは「親密度2」、「親密な人物A」から「親密度3」、「親密な人物A」に更新される。また、表示制御部301によって、親密度3を示す円弧403b、親密度2を示す円弧403cを更新表示する。このように動的に、親密度を示す値を決定、メタデータテーブルを更新(修正)することにより、柔軟にオブジェクトにメタデータを付与することが可能となる。また動的に親密度を示す値を決定する際に、図3(F)で示すように関連度スケールの間隔(図3(F)の円弧403aと円弧403bの間隔)が狭いと、新しい関連度を生成し辛い。そこで本実施形態では、表示制御部301が、隣接する関連度円弧を外側もしくは内側へ自動的に移動させることで、関連度円弧間の隙間を自動調整する。図3(G)の例では、円弧403cを新たに表示するために、関連度円弧403aを外側に自動的に移動させる。その移動に伴ってDさんが写っているオブジェクト401dも外側に移動させる。この機能によって、常に見やすい表示状態を保つことが可能となる。   FIG. 4F shows a state where an object 401c in which Mr. C is reflected and an object 401e in which Mr. E is selected are selected according to the user's operation (step S13). Mr. E is more intimate with Mr. C than Mr. D and less intimate with Mr. A. Accordingly, as shown in FIG. 4G, the user moves the object 401e in which Mr. E appears to a position inside the arc 403a indicating the familiarity 1 and outside the arc 403b indicating the familiarity 2. (S14). As a result, the relative distance ΔL (C, E) between the object figure 4 (G) 401 c where Mr. C is reflected and the object figure (G) 401 e where Mr. E is reflected is the relative distance ΔL ( C, D). Similarly, it is specified that it is larger than the relative distance ΔL (C, A) between Mr. C and Mr. A (S26). Then, since there is a difference from the contents of the currently referenced metadata table, it can be determined that updating is necessary (step S27). The intimacy of Mr. E is greater than the intimacy 1 of Mr. D for Mr. C, less than the intimacy 2 of Mr. A, greater than intimacy 1 and smaller than intimacy 2 Because it is necessary. Therefore, as illustrated in FIG. 5D, the specifying unit 305 determines that the familiarity 3 is assigned to the metadata table of Mr. C and the familiarity 1 is assigned to the metadata table of Mr. E. Is added to the metadata table. At this time, the metadata of A for C is updated from “intimacy 2” and “intimate person A” to “intimacy 3” and “intimacy person A”. Further, the display control unit 301 updates and displays the arc 403b indicating the familiarity 3 and the arc 403c indicating the familiarity 2. In this way, by dynamically determining a value indicating intimacy and updating (correcting) the metadata table, it is possible to flexibly add metadata to the object. Further, when the value indicating the intimacy is dynamically determined, if the interval of the relevance scale (the interval between the arc 403a and the arc 403b in FIG. 3F) is narrow as shown in FIG. Hard to produce degrees. Therefore, in the present embodiment, the display control unit 301 automatically adjusts the gap between the relevance arcs by automatically moving adjacent relevance arcs outward or inward. In the example of FIG. 3G, the relevance arc 403a is automatically moved outward in order to newly display the arc 403c. Along with the movement, the object 401d in which Mr. D is reflected is also moved outward. This function makes it possible to maintain a display state that is always easy to see.

図4(H)は、Cさんが写っているオブジェクト401cと、Bさんが写っているオブジェクト401bを選択した状態を示している(S13)。Bさんは、Dさんと同程度Cさんと親密であるので、ユーザは図3(I)で示すように、Bさんが写っているオブジェクト401bを、親密度1を示す円弧403aと同じ位置になるように移動させる。その操作の結果、Cさんが写っているオブジェクト401cとBさんが写っているオブジェクト401bの相対距離ΔL(C、B)は、CさんとDさんの相対距離ΔL(C、D)と同程度となる。特定部305は、新たにΔL(C、D)を求めずとも円弧403aが表示されている領域(円弧の太さを考慮した範囲)と、オブジェクト401bの中心座標とが重なることをレイアウト取得部303の取得結果から、距離ΔLの大小関係を特定することができる。つまり、図5(D)で示すCさんのテーブルにおいては、これまで設定された他のオブジェクトとの間の親密度を示す値を変更する必要はないが、新たに親密度1の欄にオブジェクト401bとの関係に基づく値を追加する必要がある。一方、図5(D)で示すBさんのテーブルに対しては、新たに親密度1のメタデータを設定する必要がある(S27でYES)。そのために、特定部305は、図5(E)で示すように、Bさんのテーブルに親密度1の項目を生成する(S28)。そして付与部306は、生成された関連度に基づいて、Cさんが写っているオブジェクト401cに、図7(E)で示される「親密度1」、「親密な人物B」を追加で付与する。同様に付与部306は、Bさんが写っているオブジェクト401bに、図5(E)で示される「親密度1」、「親密な人物C」を付与する(S29)。図4(J)は、Cさんに対する親密さに基づいて、ユーザが人物の写真のオブジェクトを整理・分類する作業が完了した表示画像を示している。   FIG. 4H shows a state where the object 401c in which Mr. C is reflected and the object 401b in which Mr. B is selected are selected (S13). Since Mr. B is as close to Mr. C as Mr. D, the user places the object 401b in which Mr. B appears in the same position as the arc 403a indicating the familiarity 1, as shown in FIG. Move to become. As a result of the operation, the relative distance ΔL (C, B) between the object 401c where Mr. C is reflected and the object 401b where Mr. B is reflected is comparable to the relative distance ΔL (C, D) between Mr. C and Mr. D. It becomes. The specifying unit 305 determines that the area where the arc 403a is displayed (a range in consideration of the thickness of the arc) overlaps with the center coordinates of the object 401b without newly obtaining ΔL (C, D). From the acquisition result 303, the magnitude relationship of the distance ΔL can be specified. That is, in Mr. C's table shown in FIG. 5D, it is not necessary to change the value indicating the closeness with other objects set so far, but a new object is displayed in the Closeness 1 column. It is necessary to add a value based on the relationship with 401b. On the other hand, it is necessary to newly set the familiarity level 1 metadata for the table of Mr. B shown in FIG. 5D (YES in S27). For this purpose, the specifying unit 305 generates an item of closeness 1 in the table of Mr. B as shown in FIG. 5E (S28). Then, the assigning unit 306 additionally gives “intimacy 1” and “intimate person B” shown in FIG. 7E to the object 401c in which Mr. C is shown based on the generated relevance. . Similarly, the assigning unit 306 assigns “intimacy 1” and “intimate person C” shown in FIG. 5E to the object 401b in which Mr. B is reflected (S29). FIG. 4J shows a display image in which the user has completed the work of organizing and classifying human photograph objects based on the intimacy with respect to Mr. C.

本実施形態によって、一度でもメタデータを付与できれば、情報処理装置100において、図4(J)で示される親密度の分類状態を簡単に復元できる。もしくは、このメタデータを他の目的で利用することも可能である。例えば、結婚式や卒業式といったイベントで撮影された大量の写真の中から、Cさんの写真とCさんと親密度2以上の関係にある人物が移った写真のみを抽出して印刷したり、アルバムの作成に用いたり、といった利用方法も可能になる。その場合、同一人物が移った写真を判別可能な公知の顔特定技術等を用いて、この整理分類作業で用いたオブジェクト以外の写真のオブジェクトにも、その写真に移っている人物を示すメタデータを付与しておく。それを利用すれば、CさんおよびCさんと親密度2以上であるAさん、Eさんの写真を選び出すことが可能である。本実施形態の説明では、Cさんが移っているオブジェクト401cをキーオブジェクトとしたため、Cさんに対するその他の人物の親密度を示す度数をメタデータとして各オブジェクトに付与して作業を終了した。ただし、さらに他のオブジェクトをキーオブジェクトとする操作を続け、他のオブジェクト同士の親密度を示す値を各メタデータテーブルに設定できる。各人物に個別に配布するための写真を、それぞれが親密な人物に対応して抽出して印刷する事も可能になり、利便性が高まる。キーオブジェクトを変えて操作を続ける際には、それまでに設定済みのメタデータは、ステップS24で表示画像を更新する段階で関連度スケールとして表示させる。そうすることで、ユーザは重複した内容を付与するための不必要な操作をせずに済む。   According to this embodiment, if metadata can be given even once, the information processing apparatus 100 can easily restore the familiarity classification state shown in FIG. Alternatively, this metadata can be used for other purposes. For example, from a large number of photos taken at events such as weddings and graduations, only the photos of Mr. C and photos of a person who has a relationship with Mr. C more than 2 moved are extracted and printed, It can also be used to create albums. In that case, using a well-known face identification technique that can identify a photo to which the same person has moved, metadata that indicates the person who has moved to the photo is also present in the photo object other than the object used in this sorting and classification work Is given. If it is used, it is possible to select photos of Mr. C and Mr. A and Mr. E who have a closeness of 2 or more. In the description of the present embodiment, since the object 401c to which Mr. C is moving is used as a key object, the frequency indicating the closeness of other persons with respect to Mr. C is given to each object as metadata, and the work is completed. However, a value indicating the closeness between the other objects can be set in each metadata table by continuing the operation using another object as a key object. It is also possible to extract and print photographs to be distributed to each person individually corresponding to intimate persons, which increases convenience. When the operation is continued by changing the key object, the metadata set so far is displayed as a relevance scale at the stage of updating the display image in step S24. By doing so, the user does not have to perform an unnecessary operation for giving duplicate contents.

尚、本実施形態では、オブジェクトと別に各オブジェクトに対応したメタデータテーブルをストレージに保存することで、各オブジェクトのメタデータを付与した。こうすることで、オブジェクト自体のファイルに変更を加えたりファイルサイズを大きくしたりする必要なく、メタデータを扱うことができる。ただし、オブジェクトに対してメタデータを付与する方法はこれに限定されず、例えば、オブジェクトのファイルそのものにメタデータを埋め込むこともできる。この場合は、ファイルの保存場所を移動したり、別のアプリケーションで読み出したりする際に、対象とするファイルがオブジェクトそのものだけでよいという利点がある。   In the present embodiment, metadata of each object is given by storing a metadata table corresponding to each object in the storage separately from the object. In this way, metadata can be handled without having to change the file of the object itself or increase the file size. However, the method of assigning metadata to an object is not limited to this, and for example, metadata can be embedded in the object file itself. In this case, there is an advantage that when the file storage location is moved or read by another application, the object file is only the object itself.

また、本実施形態では、オブジェクトの移動を移動させる操作によってメタデータが変更される際には、新たなメタデータを格納することによってメタデータテーブルを更新した。しかし、メタデータが変更される際にメタデータテーブルの項目を増やし、その履歴情報も含めたメタデータを、各オブジェクトそれぞれに付与してもよい。   In the present embodiment, when the metadata is changed by an operation for moving the movement of the object, the metadata table is updated by storing new metadata. However, when the metadata is changed, the number of items in the metadata table may be increased, and metadata including the history information may be assigned to each object.

これまで本実施形態では、説明を簡略化するため2つのオブジェクトを選択する場合についての説明を行ってきた。会議室システムのテーブル型ディスプレイに対して、1人の作業者が表示されたオブジェクトを任意に移動させる操作をする場合には、両腕を用いて同時に2箇所をタッチする操作が基本になるためである。ただし、指を用いる等して表示されたオブジェクトのうちの2つ以上を選択して操作し、メタデータを付与することも可能である。この場合、ステップS21におけるオブジェクト分類処理では、本実施形態と同様に、動いているオブジェクトをサブオブジェクトとして分類すればよい。また、最初に選択したオブジェクトをキーオブジェクト、その後、キーオブジェクトに対するタッチを解除するまでに選択したオブジェクトをサブオブジェクトとして分類しても構わない。   So far, in the present embodiment, the case where two objects are selected has been described in order to simplify the description. When an operator moves a displayed object arbitrarily on a table-type display in a conference room system, the operation of touching two locations simultaneously using both arms is fundamental. It is. However, it is also possible to select and operate two or more of the displayed objects using a finger or the like to add metadata. In this case, in the object classification process in step S21, the moving object may be classified as a sub-object as in the present embodiment. Alternatively, the first selected object may be classified as a key object, and then the object selected until the touch on the key object is released may be classified as a sub-object.

また、本実施形態では、選択したオブジェクトを移動させる操作が行われた場合に限り(ステップS14でYES)、メタデータの付与が行われていた。この変形例として、初期画像において、オブジェクトが選択された段階(ステップS13)で、一旦オブジェクトにメタデータを付与してしまうこともできる。その場合、選択されるオブジェクトが確定したら、分類部307によるオブジェクトの分類処理と、レイアウト取得部303による初期画像におけるレイアウトの取得処理を実行する。そして、その結果を基に特定部305がオブジェクト間の距離の大小関係に基づき、各オブジェクトに付与するメタデータを決定し、決定されたメタデータを付与部306が付与する。その後オブジェクトが移動された場合には、初期画像のレイアウトから設定されたメタデータを、必要に応じて変更していくようにする。   Further, in the present embodiment, only when the operation of moving the selected object is performed (YES in step S14), the metadata is added. As a modified example, metadata can be once added to the object at the stage where the object is selected (step S13) in the initial image. In this case, when the selected object is determined, the object classification process by the classification unit 307 and the layout acquisition process in the initial image by the layout acquisition unit 303 are executed. Based on the result, the specifying unit 305 determines metadata to be assigned to each object based on the magnitude relationship between the objects, and the adding unit 306 adds the determined metadata. Thereafter, when the object is moved, the metadata set from the layout of the initial image is changed as necessary.

尚、本実施形態では、関連度スケールとして円弧を表示したが、矢印や矩形、文字等を関連度スケールとして表示してもよい。また、関連度スケールとして透明度(α値)を利用し、関連度が高いオブジェクトから関連度が低いオブジェクトになるに従って、透明度を高くして表示することもできる。さらに、表示オブジェクトが3D表示されている場合には、関連度スケールとして奥行き方向(z軸方向)を利用し、関連度が低いオブジェクトは深い奥行きで表示されるように制御することも可能である。   In this embodiment, an arc is displayed as the relevance scale, but arrows, rectangles, characters, and the like may be displayed as the relevance scale. Further, transparency (α value) can be used as the relevance scale, and the object can be displayed with higher transparency as the relevance of the object increases from the object with the higher relevance. Furthermore, when the display object is displayed in 3D, it is possible to use the depth direction (z-axis direction) as the relevance scale, and control so that an object with low relevance is displayed at a deep depth. .

以上のように、本実施形態によれば、表示されたオブジェクトを移動させる等の操作に応じて有用なメタデータを各オブジェクトに付与することができる。具体的には、オブジェクトの間の距離が小さい程、オブジェクト同士の関連度が高いことを示す度数を、該当する両オブジェクトにメタデータとして付与することができる。オブジェクト間の距離のような、表示されているオブジェクトの視覚的な関係は、情報処理装置100を操作するユーザによって最も認識しやすい情報である。さらに、タッチ操作などの直感的な操作によれば、このようなオブジェクトの視覚的な関係を変更する操作が簡単に行える。従って、本実施形態は、直感的にオブジェクトの視覚的な関係を操作することで、オブジェクト同士の関係をわかりやすくするメタデータをオブジェクトに付与することができるので、ユーザにとって利便性の高いインタフェースを提供することができる。尚、メタデータを決定するのに用いるオブジェクト同士の視覚的な関係としては、オブジェクト間の距離だけでなく、オブジェクトの表示サイズの大小関係や、オブジェクトの配置位置の位置関係を組み合わせて考慮してもよい。   As described above, according to the present embodiment, useful metadata can be assigned to each object in accordance with an operation such as moving the displayed object. Specifically, a frequency indicating that the degree of association between objects is higher as the distance between the objects is smaller can be given to both the corresponding objects as metadata. The visual relationship between displayed objects, such as the distance between objects, is information that is most easily recognized by a user operating the information processing apparatus 100. Furthermore, according to an intuitive operation such as a touch operation, an operation for changing the visual relationship between such objects can be easily performed. Therefore, in this embodiment, by intuitively manipulating the visual relationship between objects, metadata that makes it easy to understand the relationship between objects can be given to the object. Can be provided. Note that the visual relationship between the objects used to determine the metadata takes into account not only the distance between the objects, but also the size relationship of the display size of the object and the positional relationship of the object placement position. Also good.

[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して説明する。システム概要図、ハードウェア構成図、機能ブロック図は、図1および図2を用いて説明した第1の実施形態と同様である。既に説明済みのものには同一の符号を付け、その説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to the drawings. The system outline diagram, hardware configuration diagram, and functional block diagram are the same as those in the first embodiment described with reference to FIGS. 1 and 2. The same reference numerals are given to those already described, and description thereof is omitted.

第1の実施形態では、表示された複数のオブジェクトのうち2つ以上のオブジェクトを選択し、選択されたオブジェクトのみに、それらの間の距離の大小関係に基づくメタデータを付与していた。それに対し、第2の実施形態では、表示された複数のオブジェクトのうち少なくとも1つのオブジェクトを選択し、選択したオブジェクトとその他全てのオブジェクトとの間の距離に基づき、全てのオブジェクトにメタデータを付与する。   In the first embodiment, two or more objects are selected from a plurality of displayed objects, and metadata based on the magnitude relation of the distance between them is given only to the selected objects. In contrast, in the second embodiment, at least one object is selected from a plurality of displayed objects, and metadata is assigned to all objects based on the distance between the selected object and all other objects. To do.

図6は、第2の実施形態におけるデータ表示処理を説明する処理フロー図である。データ表示処理の開始からステップS12までの処理ステップは、第1の実施形態と同様に実行される。続くステップS13Aでは、表示された複数のオブジェクトのうち少なくとも1つのオブジェクトを選択するかを、操作部302が判断する。すなわち、検出部304から取得したディスプレイ101上でユーザによってタッチされた少なくとも1箇所の位置情報が、表示制御部301から取得したオブジェクトの表示された領域内を示すものであれば、ステップS14に進む。ステップS14では、第1の実施形態と同様、ステップS13Aで選択されたオブジェクトを移動するかどうかを判断する。オブジェクトを移動する判断がなされた場合は、ステップS15Aのメタデータ付与処理に進む。   FIG. 6 is a process flowchart for explaining the data display process in the second embodiment. The processing steps from the start of the data display processing to step S12 are executed in the same manner as in the first embodiment. In the subsequent step S13A, the operation unit 302 determines whether at least one object is selected from the plurality of displayed objects. That is, if the position information of at least one place touched by the user on the display 101 acquired from the detection unit 304 indicates the inside of the displayed area of the object acquired from the display control unit 301, the process proceeds to step S14. . In step S14, as in the first embodiment, it is determined whether to move the object selected in step S13A. If it is determined that the object is to be moved, the process proceeds to the metadata providing process in step S15A.

第2の実施形態におけるメタデータ付与処理(ステップS15A)では、オブジェクトの分類処理を行ない。従って、まずステップS22が実行され、付与部306が全てのオブジェクトのメタデータテーブルが参照し、現在のメタデータをRAM201に保持する。以降の処理では、第1の実施形態と同様に、移動されたオブジェクトの移動位置を取得し(ステップS23)、それに伴って表示画像を更新し(ステップS24)、移動が完了するまで繰り返す(ステップS25でNO)。操作部302がオブジェクトの移動が完了したと判断したら(ステップS25でYES)、レイアウト取得部305が変更されたレイアウトを取得し、特定部が表示されているレイアウトにおける全てのオブジェクトの表示上の視覚的な関係を特定する(ステップS26)。第1の実施形態と同様、第2の実施形態においても、ステップS26において特定する表示上の視覚的な関係とは、オブジェクト間の距離ΔLの大小関係である。従って、特定部305は、表示されている全てのオブジェクトに関して、選択され移動されたオブジェクトとの間の距離ΔLを求め、その大小関係を特定する。次のステップS27では、特定部305は、RAM201に保持された現在のメタデータとの相違を確認し、メタデータの更新が必要かを判断する。初回使用時には、常にYESの判断がされる。また、オブジェクトが移動されても、オブジェクト間の距離の大小関係に変化がない場合には、NOの判断がされる。メタデータを更新する場合(ステップS27でYES)、ステップS28Aに進む。メタデータの更新が必要ない場合(ステップS27でNO)は、メタデータ付与処理を終了し、呼び出し元にリターンする。   In the metadata providing process (step S15A) in the second embodiment, an object classification process is performed. Accordingly, step S22 is first executed, and the assigning unit 306 refers to the metadata tables of all objects and holds the current metadata in the RAM 201. In the subsequent processing, as in the first embodiment, the movement position of the moved object is acquired (step S23), the display image is updated accordingly (step S24), and repeated until the movement is completed (step S23). NO in S25). When the operation unit 302 determines that the movement of the object has been completed (YES in step S25), the layout acquisition unit 305 acquires the changed layout, and the visual on the display of all objects in the layout in which the specific unit is displayed. A specific relationship is specified (step S26). Similar to the first embodiment, also in the second embodiment, the visual relationship on the display specified in step S26 is the magnitude relationship of the distance ΔL between objects. Accordingly, the specifying unit 305 obtains the distance ΔL between all the displayed objects and the selected and moved objects, and specifies the magnitude relationship. In the next step S27, the specifying unit 305 confirms the difference from the current metadata held in the RAM 201, and determines whether the metadata needs to be updated. At the first use, a determination of YES is always made. Further, if the magnitude relationship of the distance between the objects does not change even if the object is moved, NO is determined. When updating the metadata (YES in step S27), the process proceeds to step S28A. If updating of the metadata is not necessary (NO in step S27), the metadata providing process is terminated and the process returns to the caller.

ステップS28において、特定部305は、ステップS26で特定した選択されたオブジェクトとの間の距離ΔLの大小関係に基づき、表示されている全てのオブジェクトに対して、今回のメタデータ付与処理で付与するメタデータを決定する。すなわち、オブジェクト間の距離ΔLが小さい程、オブジェクト間の関連度が高いことを示す値(度数)を、メタデータテーブルに新たに付与するメタデータとして決定する。そして、ステップS29において、付与部306は、表示中のすべてのオブジェクトに決定されたメタデータを付与する。すなわち、各オブジェクトのメタデータテーブルに、決定された値(度数)と該当する相手を示す情報を格納する。メタデータ付与処理(ステップS15A)が終了したら、呼び出し元の処理にその結果がリターンされ、第1の実施形態と同様、ステップS16で表示画像を更新する。第1の実施形態では、ユーザが積極的に関連度を設定する際の操作性を向上させるため、ステップS16Aの表示更新処理において、関連度スケールの円弧を表示した。本実施形態ではこのような表示は行わず、選択したオブジェクトを強調する表示を解除する。そして、ステップS17においてデータ表示処理を終了するかどうかを確認する。第1の実施形態同様、例えば、アプリケーションから終了の指示があった場合や、検出部304がユーザによる所定の終了操作を検出した場合、一定時間以上何の操作も検出されなかった場合等には、データ表示を終了する(ステップS17でYES)。そして、ステップS18に進み、RAM201上に保持されているレイアウト情報及びメタデータテーブルをストレージ206に保存する。終了しない場合(ステップS17でNO)にはステップS13Aに戻って処理を繰り返す。   In step S <b> 28, the specifying unit 305 assigns all displayed objects to the displayed metadata based on the magnitude relationship of the distance ΔL with the selected object identified in step S <b> 26. Determine the metadata. That is, a value (frequency) indicating that the degree of association between objects is higher as the distance ΔL between objects is smaller is determined as metadata to be newly added to the metadata table. In step S29, the assigning unit 306 assigns the determined metadata to all the objects being displayed. That is, information indicating the determined value (frequency) and the corresponding partner is stored in the metadata table of each object. When the metadata providing process (step S15A) is completed, the result is returned to the caller process, and the display image is updated in step S16 as in the first embodiment. In the first embodiment, the arc of the relevance scale is displayed in the display update process in step S16A in order to improve the operability when the user actively sets the relevance. In the present embodiment, such display is not performed, and the display for highlighting the selected object is canceled. In step S17, it is confirmed whether or not to end the data display process. As in the first embodiment, for example, when there is an end instruction from an application, when the detection unit 304 detects a predetermined end operation by the user, or when no operation is detected for a certain period of time or the like. The data display is terminated (YES in step S17). In step S 18, the layout information and the metadata table stored on the RAM 201 are stored in the storage 206. If not completed (NO in step S17), the process returns to step S13A and the process is repeated.

第1の実施形態では、オブジェクトを選択し移動させる操作を行う度に、選択されたオブジェクトをキーオブジェクトとサブオブジェクトに分類した。そして、キーオブジェクトに対するサブオブジェクトの関連度の強さが、選択されたオブジェクトに対してのみ、メタデータとして付与された。一方で、第2の実施形態では、選択されたオブジェクトを分類する処理は行われず、選択された少なくとも1つのオブジェクトは、常に第1の実施形態におけるキーオブジェクトと同様に扱われる。すなわち、選択されたオブジェクトを移動させるたびに、選択されたオブジェクトに対する関連度の強さを、表示中のその他全てのオブジェクトそれぞれにメタデータとして付与する。また、ユーザがオブジェクト間の距離を変更すると、バックグラウンドで自動的に所定のメタデータを付与する処理を行う。つまり、ユーザがオブジェクトに関連度を付与しようと意識しながら操作を行うのではなく、表示されたオブジェクトを移動させ整理・分類するだけで自動的にメタデータが付与されるので、ユーザによってはより作業負荷の低いインタフェースを提供できる。ユーザにメタデータの付与処理を意識させないために、ステップS16Aにおいては関連度スケールを表示しない。ただし、第2の実施形態においても、メタデータを付与した後関連度スケールを表示すれば、ユーザは操作の意図とおりの関連度が正しく付与されているかを視覚的に確認することができる。従って、正確なメタデータが付与されるかどうかの確認する方法として、関連度スケールを表示させてもよい。   In the first embodiment, each time an operation for selecting and moving an object is performed, the selected object is classified into a key object and a sub-object. Then, the strength of the degree of relevance of the sub-object to the key object is given as metadata only to the selected object. On the other hand, in the second embodiment, the process of classifying the selected object is not performed, and at least one selected object is always handled in the same manner as the key object in the first embodiment. That is, each time the selected object is moved, the strength of the degree of association with the selected object is assigned as metadata to all the other objects being displayed. Further, when the user changes the distance between the objects, a process of automatically assigning predetermined metadata in the background is performed. In other words, metadata is automatically assigned by simply moving the displayed objects, organizing and classifying them, rather than performing the operation with the user trying to give the object a degree of association. An interface with a low workload can be provided. In order not to make the user aware of the process of giving metadata, the relevance scale is not displayed in step S16A. However, also in the second embodiment, if the relevance scale is displayed after the metadata is added, the user can visually confirm whether or not the relevance degree as intended by the operation is correctly given. Therefore, a relevance scale may be displayed as a method for confirming whether accurate metadata is given.

本実施形態では、少なくとも1つの選択オブジェクトを動かすと、すべての表示オブジェクトにメタデータを付与したが、この限りではない。変形例として、操作部302で選択オブジェクトを移動操作する際に、移動位置に加えて移動方向も取得すれば、移動させる方向の先に存在する1つ以上のオブジェクトに対してのみメタデータを付与することも可能である。その結果、第1の実施形態のように複数のオブジェクトを一度に選択しなくても、任意の範囲のオブジェクトに限定してメタデータを付与するといった制御が可能となる。   In this embodiment, when at least one selected object is moved, metadata is assigned to all display objects, but this is not a limitation. As a modification, when moving the selected object with the operation unit 302, if the moving direction is acquired in addition to the moving position, metadata is given only to one or more objects existing ahead of the moving direction. It is also possible to do. As a result, even if a plurality of objects are not selected at the same time as in the first embodiment, it is possible to perform control such that metadata is limited to an arbitrary range of objects.

尚、本実施形態においても、第1の実施形態と同様、オブジェクトと別に各オブジェクトに対応したメタデータテーブルをストレージに保存することで、各オブジェクトのメタデータを付与していた。ただし、例えば、オブジェクトのファイルそのものにメタデータを埋め込んでもよい。また、本実施形態では、オブジェクトの移動を移動させる操作によってメタデータが変更される際には、新たなメタデータを格納することによってメタデータテーブルを更新した。しかし、メタデータが変更される際にメタデータテーブルの項目を増やし、その履歴情報も含めたメタデータを、各オブジェクトそれぞれに付与してもよい。   In the present embodiment, similarly to the first embodiment, metadata of each object is given by storing a metadata table corresponding to each object in the storage separately from the object. However, for example, metadata may be embedded in the object file itself. In the present embodiment, when the metadata is changed by an operation for moving the movement of the object, the metadata table is updated by storing new metadata. However, when the metadata is changed, the number of items in the metadata table may be increased, and metadata including the history information may be assigned to each object.

以上のように、直感的にオブジェクトの視覚的な関係を操作することで、オブジェクト同士の関係をわかりやすくするメタデータをオブジェクトに付与することができるので、本実施形態はユーザにとって利便性の高いインタフェースを提供することができる。   As described above, by intuitively manipulating the visual relationship between objects, metadata that makes it easy to understand the relationship between objects can be given to the object, so this embodiment is highly convenient for the user. An interface can be provided.

[第3の実施形態]
次に、本発明の第3の実施形態について図面を参照して説明する。システム概要図、ハードウェア構成図、機能ブロック図は、図1および図2を用いて説明した第1の実施形態と同様である。尚、第3の実施形態においても、説明済みの要素には同一の符号を付け、その説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to the drawings. The system outline diagram, hardware configuration diagram, and functional block diagram are the same as those in the first embodiment described with reference to FIGS. 1 and 2. In the third embodiment as well, elements that have already been described are assigned the same reference numerals, and descriptions thereof are omitted.

第1、第2の実施形態では、表示されているオブジェクトの間の距離の大小関係に基づき、オブジェクト同士の関連度の高さを示す値(度数)をメタデータとして各オブジェクトに付与した。第3の実施形態では、オブジェクトの表示されるサイズ(面積)の大小関係、およびオブジェクト同士が互いの上下左右いずれの方向に存在するかという位置関係に基づいて、オブジェクトの重要度を示す値(度数)をメタデータとして各オブジェクトに付与する。第3の実施形態においても、第1、第2の実施形態と同様、図1(A)の会議システムのテーブル型ディスプレイ101を利用し、ディスプレイ101に表示される複数のオブジェクトを操作する。より具体的には、フォトアルバムのレイアウトや、企画書のレイアウト、雑誌ページのレイアウト等を、一人もしくは複数人で決定する操作を行った場合に、操作したオブジェクトにメタデータが付与される例を説明する。   In the first and second embodiments, a value (frequency) indicating the degree of relevance between objects is assigned to each object as metadata based on the magnitude relationship of the distance between the displayed objects. In the third embodiment, a value indicating the importance level of an object (based on a size relationship between displayed sizes (areas) of the object and a positional relationship indicating whether the objects exist in the vertical, horizontal, or horizontal direction of each other ( Frequency) is assigned to each object as metadata. In the third embodiment, similarly to the first and second embodiments, the table type display 101 of the conference system in FIG. 1A is used to operate a plurality of objects displayed on the display 101. More specifically, an example in which metadata is given to an operated object when an operation for determining the layout of a photo album, the layout of a project book, the layout of a magazine page, etc. by one or more people is performed. explain.

図7は、本実施形態におけるメタデータ付与処理の説明図である。また図8(A)、(B)は本実施形態における情報処理装置100のデータ表示処理を示す処理フロー図である。図9は、この時作成される各オブジェクトのメタデータテーブルである。なお、図9の各テーブルにおいてハイライトされている部分は、各操作によって更新される箇所を示すものとする。図7ならびに図8、図9を用いて、本実施形態のデータ表示処理とメタデータ付与処理の詳細を説明する。   FIG. 7 is an explanatory diagram of the metadata providing process in the present embodiment. 8A and 8B are processing flowcharts showing data display processing of the information processing apparatus 100 in this embodiment. FIG. 9 is a metadata table of each object created at this time. In addition, the highlighted part in each table of FIG. 9 shall show the location updated by each operation. Details of the data display process and the metadata providing process of this embodiment will be described with reference to FIGS. 7, 8, and 9.

情報処理装置100は、データ表示処理を開始すると、ステップS30を実行する。本実施形態においても、画像処理装置100の電源が投入されたのに従って、データ表示処理が開始される。ステップS30において、オブジェクト読み出し部300は、表示するオブジェクトをストレージ206から取得し、RAM201に保持する。次にステップS31において、表示制御部301は、RAM201に保持されたオブジェクトをランダムに並べて初期表示画像を作成し、ディスプレイ101に出力する。この時、ディスプレイ101に表示されている初期画像の一例を図7(A)に示す。オブジェクトIDが1から5であるオブジェクトを含む複数のオブジェクトがランダムに表示されている。図7の領域702はレイアウト枠であり、ランダムに表示されたオブジェクトの中から、オブジェクトを逐次選択し、レイアウト枠内に移動させてレイアウトを決める。またsaveボタン703はレイアウトを調整する経過を保存するためのボタンである。   When starting the data display process, the information processing apparatus 100 executes step S30. Also in the present embodiment, the data display process is started as the image processing apparatus 100 is powered on. In step S <b> 30, the object reading unit 300 acquires an object to be displayed from the storage 206 and holds it in the RAM 201. In step S <b> 31, the display control unit 301 creates an initial display image by randomly arranging objects held in the RAM 201, and outputs the initial display image to the display 101. An example of the initial image displayed on the display 101 at this time is shown in FIG. A plurality of objects including objects with object IDs 1 to 5 are displayed at random. An area 702 in FIG. 7 is a layout frame, and objects are sequentially selected from randomly displayed objects and moved into the layout frame to determine the layout. The save button 703 is a button for saving the progress of layout adjustment.

初期画像表示(ステップS31)が終了すると、ステップS32において、情報処理装置100は、ディスプレイ101へのタッチ操作を検出し、オブジェクトが選択されたどうかの判定を行う。すなわち、操作部302が、検出部304から取得したタッチ位置情報と、表示制御部301から取得したオブジェクトの表示領域が重なっているかを判断し、重なっている場合に該当するオブジェクトを選択する。オブジェクトが選択されていない場合(ステップS32でNO)は、ステップS38へ処理が移行する。オブジェクトが選択されている場合(ステップS32でYES)は、続いてステップS33の処理が実行される。ステップS33において、情報処理装置100は、検出部304で検出されるタッチ位置情報を利用して、選択されたオブジェクトが移動するかどうかの判定を行う。すなわち、ディスプレイ101に対するタッチの位置が、解除されることなく移動していることを検出部304が検知した場合には、操作部302によって該当するオブジェクトを移動させる操作が実行される。オブジェクトを移動する場合(ステップS33でYES)は、レイアウト編集処理(ステップS34)が開始される。オブジェクトを移動しない場合(ステップS33でNO)は、処理はステップS38へ移行する。   When the initial image display (step S31) ends, in step S32, the information processing apparatus 100 detects a touch operation on the display 101 and determines whether an object is selected. That is, the operation unit 302 determines whether the touch position information acquired from the detection unit 304 overlaps the display area of the object acquired from the display control unit 301, and selects the corresponding object if they overlap. If no object is selected (NO in step S32), the process proceeds to step S38. If an object has been selected (YES in step S32), the process of step S33 is subsequently executed. In step S <b> 33, the information processing apparatus 100 determines whether the selected object moves using the touch position information detected by the detection unit 304. That is, when the detection unit 304 detects that the position of the touch on the display 101 is moved without being released, an operation for moving the corresponding object by the operation unit 302 is executed. If the object is moved (YES in step S33), the layout editing process (step S34) is started. If the object is not moved (NO in step S33), the process proceeds to step S38.

図8(B)は、ステップS34のレイアウト編集処理を示す処理フロー図である。レイアウト編集処理(ステップS34)が開始されると、情報処理装置100は、ステップS40において、まず移動操作されたオブジェクトがレイアウト枠内部に存在するのかどうかを判定する。オブジェクトがレイアウト枠内部にない場合(ステップS40でNO)は、レイアウト処理はそのまま終了し、呼び出し元にリターンする。移動されたオブジェクトがレイアウト枠内部にある場合(ステップS40でYES)は、続いて、ステップS41の処理が実行される。ステップS41においては、付与部306がストレージ206にオブジェクトに付属して記憶されたメタデータテーブルが参照し、RAM201に保持する。オブジェクトがメタデータテーブルを有していないときは、図9(A)のように空のテーブルを生成して参照する。   FIG. 8B is a process flowchart showing the layout editing process in step S34. When the layout editing process (step S34) is started, the information processing apparatus 100 first determines in step S40 whether or not the moved object exists inside the layout frame. If the object is not inside the layout frame (NO in step S40), the layout process ends as it is and returns to the caller. If the moved object is inside the layout frame (YES in step S40), the process of step S41 is subsequently executed. In step S <b> 41, the assigning unit 306 refers to the metadata table stored in the storage 206 attached to the object, and stores it in the RAM 201. When the object does not have a metadata table, an empty table is generated and referenced as shown in FIG.

次に、ステップS42において、操作部302は、検出部304から得た位置情報からオブジェクトが移動された位置を取得する。さらに、オブジェクトを表示させるサイズを変更する操作が行われた場合には、その変更されたサイズを検出部304から取得する。そしてステップS43において、ユーザの操作が反映されるように表示画像を更新する。次に、ステップS44において、オブジェクトを移動させ、サイズを変更することによってレイアウト枠内のレイアウトを変更する一連の操作が完了したかを判断する。   Next, in step S <b> 42, the operation unit 302 acquires the position where the object has been moved from the position information obtained from the detection unit 304. Further, when an operation for changing the size for displaying the object is performed, the changed size is acquired from the detection unit 304. In step S43, the display image is updated so that the user's operation is reflected. Next, in step S44, it is determined whether a series of operations for changing the layout in the layout frame has been completed by moving the object and changing the size.

図7(B)は、初期画像で表示されたオブジェクト群から、ユーザがタッチ操作によりオブジェクトIDが3のオブジェクト701cを選択してレイアウト枠内に移動させ、所望とするサイズに調整して配置した状態を示す。ここで、オブジェクトのサイズを調整する操作は、ユーザが2本の指(704aおよび704b)を使ってオブジェクト上をタッチし、そのタッチを維持したままディスプレイ上で指の間隔を広げるピンチと呼ばれる操作によって行う。また、図7(C)は、2度目のレイアウト編集処理において、オブジェクト群からオブジェクトIDが4のオブジェクトがレイアウト枠内に移動され、オブジェクト701cの左下に配置された状態を示す。レイアウトの変更が完了した場合には(ステップS44でYES)、ステップS45の処理ステップに進む。レイアウトの変更が完了せず、引き続き操作される場合には(ステップS44でNO)、ステップS41に戻る。   In FIG. 7B, the user selects an object 701c having an object ID of 3 from the object group displayed in the initial image by a touch operation, moves the object 701c within the layout frame, and arranges it by adjusting it to a desired size. Indicates the state. Here, the operation for adjusting the size of the object is an operation called pinch in which the user touches the object with two fingers (704a and 704b) and widens the interval between the fingers while maintaining the touch. To do. FIG. 7C shows a state in which the object with the object ID 4 is moved from the object group into the layout frame and arranged at the lower left of the object 701c in the second layout editing process. When the layout change is completed (YES in step S44), the process proceeds to step S45. If the layout change is not completed and the operation is continued (NO in step S44), the process returns to step S41.

ステップS45において、特定部305が、取得された結果より、現在表示されているレイアウトでは、レイアウト枠内に複数のオブジェクトが存在しているかを判断する。複数のオブジェクトが存在する場合は(ステップS45でYES)、ステップS46の処理に移行する。複数のオブジェクトが存在しない場合は(ステップS45でNO)、ステップS48に進む。図7(B)では、レイアウト枠内にオブジェクト701cしか存在しないので、処理はステップS48に移行する。ステップS48以降の処理は後述される。一方、図7(C)では、レイアウト枠内にはオブジェクト701cとオブジェクト701dの2つのオブジェクトが存在するので、処理ステップはステップS46に移行する。   In step S45, the specifying unit 305 determines whether a plurality of objects exist in the layout frame in the currently displayed layout based on the acquired result. If there are a plurality of objects (YES in step S45), the process proceeds to step S46. If a plurality of objects do not exist (NO in step S45), the process proceeds to step S48. In FIG. 7B, since only the object 701c exists in the layout frame, the process proceeds to step S48. The processing after step S48 will be described later. On the other hand, in FIG. 7C, since there are two objects, the object 701c and the object 701d, in the layout frame, the processing step proceeds to step S46.

ステップS46において、レイアウト取得部303は、レイアウト枠内に存在する複数のオブジェクトに関するレイアウト情報として位置情報および表示画像上でのオブジェクトのサイズを取得し、RAM201に保持する。ここで、オブジェクトの位置情報とは、レイアウト枠を座標平面と考えた場合のオブジェクトの中心座標であり、サイズとはオブジェクトの面積に相当する。次に、ステップS47では、特定部305が、レイアウト取得部303が取得したレイアウト情報に基づき、レイアウト枠内部に存在する複数のオブジェクトの表示上の視覚的な関係を特定し、その情報をRAM201に保持する。第3の実施形態において、表示上の視覚的な関係とは、まずオブジェクト同士のサイズの大小関係、およびオブジェクト同士が互いの上下左右いずれの方向に存在するかという位置関係である。図7(C)では、オブジェクト「3」701cはオブジェクト「4」701dの4倍大きいサイズ(面積)で表示されている。従って、特定部305はその大小関係を特定し、RAM201上に保持する。   In step S <b> 46, the layout acquisition unit 303 acquires the position information and the size of the object on the display image as layout information related to a plurality of objects existing in the layout frame, and stores them in the RAM 201. Here, the position information of the object is the center coordinates of the object when the layout frame is considered as a coordinate plane, and the size corresponds to the area of the object. Next, in step S47, the specifying unit 305 specifies the visual relationship on the display of a plurality of objects existing inside the layout frame based on the layout information acquired by the layout acquiring unit 303, and stores the information in the RAM 201. Hold. In the third embodiment, the visual relationship on the display is first the size relationship between the objects and the positional relationship between the objects in the vertical and horizontal directions. In FIG. 7C, the object “3” 701c is displayed in a size (area) four times larger than the object “4” 701d. Therefore, the specifying unit 305 specifies the magnitude relationship and stores it on the RAM 201.

次に、ステップS48においては、特定部305が、レイアウト枠内の各オブジェクトに付与されるメタデータを決定する。本実施形態では、まずステップS47で特定したレイアウト枠内でのオブジェクトのサイズの大小関係に基づき、オブジェクトの重要度(ユーザにとってのお気に入り度)を示す値(度数)をメタデータとして各オブジェクトに設定する。すなわち、オブジェクトのサイズが大きいほど、そのオブジェクトの重要度は高く、逆に小さいほど、そのオブジェクトの重要度は小さく定義される。さらに、同じサイズのオブジェクトに対しては、レイアウト枠内でのオブジェクトの位置関係に基づき、レイアウト枠の左上に表示されているオブジェクト程、重要度の高いオブジェクトであるとして、重要度を設定する。このような重要度の決定方法に従い、レイアウト枠内に存在する全てのオブジェクトに付与するメタデータ(重要度の度数)を決定し、RAM201に保持する。ただし、図7(B)にように、レイアウト枠内にオブジェクトが1つしか存在しない場合には、複数のオブジェクトの関係に基づくメタデータの決定法は適応されず重要度1が設定されるので、図9(B)のように、オブジェクト「3」701cの重要度は1となる。2度目の処理である図7(C)の例では、オブジェクト「3」701cが大きく、オブジェクト「4」701dが小さいので、図9(C)のようにオブジェクト「3」の重要度が1から2に変更され、オブジェクト「4」の重要度は1に設定される。また、ステップS48では、レイアウト枠内で隣り合うオブジェクトに対し、関連するオブジェクトを示すメタデータとして、互いのオブジェクトのIDを付与することを決める。従って、メタデータテーブルのオブジェクト「3」、オブジェクト「4」の関連オブジェクトの欄には、図9(C)のようにそれぞれオブジェクト「4」、オブジェクト「3」が追加されることになる。   Next, in step S48, the specifying unit 305 determines metadata to be given to each object in the layout frame. In the present embodiment, first, based on the size relationship of the size of the object in the layout frame specified in step S47, a value (frequency) indicating the importance of the object (favorite for the user) is set to each object as metadata. To do. That is, the importance of the object is higher as the size of the object is larger, and the importance of the object is smaller as the object is smaller. Further, for objects of the same size, the importance is set based on the positional relationship of the objects within the layout frame, assuming that the object displayed at the upper left of the layout frame is an object having a higher importance. In accordance with the importance determination method, metadata (degree of importance) to be given to all objects existing in the layout frame is determined and stored in the RAM 201. However, as shown in FIG. 7B, when there is only one object in the layout frame, the metadata determination method based on the relationship between a plurality of objects is not applied and importance 1 is set. As shown in FIG. 9B, the importance of the object “3” 701c is 1. In the example of FIG. 7C, which is the second processing, since the object “3” 701c is large and the object “4” 701d is small, the importance of the object “3” starts from 1 as shown in FIG. 2 and the importance of the object “4” is set to 1. Further, in step S48, it is determined to give each object's ID as metadata indicating a related object to adjacent objects in the layout frame. Accordingly, the object “4” and the object “3” are respectively added to the related object column of the object “3” and the object “4” in the metadata table as shown in FIG. 9C.

ステップS49において、付与部306が、ステップS48で決定されRAM201上に保持されているメタデータを、各オブジェクトに付与する。すなわち、RAM201上に保持されている各オブジェクトのテーブルに、決定されたメタデータを格納することでテーブルを更新する。以上の処理でステップS34のレイアウト編集処理は完了し、呼び出し元にその結果がリターンされる。   In step S49, the assigning unit 306 assigns the metadata determined in step S48 and stored on the RAM 201 to each object. That is, the table is updated by storing the determined metadata in the table of each object held on the RAM 201. With the above processing, the layout editing processing in step S34 is completed, and the result is returned to the caller.

レイアウト編集処理が終了すると、ステップS35において、表示制御部301は表示画像の更新を行う。表示画像の更新が終了すると、ステップS36において、saveボタンが押されたかどうかの判定が、情報処理装置100によって行われる。すなわち、操作部302が検出部304から得たタッチ位置情報が、saveボタンが表示されている領域内であるかによって、saveボタンを押すタッチ操作がなされたかを判断する。saveボタンが押されていない場合(ステップS36でNO)は、ステップS38に処理が移行する。saveボタンが押された場合(ステップS36でYES)は、ステップS37が実行され、情報処理装置100は、RAM201上に保持されているレイアウト枠内のレイアウト情報とメタデータテーブルをストレージ206に保存する。ステップS38では、データ表示を終了するかどうかの判断が行われる。例えば、アプリケーションから終了の指示があった場合や、検出部304がユーザによる所定の終了操作を検出した場合、一定時間以上何の操作も検出されなかった場合等に、データ表示を終了する(ステップS38でYES)。データ表示を終了しない場合(ステップS38でNO)は、再びS32に処理が移行し、本実施形態におけるレイアウト編集処理を繰返す。   When the layout editing process is completed, the display control unit 301 updates the display image in step S35. When the update of the display image ends, in step S36, the information processing apparatus 100 determines whether or not the save button has been pressed. That is, it is determined whether a touch operation for pressing the save button has been performed based on whether the touch position information obtained from the detection unit 304 by the operation unit 302 is within the area where the save button is displayed. If the save button has not been pressed (NO in step S36), the process proceeds to step S38. When the save button has been pressed (YES in step S36), step S37 is executed, and the information processing apparatus 100 saves the layout information and metadata table in the layout frame held on the RAM 201 in the storage 206. . In step S38, it is determined whether or not to end the data display. For example, the data display is ended when an end instruction is issued from the application, when the detection unit 304 detects a predetermined end operation by the user, or when no operation is detected for a certain period of time or more (step S30). YES in S38). If the data display is not finished (NO in step S38), the process proceeds to S32 again, and the layout editing process in the present embodiment is repeated.

図7に従って、引き続きレイアウト編集処理を繰り返す例を説明する。なお、以降の説明において重複する処理ステップについては、その詳細を省略する。図7(D)は、図7(C)の状態に続いて、オブジェクト群からオブジェクトIDが「1」のオブジェクトを選択し、レイアウト枠内に配置した操作によって更新された表示画像を示す(ステップS43)。この場合、オブジェクト「1」は、オブジェクト「3」と比較して小さいが、オブジェクト「4」との比較では、同じ大きさである。さらに、オブジェクト「4」がオブジェクト「1」よりも左上に近い。このような、オブジェクトの表示上の視覚的な関係に従い、図9(D)で示すように、メタデータテーブルが更新される(ステップS46〜S49)。つまり、オブジェクト「3」は重要度3、オブジェクト「4」は重要度2、オブジェクト「1」は重要度1である。また関連オブジェクトの情報も、オブジェクト「3」には、オブジェクト「1」、「4」、オブジェクト「4」には、オブジェクト「1」、「3」、オブジェクト「1」には、オブジェクト「3」、「4」がそれぞれ設定されている。これは図7(D)を見て分かるように、オブジェクト「3」に隣り合うオブジェクトは、オブジェクト「1」とオブジェクト「4」だからである。オブジェクト「1」、オブジェクト「4」に関しても同様である。図7(E)は、オブジェクト群からオブジェクトIDが「2」のオブジェクトを選択し、レイアウト枠内に配置した操作によって更新された表示画像を示す(ステップS43)。オブジェクト「2」の大きさは、オブジェクト「1」、「4」と同じかつ、オブジェクト「1」、「4」と比較してレイアウト枠左上の位置から遠いので、重要度はこれらより低くなる。その結果、図9(E)でハイライトされている部分で示すようにメタデータテーブルは更新される(ステップS46〜S49)。図7(F)は、オブジェクト群からオブジェクトIDが5のオブジェクトを選択し、レイアウト枠内に配置した操作によって更新された表示画像を示す(ステップS43)。オブジェクト5の大きさは、オブジェクト3についで大きく、オブジェクト「1」、「2」、「4」よりも大きい。従って、重要度はオブジェクト3の次に高くなる。その結果、図9(F)でハイライトされている部分で示すような内容に関連度テーブルは更新される(ステップS46〜S49)。   An example of repeating the layout editing process will be described with reference to FIG. In addition, the detail about the process step which overlaps in the following description is abbreviate | omitted. FIG. 7D shows a display image updated by the operation of selecting the object with the object ID “1” from the object group and placing it in the layout frame following the state of FIG. S43). In this case, the object “1” is smaller than the object “3”, but is the same size as the object “4”. Furthermore, the object “4” is closer to the upper left than the object “1”. In accordance with such a visual relationship on the display of the object, the metadata table is updated as shown in FIG. 9D (steps S46 to S49). That is, the object “3” has an importance level 3, the object “4” has an importance level 2, and the object “1” has an importance level 1. The related object information also includes the objects “1” and “4” for the object “3”, the objects “1” and “3” for the object “4”, and the object “3” for the object “1”. , “4” are set. As can be seen from FIG. 7D, the objects adjacent to the object “3” are the object “1” and the object “4”. The same applies to the object “1” and the object “4”. FIG. 7E shows a display image updated by an operation of selecting an object with the object ID “2” from the object group and placing it in the layout frame (step S43). The size of the object “2” is the same as the objects “1” and “4”, and is farther from the upper left position of the layout frame than the objects “1” and “4”. As a result, the metadata table is updated as indicated by the highlighted portion in FIG. 9E (steps S46 to S49). FIG. 7F shows a display image updated by an operation in which an object with an object ID of 5 is selected from the object group and placed in the layout frame (step S43). The size of the object 5 is larger after the object 3 and larger than the objects “1”, “2”, and “4”. Therefore, the importance is the next higher than that of the object 3. As a result, the relevance level table is updated to the contents as indicated by the highlighted portion in FIG. 9F (steps S46 to S49).

オブジェクト「1」から「5」までを図7(G)で示すようにレイアウトした後、ステップS36において、ユーザがsaveボタンを押すと、現状のレイアウト情報とともに、図9(F)で示したメタデータテーブルもストレージ206に保持される。   After laying out the objects “1” to “5” as shown in FIG. 7G, when the user presses the save button in step S36, the meta data shown in FIG. 9F is displayed together with the current layout information. A data table is also held in the storage 206.

以上、本実施形態で述べたように、ディスプレイ上に表示されたオブジェクトをレイアウトするという簡単な操作によって、オブジェクト同士のメタデータならびに、お気に入り(重要度)情報を自動で付与することが可能となる。本実施形態では、テーブル型ディスプレイを有する会議システムにおいて、写真のオブジェクトをレイアウトする例を示した。ただし、本発明は会議システムに限らず、例えば図1(B)のようなタブレット型端末や、印刷装置、店頭に設置される写真印刷専用端末やアルバム作成装置にも利用することができる。このようなシステムを利用することで、ユーザは、フォトアルバムのレイアウトや、企画書のレイアウト、雑誌ページのレイアウト等を、直感的な操作で簡単に作成することができる。さらに、自動付与したメタデータを利用することで、別のレイアウト候補を作成する際に、関連するオブジェクトをおすすめオブジェクト情報として利用したり、重要度の高いオブジェクトを抽出して絞り込み検索する際に利用したりできる。   As described above, as described in the present embodiment, it is possible to automatically add metadata between objects and favorite (importance) information by a simple operation of laying out the objects displayed on the display. . In the present embodiment, an example in which a photographic object is laid out in a conference system having a table-type display has been described. However, the present invention is not limited to the conference system, and can be used for, for example, a tablet-type terminal as shown in FIG. 1B, a printing apparatus, a photo printing dedicated terminal installed in a store, or an album creating apparatus. By using such a system, the user can easily create a photo album layout, a project book layout, a magazine page layout, and the like by an intuitive operation. In addition, by using the automatically assigned metadata, when creating another layout candidate, use related objects as recommended object information, or use it to narrow down the search by extracting highly important objects. I can do it.

本実施形態ではオブジェクトの大きさをオブジェクトの重要度の指標とした。この際、例えば「オブジェクトのサイズ(面積)に20%以上の差がある場合に、異なる重要度を設定する」といった閾値を設けても良い。こうすることでユーザが、レイアウトのバランス等の都合上少しだけ大きさを変えたいような場合にまで、意図に反した重要度の差異を付けてしまうことを避けられる。なお、オブジェクトのサイズ以外にも、例えば、レイアウト枠内でオブジェクトが編集された回数を指標として利用しても良い。また、別途画像の表示時間や表示のための演出を設定するメニューを設け、画像スライドショーのレイアウトや構成を本システムで作成する場合等は、スライドショーされる写真オブジェクトの表示時間を重要度の指標とすることもできる。つまり、長く表示されるオブジェクト程、重要度が高くし、重要度の高いオブジェクトを抽出して検索する際に利用できるようにする。また、本実施形態では、レイアウト枠の左上に表示されているオブジェクト程、重要なオブジェクトとした。このため、ステップS47でオブジェクトの位置関係を特定し、その情報をRAM201に保持する際に、レイアウト枠左上の位置をオブジェクトの重要度を表す指標とした。ただし、これに限られない。例えば、レイアウト枠の中央を最も重要度が高い位置としても良い。また、レイアウトを実施するユーザが、レイアウトを実施する前に、どの位置を重要度が高い位置とするかを定義できるようにしても良い。   In the present embodiment, the size of the object is used as an index of the importance of the object. In this case, for example, a threshold value such as “set different importance when there is a difference of 20% or more in the size (area) of the object” may be provided. By doing so, it is possible to avoid making a difference in importance unintentionally even when the user wants to change the size slightly for convenience of layout balance or the like. In addition to the size of the object, for example, the number of times the object is edited in the layout frame may be used as an index. In addition, a menu for setting the display time of images and effects for display is provided separately, and when creating the layout and configuration of image slideshows with this system, the display time of the photo objects to be displayed as slideshows is used as an index of importance. You can also That is, the longer the displayed object, the higher the importance, and the higher importance object can be extracted and used when searching. In the present embodiment, the object displayed at the upper left of the layout frame is set as an important object. For this reason, when the positional relationship between the objects is specified in step S47 and the information is stored in the RAM 201, the upper left position of the layout frame is used as an index representing the importance of the object. However, it is not limited to this. For example, the center of the layout frame may be the position with the highest importance. In addition, the user who performs the layout may be allowed to define which position is to be a position having a high degree of importance before the layout is performed.

尚、本実施形態においても、第1の実施形態と同様、オブジェクトと別に各オブジェクトに対応したメタデータテーブルをストレージに保存することで、各オブジェクトのメタデータを付与していた。ただし、例えば、オブジェクトのファイルそのものにメタデータを埋め込んでもよい。また、本実施形態では、オブジェクトの移動を移動させる操作によってメタデータが変更される際には、新たなメタデータを格納することによってメタデータテーブルを更新した。しかし、メタデータが変更される際にメタデータテーブルの項目を増やし、その履歴情報も含めたメタデータを、各オブジェクトそれぞれに付与してもよい。   In the present embodiment, similarly to the first embodiment, metadata of each object is given by storing a metadata table corresponding to each object in the storage separately from the object. However, for example, metadata may be embedded in the object file itself. In the present embodiment, when the metadata is changed by an operation for moving the movement of the object, the metadata table is updated by storing new metadata. However, when the metadata is changed, the number of items in the metadata table may be increased, and metadata including the history information may be assigned to each object.

以上のように、直感的にオブジェクトの視覚的な関係を操作することで、オブジェクト同士の関係をわかりやすくするメタデータをオブジェクトに付与することができるので、本実施形態はユーザにとって利便性の高いインタフェースを提供することができる。   As described above, by intuitively manipulating the visual relationship between objects, metadata that makes it easy to understand the relationship between objects can be given to the object, so this embodiment is highly convenient for the user. An interface can be provided.

(その他の実施形態)
ここまで説明した本実施形態では、メタデータを付与するオブジェクトとして、人物の写真を用いた。ただし、上述したように情報処理装置100は、静止画像に限らず、音声、手書き文字、テキスト、画像、動画等、様々な形式で電子化されたデータを扱うことができる。
(Other embodiments)
In the present embodiment described so far, a photograph of a person is used as an object to which metadata is added. However, as described above, the information processing apparatus 100 can handle not only a still image but also data digitized in various formats such as voice, handwritten characters, text, images, and moving images.

また、レイアウトから特定されるオブジェクトの視覚的な関係は、オブジェクトの間の距離の大小関係、またはオブジェクトが表示されるサイズの大小関係、またはオブジェクトが配置される位置関係の他に、例えば色に基づく関係であってもよい。例えば、ユーザの操作によって、各オブジェクトに色による視覚的な関係を設定し、それによってオブジェクトに関連度や優先度を示すメタデータを付与することもできる。一例として、操作部302および検知部304が、選択されたオブジェクトがユーザによってタップ(ディスプレイを軽くたたく動作)されたと判断した場合に、そのタップされた回数に応じた色の枠やチェックマークをオブジェクトに付す。そして、その色に基づいて、「赤に近い色の枠がついたオブジェクトである程緊急度が高い」、「遠い色の枠が設定されたオブジェクト程、関連度は低い」といった指標を示すメタデータを付与することもできる。   The visual relationship of objects specified from the layout is, for example, color, in addition to the relationship between the distances between the objects, the size relationship at which the objects are displayed, or the positional relationship at which the objects are arranged. The relationship may be based. For example, it is possible to set a visual relationship by color to each object by a user operation, and thereby give metadata indicating the degree of association or priority to the object. As an example, when the operation unit 302 and the detection unit 304 determine that the selected object has been tapped (by tapping the display), a color frame or check mark corresponding to the number of taps is displayed on the object. Attached. Then, based on the color, meta data indicating indicators such as “an object with a frame of a color close to red has a higher degree of urgency” and “an object with a frame of a distant color set has a lower degree of association”. Data can also be added.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (9)

表示部に複数のオブジェクトを表示させる情報処理装置であって、
前記表示部に表示された複数のオブジェクトのレイアウトを取得する取得手段と、
前記取得手段により取得されたレイアウトにおける、前記複数のオブジェクト同士の表示上の視覚的な関係を特定する特定手段と、
前記特定された視覚的関係に基づくデータを、前記複数のオブジェクトそれぞれに対してメタデータとして付与する付与手段と、
前記表示される複数のオブジェクトのうち、少なくとも1つのオブジェクトを選択する操作を実行する操作手段と、
前記操作手段により選択された少なくとも1つのオブジェクトにおいて、キーオブジェクトを分類する分類手段とを備え、
前記取得手段は、前記操作手段により選択されたオブジェクトのうち少なくとも1つを更に移動させる操作がなされた場合には、前記移動に伴って変更されたレイアウトを取得し、
前記特定手段は、前記キーオブジェクトと表示される他のオブジェクトそれぞれとの前記表示上の視覚的な関係を特定し、
前記付与手段は、前記複数のオブジェクトそれぞれに前記特定手段により特定された結果に基づくメタデータを付与するものであって、
前記複数のオブジェクト同士の表示上の視覚的な関係とは、オブジェクトの間の距離、またはオブジェクトが表示されるサイズ、またはオブジェクトが配置される位置のいずれか1つまたはその組み合わせに基づく関係であることを特徴とする情報処理装置。
An information processing apparatus that displays a plurality of objects on a display unit,
Obtaining means for obtaining a layout of a plurality of objects displayed on the display unit;
A specifying means for specifying a visual relationship on display between the plurality of objects in the layout acquired by the acquiring means;
The data based on the identified visual relationships, and adding means for adding the metadata for each of the plurality of objects,
An operation means for performing an operation of selecting at least one object among the plurality of displayed objects;
Classifying means for classifying key objects in at least one object selected by the operation means ;
The acquisition unit acquires a layout changed along with the movement when an operation for further moving at least one of the objects selected by the operation unit is performed;
The specifying means specifies the visual relationship on the display between the key object and each of the other displayed objects,
The assigning means assigns metadata based on a result specified by the specifying means to each of the plurality of objects,
The visual relationship between the plurality of objects is a relationship based on one or a combination of a distance between the objects, a size at which the object is displayed, or a position at which the object is arranged. An information processing apparatus.
前記分類手段は、前記操作手段によって選択された2つ以上のオブジェクトのうち、初めに選択したオブジェクトをキーオブジェクトとして分類することを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 1 , wherein the classification unit classifies an object selected first among two or more objects selected by the operation unit as a key object. 前記分類手段は、前記操作手段によって選択された2つ以上のオブジェクトのうち、移動されないオブジェクトをキーオブジェクトとして分類することを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 1 , wherein the classifying unit classifies an object that is not moved among two or more objects selected by the operation unit as a key object. 前記操作手段は、表示部に表示された複数のオブジェクトのうち2つ以上のオブジェクトを選択し、
前記付与手段は、前記表示中の複数のオブジェクトのうち、前記操作手段により選択された前記2つ以上のオブジェクトにのみ前記特定手段により特定された結果に基づいたメタデータを付与することを特徴とする請求項乃至のいずれか1項に記載の情報処理装置。
The operation means selects two or more objects from the plurality of objects displayed on the display unit,
The assigning means assigns metadata based on a result specified by the specifying means only to the two or more objects selected by the operating means among the plurality of objects being displayed. The information processing apparatus according to any one of claims 1 to 3 .
前記分類手段は、前記操作手段によって選択された2つ以上のオブジェクトのうち、キーオブジェクトとして分類されない他のオブジェクトを、サブオブジェクトとして分類し、
前記特定手段は、前記キーオブジェクトとサブオブジェクトとの前記表示上の視覚的な関係を特定し、
前記付与手段は、前記特定手段により特定された結果に基づいて、前記表示中の複数のオブジェクトのうち、前記操作手段により選択された前記2つ以上のオブジェクトにのみ前記特定手段により特定された結果に基づいたメタデータを付与することを特徴とする請求項乃至のいずれか1項に記載の情報処理装置。
The classification means classifies other objects not classified as key objects among two or more objects selected by the operation means as sub-objects,
The specifying means specifies the visual relationship on the display between the key object and the sub-object,
The assigning means is a result specified by the specifying means only for the two or more objects selected by the operating means among the plurality of objects being displayed based on the result specified by the specifying means. the information processing apparatus according to any one of claims 1 to 4, characterized in that to attach metadata based on.
更に、前記付与手段によりメタデータを付与されたオブジェクトと共に、前記メタデータが示す情報を前記表示部に視覚的に表示させる表示制御手段を備えることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 The display control unit according to any one of claims 1 to 5 , further comprising a display control unit that visually displays information indicated by the metadata on the display unit together with the object to which the metadata is added by the adding unit. The information processing apparatus according to item. 前記メタデータは、前記表示中の複数のオブジェクトそれぞれの、ある指標における程度を示す値であることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 The metadata, a plurality of objects of each information processing apparatus according to any one of claims 1 to 6, characterized in that a value indicating the degree at a certain index in the display. コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至のいずれか1項に記載の情報処理装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as the information processing apparatus according to any one of claims 1 to 7 by being read and executed by a computer. 表示部に複数のオブジェクトを表示させる情報処理装置の制御方法であって、
取得手段により、前記表示される複数のオブジェクトのレイアウトを取得する取得工程と、
特定手段により、前記取得手段により取得されたレイアウトにおける、前記複数のオブジェクト同士の表示上の視覚的な関係を特定する特定工程と、
付与手段により、前記特定手段により特定された結果に基づいて、前記複数のオブジェクトそれぞれに対してメタデータを付与する付与工程と
操作手段により、前記表示される複数のオブジェクトのうち、少なくとも1つのオブジェクトを選択する操作を受け付けて実行する選択工程と、
分類手段により、前記選択工程で選択された少なくとも1つのオブジェクトにおいて、キーオブジェクトを分類する分類工程とを有し、
前記取得工程では、前記選択工程で選択されたオブジェクトのうち少なくとも1つを更に移動させる操作が受け付けられた場合には、前記移動に伴って変更されたレイアウトを取得され、
前記特定工程では、前記分類工程で分類されたキーオブジェクトと表示される他のオブジェクトそれぞれとの前記表示上の視覚的な関係が特定され、
前記付与工程では、前記複数のオブジェクトそれぞれに前記特定工程で特定された結果に基づくメタデータが付与されるものであって、
前記複数のオブジェクト同士の表示上の視覚的な関係とは、オブジェクトの間の距離、またはオブジェクトが表示されるサイズ、またはオブジェクトが配置される位置のいずれか1つまたはその組み合わせに基づく関係であることを特徴とする情報処理装置。
A control method for an information processing apparatus for displaying a plurality of objects on a display unit,
An acquisition step of acquiring a layout of the plurality of objects to be displayed by an acquisition unit;
A specifying step of specifying a visual relationship on display of the plurality of objects in the layout acquired by the acquiring unit by the specifying unit;
A granting step of granting metadata to each of the plurality of objects based on a result specified by the specifying unit;
A selection step of receiving and executing an operation of selecting at least one object among the plurality of displayed objects by an operation means;
The classifying means, at least one object selected by the selecting step, have a classification step of classifying the key object,
In the acquisition step, when an operation for further moving at least one of the objects selected in the selection step is accepted, a layout changed with the movement is acquired,
In the specifying step, the visual relationship on the display between the key object classified in the classification step and each of the other objects to be displayed is specified,
In the assigning step, metadata based on the result specified in the specifying step is assigned to each of the plurality of objects,
The visual relationship between the plurality of objects is a relationship based on one or a combination of a distance between the objects, a size at which the object is displayed, or a position at which the object is arranged. An information processing apparatus.
JP2011207347A 2011-09-22 2011-09-22 Information processing apparatus and control method thereof Expired - Fee Related JP5843544B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011207347A JP5843544B2 (en) 2011-09-22 2011-09-22 Information processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011207347A JP5843544B2 (en) 2011-09-22 2011-09-22 Information processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013069127A JP2013069127A (en) 2013-04-18
JP2013069127A5 JP2013069127A5 (en) 2014-11-06
JP5843544B2 true JP5843544B2 (en) 2016-01-13

Family

ID=48474769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011207347A Expired - Fee Related JP5843544B2 (en) 2011-09-22 2011-09-22 Information processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5843544B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6207260B2 (en) * 2013-06-28 2017-10-04 キヤノン株式会社 Information processing apparatus, information processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5377143B2 (en) * 2009-07-29 2013-12-25 京セラ株式会社 Portable electronic devices

Also Published As

Publication number Publication date
JP2013069127A (en) 2013-04-18

Similar Documents

Publication Publication Date Title
JP6334933B2 (en) Page search method and terminal supporting the same
JP5429060B2 (en) Display control apparatus, display control method, display control program, and recording medium on which this display control program is recorded
US9843691B2 (en) Image display device, image display system, image display method, and computer-readable storage medium for computer program
JP2009277177A (en) Image layout device, recording medium, and image layout method
JP2007179351A (en) File management device and image display device
WO2013080510A1 (en) Information processing apparatus, method for controlling display, and program therefor
JP2011128962A (en) Information processing apparatus and method, and computer program
JP5627314B2 (en) Information processing device
US9753548B2 (en) Image display apparatus, control method of image display apparatus, and program
JP2014071514A (en) Image processor, image processing method and program
JP6053291B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2011145881A (en) Device and method for controlling display
JP2015095066A (en) Information processing apparatus and information processing program
JP6070116B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP5843544B2 (en) Information processing apparatus and control method thereof
JP6160115B2 (en) Information processing apparatus, presentation material optimization method, and program
JP5024441B2 (en) File management device and image display device
US20200294295A1 (en) Information processing apparatus and control method thereof
JP2012178167A (en) File management device and image display device
US9912834B2 (en) Document camera device and cutout assistance method
JP5645530B2 (en) Information processing apparatus and control method thereof
JP2006331406A (en) Information processing apparatus and method
JP2020149581A (en) Information processor, information processing method, program and storage medium
JP2013077231A (en) Display method of document data, display device of portable terminal
JP6459470B2 (en) Document management program, method, and document management apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151117

R151 Written notification of patent or utility model registration

Ref document number: 5843544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees