JP5762075B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP5762075B2
JP5762075B2 JP2011067525A JP2011067525A JP5762075B2 JP 5762075 B2 JP5762075 B2 JP 5762075B2 JP 2011067525 A JP2011067525 A JP 2011067525A JP 2011067525 A JP2011067525 A JP 2011067525A JP 5762075 B2 JP5762075 B2 JP 5762075B2
Authority
JP
Japan
Prior art keywords
image data
information processing
screen
processing apparatus
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011067525A
Other languages
Japanese (ja)
Other versions
JP2012203645A (en
Inventor
裕美 近江
裕美 近江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011067525A priority Critical patent/JP5762075B2/en
Publication of JP2012203645A publication Critical patent/JP2012203645A/en
Application granted granted Critical
Publication of JP5762075B2 publication Critical patent/JP5762075B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Description

本発明は、ユーザが見たい画像データを画像データ群から検索するための技術に関するものである。   The present invention relates to a technique for retrieving image data desired by a user from an image data group.

近年、デジタルカメラ等に用いられる内蔵メモリの小型化、大容量化が促進され、大量の画像データが蓄積されるようになった。これにより、過去に撮影した画像データの蓄積数も増え、ユーザが多数の画像データの中から所望の画像データを見つけ出すのに長時間を要す等の問題があった。   In recent years, miniaturization and increase in capacity of built-in memories used in digital cameras and the like have been promoted, and a large amount of image data has been accumulated. As a result, the accumulated number of image data captured in the past increases, and there is a problem that it takes a long time for the user to find desired image data from among a large number of image data.

特許文献1には、操作者の視線方向を検出することによって、注目された部分の特徴と一致又は類似した特徴を有する画像データを優先的に表示する技術が開示されている。また、特許文献2には、画像データの特徴を画面上の画像データとは別の特定のエリアに表示し、ユーザがなぞるエリアと方向に応じて画像データの表示を変える技術が開示されている。   Patent Document 1 discloses a technique for preferentially displaying image data having a feature that matches or is similar to the feature of the part of interest by detecting the line-of-sight direction of the operator. Patent Document 2 discloses a technique for displaying the characteristics of image data in a specific area different from the image data on the screen, and changing the display of the image data according to the area and direction traced by the user. .

特開平9−114846号公報JP-A-9-114846 特開2010−109788号公報JP 2010-109788 A

特許文献1に開示された技術においては、注目されている部分の特徴と一致又は類似した特徴を有する画像データを優先的に表示することが可能になる。しかしながら、複数の特徴を指定したい場合、視線による指定は困難である。   In the technique disclosed in Patent Document 1, it is possible to preferentially display image data having a feature that matches or is similar to the feature of the portion of interest. However, when it is desired to specify a plurality of features, it is difficult to specify by line of sight.

また、特許文献2に開示された技術においては、時間やイベントといった特徴の軸に沿って容易に画像データを閲覧することができる。しかしながら、特許文献2に開示される技術では、画像データとは違うエリアを別途設けているため、タッチする場所が直観的ではない等の問題がある。   In the technique disclosed in Patent Document 2, image data can be easily browsed along the axis of features such as time and events. However, the technique disclosed in Patent Document 2 has a problem that the place to touch is not intuitive because an area different from the image data is provided separately.

そこで、本発明の目的は、ユーザが見たい画像データを煩雑な操作を行うことなく優先的に検索することにある。   SUMMARY OF THE INVENTION An object of the present invention is to preferentially search image data that a user wants to see without performing complicated operations.

本発明の情報処理装置は、定められた表示順に従う複数の画像データのうちの少なくとも一部を画面に表示させる情報処理装置であって、前記画面に表示された画像データに含まれるオブジェクトのうち、ユーザによって選択されたオブジェクトを特定する特定手段と、前記特定手段により特定された前記オブジェクトの特徴に基づいて、前記複数の画像データのうち、前記オブジェクトを含む画像データと類似する特徴を有する画像データを優先した前記複数の画像データの表示順を決定する決定手段と、前記決定手段により決定された表示順に並び替えられた前記複数の画像データのうち少なくとも一部を、前記画面に表示させることで、前記画面の表示内容を変更する表示制御手段を有することを特徴とする。 An information processing apparatus of the present invention is an information processing apparatus that displays on a screen at least a part of a plurality of image data according to a predetermined display order, and is an object included in image data displayed on the screen and identifying means for identifying the object selected by the user, based on the features of the identified said object by said identifying means, among the plurality of image data, having characteristics similar to the image data including the object Determining means for determining a display order of the plurality of image data giving priority to image data; and displaying at least a part of the plurality of image data rearranged in the display order determined by the determining means on the screen. it is characterized by having a display control means for changing the display contents of the screen.

本発明によれば、ユーザ煩雑な動作を行わせることなく、ユーザが所望とする画像データを優先的に並べた画像群を表示させることが可能となる。 According to the present invention, without causing I lines a complicated operation on the user, the user is able to display an image group obtained by arranging image data in priority manner that desired.

本発明の実施形態に係る情報処理システムの構成を示す図である。It is a figure which shows the structure of the information processing system which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理システムのハードウェア構成の一部を示す図である。It is a figure which shows a part of hardware constitutions of the information processing system which concerns on embodiment of this invention. 画像データ群の一例を示す図である。It is a figure which shows an example of an image data group. 画像データ群の表示状態を示す図である。It is a figure which shows the display state of an image data group. 画像データ群の表示状態を示す図である。It is a figure which shows the display state of an image data group. 画像データ群の表示状態を示す図である。It is a figure which shows the display state of an image data group. 選択操作判定部の処理を示すフローチャートである。It is a flowchart which shows the process of a selection operation determination part. 複数箇所(N箇所)が同時にタッチされたか否かの判定処理を示すフローチャートである。It is a flowchart which shows the determination process whether multiple places (N places) were touched simultaneously. 画像ブラウジングの際の処理を示すフローチャートである。It is a flowchart which shows the process in the case of image browsing. 画像データ群の表示状態等を示す図である。It is a figure which shows the display state etc. of an image data group. 画像データ群の表示状態等を示す図である。It is a figure which shows the display state etc. of an image data group. 画像データ群の表示状態等を示す図である。It is a figure which shows the display state etc. of an image data group. 典型的な右手及び左手の1本〜5本の指の配置パターンを示す図である。It is a figure which shows the arrangement | positioning pattern of 1 to 5 fingers of a typical right hand and left hand. 選択操作判定部の第9の変形例における処理を示すフローチャートである。It is a flowchart which shows the process in the 9th modification of a selection operation determination part. 画像データ群の表示状態を示す図である。It is a figure which shows the display state of an image data group. 画像ブラウジングの際の処理を示すフローチャートである。It is a flowchart which shows the process in the case of image browsing.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る情報処理システムの構成を示す図である。図1(a)に示すように、本実施形態に係る情報処理システムは、入力装置101、表示装置102、制御装置103及び記憶装置104により構成される。図1の例では、101〜104を独立した装置で構成しているが、これらの装置の機能を単一の装置内に備える構成であってもよい。   First, a first embodiment of the present invention will be described. FIG. 1 is a diagram showing a configuration of an information processing system according to the first embodiment of the present invention. As illustrated in FIG. 1A, the information processing system according to the present embodiment includes an input device 101, a display device 102, a control device 103, and a storage device 104. In the example of FIG. 1, 101 to 104 are configured as independent devices, but a configuration in which the functions of these devices are provided in a single device may be employed.

複数オブジェクト指定部105は、ユーザによるタッチ入力を受け付ける。1箇所のタッチや複数箇所のタッチのほか、ドラッグ(タッチしたまま指でずらす操作)やフリック(タッチした指を軽くはらう操作)の検出を行う。また、複数オブジェクト指定部105は、タッチ、ドラッグ及びフリック時の圧力の検出も行う。なお、タッチパネルの代わりにマウスや音声等の入力手段を用い、タッチ入力の代わりにクリック操作や音声入力を用いてもよい。   The multiple object designation unit 105 accepts a touch input by the user. In addition to a single touch or multiple touches, it detects a drag (operation to move with a finger while touching) or a flick (operation to lightly touch the touched finger). The multi-object designating unit 105 also detects pressure during touch, drag, and flick. Note that an input unit such as a mouse or a voice may be used instead of the touch panel, and a click operation or a voice input may be used instead of the touch input.

表示部106は、画像データ、テキストデータ等を表示する。選択操作判定部107は、画像データ中のオブジェクトが選択されたか否かを判定する。オブジェクト特定部108は、選択操作判定部107によって選択されたと判定されたオブジェクトを特定する。   The display unit 106 displays image data, text data, and the like. The selection operation determination unit 107 determines whether an object in the image data has been selected. The object specifying unit 108 specifies the object determined to be selected by the selection operation determining unit 107.

特徴抽出部109は、オブジェクト特定部108によって特定されたオブジェクトの特徴を抽出する。オブジェクトの特徴は様々な捉え方があるが、例えば、人、物、色、形、大きさ等が挙げられる。本実施形態では、タッチされた箇所と後述の特徴データ112とからオブジェクトの特徴を抽出するが、既存の画像認識技術を用いてもよい。   The feature extraction unit 109 extracts the feature of the object specified by the object specification unit 108. There are various ways to grasp the characteristics of an object, for example, people, things, colors, shapes, sizes, and the like. In this embodiment, the feature of the object is extracted from the touched location and feature data 112 described later, but an existing image recognition technique may be used.

画像検索部110は、特徴抽出部109により抽出されたオブジェクトの特徴に基づいて、記憶装置104に記憶された画像データ群111から画像データを検索したり、特徴の類似度に基づいて、画像データ群111を並び替える処理を実行する。また、画像検索部110は、表示させる画像データを選択し、表示部106に表示させる。   The image retrieval unit 110 retrieves image data from the image data group 111 stored in the storage device 104 based on the feature of the object extracted by the feature extraction unit 109, or the image data based on the feature similarity. A process of rearranging the group 111 is executed. The image search unit 110 selects image data to be displayed and causes the display unit 106 to display the selected image data.

図1(b)に示すように、特徴データ112は、画像データのIDと当該画像データのオブジェクトの領域情報と当該オブジェクトの特徴情報とを対応付けたデータである。上述した通り、オブジェクトの特徴としては、例えば、人、物、色、形、大きさ等が挙げられる。なお、特徴データ122は、テキスト、リスト、XML等で構成することができる。履歴情報113は、ユーザが操作した履歴やその結果(各構成の判定結果や抽出結果等)を示す情報である。履歴参照部114は、履歴情報113を参照する。   As shown in FIG. 1B, the feature data 112 is data in which the ID of the image data, the area information of the object of the image data, and the feature information of the object are associated with each other. As described above, the object features include, for example, people, things, colors, shapes, sizes, and the like. The feature data 122 can be composed of text, list, XML, or the like. The history information 113 is information indicating the history operated by the user and the result (determination result and extraction result of each component). The history reference unit 114 refers to the history information 113.

図2は、本実施形態に係る情報処理システムのハードウェア構成の一部を示す図である。図2に示すように、本実施形態に係る情報処理システムは、CPU(Central Processing Unit)201、RAM(Random Access Memory)202、ROM(Read Only Memory)203、タッチパネル204及びLCD(Liquid Crystal Display)205がシステムバス206によって接続されている。   FIG. 2 is a diagram illustrating a part of the hardware configuration of the information processing system according to the present embodiment. As shown in FIG. 2, the information processing system according to the present embodiment includes a CPU (Central Processing Unit) 201, a RAM (Random Access Memory) 202, a ROM (Read Only Memory) 203, a touch panel 204, and an LCD (Liquid Crystal Display). 205 is connected by a system bus 206.

図1における複数オブジェクト指定部105は、図2のタッチパネル204等から構成される。また、図1における表示部106は、図2のLCD205等から構成される。選択操作判定部107、オブジェクト特定部108、特徴抽出部109、画像検索部110及び履歴参照部114は、CPU201がROM203に記憶されたプログラムやデータをRAM202に読み出し、実行することにより得られる構成である。記憶装置104は、RAM202等によって構成される。   The multi-object designating unit 105 in FIG. 1 includes the touch panel 204 in FIG. Further, the display unit 106 in FIG. 1 includes the LCD 205 in FIG. The selection operation determination unit 107, the object specification unit 108, the feature extraction unit 109, the image search unit 110, and the history reference unit 114 have a configuration obtained by the CPU 201 reading the program and data stored in the ROM 203 into the RAM 202 and executing them. is there. The storage device 104 includes a RAM 202 and the like.

図3は、画像データ群111の一例を示す図である。図3では、画像データ群111として、画像データ1〜画像データ10の10枚の画像データを示している。画像検索部110は、図4に示すように、表示順に基づいて画像データ群111を表示部106に表示させる。本実施形態では、図3に示す画像データ群111の表示順を、画像データ1、画像データ2、・・・、画像データ9、画像データ10、画像データ1、画像データ2、・・・と定めている。従って、図4に示すように、表示部106においては、画像データ群111のうちの5枚の画像データが表示されるが、5枚の画像データは上記表示順に従って表示されることになる。具体的には、図4(a)に示すように、表示部106の左側から、画像データ9、画像データ10、画像データ1、画像データ2、画像データ3の順序で表示される。或いは、図4(b)に示すように、表示部106の左側から、画像データ1、画像データ2、画像データ3、画像データ4、画像データ5の順序で表示される。なお、アプリケーション起動時における画像データの表示順は、日付順や名前順等、アプリケーションで定められた規則に基づいて定められる。また、図4(a)の例では、表示順が最も高い画像データ1が真中に位置するようにしているが、図4(b)に示すように、表示順の最も高い画像データ1が一番左に位置するようにしてもよい。なお、表示順の最も高い画像データの表示位置はアプリケーションによって定められる。また、アプリケーション起動時の画像データの表示順や表示順の最も高い画像データの表示位置は、ユーザがアプリケーションを通じて設定できるようにしてもよい。   FIG. 3 is a diagram illustrating an example of the image data group 111. In FIG. 3, ten pieces of image data of image data 1 to image data 10 are shown as the image data group 111. As illustrated in FIG. 4, the image search unit 110 causes the display unit 106 to display the image data group 111 based on the display order. In this embodiment, the display order of the image data group 111 shown in FIG. 3 is as follows: image data 1, image data 2,..., Image data 9, image data 10, image data 1, image data 2,. It has established. Therefore, as shown in FIG. 4, the display unit 106 displays five pieces of image data in the image data group 111, but the five pieces of image data are displayed according to the display order. Specifically, as shown in FIG. 4A, the image data 9, image data 10, image data 1, image data 2, and image data 3 are displayed in this order from the left side of the display unit 106. Alternatively, as shown in FIG. 4B, the image data 1, image data 2, image data 3, image data 4, and image data 5 are displayed in this order from the left side of the display unit 106. Note that the display order of the image data when the application is started is determined based on rules defined by the application, such as date order or name order. In the example of FIG. 4A, the image data 1 with the highest display order is positioned in the middle. However, as shown in FIG. 4B, the image data 1 with the highest display order is one. It may be located on the far left. Note that the display position of the image data with the highest display order is determined by the application. Further, the display order of the image data at the time of starting the application and the display position of the image data with the highest display order may be set by the user through the application.

また、表示部106は、複数オブジェクト指定部105を介してタッチできるようになっており、1箇所のタッチや複数箇所のタッチが可能である。また、ドラッグ(タッチしたまま指でずらす操作)、フリック(タッチした指を軽くはらう操作)も可能である。本実施形態では、画像ブラウジング時に画像データがドラッグ又はフリック(以下では、フリックについてのみ説明する)されると、画像データの表示切り替えが指示されたと解釈し、画像データの表示切り替えが実行される。 The display unit 106 can be touched via the multiple object designating unit 105, and can be touched at one place or touched at multiple places. Also, drag (operation to move with a finger while touching) and flick (operation to lightly touch the touched finger) are possible. In the present embodiment, the image data is dragged or flick (hereinafter, a description will be given only Flick) during image browsing Once interprets the display switching of the image data is instructed, display switching of the image data is performed .

次に、図5及び図6を参照しながら、画像ブラウジング時にフリックされたときの動作例について説明する。図5及び図6では、タッチされた箇所を黒丸501、601、ドラッグ又はフリックの方向を矢印502、602で示している。図5(a)に示すように、画像データ1がタッチされ、左方向にフリックされると、図5(b)に示すように、画像データ群111が左方向に移動するように画像データの表示切り替えが行われる。また、図6(a)に示すように、画像データ1がタッチされ、右方向にフリックされると、図6(b)に示すように、画像データ群111が右方向に移動するように画像データの表示切り替えが行われる。   Next, an example of an operation when flicking during image browsing will be described with reference to FIGS. 5 and 6. 5 and 6, the touched portions are indicated by black circles 501 and 601, and the direction of dragging or flicking is indicated by arrows 502 and 602. As shown in FIG. 5A, when image data 1 is touched and flicked to the left, as shown in FIG. 5B, the image data group 111 moves to the left so that the image data group 111 moves to the left. The display is switched. Further, as shown in FIG. 6A, when the image data 1 is touched and flicked in the right direction, the image data group 111 is moved in the right direction as shown in FIG. 6B. The data display is switched.

このとき、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示された場合、画像データの表示順を保ったまま、画像データの表示切り替えが行われる。一方、画像データ中の1つ以上のオブジェクトが選択された状態で画像データの表示切り替えが指示された場合、選択されたオブジェクトの特徴に基づいて画像データの表示順が変更されて画像データの表示切り替えが行われる。即ち、本実施形態においては、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたのか、画像データ中のオブジェクトが選択された状態で画像データの表示切り替えが指示されたのかの判定が必要になる。そこで、本実施形態においては、上記の判定を選択操作判定部107にて実行する。   At this time, when the display switching of the image data is instructed without selecting an object in the image data, the display switching of the image data is performed while maintaining the display order of the image data. On the other hand, when image data display switching is instructed in a state where one or more objects in the image data are selected, the display order of the image data is changed based on the characteristics of the selected objects, and the display of the image data is performed. Switching takes place. That is, in this embodiment, whether the display switching of the image data is instructed in a state where the object in the image data is not selected, or whether the display switching of the image data is instructed in the state where the object in the image data is selected. Judgment is required. Therefore, in the present embodiment, the above determination is performed by the selection operation determination unit 107.

次に、図7を参照しながら、選択操作判定部107の処理について説明する。図7は、選択操作判定部107の処理を示すフローチャートである。ここでは、画像データがタッチされた時刻をTt、画像データがフリックされた時刻をTfとする。これらの時刻は複数オブジェクト指定部105によって取得される情報であり、履歴情報113として記憶装置104に記憶される。ステップS901において、選択操作判定部107は、履歴情報113である、画像データがタッチされた時刻(タッチ時刻)Ttと、画像データがフリックされた時刻(フリック時刻)Tfとを、履歴参照部114を介して記憶装置104から取得する。   Next, processing of the selection operation determination unit 107 will be described with reference to FIG. FIG. 7 is a flowchart showing processing of the selection operation determination unit 107. Here, the time when the image data is touched is Tt, and the time when the image data is flicked is Tf. These times are information acquired by the multiple object specifying unit 105 and are stored in the storage device 104 as history information 113. In step S <b> 901, the selection operation determination unit 107 uses the history reference unit 114 as the history information 113, the time when the image data is touched (touch time) Tt and the time when the image data is flicked (flick time) Tf. Via the storage device 104.

ステップS702において、選択操作判定部107は、タッチ時刻Ttとフリック時刻Tfとに基づいて、オブジェクトの選択操作であるか否かを判定する。具体的には、タッチ時刻Ttからフリック時刻Tfまでの時間間隔が短い、即ち、(Tf−Tt)が所定の時間間隔(例えば、0.1秒)以下であれば、選択操作判定部107は、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定する。一方、タッチ時刻Ttからフリック時刻Tfまでの時間間隔が或る程度長い、即ち、(Tf−Tt)が所定の時間間隔(例えば、0.1秒)より長ければ、選択操作判定部107は、画像データ中のオブジェクトが選択された状態で画像データの表示切り替えが指示されたと判定する。また、複数箇所(N箇所)がタッチされた場合、これらが同時にタッチされ、且つ、上記のようにタッチ時刻Ttからフリック時刻Tfまでの時間間隔が短ければ、選択操作判定部107は、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定する。   In step S702, the selection operation determination unit 107 determines whether the operation is an object selection operation based on the touch time Tt and the flick time Tf. Specifically, if the time interval from the touch time Tt to the flick time Tf is short, that is, if (Tf−Tt) is equal to or shorter than a predetermined time interval (for example, 0.1 second), the selection operation determination unit 107 Then, it is determined that the display switching of the image data is instructed in a state where no object in the image data is selected. On the other hand, if the time interval from the touch time Tt to the flick time Tf is somewhat longer, that is, if (Tf−Tt) is longer than a predetermined time interval (for example, 0.1 second), the selection operation determination unit 107 It is determined that the display switching of the image data is instructed with the object in the image data selected. Further, when a plurality of locations (N locations) are touched, if these are touched at the same time and the time interval from the touch time Tt to the flick time Tf is short as described above, the selection operation determination unit 107 displays the image data It is determined that image data display switching has been instructed in a state in which no object is selected.

なお、複数箇所(N箇所)が同時にタッチされたか否かについては、全てのタッチ時刻の差がほとんどないか否かで判定される。次に、図8を参照しながら、複数箇所(N箇所)が同時にタッチされたか否かの判定処理について説明する。図8は、複数箇所(N箇所)が同時にタッチされたか否かの判定処理を示すフローチャートである。ステップS801において、選択操作判定部107は、それぞれのタッチ時刻をTt1、Tt2、Tt3、・・・、TtNとして設定する。ステップS802において、選択操作判定部107は、変数nに1を代入する。ステップS803において、選択操作判定部107は、変数mにn+1を代入する。ステップS804において、選択操作判定部107は、N<n又はN<mの条件を満たすか否かを判定する。N<n又はN<mの条件を満たす場合、処理はステップS808に移行する。一方、N<n及びN<mの何れの条件も満たさない場合、処理はステップS805に移行する。ステップS808において、選択操作判定部107は、複数箇所が同時にタッチされたと判定する。   Note that whether or not a plurality of locations (N locations) are touched at the same time is determined based on whether or not there is almost no difference in all touch times. Next, a process for determining whether or not a plurality of locations (N locations) have been touched simultaneously will be described with reference to FIG. FIG. 8 is a flowchart showing a process for determining whether or not a plurality of locations (N locations) are touched simultaneously. In step S801, the selection operation determination unit 107 sets each touch time as Tt1, Tt2, Tt3,..., TtN. In step S802, the selection operation determination unit 107 substitutes 1 for a variable n. In step S803, the selection operation determination unit 107 substitutes n + 1 for the variable m. In step S804, the selection operation determination unit 107 determines whether or not a condition of N <n or N <m is satisfied. When the condition of N <n or N <m is satisfied, the process proceeds to step S808. On the other hand, if neither N <n nor N <m is satisfied, the process proceeds to step S805. In step S808, the selection operation determination unit 107 determines that a plurality of locations have been touched simultaneously.

ステップS805において、選択操作判定部107は、時刻Ttmと時刻Ttnとの差が十分小さいか否か、即ち、時刻Ttmと時刻Ttnとの差の絶対値が所定の値(例えば、0.01秒)より小さいか否かを判定する。時刻Ttmと時刻Ttnとの差が十分小さい場合、処理はステップS806に移行する。一方、時刻Ttmと時刻Ttnとの差が十分小さくない場合、処理はステップS807に移行する。ステップS806において、選択操作判定部107は、nを1加算する。そして、処理はステップS803に戻る。ステップS807において、選択操作判定部107は、複数箇所が同時にタッチされていないと判定する。   In step S805, the selection operation determination unit 107 determines whether or not the difference between the time Ttm and the time Ttn is sufficiently small, that is, the absolute value of the difference between the time Ttm and the time Ttn is a predetermined value (for example, 0.01 seconds). ) It is determined whether it is smaller. When the difference between time Ttm and time Ttn is sufficiently small, the process proceeds to step S806. On the other hand, if the difference between time Ttm and time Ttn is not sufficiently small, the process proceeds to step S807. In step S806, the selection operation determination unit 107 adds 1 to n. Then, the process returns to step S803. In step S807, the selection operation determination unit 107 determines that a plurality of locations are not touched simultaneously.

以上のように、複数箇所が同時にタッチされたか否かを判定し、同時にタッチされたと判定された場合、時刻Ttm及び時刻Ttnのうちの何れか、又は、時刻Ttmと時刻Ttnとの平均値をTtとする。また、画像データがフリックされた時刻をTfとすると、(Tf−Tt)が所定の時間間隔(例えば、0.1秒)以下であれば、選択操作判定部107は、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定する。一方、(Tf−Tt)が所定の時間間隔(例えば、0.1秒)より長ければ、選択操作判定部107は、画像データ中のオブジェクトが選択された状態で画像データの表示切り替えが指示されたと判定する。   As described above, it is determined whether or not a plurality of locations have been touched at the same time. If it is determined that touch has been made at the same time, one of time Ttm and time Ttn or an average value of time Ttm and time Ttn is calculated. Let Tt. If the time at which the image data is flicked is Tf, if (Tf−Tt) is equal to or shorter than a predetermined time interval (for example, 0.1 second), the selection operation determination unit 107 determines that the object in the image data is It is determined that image data display switching has been instructed without being selected. On the other hand, if (Tf−Tt) is longer than a predetermined time interval (for example, 0.1 second), the selection operation determination unit 107 is instructed to switch display of image data while an object in the image data is selected. It is determined that

以上により、ユーザがオブジェクトを選択しない場合はタッチ時刻からフリック時刻までの時間間隔が短いという自然な操作に基づく判定が可能になる。   As described above, when the user does not select an object, determination based on a natural operation that the time interval from the touch time to the flick time is short is possible.

次に、図9〜図12を参照しながら、画像ブラウジングを行う際の処理について説明する。図9は、画像ブラウジングの際の処理を示すフローチャートである。図10〜図12は、画像データ群111の表示状態等を示す図である。即ち、図10(a)、図11(a)、図12(a)は何れも、三角や丸の特徴をもつオブジェクトを含む画像データ群111を示しており、図10(b)、図11(b)、図12(b)に表示部106における画像データの表示状態を示している。図10(c)は、画像データの分割例を示している。図10(c)の例では、画像データを縦方向に2分割、横方向に2分割し、画像データに対してA、B、C、Dの4つの領域を定義している。図10(d)は、このように画像データに対して4つの領域を定義した場合の特徴データ112の例を示している。「ID」の欄には、画像データのIDが定義され、「オブジェクトの領域情報」の欄には、オブジェクトが領域A〜Dのどの領域に属しているかが定義され、「特徴情報」の欄には、オブジェクトの特徴が定義されている。図11(b)、図12(b)の黒丸1101、1201は、ユーザにタッチされた箇所を示している。図11(c)、図12(c)は、タッチされた箇所に対応するオブジェクトの特徴情報を示している。   Next, processing when performing image browsing will be described with reference to FIGS. FIG. 9 is a flowchart showing a process at the time of image browsing. 10 to 12 are diagrams showing a display state of the image data group 111 and the like. That is, FIG. 10A, FIG. 11A, and FIG. 12A all show the image data group 111 including an object having a triangular or circular feature, and FIG. 10B and FIG. FIGS. 12B and 12B show the display state of the image data on the display unit 106. FIG. 10C shows an example of division of image data. In the example of FIG. 10C, the image data is divided into two parts in the vertical direction and two parts in the horizontal direction, and four areas A, B, C, and D are defined for the image data. FIG. 10D shows an example of the feature data 112 when four areas are defined for the image data as described above. In the “ID” column, the ID of the image data is defined, in the “object region information” column, the region to which the object belongs is defined, and in the “feature information” column Defines the characteristics of the object. Black circles 1101 and 1201 in FIGS. 11B and 12B indicate locations touched by the user. FIG.11 (c) and FIG.12 (c) have shown the characteristic information of the object corresponding to the touched location.

ステップS901において、画像検索部110は、表示順に基づいて画像データ群111を表示部106に表示させる。上記表示順は、日付順や名前順等、アプリケーションで定められた規則に基づいて定められる。また、この最初の順序は、ユーザがアプリケーションを通じて設定できるようにしてもよい。図10(a)の例では、画像データ群111は日付順に並んでおり、図10(b)に示すように、表示部106の左側から、最後の2枚の画像データ(画像データ9、画像データ10)と最初の3枚の画像データ(画像データ1、画像データ2、画像データ3)とが表示されている。   In step S901, the image search unit 110 displays the image data group 111 on the display unit 106 based on the display order. The display order is determined based on rules determined by the application, such as date order or name order. The initial order may be set by the user through an application. In the example of FIG. 10A, the image data group 111 is arranged in order of date. As shown in FIG. 10B, the last two pieces of image data (image data 9, image data 9) are displayed from the left side of the display unit 106. Data 10) and the first three pieces of image data (image data 1, image data 2, image data 3) are displayed.

ステップS902において、選択操作判定部107は、複数オブジェクト指定部105から1つ以上のタッチ入力が通知されたか否かを判定する。1つ以上のタッチ入力が通知された場合、処理はステップS903に移行する。一方、1つ以上のタッチ入力が通知されなかった場合、複数オブジェクト指定部105からタッチ入力が通知されるまで待機する。   In step S <b> 902, the selection operation determination unit 107 determines whether one or more touch inputs are notified from the multiple object specification unit 105. When one or more touch inputs are notified, the process proceeds to step S903. On the other hand, if one or more touch inputs are not notified, the process waits until a touch input is notified from the multiple object designating unit 105.

ステップS903において、オブジェクト特定部10は、選択操作判定部107によりオブジェクトが選択されたと判定された場合、当該オブジェクトを特定する。そして特徴抽出部109は、そのオブジェクトの特徴を抽出する。具体的には、オブジェクト特定部10は、タッチされた箇所が画像データ中のどの位置にあるかを算出し、更に特徴データ112を参照して、タッチされた箇所が画像データ中のどのオブジェクトに属するかを判定する。特徴データ112にはオブジェクトの領域情報が含まれているため、画像データ中における任意の位置についてどのオブジェクトが属しているかを容易に判定することができる。また、複数の箇所がタッチされていて、その位置がそれぞれ異なるオブジェクトに属する場合、複数のオブジェクトが選択されたことになる。また、複数の箇所がタッチされていて、その位置が何れも同一のオブジェクトに属する場合、1つのオブジェクトが選択されたことになる。選択されたオブジェクトが特定されると、特徴抽出部109は、選択されたオブジェクトの特徴を抽出する。特徴データ112には、オブジェクトの領域情報とオブジェクトの特徴情報とが対応付けられているので、選択されたオブジェクトの特徴を抽出することができる。複数のオブジェクトが選択された場合、全てのオブジェクトに関してそれぞれ特徴が抽出される。なお、特徴データ112が与えられていない場合には、既存の画像認識技術を利用することにより、画像データの任意の位置におけるオブジェクト(人や物等)及びその特徴(名前、色、形等)を認識して取得することができる。図11の例では、図11(c)に示すように丸という特徴が抽出される。また、図12の例では、図12(c)に示すように三角という特徴が抽出される。 In step S903, the object identification unit 108, when it is determined that the object is selected by the selection operation determination unit 107, for identifying the object. The feature extraction unit 109 extracts the feature of the object. Specifically, the object identification unit 108 calculates whether or touched point is located at which position in the image data, further with reference to the feature data 112, which objects in the touched point is image data It is judged whether it belongs to. Since the feature data 112 includes object area information, it can be easily determined which object belongs to an arbitrary position in the image data. If a plurality of locations are touched and the positions belong to different objects, a plurality of objects are selected. In addition, when a plurality of locations are touched and the positions belong to the same object, one object is selected. When the selected object is specified, the feature extraction unit 109 extracts the feature of the selected object. Since the feature data 112 is associated with the object region information and the object feature information, the feature of the selected object can be extracted. When a plurality of objects are selected, features are extracted for all the objects. If the feature data 112 is not given, an object (person, thing, etc.) and its feature (name, color, shape, etc.) at an arbitrary position of the image data are utilized by using an existing image recognition technique. Can be recognized and acquired. In the example of FIG. 11, the feature of a circle is extracted as shown in FIG. In the example of FIG. 12, a feature of a triangle is extracted as shown in FIG.

また、本実施形態においては、特定したオブジェクトの画像データ上の領域情報を取得することができるため、その領域に色を付ける、オブジェクトの縁取りをする等、画像データ上のオブジェクトを目立たせるようにしてもよい。またオブジェクトがもつ特徴(文字列)を画像データ上に重畳して表示させてもよい。   In the present embodiment, since the area information on the image data of the specified object can be acquired, the object on the image data is made conspicuous, such as coloring the area or edging the object. May be. Further, the feature (character string) of the object may be displayed superimposed on the image data.

ステップS904において、画像検索部110は、オブジェクト特定部108によってオブジェクトが特定され、且つ、特徴抽出部109によって特徴が抽出されたか否かを判定する。タッチされた位置が何れのオブジェクトにも属さず、これにより、オブジェクトが特定されず、特徴が抽出されなかった場合、処理はステップS906に移行する。一方、タッチされた位置が何れかのオブジェクトに属し、これにより、オブジェクトが特定され、特徴が抽出された場合、処理はステップS905に移行する。   In step S <b> 904, the image search unit 110 determines whether the object is specified by the object specifying unit 108 and the feature is extracted by the feature extracting unit 109. If the touched position does not belong to any object, and thus no object is specified and no feature is extracted, the process proceeds to step S906. On the other hand, when the touched position belongs to one of the objects, and the object is specified and the feature is extracted, the process proceeds to step S905.

ステップS905において、画像検索部110は、画像データ群111について特徴の類似度を算出し、その類似度に基づいて画像データ群111を検索し、検索結果に応じて画像データの表示順を変更する。ここでは、画像データ群111を類似度の高い順に検索し、並び替える。実際に画像データ群111を並び替えてもよいし、表示順を示す値を更新してもよい。特徴の類似度は、画像データにその特徴をもつオブジェクトがどのくらい含まれているかを表す値である。例えば、当該特徴をもつオブジェクトの数やオブジェクトの面積の他、認識尤度等を利用してもよい。図11の例では、画像検索部110は、図10(d)に示す特徴データ112を参照することにより、丸という特徴をもつオブジェクトを含む画像データ1、4、8の類似度を高くして、図11(a)に示すように画像データを並び変えている。図11(a)の例では、丸という特徴をもつオブジェクトを含む画像データ内での優先度、及び、丸という特徴をもつオブジェクトを含まない画像データ内での優先度は、並び替える前の順序を保っているが、これに限らない。例えば同じ特徴をもつオブジェクトを含む画像データ内において日付順に並べるようにしてもよい。   In step S905, the image search unit 110 calculates the feature similarity for the image data group 111, searches the image data group 111 based on the similarity, and changes the display order of the image data according to the search result. . Here, the image data group 111 is searched and rearranged in descending order of similarity. The image data group 111 may actually be rearranged, or the value indicating the display order may be updated. The feature similarity is a value indicating how many objects having the feature are included in the image data. For example, recognition likelihood or the like may be used in addition to the number of objects having the characteristics and the area of the objects. In the example of FIG. 11, the image search unit 110 increases the similarity of the image data 1, 4, and 8 including the object having the feature of a circle by referring to the feature data 112 shown in FIG. The image data is rearranged as shown in FIG. In the example of FIG. 11A, the priority in the image data including the object having the feature of the circle and the priority in the image data not including the object having the feature of the circle are the order before the rearrangement. However, it is not limited to this. For example, the image data including objects having the same characteristics may be arranged in order of date.

また、特徴が複数ある場合、その複数の特徴のAND(論理積)に基づく類似度に応じて画像データ群111を並べ替えてもよい。さらに、複数の特徴のANDではなくOR(論理和)に基づく類似度に応じて画像データ群111を並べ替えるようにしてもよい。特徴が複数の場合にANDに基づくかORに基づくかはユーザがアプリケーションを通じて設定できるようにしてもよい。   When there are a plurality of features, the image data group 111 may be rearranged according to the similarity based on the AND (logical product) of the features. Furthermore, the image data group 111 may be rearranged according to the similarity based on OR (logical sum) instead of AND of a plurality of features. When there are a plurality of features, the user may be able to set through an application whether the feature is based on AND or OR.

ステップS906において、選択操作判定部107は、タッチ入力に変更があったか否かを判定する。即ち、選択操作判定部107は、上述したステップS902で検知したタッチ入力の状態と比較し、タッチ入力の状態が異なる場合、処理はステップS907に移行する。一方、上述したステップS902で検知されたタッチ入力の状態と同一の場合、処理はステップS908に移行する。なお、タッチ入力の状態が異なるとは、例えば「タッチ入力が1つから2つになった」、「タッチ入力が2つから1つになった」等の入力数の増減のほか、タッチ位置の変更等が挙げられる。ここでタッチ位置の変更とは、ドラッグやフリックとは異なり、ある位置のタッチが解除され、再び別の位置がタッチされることを意味する。   In step S906, the selection operation determination unit 107 determines whether or not the touch input has been changed. That is, the selection operation determination unit 107 compares the touch input state detected in step S902 described above, and if the touch input state is different, the process proceeds to step S907. On the other hand, if the touch input state detected in step S902 described above is the same, the process proceeds to step S908. Note that the state of touch input is different from the increase or decrease in the number of inputs such as “from one to two touch inputs” and “from two to one touch inputs”, as well as the touch position. The change etc. are mentioned. Here, changing the touch position means that, unlike dragging and flicking, the touch at a certain position is released and another position is touched again.

ステップS907において、画像検索部110は、前段のステップS905にて画像データの表示順を変更した場合、画像データの表示順を元に戻す。一方、前段のステップS905において画像データの表示順を変更していない場合、画像検索部110は何も処理を行わない。そして、処理はステップS902に戻る。   In step S907, the image search unit 110 restores the display order of the image data when the display order of the image data is changed in the previous step S905. On the other hand, when the display order of the image data is not changed in the previous step S905, the image search unit 110 performs no processing. Then, the process returns to step S902.

ステップS908において、画像検索部110は、画像データの表示切り替えの指示があったか否かを判定する。上述した通り、本実施形態では、画像ブラウジング時に画像データ上でフリックされると、画像データの表示切り替えの指示があったと解釈する。このため、複数オブジェクト指定部105からフリックが行われたことが通知された場合、処理はステップS909に移行する。一方、フリックが行われたことが通知されなかった場合、処理はステップS906に移行する。ステップS909において、画像検索部110は、表示順に基づいて画像データ群111を表示部106に表示させる。   In step S908, the image search unit 110 determines whether there is an instruction to switch display of image data. As described above, in this embodiment, when flicking on image data during image browsing, it is interpreted that there is an instruction to switch display of image data. For this reason, when it is notified from the multiple object designation | designated part 105 that the flick was performed, a process transfers to step S909. On the other hand, if it is not notified that the flick has been performed, the process proceeds to step S906. In step S909, the image search unit 110 causes the display unit 106 to display the image data group 111 based on the display order.

なお、アプリケーションから終了の指示があった場合、何れのステップにおいても割り込み処理によりアプリケーションを終了する。また、選択操作判定部107の処理は上述した処理に限らない。例えば以下のような処理が挙げられる。以下に説明する選択操作判定部107の処理は、図9の処理と並行に行われる。   When there is an instruction for termination from the application, the application is terminated by interrupt processing at any step. Moreover, the process of the selection operation determination part 107 is not restricted to the process mentioned above. For example, the following processes are mentioned. The process of the selection operation determination unit 107 described below is performed in parallel with the process of FIG.

先ず、選択操作判定部107の第1の変形例について説明する。上述したようにタッチ時刻からフリック時刻までの時間間隔を用いた場合、その時間間隔が短いか否かはユーザによって異なる場合がある。第1の変形例では、図7のステップS701において、選択操作判定部107は、履歴情報113である、今回のタッチ時刻及びフリック時刻と、過去のタッチ時刻からフリック時刻までの時間間隔とを参照する。ステップS702において、選択操作判定部107は、今回のタッチ時刻からフリック時刻までの時間間隔を算出し、当該時間間隔が過去のタッチ時刻からフリック時刻までの時間間隔と同じ、又は、当該時間間隔と過去のタッチ時刻からフリック時刻までの時間間隔との差が所定の値(例えば、0.1秒)以下であれば、オブジェクトが選択されたと判定する。一方、上記の条件を満たさない場合、選択操作判定部107は、オブジェクトは選択されていないと判定する。さらに、選択操作判定部107は、その判定結果を今回のタッチ時刻からフリック時刻までの時間間隔と対応付けて履歴情報113として記憶装置104に記憶させておき、次回以降の判定に利用する。また、判定の際に用いられる過去のタッチ時刻からフリック時刻までの時間間隔は、例えば数分以内の履歴情報113に限ってもよい。これにより、タッチ時刻からフリック時刻までの時間間隔を個々のユーザ毎にカスタマイズすることができる。   First, a first modification of the selection operation determination unit 107 will be described. As described above, when the time interval from the touch time to the flick time is used, whether or not the time interval is short may vary depending on the user. In the first modified example, in step S701 in FIG. 7, the selection operation determination unit 107 refers to the current touch time and flick time, and the time interval from the past touch time to the flick time, which are the history information 113. To do. In step S702, the selection operation determination unit 107 calculates the time interval from the current touch time to the flick time, and the time interval is the same as the time interval from the past touch time to the flick time, or the time interval. If the difference from the time interval from the past touch time to the flick time is equal to or less than a predetermined value (for example, 0.1 second), it is determined that the object has been selected. On the other hand, if the above condition is not satisfied, the selection operation determination unit 107 determines that no object is selected. Further, the selection operation determination unit 107 stores the determination result in the storage device 104 as the history information 113 in association with the time interval from the current touch time to the flick time, and uses it for the subsequent determination. Further, the time interval from the past touch time to the flick time used for the determination may be limited to the history information 113 within a few minutes, for example. Thereby, the time interval from the touch time to the flick time can be customized for each individual user.

次に、選択操作判定部107の第2の変形例について説明する。ユーザがオブジェクトを選択するのにはある程度時間がかかる。このため、一つ前のフリック時刻から今回のフリック時刻までの時間間隔が十分短い場合、オブジェクトを選択していないとみなすことができる。本変形例では、図7のステップS701において、選択操作判定部107は、履歴情報113である、今回のフリック時刻と一つ前のフリック時刻とを参照する。ステップS702において、選択操作判定部107は、今回のフリック時刻と一つ前のフリック時刻との時間間隔を算出し、その時間間隔が所定の値(例えば、0.5秒)以下である場合、オブジェクトは選択されていないと判定する。一方、当該時間間隔が所定の値(例えば、0.5秒)より長ければ、選択操作判定部107は、オブジェクトが選択されたと判定する。これにより、ユーザはオブジェクトを選択しない場合には早く画像データを切り替えるという自然な操作に基づく判定が可能になる。   Next, a second modification of the selection operation determination unit 107 will be described. It takes some time for the user to select an object. For this reason, when the time interval from the previous flick time to the current flick time is sufficiently short, it can be considered that no object is selected. In this modified example, in step S701 in FIG. 7, the selection operation determination unit 107 refers to the current flick time and the previous flick time as the history information 113. In step S702, the selection operation determination unit 107 calculates a time interval between the current flick time and the previous flick time, and when the time interval is a predetermined value (for example, 0.5 seconds) or less, It is determined that the object is not selected. On the other hand, if the time interval is longer than a predetermined value (for example, 0.5 seconds), the selection operation determination unit 107 determines that an object has been selected. Thereby, when the user does not select an object, the determination based on a natural operation of quickly switching the image data can be performed.

次に、選択操作判定部107の第3の変形例について説明する。ユーザが画像データを閲覧するときはある一定の時間間隔で画像データの表示を切り替えることが多い。一方、何かを注視したり、特定の操作をしたりする場合に時間間隔が一定でなくなることがある。オブジェクトの選択もこの中の1つである。このような事情を考慮し、本変形例では、フリック時刻の時間間隔が一定でない場合にオブジェクトが選択されたと判定する。即ち、ステップS701において、選択操作判定部107は、履歴情報113である、今回のフリック時刻と一つ前のフリック時刻とを参照する。ステップS702において、選択操作判定部107は、今回のフリック時刻と一つ前のフリック時刻との時間間隔を算出する。当該時間間隔が過去のフリック時刻の時間間隔の平均値と同じ、又は、当該時間間隔と過去のフリック時刻の時間間隔の平均値との差が所定の値(例えば、0.5秒)以下である場合、選択操作判定部107は、オブジェクトは選択されていないと判定する。一方、当該時間間隔と過去のフリック時刻の時間間隔の平均値との差が所定の値(例えば、0.5秒)より長い場合、選択操作判定部107は、オブジェクトが選択されたと判定する。また、判定の際に用いられる過去のフリック時刻の時間間隔の平均値は、例えば数分以内の下記のフリック時刻の時間間隔の平均値に限ってもよい。これにより、ユーザがオブジェクトを選択するときに画像データの表示切り替えが一定の時間間隔でなくなるという自然な操作に基づく判定が可能になる。   Next, a third modification of the selection operation determination unit 107 will be described. When a user browses image data, the display of the image data is often switched at a certain time interval. On the other hand, the time interval may not be constant when gazing at something or performing a specific operation. Object selection is one of them. In consideration of such circumstances, in this modification, it is determined that an object has been selected when the time interval of the flick time is not constant. That is, in step S701, the selection operation determination unit 107 refers to the current flick time and the previous flick time as the history information 113. In step S702, the selection operation determination unit 107 calculates a time interval between the current flick time and the previous flick time. The time interval is the same as the average value of the time intervals of the past flick times, or the difference between the time interval and the average value of the time intervals of the past flick times is a predetermined value (for example, 0.5 seconds) or less. If there is, the selection operation determination unit 107 determines that no object is selected. On the other hand, when the difference between the time interval and the average value of the time intervals of past flick times is longer than a predetermined value (for example, 0.5 seconds), the selection operation determination unit 107 determines that the object has been selected. Moreover, the average value of the time intervals of the past flick times used in the determination may be limited to the average value of the time intervals of the following flick times within a few minutes, for example. Thereby, when the user selects an object, it is possible to make a determination based on a natural operation in which display switching of image data is not performed at a certain time interval.

次に、選択操作判定部107の第4の変形例について説明する。上記の第3の変形例の場合、オブジェクトを選択した後の1回目のフリック時の判定が難しい。そこで、本変形例では、過去のタッチ時刻からフリック時刻までの時間間隔と選択操作判定部107の判定結果とを対応付けて履歴情報113として記憶装置104に記憶させておく。そして、ステップS701において、選択操作判定部107は、履歴情報113である、過去のタッチ時刻からフリック時刻までの時間間隔と選択操作判定部107の判定結果とを参照する。ステップS702において、選択操作判定部107は、今回のタッチ時刻からフリック時刻までの時間間隔が、オブジェクトが選択されたと判定された場合における過去のタッチ時刻からフリック時刻までの時間間隔の平均値と同じ、又は、今回のタッチ時刻からフリック時刻までの時間間隔と上記過去のタッチ時刻からフリック時刻までの時間間隔の平均値との差が所定の値(例えば0.1秒)以下であれば、オブジェクトが選択されたと判定する。一方、上記の条件を満たさない場合、選択操作判定部107は、オブジェクトが選択されていないと判定する。また、判定の際に用いられる過去のフリック時刻の時間間隔は、例えば数分以内の履歴情報113に限ってもよい。これにより、ユーザがオブジェクトを選択するときに画像データの表示切り替えが一定間隔でなくなるという自然な操作に基づく判定が可能になる。   Next, a fourth modification of the selection operation determination unit 107 will be described. In the case of the third modification described above, it is difficult to determine at the first flick after selecting an object. Therefore, in the present modification, the time interval from the past touch time to the flick time and the determination result of the selection operation determination unit 107 are associated with each other and stored in the storage device 104 as history information 113. In step S701, the selection operation determination unit 107 refers to the history information 113, the time interval from the past touch time to the flick time and the determination result of the selection operation determination unit 107. In step S702, the selection operation determination unit 107 determines that the time interval from the current touch time to the flick time is the same as the average value of the time intervals from the past touch time to the flick time when it is determined that the object has been selected. Or, if the difference between the time interval from the current touch time to the flick time and the average value of the time interval from the past touch time to the flick time is equal to or less than a predetermined value (for example, 0.1 second), the object It is determined that is selected. On the other hand, if the above condition is not satisfied, the selection operation determination unit 107 determines that no object is selected. Moreover, the time interval of the past flick time used in the determination may be limited to the history information 113 within a few minutes, for example. Thereby, when the user selects an object, it is possible to make a determination based on a natural operation such that display switching of image data is not performed at regular intervals.

次に、選択操作判定部107の第5の変形例について説明する。一般的に、ユーザがタッチして何かを選択する場合、特にタッチで複数選択する場合は、単にフリックするよりも圧力がかかる。そこで、本変形例における選択操作判定部107は、タッチ又はフリックの圧力が所定の値以上である場合、オブジェクトが選択されたと判定し、当該圧力が所定の値未満である場合、オブジェクトは選択されていないと判定する。これにより、オブジェクトを選択するときに圧力がかかるというユーザの自然な操作に基づく判別が可能になる。   Next, a fifth modification of the selection operation determination unit 107 will be described. Generally, when a user touches to select something, particularly when multiple selections are made by touch, pressure is applied rather than simply flicking. Therefore, the selection operation determination unit 107 in this modification determines that an object has been selected when the touch or flick pressure is greater than or equal to a predetermined value, and if the pressure is less than the predetermined value, the object is selected. Judge that it is not. Accordingly, it is possible to make a determination based on a user's natural operation that pressure is applied when an object is selected.

次に、選択操作判定部107の第6の変形例について説明する。第5の変形例のように圧力を用いた場合、その圧力が大きいかどうかはユーザによって異なる場合がある。そこで、本変形例では、過去のタッチ又はフリックの圧力と選択操作判定部107の判定結果とを対応付けて履歴情報113として記憶装置104に記憶させておく。そして、ステップS701において、選択操作判定部107は、履歴情報113である、今回のタッチ又はフリックの圧力と過去のタッチ又はフリックの圧力とを参照する。ステップS702において、選択操作判定部107は、今回のタッチ又はフリックの圧力が、オブジェクトが選択されたと判定された場合における過去のタッチ又はフリックの圧力の平均値と同じ、又は、今回のタッチ又はフリックの圧力と上記過去のタッチ又はフリックの圧力の平均値との差が所定の値以下であれば、オブジェクトが選択されたと判定する。一方、上記の条件を満たさない場合、選択操作判定部107は、オブジェクトは選択されていないと判定する。なお、今回の判定結果とタッチ又はフリックの圧力とは履歴情報113として記憶され、次回以降の判定の際に使用される。また、判定の際に用いられる過去のタッチ又はフリックの圧力は、例えば数分以内の履歴情報113に限ってもよい。これにより、圧力の大きさを個々のユーザ毎にカスタマイズすることができる。   Next, a sixth modification of the selection operation determination unit 107 will be described. When pressure is used as in the fifth modification, whether the pressure is large may vary depending on the user. Therefore, in this modification, the past touch or flick pressure and the determination result of the selection operation determination unit 107 are associated with each other and stored in the storage device 104 as history information 113. In step S <b> 701, the selection operation determination unit 107 refers to the current touch or flick pressure and the past touch or flick pressure, which are the history information 113. In step S <b> 702, the selection operation determination unit 107 determines that the current touch or flick pressure is the same as the average value of the past touch or flick pressure when it is determined that the object is selected, or the current touch or flick pressure. If the difference between the pressure and the average value of the past touch or flick pressure is equal to or less than a predetermined value, it is determined that the object has been selected. On the other hand, if the above condition is not satisfied, the selection operation determination unit 107 determines that no object is selected. Note that the current determination result and the touch or flick pressure are stored as history information 113 and used in subsequent determinations. The past touch or flick pressure used for the determination may be limited to the history information 113 within a few minutes, for example. Thereby, the magnitude | size of a pressure can be customized for every user.

次に、選択操作判定部107の第7の変形例について説明する。ユーザがオブジェクトを選択せずに画像データを閲覧するときは、連続してタッチされる箇所の総数(例えばタッチする指の数)は一定であることが多い。一方、オブジェクトを指定する場合は複数指定することがあるため、タッチ又はフリックされる箇所の総数は変化することがある。このような事情を考慮し、本変形例では、ステップS901において、選択操作判定部107は、履歴情報113である、過去のタッチ又はフリックされた箇所の総数を参照する。ステップS902において、選択操作判定部107は、今回タッチ又はフリックされた箇所の総数が、直前の幾つかの入力(例えば、直前の5入力)においてタッチ又はフリックされた箇所の総数と同じである場合、オブジェクトは選択されていないと判定する。一方、今回タッチ又はフリックされた箇所の総数が、直前の幾つかの入力(例えば、直前の5入力)においてタッチ又はフリックされた箇所の総数と異なる場合、選択操作判定部107は、オブジェクトが選択されたと判定する。この場合、上述した図9のステップS902の時点で画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定することができるので、ステップS903に移行する必要がない。これにより、ユーザがオブジェクトを選択しないときはタッチする箇所の総数が変化しないというユーザの自然な操作に基づく判定が可能になる。   Next, a seventh modification of the selection operation determination unit 107 will be described. When the user browses image data without selecting an object, the total number of locations touched in succession (for example, the number of fingers to touch) is often constant. On the other hand, since a plurality of objects may be specified, the total number of touched or flicked portions may change. In consideration of such circumstances, in this modification, in step S901, the selection operation determination unit 107 refers to the total number of past touched or flicked portions, which is the history information 113. In step S902, the selection operation determination unit 107 determines that the total number of locations touched or flicked this time is the same as the total number of locations touched or flicked in the previous several inputs (for example, the previous five inputs). , It is determined that the object is not selected. On the other hand, if the total number of locations touched or flicked this time is different from the total number of locations touched or flicked in the last several inputs (for example, the last five inputs), the selection operation determination unit 107 selects the object. It is determined that In this case, since it can be determined that the display switching of the image data has been instructed in a state where the object in the image data is not selected at the time of step S902 in FIG. 9 described above, there is no need to move to step S903. Thereby, when the user does not select an object, the determination based on the user's natural operation that the total number of touched portions does not change is possible.

次に、選択操作判定部107の第8の変形例について説明する。ユーザがオブジェクトを選択せずに画像データを閲覧する場合、ある特定の領域を連続してタッチ又はフリックして画像データを切り替えられることが多い。一方、オブジェクトを選択する場合、ある特定の領域を連続してタッチすることは少ない。この場合、ステップS701において、選択操作判定部107は、履歴情報113である、過去のタッチ又はフリックされた箇所の情報(例えば座標情報)を参照する。ステップS702において、選択操作判定部107は、今回タッチ又はフリックされた箇所が過去にタッチ又はフリックされた箇所から所定の範囲内にある場合、オブジェクトは選択されていないと判定する。一方、上記の条件を満たさない場合、選択操作判定部107は、オブジェクトが選択されたと判定する。なお、判定の際に用いられる過去にタッチ又はフリックされた箇所の情報は、例えば数分以内の履歴情報113に限ってもよい。また、上記所定の範囲内とは、個々の画像データ上の座標ではなく、画像データが表示されている画面全体(表示部106)又はタッチパネル全体の中の座標を意味する。これにより、ユーザがオブジェクトを選択しないときはある特定の領域を連続してタッチ及びフリックするというユーザの自然な操作に基づく判定が可能になる。   Next, an eighth modification of the selection operation determination unit 107 will be described. When the user browses image data without selecting an object, it is often possible to switch image data by continuously touching or flicking a specific area. On the other hand, when selecting an object, it is rare to touch a specific area continuously. In this case, in step S <b> 701, the selection operation determination unit 107 refers to information (for example, coordinate information) of a past touched or flicked portion that is the history information 113. In step S <b> 702, the selection operation determination unit 107 determines that an object has not been selected when the location touched or flicked this time is within a predetermined range from the location touched or flicked in the past. On the other hand, if the above condition is not satisfied, the selection operation determination unit 107 determines that an object has been selected. In addition, the information of the place touched or flicked in the past used for the determination may be limited to the history information 113 within a few minutes, for example. The term “within the predetermined range” means not the coordinates on the individual image data but the coordinates on the entire screen (display unit 106) or the entire touch panel on which the image data is displayed. Thereby, when the user does not select an object, it is possible to make a determination based on a user's natural operation of continuously touching and flicking a specific area.

次に、選択操作判定部107の第9の変形例について説明する。ユーザがオブジェクトを選択せずに画像データを閲覧するときは指の配置パターンが自然である。一方、オブジェクトの配置は指の自然な配置とは一致しないことが多いため、オブジェクトを選択する場合の指の配置は不自然なことが多い。このような事情を考慮し、タッチされた箇所の配置パターンと典型的な指の配置パターンとの類似度より、タッチされた箇所の配置パターンとオブジェクトの配置パターンとの類似度の方が高い場合、選択操作判定部107はオブジェクトが選択されたと判定する。   Next, a ninth modification of the selection operation determination unit 107 will be described. When the user browses image data without selecting an object, the finger placement pattern is natural. On the other hand, since the arrangement of objects often does not match the natural arrangement of fingers, the arrangement of fingers when selecting an object is often unnatural. Considering such circumstances, the similarity between the touched part placement pattern and the object finger placement pattern is higher than the similarity between the touched part placement pattern and the typical finger placement pattern. The selection operation determination unit 107 determines that an object has been selected.

以下、選択操作判定部107の第9の変形例について具体的に説明する。図13に示すような、典型的な右手及び左手の1本〜5本の指の配置パターンを予め記憶装置104に記憶しておく。指の配置パターンは画像データではなく配置を示す数値でもよい。以下、図14を参照しながら、選択操作判定部107の第9の変形例における処理について説明する。図14は、選択操作判定部107の第9の変形例における処理を示すフローチャートである。   Hereinafter, a ninth modification of the selection operation determination unit 107 will be specifically described. A typical arrangement pattern of one to five fingers of the right hand and the left hand as shown in FIG. 13 is stored in the storage device 104 in advance. The finger arrangement pattern may be a numerical value indicating the arrangement instead of image data. Hereinafter, the processing in the ninth modification of the selection operation determination unit 107 will be described with reference to FIG. FIG. 14 is a flowchart showing processing in the ninth modification of the selection operation determination unit 107.

ステップS1401において、選択操作判定部107は、複数オブジェクト指定部105から、タッチされた箇所の総数Nとタッチされた箇所の配置パターンとを取得する。ステップS1402において、選択操作判定部107は、画像データ上のオブジェクトの総数Mとそのオブジェクトの配置パターンとを取得する。もし、図15に示すように、タッチされている画像データが複数に渡る場合は、複数の画像データ(画像データ10、画像データ1)に含まれるオブジェクトの総数となる。なお、図15の1501、1502の黒丸はタッチされている箇所を示している。また、オブジェクトの配置パターンは上記複数の画像データの配置情報を考慮する必要がある。画像データ10と画像データ1とを例にとると、画像データ10と画像データ1との配置情報(図15の例では、画像データ10が左に、画像データ1が右に配置されている)に応じてオブジェクトの配置パターンが変わる。また、オブジェクトの総数Mを取得する対象範囲は画像データ全体でもよいが、全ての指が含まれる最小の四角形を対象範囲としてもよい。   In step S <b> 1401, the selection operation determination unit 107 acquires, from the multiple object specification unit 105, the total number N of touched locations and the arrangement pattern of the touched locations. In step S1402, the selection operation determination unit 107 acquires the total number M of objects on the image data and the arrangement pattern of the objects. If there are a plurality of touched image data as shown in FIG. 15, the total number of objects included in the plurality of image data (image data 10 and image data 1) is obtained. Note that black circles 1501 and 1502 in FIG. 15 indicate touched locations. In addition, the arrangement pattern of the object needs to consider the arrangement information of the plurality of image data. Taking image data 10 and image data 1 as an example, arrangement information of image data 10 and image data 1 (in the example of FIG. 15, image data 10 is arranged on the left and image data 1 is arranged on the right). The arrangement pattern of the object changes depending on. Further, the target range for acquiring the total number M of objects may be the entire image data, but the minimum rectangle including all fingers may be set as the target range.

ステップS1403において、選択操作判定部107は、タッチされた箇所の総数Nとオブジェクトの総数Mとを比較する。オブジェクトの総数Mよりタッチされた箇所の総数Nの方が大きい場合、処理はステップS1404に移行する。一方、オブジェクトの総数Mがタッチされた箇所の総数N以上である場合、処理はステップS1407に移行する。   In step S1403, the selection operation determination unit 107 compares the total number N of touched locations with the total number M of objects. If the total number N of touched locations is larger than the total number M of objects, the process proceeds to step S1404. On the other hand, if the total number M of objects is equal to or greater than the total number N of touched locations, the process proceeds to step S1407.

ステップS1404において、選択操作判定部107は、タッチされた箇所の配置パターンとオブジェクトの配置パターンとの類似度と、タッチされた箇所の配置パターンと典型的な指の配置パターンとの類似度とをそれぞれ計算する。なお、パターンの類似度は、既存の技術を用いることにより容易に算出することができる。   In step S <b> 1404, the selection operation determination unit 107 calculates the similarity between the touched part placement pattern and the object placement pattern, and the touched part placement pattern and the typical finger placement pattern. Calculate each. The pattern similarity can be easily calculated by using an existing technique.

ステップS1405において、選択操作判定部107は、ステップS1404にて算出した2つの類似度を比較する。タッチされた箇所の配置パターンとオブジェクトの配置パターンとの類似度より、タッチされた箇所の配置パターンと典型的な指の配置パターンとの類似度の方が高い場合、処理はステップS1407に移行する。一方、タッチされた箇所の配置パターンと典型的な指配置パターンとの類似度の方より、タッチされた箇所の配置パターンとオブジェクトの配置パターンとの類似度の方が高い場合、処理はステップS1406に移行する。ステップS1407において、選択操作判定部107は、オブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定する。ステップS1406において、選択操作判定部107は、オブジェクトが選択された状態で画像データの表示切り替えが指示されたと判定する。   In step S1405, the selection operation determination unit 107 compares the two similarities calculated in step S1404. If the similarity between the touched location placement pattern and the typical finger placement pattern is higher than the similarity between the touched location placement pattern and the object placement pattern, the process moves to step S1407. . On the other hand, if the degree of similarity between the arrangement pattern of the touched location and the arrangement pattern of the object is higher than the similarity between the arrangement pattern of the touched location and the typical finger arrangement pattern, the process proceeds to step S1406. Migrate to In step S1407, the selection operation determination unit 107 determines that an instruction to switch display of image data has been given in a state where no object is selected. In step S1406, the selection operation determination unit 107 determines that an instruction to switch display of image data is given in a state where an object is selected.

なお、上述した第1〜第9の変形例の夫々を適用してもよいし、第1〜第9の変形例のうちの任意の複数の変形例を組み合わせて適用してもよい。   Each of the first to ninth modifications described above may be applied, or any of a plurality of modifications of the first to ninth modifications may be applied in combination.

以上のように、本実施形態によれば、ユーザが優先的に見たいオブジェクトをタッチするという直観的な操作で他の画像データより優先的に当該オブジェクトを含む画像データを検索し、表示させることができる。また、オブジェクトが選択されたか否かについてユーザの自然な操作に基づく判定が可能になるため、ユーザの負担を増やすことがない。   As described above, according to the present embodiment, the user can search and display image data including the object with priority over other image data through an intuitive operation in which the user touches the object to be viewed with priority. Can do. In addition, since it is possible to determine whether or not an object has been selected based on the user's natural operation, the burden on the user is not increased.

次に、本発明の第2の実施形態について説明する。第1の実施形態では、同時に複数の特徴を指定する際に、複数の特徴をもつオブジェクトを同時に選択する方法を示した。これに対し、第2の実施形態では、同時に複数の特徴を指定する場合に、オブジェクトを複数回に分けて選択する方法について説明する。なお、第2の実施形態に係る情報処理システムの構成は図1に示した構成と同様であるため、以下の説明においても、図1の符合を用いるものとする。   Next, a second embodiment of the present invention will be described. In the first embodiment, the method of selecting an object having a plurality of features at the same time when specifying a plurality of features at the same time has been described. On the other hand, in the second embodiment, a method for selecting an object in multiple times when a plurality of features are simultaneously specified will be described. The configuration of the information processing system according to the second embodiment is the same as the configuration illustrated in FIG. 1, and therefore the reference numerals in FIG. 1 are used in the following description.

第2の実施形態によれば、例えば、図11の1101に示すように、丸という特徴をもつオブジェクトを指定して画像データの表示を切り替えた後に、続いて図12の1201に示すように、三角の特徴をもつオブジェクトを指定すると、丸と三角という複数の特徴をもつ画像データを優先させる動作が可能になる。   According to the second embodiment, for example, as shown by 1101 in FIG. 11, after an object having a feature of a circle is designated and the display of image data is switched, subsequently, as shown by 1201 in FIG. When an object having a triangular feature is designated, an operation of giving priority to image data having a plurality of features such as a circle and a triangle becomes possible.

次に、図16を参照しながら、画像ブラウジングを行う際の処理について説明する。図16は、画像ブラウジングの際の処理を示すフローチャートである。なお、図16では、図9と共通の処理については図9と同じ符号を付与している。以下では、図9と異なる処理である、ステップS1601、S1602、S1603について説明する。   Next, processing when performing image browsing will be described with reference to FIG. FIG. 16 is a flowchart showing a process at the time of image browsing. In FIG. 16, the same reference numerals as those in FIG. 9 are assigned to the processes common to those in FIG. Hereinafter, steps S1601, S1602, and S1603, which are processes different from those in FIG. 9, will be described.

ステップS1601においては、画像検索部110は、基本的には上記ステップS905と同様の処理を行う。但し、後述のステップS1603にてクリアされるまで過去に指定された特徴を記憶装置104に保持しておき、過去に指定された特徴に対し、新たに指定された特徴を追加する点が異なる。図11に示すように、丸という特徴をもつオブジェクトを指定して画像データの表示を切り替えた後に、続いて三角の特徴をもつオブジェクトを指定すると、記憶装置104に保持している特徴は丸と三角になる。複数選択されたときにAND(論理積)をとるか、OR(論理和)をとるか等は第1の実施形態と同様である。   In step S1601, the image search unit 110 basically performs the same processing as in step S905. However, the feature is that a previously designated feature is held in the storage device 104 until it is cleared in step S1603, which will be described later, and a newly designated feature is added to the feature designated in the past. As shown in FIG. 11, when an object having a feature of a circle is designated and image data display is switched, and then an object having a feature of a triangle is designated, the feature held in the storage device 104 is a circle. It becomes a triangle. Whether multiple (AND) or OR (logical sum) is selected when a plurality of selections are made is the same as in the first embodiment.

ステップS1602において、入力装置103は、ユーザがアプリケーションを通じて特徴情報をクリアするという指示を出したか否かを判定する。例えば、表示部106にクリアボタンを配置し、入力装置101はそのボタンが押下されたか否かを判定する。特徴情報をクリアするという指示が出された場合、処理はステップS1603に移行する。一方、特徴情報をクリアするという指示が出されていない場合、処理はステップS902に戻る。ステップS1603において、制御装置103は、特徴情報をクリアする。具体的には、制御装置103は記憶装置104に保持されている特徴情報を削除する。なお、ユーザが一度に選択するオブジェクトは1つでもよいし、複数でもよい。   In step S1602, the input device 103 determines whether the user has issued an instruction to clear the feature information through the application. For example, a clear button is arranged on the display unit 106, and the input device 101 determines whether or not the button is pressed. If an instruction to clear the feature information is issued, the process proceeds to step S1603. On the other hand, if an instruction to clear the feature information has not been issued, the process returns to step S902. In step S1603, the control device 103 clears the feature information. Specifically, the control device 103 deletes the feature information held in the storage device 104. Note that the user may select one or more objects at a time.

以上説明したように、本実施形態によれば、ユーザが優先的に見たいオブジェクトを順番にタッチするという直観的な操作で他の画像データより優先的に表示させることができる。また、第1の実施形態と同様に、ユーザが優先的に見たいオブジェクトをタッチするという直観的な操作で他の画像データより優先的に表示させることができる。また、オブジェクトが選択されたかどうかについてユーザの自然な操作に基づく判別が可能になるため、ユーザの負担を増やすことがない。   As described above, according to the present embodiment, it is possible to display the image with priority over other image data by an intuitive operation in which the user touches the objects that the user wants to see with priority in order. Similarly to the first embodiment, the image can be displayed with priority over other image data by an intuitive operation in which the user touches an object that the user wants to see with priority. In addition, since it is possible to determine whether an object has been selected based on a user's natural operation, the burden on the user is not increased.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101:入力装置、102:表示装置、103:制御装置、104:記憶装置、105:複数オブジェクト指定部、106:表示部、107:選択操作判定部、108:オブジェクト特定部、109:特徴抽出部、110:画像検索部、111:画像データ群、112:特徴データ、113:履歴情報、114:履歴参照部   101: input device, 102: display device, 103: control device, 104: storage device, 105: multiple object designation unit, 106: display unit, 107: selection operation determination unit, 108: object specification unit, 109: feature extraction unit 110: Image retrieval unit 111: Image data group 112: Feature data 113: History information 114: History reference unit

Claims (19)

定められた表示順に従う複数の画像データのうちの少なくとも一部を画面に表示させる情報処理装置であって、
前記画面に表示された画像データに含まれるオブジェクトのうち、ユーザによって選択されたオブジェクトを特定する特定手段と、
前記特定手段により特定された前記オブジェクトの特徴に基づいて、前記複数の画像データのうち、前記オブジェクトを含む画像データと類似する特徴を有する画像データを優先した前記複数の画像データの表示順を決定する決定手段と、
前記決定手段により決定された表示順に並び替えられた前記複数の画像データのうち少なくとも一部を、前記画面に表示させることで、前記画面に表示される画像データを変更する表示制御手段
を有することを特徴とする情報処理装置。
An information processing apparatus for displaying on a screen at least a part of a plurality of image data according to a predetermined display order,
A specifying means for specifying an object selected by a user among objects included in the image data displayed on the screen ;
Based on the features of the object specified by the specifying means, among the plurality of image data, the display order of the plurality of image data of the image data with priority having characteristics similar to the image data including the object A decision means to decide ;
Display control means for changing the image data displayed on the screen by causing at least a part of the plurality of image data rearranged in the display order determined by the determining means to be displayed on the screen ;
An information processing apparatus comprising:
前記表示制御手段は、前記画面に対して特定の操作がなされたことに応じて、前記決定手段によって決定された表示順と、前記特定の操作によって指示された方向と、に基づいて決定される画像データに、前記表示される画像データを変更することを特徴とする請求項1に記載の情報処理装置。 The display control unit is determined based on a display order determined by the determination unit and a direction instructed by the specific operation in response to a specific operation performed on the screen. The information processing apparatus according to claim 1 , wherein the displayed image data is changed to image data . 前記表示制御手段は、前記画面に対して特定の操作がなされたことに応じて、前記決定手段によって決定された表示順において、前記特定手段によって特定されたオブジェクトを含む画像データの位置から、前記特定の操作によって指示された方向側に存在する画像データの一部に、前記表示される画像データを変更することを特徴とする請求項2に記載の情報処理装置。 The display control means, from the position of the image data including the object specified by the specifying means, in the display order determined by the determining means in response to a specific operation being performed on the screen, The information processing apparatus according to claim 2 , wherein the displayed image data is changed to a part of image data existing on a direction side instructed by a specific operation . 前記表示制御手段は、前記ユーザによって前記オブジェクトが選択されていない状態で前記特定の操作が入力された場合、前記並び替えを行わずに前記複数の画像データのうち前記画面に表示させる少なくとも一部を変更し、前記ユーザによって前記オブジェクトが選択された状態で前記特定の操作が入力された場合、前記並び替えられた前記複数の画像データのうち少なくとも一部を、前記画面に表示させることで、前記画面に表示される画像データを変更することを特徴とする請求項2又は3に記載の情報処理装置。 The display control unit is configured to display at least a part of the plurality of image data on the screen without performing the rearrangement when the specific operation is input in a state where the object is not selected by the user. When the specific operation is input in a state where the object is selected by the user, at least a part of the rearranged image data is displayed on the screen. The information processing apparatus according to claim 2, wherein the image data displayed on the screen is changed . 前記表示制御手段は、前記ユーザによって前記オブジェクトが選択されていない状態で前記特定の操作が入力された場合、前記特定の操作によって指示された方向に基づいて、前記定められた表示順を有する前記複数の画像データのうち、前記画面に表示させる部分を移動させることで、前記複数の画像データのうち前記画面に表示させる画像データを変更することを特徴とする請求項4に記載の情報処理装置。 The display control means has the predetermined display order based on a direction instructed by the specific operation when the specific operation is input in a state where the object is not selected by the user. 5. The information processing apparatus according to claim 4 , wherein image data to be displayed on the screen among the plurality of image data is changed by moving a portion to be displayed on the screen among the plurality of image data. . ユーザによって前記オブジェクトが選択されたか否かを判定する判定手段を更に有し、
前記特定手段は、前記判定手段により前記オブジェクトが選択されたと判定された場合、前記オブジェクトを特定することを特徴とする請求項2乃至5の何れか1項に記載の情報処理装置。
A determination unit for determining whether or not the object is selected by a user;
The information processing apparatus according to claim 2, wherein the specifying unit specifies the object when the determination unit determines that the object is selected .
前記特定の操作とは、フリック操作であって、
記判定手段は、タッチパネルに対してタッチされた時点からフリックされた時点までの時間間隔に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項に記載の情報処理装置。
The specific operation is a flick operation,
Before Symbol judging means, based on a time interval from the time it is touched by pairs on the touch panel until the time of the flick, according to claim 6, wherein the object is to determine whether the selected Information processing device.
前記判定手段は、前記時間間隔が定められた時間間隔より長い場合、前記オブジェクトが選択されたと判定することを特徴とする請求項7に記載の情報処理装置。 The information processing apparatus according to claim 7, wherein the determination unit determines that the object is selected when the time interval is longer than a predetermined time interval . 前記特定の操作とは、フリック操作であって、
記判定手段は、タッチパネルに対するフリック操作の時間間隔に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項に記載の情報処理装置。
The specific operation is a flick operation,
Before Symbol judging means, based on the time interval of the flick operation against the touch panel, the information processing apparatus according to claim 6, wherein the object and judging whether the selected.
前記特定の操作とは、フリック操作であって、The specific operation is a flick operation,
前記判定手段は、タッチパネルに対するタッチ操作又はフリック操作の圧力に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項6に記載の情報処理装置。The information processing apparatus according to claim 6, wherein the determination unit determines whether the object is selected based on a pressure of a touch operation or a flick operation on the touch panel.
前記判定手段は、前記圧力が定められた圧力より大きい場合、前記オブジェクトが選択されたと判定することを特徴とする請求項10に記載の情報処理装置。The information processing apparatus according to claim 10, wherein the determination unit determines that the object is selected when the pressure is greater than a predetermined pressure. 前記特定の操作とは、フリック操作であって、The specific operation is a flick operation,
前記判定手段は、タッチパネルに対してタッチ又はフリックされた箇所の数に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項6に記載の情報処理装置。The information processing apparatus according to claim 6, wherein the determination unit determines whether or not the object has been selected based on the number of places touched or flicked on the touch panel.
前記特定の操作とは、フリック操作であって、The specific operation is a flick operation,
前記判定手段は、タッチパネルに対してタッチ又はフリックされた箇所の位置に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項6に記載の情報処理装置。The information processing apparatus according to claim 6, wherein the determination unit determines whether or not the object is selected based on a position of a place touched or flicked on the touch panel.
前記特定の操作とは、フリック操作であって、The specific operation is a flick operation,
前記判定手段は、タッチパネルに対してタッチ又はフリックされた箇所の配置パターンに基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項6に記載の情報処理装置。The information processing apparatus according to claim 6, wherein the determination unit determines whether or not the object has been selected based on an arrangement pattern of a place touched or flicked on the touch panel.
前記特定の操作とは、フリック操作であって、The specific operation is a flick operation,
前記判定手段は、タッチパネルに対してタッチ又はフリックされた箇所の配置パターンが、人の手の構造から導かれる自然な配置を表す定められた配置パターンではない場合、前記オブジェクトが選択されていないと判定することを特徴とする請求項14に記載の情報処理装置。When the arrangement pattern of the place touched or flicked on the touch panel is not a predetermined arrangement pattern representing a natural arrangement derived from the structure of a human hand, the object is not selected. The information processing apparatus according to claim 14, wherein the information processing apparatus determines.
前記決定手段は、前記特定手段により特定された前記オブジェクトの特徴と、前記複数の画像データのうち、前記特定されたオブジェクトを含む画像データではない他の画像データに含まれるオブジェクトが有する特徴に基づいて、前記類似する特徴を有する画像データを優先した表示順を決定することを特徴とする請求項1乃至15の何れか1項に記載の情報処理装置。The determining means is based on characteristics of the object specified by the specifying means and characteristics of objects included in other image data that is not image data including the specified object among the plurality of image data. The information processing apparatus according to claim 1, wherein a display order in which the image data having the similar characteristics is prioritized is determined. 前記特定手段により特定された前記オブジェクトの特徴と、前記複数の画像データのうち、前記特定されたオブジェクトを含む画像データではない他の画像データに含まれるオブジェクトが有する特徴に基づいて、前記特定されたオブジェクトを含む画像データと他の複数の画像データとの類似度を算出する算出手段を更に有し、Based on the characteristics of the object specified by the specifying means and the characteristics of an object included in other image data that is not the image data including the specified object among the plurality of image data. A calculation means for calculating the similarity between the image data including the object and the plurality of other image data;
前記決定手段は、前記算出手段によって算出された類似度が高い順を、前記複数の画像を並び替える表示順として決定することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。The information according to any one of claims 1 to 16, wherein the determining unit determines an order of high similarity calculated by the calculating unit as a display order in which the plurality of images are rearranged. Processing equipment.
定められた表示順に従う複数の画像データのうちの少なくとも一部を画面に表示させる情報処理装置が実行する情報処理方法であって、An information processing method executed by an information processing apparatus that displays on a screen at least a part of a plurality of image data according to a predetermined display order,
前記画面に表示された画像データに含まれるオブジェクトのうち、ユーザによって選択されたオブジェクトを特定する特定ステップと、A specifying step of specifying an object selected by the user among the objects included in the image data displayed on the screen;
前記特定ステップにより特定された前記オブジェクトの特徴に基づいて、前記複数の画像データのうち、前記オブジェクトを含む画像データと類似する特徴を有する画像データを優先した前記複数の画像データの表示順を決定する決定ステップと、Based on the characteristics of the object specified by the specifying step, the display order of the plurality of image data giving priority to image data having characteristics similar to the image data including the object is determined among the plurality of image data. A decision step to
前記決定ステップにより決定された表示順に並び替えられた前記複数の画像データのうち少なくとも一部を、前記画面に表示させることで、前記画面に表示される画像データを変更する表示制御ステップと、A display control step of changing the image data displayed on the screen by displaying at least a part of the plurality of image data rearranged in the display order determined by the determining step on the screen;
を含むことを特徴とする情報処理方法。An information processing method comprising:
定められた表示順に従う複数の画像データのうちの少なくとも一部を画面に表示させるコンピュータに、A computer that displays at least a part of a plurality of image data according to a predetermined display order on a screen,
前記画面に表示された画像データに含まれるオブジェクトのうち、ユーザによって選択されたオブジェクトを特定する特定ステップと、A specifying step of specifying an object selected by the user among the objects included in the image data displayed on the screen;
前記特定ステップにより特定された前記オブジェクトの特徴に基づいて、前記複数の画像データのうち、前記オブジェクトを含む画像データと類似する特徴を有する画像データを優先した前記複数の画像データの表示順を決定する決定ステップと、Based on the characteristics of the object specified by the specifying step, the display order of the plurality of image data giving priority to image data having characteristics similar to the image data including the object is determined among the plurality of image data. A decision step to
前記決定ステップにより決定された表示順に並び替えられた前記複数の画像データのうち少なくとも一部を、前記画面に表示させることで、前記画面に表示される画像データを変更する表示制御ステップと、A display control step of changing the image data displayed on the screen by displaying at least a part of the plurality of image data rearranged in the display order determined by the determining step on the screen;
を実行させるためのプログラム。A program for running
JP2011067525A 2011-03-25 2011-03-25 Information processing apparatus, information processing method, and program Active JP5762075B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011067525A JP5762075B2 (en) 2011-03-25 2011-03-25 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011067525A JP5762075B2 (en) 2011-03-25 2011-03-25 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2012203645A JP2012203645A (en) 2012-10-22
JP5762075B2 true JP5762075B2 (en) 2015-08-12

Family

ID=47184593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011067525A Active JP5762075B2 (en) 2011-03-25 2011-03-25 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5762075B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515110B2 (en) * 2013-11-12 2019-12-24 Pinterest, Inc. Image based search
TW202209159A (en) * 2020-08-19 2022-03-01 萬潤科技股份有限公司 Circuit board inspection equipment and its layer editing and teaching method wherein the user selects and adjusts a single specified image feature in the design unit displayed by the display interface, and edits the original data information of the single specified image feature into new data information

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3609225B2 (en) * 1996-11-25 2005-01-12 日本電信電話株式会社 Similar object retrieval device
JP3683758B2 (en) * 1998-11-12 2005-08-17 日本電信電話株式会社 Similar image retrieval system, similar image retrieval method, and recording medium recording similar image retrieval program
JP2006039745A (en) * 2004-07-23 2006-02-09 Denso Corp Touch-panel type input device
TWI403912B (en) * 2006-06-08 2013-08-01 Univ Nat Chiao Tung Method and system of image retrieval
US8611673B2 (en) * 2006-09-14 2013-12-17 Parham Aarabi Method, system and computer program for interactive spatial link-based image searching, sorting and/or displaying
JP5332519B2 (en) * 2008-11-05 2013-11-06 日本電気株式会社 Touch panel, operation detection method, and electronic device

Also Published As

Publication number Publication date
JP2012203645A (en) 2012-10-22

Similar Documents

Publication Publication Date Title
JP5978660B2 (en) Information processing apparatus and information processing method
CN106648434B (en) Method and device for controlling application interface through dragging gesture
US20130307765A1 (en) Contactless Gesture-Based Control Method and Apparatus
US9594800B2 (en) Image information processing apparatus, image information processing method, and non-transitory computer readable medium
US9623329B2 (en) Operations for selecting and changing a number of selected objects
JP2007122496A (en) Display information selecting device and method, program and recording medium
CN107239528B (en) Search result display method and device
US20180018084A1 (en) Display device, display method and computer-readable recording medium
US9405446B1 (en) Efficient and interactive presentation of item images
US10061485B2 (en) Information processing system that organizes and clearly presents mass data to user, information processing methods, and recording medium
US20160378299A1 (en) Method For Displaying Icons And Electronic Apparatus
CN104571811B (en) Information processing method and electronic equipment
JP2014164695A (en) Data processing device and program
CN114979743B (en) Method, device, equipment and medium for displaying audiovisual works
JP5762075B2 (en) Information processing apparatus, information processing method, and program
CN114296844A (en) Information synchronous interaction method, device, equipment and storage medium
CN112596643A (en) Application icon management method and device
JP7263437B2 (en) Systems and methods for storing and surfacing content
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
CN114578956A (en) Equipment control method and device, virtual wearable equipment and storage medium
JP2013182329A (en) Information processing device, control method for information processing device, and program
JP7337520B2 (en) Information processing device, information processing device control method, program, and storage medium
JP7291878B2 (en) Display control method, display control device, display control program and display control system
JP2011165064A (en) Difference display device, difference display method and program
JP2005004727A (en) Searching apparatus, searching method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150609

R151 Written notification of patent or utility model registration

Ref document number: 5762075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151