CN101662584A - 信息处理设备和方法以及计算机程序 - Google Patents

信息处理设备和方法以及计算机程序 Download PDF

Info

Publication number
CN101662584A
CN101662584A CN200910165158A CN200910165158A CN101662584A CN 101662584 A CN101662584 A CN 101662584A CN 200910165158 A CN200910165158 A CN 200910165158A CN 200910165158 A CN200910165158 A CN 200910165158A CN 101662584 A CN101662584 A CN 101662584A
Authority
CN
China
Prior art keywords
picture
chromosome
associated picture
image
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200910165158A
Other languages
English (en)
Other versions
CN101662584B (zh
Inventor
小泽博之
高冈绫
古江伸树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101662584A publication Critical patent/CN101662584A/zh
Application granted granted Critical
Publication of CN101662584B publication Critical patent/CN101662584B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00392Other manual input means, e.g. digitisers or writing tablets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00442Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails
    • H04N1/00453Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails arranged in a two dimensional array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00461Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet marking or otherwise tagging one or more displayed image, e.g. for selective reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及信息处理设备和方法以及计算机程序。信息处理设备包括:显示装置,显示图像;操作输入接收装置,接收用户的操作输入;显示控制装置,当操作输入接收装置接收到对显示装置上显示的根图像的预定操作时,执行显示控制以使显示装置显示与根图像相关的相关图像。

Description

信息处理设备和方法以及计算机程序
技术领域
本发明涉及一种信息处理设备、信息处理方法以及计算机程序,尤其涉及这样一种信息处理设备、信息处理方法以及计算机程序,其使用户能够容易检索任意图像或仅检索目前拍摄的图像之中的特征图像并观看该图像。
背景技术
在数字照相机(见JP-A-2007-019685)中,拍摄图像的数量随着用户多年使用数字照相机而增加。结果,用户经常在内置闪存或可移除介质中存储多得无法管理的图像。
这种情况下,在近几年的数字照相机中,作为表示图像的方法,经常采用一种基于日期、时间等把图像表示为一个组(文件夹,等)的方法(以下,称为过去的表示方法)。
发明内容
然而,当采用过去的表示方法时,对用户而言,一个组意味着某一组特定事件。因此,即使采用过去的表示方法,随着用户使用数字照相机的时间越来越长,事件组的数量也增加。这使得用户难以管理事件组。
近年来,常常需要在到目前为止拍摄的图像之中检索任意图像或仅检索特征图像并观看图像,具体地,例如,仅检索显示同一人的图像并观看该图像。
为了使用过去的表示方法来满足这种需要,虽然被包括在事件组中的图像有关系,不容易检查与其它事件的关系。因此,用户需要充分利用索引屏幕等或使用具有检索功能的检索应用软件来检查事件组。
然而,即使当用户使用过去的检索应用软件时,用户也难以得到希望的图像,除非用户适当设置搜索词。很多用户可能不会在图像检索中利用正常字符串和表达式来充分地表示图像,并且希望利用摘要词和感觉来检索图像。然而,这种用户使用过去的检索应用软件时,用户难以获得期望的结果。
如上所述,在当前情况下,难以满足这样的需要:在目前拍摄的图像之中检索任意图像或仅检索特征图像并观看图像。
因此,希望使用户能够容易地在到目前为止拍摄的图像之中检索任意图像或仅检索特征图像并观看图像。
根据本发明的实施例,提供了一种信息处理设备,包括:显示装置,显示图像;操作输入接收装置,接收用户的操作输入;显示控制装置,当操作输入接收装置接收对显示装置显示的根图像的预定操作时,执行显示控制以使显示装置显示与根图像相关的相关图像。
基于一个或多个分类项目,计算所有图像(能够是根图像或相关图像)和其它图像之间的相关程度。显示控制装置基于根图像和其它图像之间的相关程度,从所有图像检索一个或多个相关图像,并使显示装置显示检索的一个或多个相关图像。
所述分类项目基于与图像有关的附加信息被事先确定。
当显示控制装置使显示装置显示根图像时,显示控制装置检索所述一个或多个相关图像。
当保持手指与显示装置接触的同时用户把手指沿预定方向移动预定距离的操作被表示为划动操作时,如果操作输入接收装置接收到划动操作,显示控制装置使显示装置显示相关图像。
显示控制装置使显示装置在划动操作结束的位置显示相关图像。
所述一个或多个分类项目中的一个预定分类项目与划动操作的每一个方向关联。显示控制装置在基于与划动操作的方向对应的分类项目计算的相关程度的基础上,检索所述一个或多个相关图像。
每次操作输入接收装置接收划动操作时,显示控制装置使显示装置依次地显示新的相关图像。
当操作输入接收装置接收对相关图像的划动操作时,显示控制装置把该相关图像设置为新的根图像,并使显示装置显示与新的根图像相关的新的相关图像。
从根图像或相关图像开始执行划动操作。
当操作输入接收装置接收用户手指对根图像的接触操作时,显示控制装置进一步使显示装置显示指示一个或多个分类项目的分类项目图像,并且当检测到用户手指对所述一个或多个分类项目图像中的一个预定分类项目图像的接触操作时,显示控制装置在基于执行接触操作的分类项目图像所指示的分类项目计算的相关程度的基础上,检索所述一个或多个相关图像。
当操作输入接收装置接收用户手指对根图像的接触操作时,显示控制装置基于执行接触操作的位置来分析图像,基于分析结果来指定分类项目,并在基于指定的分类项目计算的相关程度的基础上,检索所述一个或多个相关图像。
信息处理设备还包括:存储装置,存储显示控制装置的显示控制的历史信息。
作为显示控制,当操作输入接收装置接收用户手指对根图像或相关图像的接触操作时,显示控制装置进一步使显示装置显示存储在存储装置中的历史信息。
当操作输入接收装置接收用户手指对历史信息中所包括的图像的接触操作时,显示控制装置利用设置为根图像的所述图像检索一个或多个相关图像,并使显示装置显示相关图像。
根据本发明的另一实施例,提供一种与所述信息处理设备对应的信息处理方法和计算机程序。
在本发明实施例的信息处理方法和计算机程序中,在显示图像并接收用户操作输入的信息处理设备中,当接收对显示的根图像的预定操作时,显示与根图像相关的相关图像。
如上所述,根据本发明的实施例,由于目前拍摄的图像被设置为根图像或相关图像,所以可以容易地在目前拍摄的图像之中检索任意图像或仅检索特征图像并观看图像。
附图说明
图1是根据本发明实施例的信息处理设备例子的成像设备的结构例子的方框图;
图2A和图2B是图1示出的成像设备的外部结构例子的透视图;
图3A至图3E是解释成像设备的相关图像检索操作方法的第一例子的示图;
图4是解释第一相关图像检索处理例子的流程图;
图5是解释第1A相关图像检索处理例子的流程图;
图6是解释第1B相关图像检索处理例子的流程图;
图7A至图7E是解释成像设备的相关图像检索操作方法的第二例子的示图;
图8是解释第二相关图像检索处理例子的流程图;
图9A至图9F是解释成像设备的相关图像检索操作方法的第三例子的示图;
图10是解释第三相关图像检索处理例子的流程图;
图11是解释使用缩略图图像作为呈现分类项目的方法的方法例子的示图;
图12A至图12E是解释成像设备的相关图像检索操作方法的第四例子的示图;
图13是解释第四相关图像检索处理例子的流程图;
图14是解释第四相关图像检索处理的步骤S65中通过接触区域的图像分析处理的详细例子的流程图;
图15是解释第四相关图像检索处理的步骤S66中的图像分析和检索处理的详细例子的流程图;
图16是解释成像设备的相关菜单检索操作例子的示图;
图17是解释成像设备的相关菜单检索操作的另一例子的示图;
图18A至图18C是解释成像设备的相关图像检索操作方法的第五例子的示图;
图19是解释第五相关图像检索处理例子的流程图;
图20A至图20C是解释放大/缩小图像显示处理涉及的操作方法的例子的示图;
图21是解释放大/缩小图像显示处理例子的流程图;
图22是与图1示出的结构例子不同的根据本发明实施例的信息处理设备的结构例子的方框图。
具体实施方式
下面,参照附图详细解释本发明的实施例。
图1是作为根据本发明实施例的信息处理设备例子的成像设备的结构例子的方框图。
在图1示出的例子中,成像设备包括从透镜单元11到触摸面板28的各个部件。
透镜单元11包括拍摄透镜、光阑和聚焦透镜。成像装置12(诸如,CCD(电荷耦合装置))被设置于经透镜单元11入射的物光的光路上。
成像装置12、模拟信号处理单元13、A/D(模拟/数字)转换单元14和数字信号处理单元15以此次序连接。
液晶面板17、记录装置19和触摸面板28连接到数字信号处理单元15。
用于执行被包括在透镜单元11中的光阑的调整和聚焦透镜的移动的致动器20被连接到透镜单元11。电机驱动器21也连接到致动器20。电机驱动器21执行致动器20的驱动控制。
CPU(中央处理单元)23控制整个成像设备。因此,模拟信号处理单元13、A/D转换单元14、数字信号处理单元15、电机驱动器21、TG(定时发生器)22、操作单元24、EEPROM(电可擦除可编程ROM)25、程序ROM(只读存储器)26、RAM(随机存取存储器)27、触摸面板16和触摸面板28连接到CPU 23。
触摸屏18包括触摸面板16和液晶面板17。触摸面板28设置于成像设备的与触摸屏18相对的表面,即成像透镜侧的表面(见后面将要描述的图2A和图2B)。
记录装置19包括:光盘(诸如,DVD(数字通用盘))、半导体存储器(诸如,存储卡)或者其它可移动记录介质。记录装置19可拆卸地连接到成像设备主体。
EEPROM 25存储设置的各种类型信息。其它信息,诸如即使当电源状态设置为关闭时应该存储的信息,被存储在EEPROM 25。
程序ROM 26存储CPU 23执行的程序和执行程序所需的数据。
当CPU 23执行各种处理时,RAM 27作为工作区临时存储必要的程序和数据。
下面,解释具有图1示出结构的整个成像设备的操作概况。
CPU 23执行存储在程序ROM 26的程序,由此控制成像设备的各个单元。CPU 23根据来自触摸面板16或触摸面板28的信号和来自操作单元24的信号执行预定处理。稍后,将参照流程图来描述该处理的特定例子。
操作单元24由用户操作,并向CPU 23提供与操作对应的信号。
当用户手指与触摸屏18或触摸面板28接触,例如,手指触摸所述触摸屏18或触摸面板28的任意位置,即用户执行预定操作输入时,触摸屏18或触摸面板28检测接触位置的坐标。触摸屏18或触摸面板28把指示检测坐标的电信号(以下,称为坐标信号)发送给CPU 23。CPU 23从坐标信号识别接触位置的坐标,获取与坐标关联的预定信息,并基于该信息执行预定处理。
本说明书中,“接触”不仅包括静态接触(仅接触一个预定区域),还包括动态接触(在描绘预定轨迹的同时移动接触对象(诸如手指)的接触)。例如,像翻纸一样手指在图像上的划动是一种接触形式。
根据致动器20的驱动,透镜单元11从成像设备的壳体中露出或安置在成像设备的壳体中。另外,根据致动器20的驱动,执行被包括在透镜单元11中的光阑的调整和被包括在透镜单元11中的聚焦透镜的移动。
TG 22基于CPU 23的控制向成像装置12提供定时信号。根据定时信号控制成像装置12的曝光时间等。
成像装置12基于从TG 22提供的定时信号工作,由此接收经透镜单元11入射的物光,并执行光电转换。成像装置12向模拟信号处理单元13提供与接收的光量对应的模拟图像信号。电机驱动器21基于CPU 23的控制来驱动致动器20。
模拟信号处理单元13基于CPU 23的控制对成像装置12提供的模拟图像信号应用模拟信号处理,诸如放大。模拟信号处理单元13向A/D转换单元14提供所获得的模拟图像信号,作为模拟信号处理的结果。
A/D转换单元14基于CPU 23的控制对来自模拟信号处理单元13的模拟图像信号执行A/D转换。A/D转换单元14向数字信号处理单元15提供所获得的数字图像信号,作为A/D转换的结果。
基于CPU 23的控制,数字信号处理单元15对从A/D转换单元14提供的数字图像信号应用数字信号处理,诸如噪声去除处理。数字信号处理单元15使液晶面板17显示与数字图像信号对应的图像,作为拍摄图像。
根据预定压缩编码系统(诸如,JPEG(联合图像专家组)),数字信号处理单元15对A/D转换单元14提供的数字图像信号进行压缩编码。数字信号处理单元15使记录装置19记录压缩编码的数字图像信号。
数字信号处理单元15从记录装置19读取压缩编码的数字图像信号,并根据与预定压缩编码系统对应的扩展解码系统对数字图像信号进行扩展解码。数字信号处理单元15使液晶面板17显示与数字图像信号对应的图像,作为记录图像。
另外,基于CPU 23的控制,数字信号处理单元15产生用于显示AF(自动聚焦)功能的图像框(以下,称为AF框),并使液晶面板17显示该图像。
成像装置12拾取的图像(拍摄图像)被显示在液晶面板17。这种情况下,AF框被设置在显示于液晶面板17的图像上。基于AF框内的图像控制聚焦。
如上所述,成像设备具有AF功能。除聚焦控制功能之外,AF功能还包括在显示于液晶面板17的图像的任意位置设置AF框的功能。另外,AF功能包括仅根据包括液晶面板17和触摸面板16的触摸屏18的操作来控制AF框的位置、尺寸等的功能。
执行AF功能的处理通过CPU 23读取程序ROM 26的程序并执行程序来实现。此外,成像设备具有AE(自动曝光)功能和AWB(自动白平衡)功能。这些功能也是通过CPU 23读取程序ROM 26的程序实现的。
此外,AF功能、AE功能和AWB功能仅为成像设备的功能示例。成像设备具有各种与拍摄相关的功能。各种功能之中,与拍摄相关的基本功能称为基本功能,与拍摄相关的应用功能称为应用功能。作为基本功能,除了AF功能、AE功能和AWB功能之外,还能够采用例如“拍摄模式选择功能”和“拍摄定时器设置功能”。作为应用功能,还能够采用例如“像素数改变功能”和“色度调整功能”。
图2A和图2B是图1所示例子的成像设备的外部结构例子的示图。
在成像设备的各表面之中,用户拍摄对象时,面对所述对象的表面,即设置透镜单元11的表面,被称为前表面。另一方面,在成像设备的各表面之中,用户拍摄对象时,面对用户的表面,即与前表面相对的表面,称为后表面。另外,在成像设备的各表面之中,用户拍摄对象时位于上侧的表面和位于下侧的表面分别称为上表面和下表面。
图2A是成像设备的前表面的外部结构例子的透视图。图2B是成像设备的后表面的外部结构例子的透视图。
成像设备的前表面可用透镜盖47盖住。当图中前表面上的透镜盖47向下打开时,成像设备改变为图2A示出的状态。如图2A所示,在已除去透镜盖47的遮盖的前表面的上部,被包含在透镜单元11中的拍摄透镜45和AF照明器46以此次序从上部右侧开始设置。在透镜盖47遮盖的前表面的下部,触摸面板28设置于成像设备的中央附近的部分,当用户拍摄对象时不会被握住。
AF照明器46还用作自拍灯。在成像设备的上表面,变焦杆(TELE/WIDE)41、快门按钮42、播放按钮43和电源按钮44从图2A左侧开始以此次序设置。变焦杆41、快门按钮42、播放按钮43和电源按钮44被包括在图1示出的操作单元24中。
如图2B所示,触摸屏18设置在成像设备的整个后表面。
如上所述,由于触摸屏18设置在成像设备的后表面,所以当用户拍摄对象时,用户能够通过触摸屏18执行GUI(图形用户界面)操作,同时保持成像设备的前表面面对所述对象。
作为通过触摸屏18执行的GUI操作,例如,在本实施例中,采用这样的操作:对作为根的任意图像(以下称为根图像),搜索并检索与根图像有较强相关的图像(以下,称为相关图像)。对于这种操作不必提供专门的检索屏等,这种操作是使用触摸屏18执行的直观操作。因此,这种操作是使用户能够容易找到相关图像的操作。因此,以下,这种操作称为相关图像检索操作。
作为相关图像检索操作的前提,假定目标(以下称为检索目标图像)(可能是根图像或相关图像)是被记录在记录装置19中的所有图像。假定,对于所有的检索目标图像,已经基于例如下面解释的附加信息,事先在数据库等检索了相关程度。
与相关程度有关的检索不限于以上解释的例子。可以在每次执行相关图像检索操作时检索相关程度。然而,为了简化解释,假定:在本说明书描述的所有实施例中,已经事先检索了相关程度。
作为附加信息,例如,这个实施例中,假定:采用脸部信息、位置/地点信息、时间信息和颜色信息。脸部信息指的是与人脸有关的信息和足以识别人的信息。位置/地点信息指的是与GPS(全球定位系统)等获得的纬度和经度有关的信息或通过对图像的图像识别能够识别为特定地点的信息(地点名)。时间信息指的是与拍摄时间有关的信息。颜色信息指的是与图像中绝大多数地点所使用的颜色有关的信息。
检索目标图像不限于静止图像,还包括运动图像。然而,当运动图像是检索目标图像时,运动图像的附加信息是从形成运动图像的各单元图像(场、帧等)获得的信息组。
根图像不同于其它图像,并被显示以清楚地指示根图像。例如,根图像可以显示得比其它图像大,可以显示得比其它图像亮,或者可以被框架围绕。
下面,参照图3A至图3E解释相关图像检索操作的第一例子。
首先,用户选择任意图像作为根图像。选择操作本身不受到具体限制。当选择根图像P1时,触摸屏18的显示状态改变为图3A示出的状态。图3A表示在触摸屏18显示根图像P1的状态。
当触摸屏18的显示状态为图3A示出的状态时,用户用手指f1接触根图像P1(触摸屏18显示根图像P1的区域),如图3B所示。然后,如图3C所示,用户执行这样的操作:在保持与触摸屏18接触的同时,从根图像开始把手指f1沿预定方向移动预定距离(在图3A至图3E示出的例子中,虚线箭头指示的距离)。以下,这种操作称为划动操作。
其后,当用户放开手指f1时,触摸屏18的显示状态变为图3D示出的状态。在触摸屏18上,根图像P1的相关图像P2被显示在放开手指f1的区域,同时根图像P1显示在原始区域。相关图像P2可以是与根图像P1相关的多个相关图像中的任何一个。然而,这个实施例中,与根图像P1有最高强度的相关的图像显示为相关图像P2。
另外,当用户在手指f1与相关图像P2接触并执行划动操作之后放开手指f1时,如图3E所示,相关图像P3显示在放开手指f1的区域。
相关图像P3在某些情况下是根图像P1的相关图像,其它情况下是相关图像P2的相关图像。
当用户从触摸屏18放开手指f1时,这意味着划动操作的结束。因此,每次执行划动操作时,根图像P1的相关图像以相关图像的相关程度的次序,依次显示在触摸屏18上划动操作结束的点所在的区域。换句话说,用户能够执行该操作,好像用户通过重复划动操作搜索相关图像一样。
另外,还可以为划动操作的方向赋予含义。与根图像P1有关系的各分类项目与划动操作的各方向关联。因此,当沿预定方向反复执行划动操作时,相关图像按与所述预定方向相关的分类项目的相关程度次序,依次显示在触摸屏18上。这种分类项目能够用作相关图像的检索条件。因此,分类项目也恰当称为限制(narrowing down)条件。
具体地,例如,这个实施例中,假定:“人”、“地点”、“时间”和“颜色”用作限制条件(分类项目)。这种情况下,假定:已经分别使用附加信息的脸部信息、位置/地点信息、时间信息和颜色信息事先检索了“人”、“地点”、“时间”和“颜色”的相关程度。
例如,假定:“时间”与划动操作的倾斜右上方向关联,“人”与划动操作的倾斜右下方向关联。
这种情况下,例如,图3E示出的相关图像P2,即在执行倾斜右下方向的划动操作之后显示的相关图像P2是与根图像P1在“人”方面有较强相关的相关图像,例如,包括与根图像P1相同的人的相关图像。
另一方面,例如,图3E示出的相关图像P4,即在执行倾斜右上方向的划动操作之后显示的相关图像P4是与根图像P1在“时间”方面有较强相关的相关图像,例如,在与根图像P1的拍摄时间相近的时间拍摄的相关图像。
解释了响应于根据图3A至图3E的操作例子由图1示出的成像设备执行的处理,即相关图像检索操作的第一例子的操作。以下,响应于相关图像检索操作由成像设备执行的处理称为相关图像检索处理。特别地,与根据本实施例的相关图像检索操作的第K(K是大于或等于1的整数值)例子的操作对应的相关图像检索处理称为第K相关图像检索处理。
当通过相关图像检索操作检索的相关图像是根图像(在图3A至图3E示出的例子中,根图像P1)的相关图像(在图3A至图3E示出的例子中,相关图像P2或P4)时,执行的第一相关图像检索处理的详细例子是第1A相关图像检索处理。当通过相关图像检索操作检索的相关图像是相关图像(在图3A至图3E示出的例子中,根图像P2)的相关图像(在图3A至图3E示出的例子中,相关图像P3)时,执行的第一相关图像检索处理的详细例子是第1B相关图像检索处理。稍后参照图5和图6对这些处理进行解释。
图4是解释第一相关图像检索处理的例子的流程图。
在步骤S1,CPU 23确定是否选择了根图像。
当没有选择根图像时,CPU 23在步骤S1确定没有选择根图像(步骤S1的“否”)并使流程返回至步骤S1。在选择根图像之前,CPU 23反复执行步骤S1的确定处理。
其后,当选择了根图像时,CPU 23确定选择了根图像(步骤S1的“是”),并且流程前进至步骤S2。
在步骤S2,CPU 23控制数字信号处理单元15在触摸屏18显示根图像。根图像可以显示在触摸屏18的任意区域。然而,最好把根图像显示在通过考虑到其后便于划动操作而确定的区域中。例如,在图3A至图3E示出的例子中,如图3A所示,通过考虑向右方向的划动操作,根图像P1显示在触摸屏18的左端的区域。
在步骤S3,CPU 23确定触摸屏18的根图像中的区域是否被触摸。
当根图像中没有区域被触摸时,CPU 23在步骤S3确定根图像中没有区域被触摸(步骤S3的“否”)并使流程返回至步骤S3。在根图像中的任一区域被触摸之前,CPU 23反复执行步骤S3的确定处理。
其后,当根图像中的任何区域被触摸时,CPU 23在步骤S3确定根图像中的区域被触摸(步骤S3的“是”),并且流程前进至步骤S4。
例如,如图3B所示,当手指f1触摸根图像P1中的区域时,坐标信号从被包括在触摸屏18中的触摸面板16输入到CPU 23。
因此,当坐标信号输入到CPU 23时,在步骤S3的处理中,CPU 23确定根图像中的区域被触摸(步骤S3的“是”),并从坐标信号识别接触位置(根图像P1的坐标)。
当识别的接触位置在根图像P1的显示区域之外时,CPU 23在步骤S3确定根图像中没有区域被触摸(步骤S3的“否”),使流程返回至步骤S3,并重复步骤S3的处理和后续步骤。
另一方面,当识别的接触位置在根图像P1的显示区域内时,CPU 23在步骤S3确定根图像中的区域被触摸(步骤S3的“是”),并且流程前进至步骤S4。
在步骤S4,CPU 23确定是否从根图像开始执行划动操作。
CPU 23能够通过监测来自被包括在触摸屏18中的触摸面板16的坐标信号确定是否执行了划动操作。换句话说,CPU 23能够从坐标信号的时间序列识别手指f1的轨迹。因此,CPU 23基于识别结果检测是否执行划动操作。
因此,当根据手指f1轨迹的识别结果没有检测到划动操作时,CPU 23在步骤S4确定没有执行划动操作(步骤S4的“否”),使流程返回至步骤S4,并重复执行步骤S4的处理和后续步骤。换句话说,在检测到划动操作之前,CPU 23反复执行步骤S4的确定处理。
其后,当根据手指f1轨迹的识别结果检测到从根图像开始的划动操作时,CPU 23在步骤S4确定执行了划动操作(步骤S4的“是”),并且流程前进至步骤S5。例如,在图3A至图3E示出的例子中,当触摸屏18的显示状态变为图3C示出的状态时,CPU 23在步骤S4确定执行了划动操作(步骤S4的“是”),并且流程前进至步骤S5。
在步骤S5,CPU 23从被记录在记录装置19中的所有图像检索相关图像。这个实施例中,CPU 23检索与根图像有最高强度的相关的图像作为相关图像。然而,当设置了各种限制条件时,使用与划动操作的方向关联的限制条件检索相关图像。
在步骤S6,CPU 23确定手指f1是否从触摸屏18放开,即划动操作是否结束。具体地,当坐标信号不再从包括在触摸屏18中的触摸面板16输入时,CPU 23能够确定手指f1放开。
因此,只要输入坐标信号,CPU 23就在步骤S6确定手指f1没有放开(步骤S6的“否”),并使流程返回至步骤S6。换句话说,只要划动操作继续,CPU 23就反复执行步骤S6的确定处理。
其后,当坐标信号的输入结束时,即当划动操作结束时,CPU23在步骤S6确定手指f1放开(步骤S6的“是”),并且流程前进至步骤S7。
在步骤S7,CPU 23控制数字信号处理单元15在触摸屏18上手指f1放开的位置显示相关图像。
例如,在图3A至图3E示出的例子中,当手指f1在触摸屏18上如图3D示出的位置放开时,相关图像P2被显示于该位置。
在步骤S8,CPU 23确定是否指示处理结束。
除非指示了处理结束,否则CPU 23在步骤S8确定没有指示处理结束(步骤S8的“否”),使流程返回至步骤S3,并重复步骤S3的处理和后续步骤。具体地,每次执行从根图像(例如,图3A至图3E示出的根图像P1)开始的划动操作时,反复执行步骤S3的“是”、步骤S4的“是”、步骤S5、步骤S6的“是”、步骤S7和步骤S8的“否”的循环处理,并且新的相关图像显示在手指f1放开的位置(划动操作结束的位置)。因此,相对于根图像(例如,图3A至图3E示出的根图像P1),能够显示多个相关图像(例如,图3D和图 3E示出的相关图像P2和P4)。换句话说,通过重复划动操作,用户能够反复执行步骤S4的“是”、步骤S5、步骤S6的“是”、步骤S7和步骤S8的“否”的循环处理,好像用户搜索根图像的相关图像一样。
其后,当指示了处理结束时,CPU 23在步骤S8确定指示了处理结束(步骤S8的“是”),并且流程前进至步骤S9。
在步骤S9,作为步骤S1至S8的处理结果,CPU 23在记录装置19中存储触摸屏18显示的根图像和各种相关图像的历史信息(以下,称为显示图像历史信息)。
因此,第一相关图像检索处理结束。
虽然在图中没有示出,但是当检测到用户手指f1等在根图像或相关图像上的接触操作时,例如,CPU 23还能够控制数字信号处理单元15在触摸屏18显示存储在记录装置19中存储的显示图像历史信息。
虽然在图中没有示出,但是当检测用户手指f1等在被包括在显示图像历史信息中的图像上的接触操作时,例如,CPU 23能够以所述图像被设置为根图像来检索一个或多个相关图像,并使触摸屏18显示相关图像。
以上参照图3A至图3E解释了相关图像检索操作的第一例子。以上参照图4的流程图解释了与第一例子对应的第一相关图像检索处理的例子。
以下,参照图5的流程图解释与第一例子对应的第1A相关图像检索处理的例子。这个例子是当通过相关图像检索操作检索的相关图像是根图像(在图3A至图3E示出的例子中的根图像P1)的相关图像时,执行的第一相关图像检索处理的详细例子。
图5的步骤S21至S27的各种处理是基本与图4的步骤S1至7的各种处理相同的各种处理。因此,省略对这些处理的解释。
因此,解释了在步骤S27的处理中在CPU 23控制数字信号处理单元15在触摸屏18上手指放开的位置显示相关图像之后的处理。当步骤S27的这种处理结束时,流程前进至步骤S28。
在步骤S28,CPU 23确定触摸屏18显示的相关图像中的区域是否被触摸。换句话说,CPU 23确定步骤S27显示的相关图像(在图3A至图3E示出的例子中,相关图像P2)中的区域是否被触摸。
当相关图像中没有区域被触摸时,CPU 23在步骤S28确定相关图像中没有区域被触摸(步骤S28的“否”)并使流程返回至步骤S28。在相关图像中的任一区域被触摸之前,CPU 23反复执行步骤S28的确定处理。
其后,当相关图像中的任何区域被触摸时,CPU 23在步骤S28确定相关图像中的区域被触摸(步骤S28的“是”),并且流程前进至步骤S29。
例如,如图3E所示,当手指f1触摸相关图像P2中的区域时,坐标信号从被包括在触摸屏18中的触摸面板16输入到CPU 23。
因此,当坐标信号输入到CPU 23时,在步骤S28的处理中,CPU 23确定根图像中的区域被触摸(步骤S28的“是”),并从坐标信号识别接触位置(根图像P2的坐标)。
当识别的接触位置在根图像P2的显示区域之外时,CPU 23在步骤S28确定根图像中没有区域被触摸(步骤S28的“否”),使流程返回至步骤S28,并重复步骤S28的处理和后续步骤。
另一方面,当识别的接触位置在根图像P2的显示区域内时,CPU 23在步骤S28确定根图像中的区域被触摸(步骤S28的“是”),并且流程前进至步骤S29。
在步骤S29,CPU 23确定是否从根图像开始执行划动操作。
CPU 23能够通过监测来自被包括在触摸屏18中的触摸面板16的坐标信号来确定是否执行划动操作。换句话说,CPU 23能够从坐标信号的时间序列识别手指f1的轨迹。因此,CPU 23基于识别结果检测是否执行划动操作。
因此,当根据手指f1轨迹的识别结果没有检测到划动操作时,CPU 23在步骤S29确定没有执行划动操作(步骤S29的“否”),使流程返回至步骤S29,并重复执行步骤S29的处理和后续步骤。换句话说,在检测到划动操作之前,CPU 23反复执行步骤S29的确定处理。
其后,当根据手指f1轨迹的识别结果检测到从根图像开始的划动操作时,CPU 23在步骤S29确定执行了划动操作(步骤S29的“是”),并且流程前进至步骤S30。
在步骤S30,CPU 23从被记录在记录装置19中的所有图像检索相关图像。这个实施例中,CPU 23检索与根图像有最高强度的相关的图像作为相关图像。然而,显示根图像的相关图像之中除当前显示的相关图像(在图3A至图3E示出的例子中,相关图像P2)之外的、与根图像P1有最高强度的相关的图像作为相关图像P3。换句话说,相关图像P3是仅次于相关图像P2的与根图像P1有第二高强度的关系的图像。当设置各种限制条件时,使用与划动操作的方向关联的限制条件来检索相关图像。
在步骤S31,CPU 23确定手指f1是否从触摸屏18放开,即划动操作是否结束。具体地,当坐标信号不再从包括在触摸屏18中的触摸面板16输入时,CPU 23能够确定手指f1放开。
因此,只要输入坐标信号,CPU 23就在步骤S31确定手指f1没有放开(步骤S31的“否”),并使流程返回至步骤S31。换句话说,只要划动操作继续,CPU 23就反复执行步骤S31的确定处理。
其后,当坐标信号的输入结束时,即当划动操作结束时,CPU23在步骤S31确定手指f1放开(步骤S31的“是”),并且流程前进至步骤S32。
在步骤S32,CPU 23控制数字信号处理单元15在触摸屏18上手指f1放开的位置显示相关图像。
例如,在图3A至图3E示出的例子中,当手指f1在触摸屏18上如图3E示出的位置P3放开时,相关图像P3被显示于该位置。
在步骤S33,CPU 23确定是否指示了处理结束。
除非指示了处理结束,否则CPU 23在步骤S33确定没有指示处理的结束(步骤S33的“否”),使流程返回至步骤S23,并重复步骤S23的处理和后续步骤。具体地,每次执行从根图像(例如,图3A至图3E示出的根图像P1)开始的划动操作时,反复执行步骤S23至S33的循环处理,并且新的相关图像被显示在手指f1放开的位置(划动操作结束的位置)。因此,相对于根图像(例如,图3A至图3E示出的根图像P1),能够显示多个相关图像(例如,图3D和图3E示出的相关图像P2和P4)。换句话说,通过重复划动操作,用户能够反复执行步骤S23至S33的循环处理,好像用户搜索根图像的相关图像一样。
其后,当指示了处理结束时,CPU 23在步骤S33确定指示了处理结束(步骤S33的“是”),并且流程前进至步骤S34。
在步骤S34,作为步骤S21至S33的处理结果,CPU 23在记录装置19中存储触摸屏18显示的根图像和各种相关图像的历史信息(以下,称为显示图像历史信息)。
因此,第1A相关图像检索处理结束。
以下,参照图6的流程图解释与第一例子对应的第1B相关图像检索处理的例子。这个例子是当通过相关图像检索操作检索的相关图像是相关图像(在图3A至图3E示出的例子中,相关图像P2)的相关图像时执行的第一相关图像检索处理的详细例子。
图6的步骤S41至S47的各种处理是基本与图4的步骤S1至S7的各种处理相同的各种处理。因此,省略对这些处理的解释。
因此,解释了在步骤S47的处理中CPU 23控制数字信号处理单元15在触摸屏18上手指放开的位置显示相关图像之后的处理。当步骤S47的这种处理结束时,流程前进至步骤S48。
在步骤S48,CPU 23设置相关图像作为根图像。具体地,CPU23设置步骤S47显示的相关图像(在图3A至图3E示出的例子中,相关图像P2)作为根图像。
在步骤S49,CPU 23确定是否指示了处理结束。
除非指示了处理结束,否则CPU 23在步骤S49确定没有指示处理结束(步骤S49的“否”),使流程返回至步骤S43,并重复步骤S43的处理和后续步骤。具体地,每次执行从根图像(例如,图3A至图3E示出的根图像P1或P2)开始的划动操作时,反复执行步骤S43至S49的循环处理,并且新的相关图像被显示在手指f1放开的位置(划动操作结束的位置)。因此,相对于根图像(例如,图3A至图3E示出的根图像P1或P2),能够显示多个相关图像(例如,图3E示出的相关图像P3)。换句话说,通过重复划动操作,用户能够反复执行步骤S43至S49的循环处理,好像用户搜索根图像的相关图像一样。
其后,当指示了处理结束时,CPU 23在步骤S49确定指示了处理结束(步骤S49的“是”),并且流程前进至步骤S50。
在步骤S50,作为步骤S41至S49的处理结果,CPU 23在记录装置19中存储触摸屏18显示的根图像和各种相关图像的历史信息(以下,称为显示图像历史信息)。
因此,第1B相关图像检索处理结束。
参照图7A至图7E解释相关图像检索操作的第二例子。参照图8的流程图解释与第二例子对应的第二相关图像检索处理的例子。
首先,用户选择任意图像作为根图像P1。选择操作本身不受到具体限制。当选择根图像P1时,触摸屏18的显示状态改变为图7A示出的状态。图7A是根图像P1显示于触摸屏18的中央的状态示图。
在图7A示出的状态下,当显示在触摸屏18的根图像P1由用户手指f1触摸时,触摸屏18的显示变为图7C示出的状态。如图7C所示,显示分类项目(限制条件)的图像PA至PD被显示于例如根图像P1的四个角。以下,显示分类项目的图像PA至PD称为分类标签PA至PD。
当用户用手指f1触摸分类标签PA至PD之中的、显示期望用于相关图像检索的分类项目的分类标签时,用户能够选择该分类项目。然后,根图像P1的相关图像之中在所选择的分类项目方面具有最高强度关系的图像被显示在触摸屏18上作为相关图像。分类项目的选择不仅能够通过手指f1触摸分类标签来执行,还能够通过手指f1沿分类标签PA至PD的某一方向的划动操作来执行。这个实施例中,通过用手指f1触摸分类标签来选择分类项目。
例如,在图7A至图7E示出例子的说明中,如图7D所示,由于用手指f1触摸显示“人”的分类标签PA,所以选择“人”作为分类项目。然后,如图7E所示,与根图像P1在“人”方面有较强相关的图像P2,例如,包括与根图像P1相同的人的图像P2被显示为相关图像。
当比较相关图像检索操作的第一例子(图3A至图3E)和第二例子(图7A至图7E)时,即使在第一例子,用户也能够搜索相关图像而没有特定目的。然而,在第一例子中,由于与根图像P1的关系没有清楚示出,所以当用户仅搜索具有某一关系的图像时,第一例子是不适合的。
另一方面,在第二例子中,当触摸根图像时,例如,各分类项目被显示在根图像周围。在图7A至图7E示出的例子中,显示分类标签PA至PD。因此,当用户在分类项目之中选择希望的分类项目时,用户能够显示在所选择的分类项目方面与根图像有最强关系的图像作为相关图像。通过以这种方法采用第二例子,用户能够容易地搜索例如仅拍摄特定人的图像。
图8是解释与参照图7A至图7E解释的相关图像检索操作的第二例子对应的相关图像检索处理,即第二相关图像检索处理的例子的流程图。
在步骤S61,CPU 23确定是否选择了根图像。
当没有选择根图像时,CPU 23在步骤S61确定没有选择根图像(步骤S61的“否”)并使流程返回至步骤S61。换句话说,在选择根图像之前,CPU 23反复执行步骤S61的确定处理。
其后,当选择根图像时,CPU 23在步骤S61确定选择了根图像(步骤S61的“是”),并且流程前进至步骤S62。
在步骤S62,CPU 23控制数字信号处理单元15在触摸屏18上显示根图像。根图像可以显示在触摸屏18的任意区域。然而,最好把根图像显示在通过考虑其后的分类项目的显示而确定的区域中。例如,在图7A至图7E示出的例子中,如图7A所示,根图像P1显示在触摸屏18的中央区域。
在步骤S63,CPU 23确定触摸屏18的根图像中的区域是否被触摸。
当根图像中没有区域被触摸时,CPU 23在步骤S63确定根图像中没有区域被触摸(步骤S63的“否”)并使流程返回至步骤S63。换句话说,在根图像中的任一区域被触摸之前,CPU 23反复执行步骤S63的确定处理。
其后,当根图像中的任何区域被触摸时,CPU 23在步骤S63确定根图像中的区域被触摸(步骤S63的“是”),并且流程前进至步骤S64。
在步骤S64,CPU 23控制数字信号处理单元15在触摸屏18上根图像的四个角显示分类标签。例如,在图7A至图7E示出的例子中,如图7C所示,显示分类标签PA至PD。在参照图8解释的例子中,分类标签的显示位置根据图7A至图7E示出的例子设置于四个角。然而,显示位置不限于参照图8解释的例子。显示分类项目的形式不限于分类标签,只要分类项目能够呈现给用户即可。
在步骤S65,CPU 23确定触摸屏18上显示的分类标签之中是否特定分类标签被触摸。
当触摸屏18显示的分类标签之中没有标签被触摸时,CPU 23在步骤S65确定没有分类标签被触摸(步骤S65的“否”),并使流程返回至步骤S65。换句话说,在触摸屏18显示的分类标签中的任一标签被触摸之前,CPU 23反复执行步骤S65的确定处理。
其后,当触摸屏18显示的分类标签之中的特定分类标签被触摸时,CPU 23在步骤S65确定分类标签之中的特定分类标签被触摸(步骤S65的“是”),并且流程前进至步骤S66。
在步骤S66,CPU 23使用与触摸的分类标签对应的限制条件(分类项目)从被记录在记录装置19中的所有图像检索相关图像。换句话说,这个实施例中,根据所述限制条件(分类项目)与根图像有最高强度的相关的图像被检索作为相关图像。
在步骤S67,CPU 23控制数字信号处理单元15在触摸屏18显示检索的相关图像。
例如,在图7A至图7E示出的例子中,如图7D所示,当手指f1触摸分类标签PA时,CPU 23在步骤S65的处理确定特定分类标签被触摸(步骤S65的“是”)。在步骤S66的处理中,CPU 23检索在“人”方面与根图像P1有最高强度的相关的图像作为相关图像。在步骤S67的处理中,CPU 23在显示分类标签“人”的区域附近显示相关图像P2。相关图像P2的显示位置不具体限于图7A至图7E示出的例子,而是任意的。然而,通过采用图7A至图7E示出例子的位置,用户能够容易识别相关图像P2是在分类标签PA指示的分类标签“人”方面具有较高关系的图像。
在步骤S68,CPU 23把显示图像历史信息存储在记录装置19中。
因此,第二相关图像检索处理结束。
如参照图4解释的例子一样,在步骤S67和S68的处理中,CPU 23可以确定是否指示了处理结束,如果没有指示处理的结束则使流程返回至适当步骤,并且仅当指示了处理结束时使流程前进至步骤S68。
以上参照图7A至图7E解释了相关图像检索操作的第二例子。以上参照图8的流程图解释了与第二例子对应的第二相关图像检索处理的例子。
以下,参照图9A至图9F解释相关图像检索操作的第三例子。参照图10的流程图解释与第三例子对应的第三相关图像检索处理的例子。
首先,为了执行相关图像检索操作,用户把CPU 23的操作状态设置为能够执行相关图像检索处理的操作状态(以下,称为检索模式)。然后,触摸屏18的显示状态变为图9A示出的状态。换句话说,如图9A所示,用于选择分类项目(限制条件)的图像Pa至Pd显示在触摸屏18。显示分类项目的图像Pa至Pd称为分类项目选择图像Pa至Pd。
当用户用手指f1触摸分类项目图像Pa至Pd之中显示希望用于相关图像检索的分类项目的分类项目图像时,用户能够选择分类项目。
其后,如在第二例子中一样,用户选择任意图像作为根图像P1。选择操作本身不受到具体限制。当选择根图像P1时,触摸屏18的显示状态变为图9B示出的状态。图9B示出在触摸屏18的中央显示根图像P1的状态。
在图9B示出的状态下,当触摸屏18显示的根图像P1由用户手指f1触摸时,触摸屏18的显示变为图9D1或图9D2示出的状态。当与选择的分类项目图像对应的分类项目被表示为主分类项目(主钥)、并且通过进一步细分主分类项目而获得的分类项目(限制条件)被表示为子分类项目(子钥)时,与子分类项目有关的分类标签PA1至PD1或PA2至PD2被显示于例如根图像P1的四个角。
在图9A至图9F示出的例子中,由于在图9A示出状态下手指f1触摸分类项目图像Pa,所以选择主分类项目“人”。
作为根据图像中脸部尺寸划分的子分类项目,例如,存在“特大”、“大”、“中”和“小”。因此,图9D1示出指示“特大”的分类标签PC1、指示“大”的分类标签PA1、指示“中”的分类标签PB1和指示“小”的分类标签PD1被显示于根图像P1的四个角的状态。
关于“人”,作为根据包括在图像中的人的数量划分的子分类项目,例如,存在“一个人”、“两个人”、“三个人”和“四个人或更多人”。因此,图9D2示出指示“一个人”的分类标签PC2、指示“两个人”的分类标签PA2、指示“三个人”的分类标签PB2和指示“四个人或更多人”的分类标签PD2显示于根图像P1的四个角的状态。
当用户用手指f1触摸显示分类标签PA1至PD1或PA2至PD2之中希望用于相关图像检索的子分类项目的分类标签时,用户能够选择子分类项目。然后,在选择的子分类项目方面具有最高强度关系的图像被显示在触摸屏18作为相关图像。
具体地,例如,在图9A至图9F示出的例子中,如图9E所示,显示“人”的“大”的分类标签PA1由手指f1触摸。因此,“大”被选择为子分类项目。然后,如图9F所示,在“人”的“大”方面与根图像P1有较强相关的图像P2,例如,包括“大”尺寸的、与根图像P1相同的人的脸部的图像P2被显示为相关图像。
如上所述,例如,当使用主分类项目检索相关图像时,存在根据图像示出的“人”的脸部尺寸、图像示出的“人”的数量等提供的子分类项目。由于用户能够指定这些子分类项目,所以用户能够搜索期望的图像,同时在某种程度上限制某个成分。
图10是解释与参照图9A至图9F解释的相关图像检索操作的第三例子对应的相关图像检索处理,即第三相关图像检索处理的例子的流程图。
在步骤S81,CPU 23确定CPU 23的操作模式是否设置为检索模式。
当没有设置检索模式时,CPU 23在步骤S81确定CPU 23的操作模式没有设置为检索模式(步骤S81的“否”),并使流程返回至步骤S81。换句话说,在设置检索模式之前,CPU 23反复执行步骤S81的确定处理。
其后,当选择了根图像时,CPU 23在步骤S81确定CPU 23的操作模式设置为检索模式(步骤S81的“是”),并且流程前进至步骤S82。
在步骤S82,CPU 23控制数字信号处理单元15在触摸屏18上显示分类项目选择图像。例如,在图9A至图9F示出的例子中,如图9A所示,显示分类项目选择图像Pa至Pd。
在步骤S83,CPU 23确定触摸面板16显示的分类项目选择图像之中的特定分类项目选择图像是否被触摸。
当触摸屏18显示的分类项目选择图像中没有分类项目选择图像被触摸时,CPU 23在步骤S83确定没有分类项目选择图像被触摸(步骤S83的“否”),并使流程返回至步骤S83。换句话说,在触摸屏18显示的分类项目选择图像中的任一分类项目选择图像被触摸之前,CPU 23反复执行步骤S83的确定处理。
其后,当触摸屏18显示的分类项目选择图像之中的特定分类项目选择图像被触摸时,CPU 23在步骤S83确定特定分类项目选择图像被触摸(步骤S83的“是”),并且流程前进至步骤S84。
在步骤S84,CPU 23设置与触摸的分类项目选择图像对应的主分类项目。
例如,在图9A至图9F示出的例子中,由于在图9A示出状态下手指f1与分类项目图像Pa接触,所以CPU 23在步骤S83的处理确定特定分类项目选择图像被触摸(步骤S83的“是”)。在步骤S84的处理中,CPU 23选择主分类项目“人”。
在步骤S85,CPU 23确定是否选择了根图像。
当没有选择根图像时,CPU 23在步骤S85确定没有选择根图像(步骤S85的“否”),并使流程返回至步骤S85。换句话说,在选择根图像之前,CPU 23反复执行步骤S85的确定处理。
其后,当选择了根图像时,CPU 23在步骤S85确定选择了根图像(步骤S85的“是”),并且流程前进至步骤S86。
在步骤S86,CPU 23数字信号处理单元15在触摸屏18显示根图像。根图像可以显示在触摸屏18的任意区域中。其后,最好把根图像显示在通过考虑到其后的子分类项目的显示而确定的区域中。例如,在图9A至图9F示出的例子中,如图9B所示,根图像P1显示在触摸屏18的中央区域。
在步骤S87,CPU 23确定触摸屏18上根图像的区域是否被触摸。
当根图像中没有区域被触摸时,CPU 23在步骤S87确定根图像中没有区域被触摸(步骤S87的“否”),并使处理返回至步骤S87。换句话说,在根图像的任一区域被触摸之前,CPU 23反复执行步骤S87的确定处理。
其后,当根图像中的任一区域被触摸时,CPU 23在步骤S87确定根图像中的区域被触摸(步骤S87的“是”),并且流程前进至步骤S88。
在步骤S88,CPU 23控制数字信号处理单元15在触摸屏18上根图像的四个角显示子分类项目的分类标签。例如,在图9A至图9F示出的例子中,如图9D1或图9D2所示,分类标签PA1至PD1或PA2至PD2显示为与“人”有关的子分类项目的分类标签。在参照图10解释的例子中,根据图9A至图9F示出的例子,分类标签的显示位置设置于四个角。然而,显示位置不限于参照图10解释的例子。显示分类项目的形式不限于分类标签,只要分类项目能够呈现给用户即可。
在步骤S89,CPU 23确定触摸屏18显示的分类标签之中是否特定分类标签被触摸。
当触摸屏18显示的分类标签之中没有标签被触摸时,CPU 23在步骤S89确定没有分类标签被触摸(步骤S89的“否”),并使流程返回至步骤S89。换句话说,在触摸屏18显示的分类标签中的任一标签被触摸之前,CPU 23反复执行步骤S89的确定处理。
其后,当触摸屏18显示的分类标签之中的特定分类标签被触摸时,CPU 23在步骤S89确定分类标签之中的特定分类标签被触摸(步骤S89的“是”),并且流程前进至步骤S90。
在步骤S90,CPU 23使用与触摸的分类标签对应的限制条件(子分类项目)从被记录在记录装置19中的所有图像检索相关图像。换句话说,这个实施例中,根据与触摸的分类标签对应的限制条件(子分类项目)与根图像有最高强度的相关的图像被检索作为相关图像。
在步骤S91,CPU 23控制数字信号处理单元15在触摸屏18显示检索的相关图像。
例如,在图9A至图9F示出的例子中,如图9E所示,当手指f1触摸分类标签PA1时,CPU 23在步骤S89的处理确定特定分类标签被触摸(步骤S89的“是”)。在步骤S90的处理中,CPU 23根据“人”的脸部的尺寸“大”,检索与根图像P1有最高强度的相关的图像作为相关图像P2。在步骤S91的处理中,CPU 23在显示“大”的分类标签PA1的区域附近显示相关图像P2。相关图像P2的显示位置不具体限于图9A至图9F示出的例子,而是任意的。然而,通过采用图9A至图9F示出例子的位置,用户能够容易识别相关图像P2是根据分类标签PA1指示的“人”的脸部的子分类项目“大”具有较高关系的图像。
在步骤S92,CPU 23把显示图像历史信息存储在记录装置19中。
因此,第二相关图像检索处理结束。
参照图9A至图9F解释了相关图像检索操作的第三例子。参照图10的流程图解释了与第三例子对应的第三相关图像检索处理的例子。
在相关图像检索操作的第二例子和第三例子中,分类项目显示于根图像的四个角。然而,如上所述,分类项目的数量不限于四个。不必具体把分类项目的显示形式限制于显示在图像的四个角。例如,如图11所示,作为显示形式,也可以采用下面的形式:不使用字符显示分类项目,而是准备通过选择分类项目显示的相关图像的缩略图图像PS1至PS4,并显示缩略图图像PS1至PS4。
下面参照图12A至图12E解释相关图像检索操作的第四例子。参照图13至图15的流程图解释与第四例子对应的第四相关图像检索处理的例子。
第二例子和第三例子是这样的例子:CPU 23在触摸面板16呈现分类项目,并且用户搜索希望的图像组。
另一方面,第四例子是这样的例子:为触摸面板16上用户触摸的地点(用户手指f1触摸的地点)赋予含义。
如图12A所示,在根图像P1被显示在触摸屏18的状态下,当手指f1触摸根图像P1的预定区域时,CPU 23分析预定区域中的图像,并根据图像分析识别分类项目。
图像分析本身的方法不受到具体限制。然而,假定:这个实施例中,采用下面的图像分析方法。具体地,假定:多个分类项目事先设置为分析候选项,并且事先对多个分析候选项中的每个分析候选项赋予优先级。因此,作为对预定区域的图像分析,按优先级的次序分析所述多个分析候选项(分类候选项)。具体地,当图像分析的分析结果是指示难以识别出分析候选项的特定识别对象不被包括在所述预定区域中的结果时,通过使用下一优先级的另一分析候选项再次执行图像分析。通过所有图像分析仍难以识别包括特定识别对象的预定区域被视为不包括具有较强相关的图像。换句话说,获得的分析结果指示分析困难。
例如,当包括根图像P1中的脸部的预定区域被触摸时,CPU 23分析所述预定区域的图像以识别“人”作为分类项目。随后,CPU23检索在“人”方面与根图像P1有高度关系的图像作为相关图像P2B和P3B。如图12B所示,CPU 23控制数字信号处理单元15在触摸屏18显示相关图像P2B和P3B。不言自明,显示形式(诸如,相关图像的显示数量和显示位置)不受到限制。
例如,当与根图像P1的地点相关的预定区域被触摸时,CPU 23分析所述预定区域的图像以识别“地点”作为分类项目。随后,CPU23检索在“地点”方面与根图像P1有较高强度的关系的图像作为相关图像P2C和P3C。如图12C所示,CPU 23控制数字信号处理单元15在触摸屏18显示相关图像P2C和P3C。不言自明,显示形式(诸如,相关图像的显示数量和显示位置)不受到限制。
例如,当根图像P1以特定颜色为主导的预定区域被触摸时,CPU 23分析所述预定区域的图像以识别“颜色”作为分类项目。随后,CPU 23检索在“颜色”方面与根图像P1有较高强度的关系的图像作为相关图像P2D和P3D。如图12D所示,CPU 23控制数字信号处理单元15在触摸屏18显示相关图像P2D和P3D。不言自明,显示形式(诸如,相关图像的显示数量和显示位置)不受到限制。
当整个根图像P1被触摸时,CPU 23分析整个根图像P1的图像,并基于分析结果,检索相关图像P2E和P3E。如图12E所示,CPU 23控制数字信号处理单元15在触摸屏18显示相关图像P2E和P3E。不言自明,显示形式(诸如,相关图像的显示数量和显示位置)不受到限制。至于触摸整个根图像的操作方法,可以采用执行划动操作以包围根图像P1的方法、或者使多个手指与根图像P1接触的方法。
图13是解释与参照图12A至图12E解释的相关图像检索操作的第四例子对应的相关图像检索处理,即第四相关图像检索处理的例子的流程图。
在步骤S101,CPU 23确定是否选择了根图像。
当没有选择根图像时,CPU 23在步骤S101确定没有选择根图像(步骤S101的“否”)并使流程返回至步骤S101。换句话说,在选择了根图像之前,CPU 23反复执行步骤S101的确定处理。
其后,当选择了根图像时,CPU 23在步骤S101确定选择了根图像(步骤S101的“是”),并且流程前进至步骤S102。
在步骤S102,CPU 23控制数字信号处理单元15在触摸屏18显示根图像。根图像可以显示在触摸屏18的任意区域中。然而,最好把根图像显示在通过考虑到其后的图像分析而确定的区域中。例如,在图12A至图12E示出的例子中,如图12A所示,根图像P1以较大尺寸显示在触摸屏18的中央区域,以允许用户用手指f1触摸根图像P1中的各区域。
在步骤S103,CPU 23确定触摸屏18的根图像中的区域是否被触摸。
当根图像中没有区域被触摸时,CPU 23在步骤S103确定根图像中没有区域被触摸(步骤S103的“否”)并使流程返回至步骤S103。换句话说,在根图像中的任一区域被触摸之前,CPU 23反复执行步骤S103的确定处理。
其后,当根图像中的任一区域被触摸时,CPU 23在步骤S103确定根图像中的区域被触摸(步骤S103的“是”),并且流程前进至步骤S104。
在步骤S104,CPU 23确定是否已执行触摸整个根图像的操作。
当已执行触摸整个根图像的操作时,CPU 23在步骤S104确定已执行触摸整个根图像的操作(步骤S104的“是”),并且流程前进至步骤S106。在步骤S106,CPU 23分析整个根图像,基于分析结果来检索相关图像,并使触摸屏18显示相关图像。然而,当没有检索到相关图像时,在触摸屏18显示这样的指示:没有相关图像。以下,步骤S106的这种处理称为图像分析和检索处理。稍后,参照图15的流程图来解释图像分析和检索处理的详细例子。当图像分析和检索处理结束时,流程前进至步骤S111。在步骤S111,CPU 23把显示图像历史信息存储在记录装置19中。因此,第四相关图像检索处理结束。
另一方面,当执行触摸根图像的预定区域的操作时,CPU 23在步骤S104确定没有执行触摸整个根图像的操作(步骤S104的“否”),并且流程前进至步骤S105。在步骤S105,CPU 23分析所述预定区域的图像,作为分析结果,输出多个分析候选项之中的预定分析候选项作为分类项目。然而,当难以输出所述多个分析候选项中的任何一个分析候选项时,CPU 23输出分析结果“没有相关图像”。以下,步骤S105的这种处理称为接触区域的图像分析处理。稍后参照图14的流程图解释接触区域的图像分析处理的详细例子。
当步骤S105的接触区域的图像分析处理结束并输出分析的结果时,流程前进至步骤S107。
在步骤S107,CPU 23确定分析结果是否为“没有相关图像”。
当分析结果是“没有相关图像”时,CPU 23在步骤S107确定分析结果是“没有相关图像”(步骤S107的“是”),并且流程前进至步骤S108。在步骤S108,CPU 23控制数字信号处理单元15在触摸屏18显示这样的指示:没有相关图像。因此,第四相关图像检索处理结束。
另一方面,当分析结果是预定分类项目时,CPU 23在步骤S107确定分析结果是“有相关图像”(步骤S107的“否”),并且流程前进至步骤S109。
在步骤S109,CPU 23使用分析结果(所述预定分类项目)作为限制条件来检索相关图像。这个实施例中,分析结果中与根图像有较高强度关系的图像被检索作为相关图像。
在步骤S110,CPU 23控制数字信号处理单元15在触摸屏18显示检索出的相关图像。
例如,在图12A至图12E示出的例子中,当分析结果是“人”时,在步骤S109的处理中,CPU 23检索在“人”方面与根图像P1有较高强度关系的图像作为相关图像P2B和P3B。在步骤S110的处理中,CPU 23显示相关图像P2B和P3B。
例如,当分析结果是“地点”时,在步骤S109的处理中,CPU23检索在“地点”方面与根图像P1有较高强度关系的图像作为相关图像P2C和P3C。在步骤S110的处理中,CPU 23显示相关图像P2C和P3C。
例如,当分析结果是“颜色”时,在步骤S109的处理中,CPU23检索在“颜色”方面与根图像P1有较高强度关系的图像作为相关图像P2D和P3D。在步骤S110的处理中,CPU 23显示相关图像P2D和P3D。
在步骤S111,CPU 23把显示图像历史信息存储在记录装置19中。
因此,第四相关图像检索处理结束。
参照图14的流程图解释第四相关图像检索处理的步骤S105中的接触区域的图像分析处理的详细例子。
如上所述,假定:多个分类项目A到Z事先设置为分析候选项,并且事先以此顺序对多个分析候选项A到Z的每个分析候选项赋予优先级。分类项目A到Z并不意味着如字母表所示存在二十六种分类项目。分类项目Z指示两个或更多任意种类的分类项目之中具有最低优先级的一种分类项目。
分类项目A到Z不受到特定限制。然而,如果分类项目A到Z与图12A至图12E示出的例子关联,假定至少“人”、“地点”和“颜色”包括在分类项目A到Z中。除此之外,特定对象、特定成分等也能够包括在分类项目A到Z中。
如上所述,当执行触摸根图像的预定区域的操作时,CPU 23在步骤S104确定没有执行触摸整个根图像的操作(步骤S104的“否”),并且在步骤S105执行下面解释的接触区域的图像分析处理。
在步骤S121,CPU 23分析所述预定区域的图像以确定所述预定区域的分类项目是否能够识别为“A”。
当CPU 23在步骤S121确定所述预定区域的分类项目能够识别为“A”时,在步骤S122,CPU 23把分析结果设置为“A”。因此,图13的步骤S105中的接触区域的图像分析处理结束,并且流程前进至步骤S107。
另一方面,当在步骤S121确定所述预定区域的分类项目难以识别为“A”时,CPU 23前进至步骤S123。
在步骤S123,分析所述预定区域的图像以确定所述预定区域的分类项目是否能够识别为“B”。
当CPU 23在步骤S123确定所述预定区域的分类项目能够识别为“B”时,在步骤S124,CPU 23把分析结果设置为“B”。因此,图13的步骤S105的接触区域的图像分析处理结束,并且流程前进至步骤S107。
另一方面,当在步骤S123确定所述预定区域的分类项目难以识别为“B”时,CPU 23前进至步骤S125。
在步骤S125,分析所述预定区域的图像以确定所述预定区域的分类项目是否能够识别为“C”。
当CPU 23在步骤S125确定所述预定区域的分类项目能够识别为“C”时,在步骤S126,CPU 23把分析结果设置为“C”。因此,图13的步骤S105的接触区域的图像分析处理结束,并且流程前进至步骤S107。
另一方面,当在步骤S125确定所述预定区域的分类项目难以识别为“C”时,CPU 23前进至步骤S127。
在步骤S127,分析所述预定区域的图像以确定所述预定区域的分类项目是否能够识别为“D”。
当CPU 23在步骤S127确定所述预定区域的分类项目能够识别为“D”时,在步骤S128,CPU 23把分析结果设置为“D”。因此,图13的步骤S105的接触区域的图像分析处理结束,并且流程前进至步骤S107。
另一方面,当在步骤S127确定所述预定区域的分类项目难以识别为“D”时,CPU 23针对“E”至“Y”重复相同的处理。具体地,当CPU 23确定所述预定区域的分类项目能够识别为“E”至“Y”之中的预定的一个分析候选项时,CPU 23把该分析候选项设置为分析结果。
另一方面,当CPU 23确定难以识别所述预定区域的分类项目为“E”至“Y”中的任何一个时,流程前进至步骤S129。在步骤S129,CPU 23分析所述预定区域的图像以确定所述预定区域的分类项目是否能够识别为“Z”。
当CPU 23在步骤S129确定所述预定区域的分类项目能够识别为“Z”时,在步骤S130,CPU 23把分析结果设置为“Z”。因此,图13的步骤S105的接触区域的图像分析处理结束,并且流程前进至步骤S107。
另一方面,当在步骤S129确定所述预定区域的分类项目难以识别为“Z”时,在步骤S131,CPU 23把分析结果设置为“没有相关图像”。因此,图13的步骤S105的接触区域的图像分析处理结束,并且流程前进至步骤S107。
以上,参照图14的流程图解释了第四相关图像检索处理的步骤S105中的接触区域的图像分析处理的详细例子。
以下,参照图15的流程图解释第四相关图像检索处理的步骤S106中的图像分析和检索处理的详细例子。
作为参照图15解释的例子的前提,使用图像元素模式。图像元素模式是形成图像的元素的预定模式,是用于比较两个图像是否具有相关图像的关系的索引。例如,可以采用各种模式作为图像元素模式,诸如:显示人的模式、图像示出的人的数量相同的模式、仅显示风景的模式、以及图像的拍摄月份和日期(不包括年份)相同的模式。
这种情况下,CPU 23分析根图像和相关图像候选项,并确定它们的图像元素模式是否彼此一致。对可以是相关图像候选项的所有图像执行这个确定处理。CPU 23检索其图像元素模式与根图像的图像元素模式一致的相关图像候选项作为相关图像。以下这一系列处理被表示为“检索作为图像元素模式的相关图像”。
在参照图15解释的例子中,事先设置多个图像元素模式“a”到“z”,并且事先以此顺序对多个图像元素模式“a”到“z”中的每个图像元素模式赋予优先级。图像元素模式“a”到“z”并不意味着如字母表所示存在二十六个图像元素模式。具体地,图像元素模式“z”指示两个或更多任意种类的图像元素模式之中具有最低优先级的一种图像元素模式。
如上所述,当执行触摸整个根图像的操作时,CPU 23在步骤S104确定已执行触摸整个根图像的操作(步骤S104的“是”),并且在步骤S106执行下面解释的图像分析和检索处理。
在步骤S141,CPU 23检索作为图像元素模式“a”的相关图像。
在步骤S142,CPU 23确定是否检索到相关图像。
当记录装置19中存在其图像元素模式“a”与根图像的图像元素模式“a”一致的图像并且检索到该图像作为相关图像时,CPU23在步骤S142确定检索到相关图像(步骤S142的“是”),并且流程前进至步骤S143。
在步骤S143,CPU 23控制数字信号处理单元15在触摸屏18显示检索到的相关图像。因此,图13的步骤S106中的图像分析和检索处理结束,并且流程前进至步骤S111。
另一方面,当记录装置19中不存在其图像元素模式“a”与根图像的图像元素模式“a”一致的图像时,CPU 23在步骤S142确定没有检索到相关图像(步骤S142的“否”),并且流程前进至步骤S144。
在步骤S144,CPU 23检索作为图像元素模式“b”的相关图像。
在步骤S145,CPU 23确定是否检索到相关图像。
当记录装置19中存在其图像元素模式“b”与根图像的图像元素模式“b”一致的图像并且检索到该图像作为相关图像时,CPU23在步骤S145确定检索到相关图像(步骤S145的“是”),并且流程前进至步骤S143。
在步骤S143,CPU 23控制数字信号处理单元15在触摸屏18显示检索到的相关图像。因此,图13的步骤S106中的图像分析和检索处理结束,并且流程前进至步骤S111。
另一方面,当记录装置19中不存在其图像元素模式“b”与根图像的图像元素模式“b”一致的图像时,CPU 23在步骤S145确定没有检索到相关图像(步骤S145的“否”)。对于图像元素模式“c”至“y”,重复相同的处理。
当记录装置19中存在其“c”至“y”图像元素模式之中的预定模式与根图像的模式一致的图像并且检索到该图像作为相关图像时,流程前进至步骤S143。
在步骤S143,CPU 23控制数字信号处理单元15在触摸屏18显示检索到的相关图像。因此,图13的步骤S106中的图像分析和检索处理结束,并且流程前进至步骤S111。
另一方面,当记录装置19中不存在其“c”至“y”图像元素模式之中的任何一个模式与根图像的模式一致的图像时,流程前进至步骤S146。
在步骤S146,CPU 23检索作为图像元素模式“z”的相关图像。
在步骤S147,CPU 23确定是否检索到相关图像。
当记录装置19中存在其图像元素模式“z”与根图像的图像元素模式一致的图像并且检索到该图像作为相关图像时,CPU 23在步骤S147确定检索到相关图像(步骤S147的“是”),并且流程前进至步骤S143。
在步骤S143,CPU 23控制数字信号处理单元15在触摸屏18显示检索到的相关图像。因此,图13的步骤S106中的图像分析和检索处理结束,并且流程前进至步骤S111。
另一方面,当记录装置19中不存在其图像元素模式“z”与根图像的图像元素模式一致的图像时,CPU 23在步骤S147确定没有检索到相关图像(步骤S147的“否”),并且流程前进至步骤S148。
在步骤S148,CPU 23控制数字信号处理单元15在触摸屏18显示这样的指示:没有相关图像。因此,图13的步骤S106中的图像分析和检索处理结束,并且流程前进至步骤S111。
以上,参照图12A至图12E解释了根据本实施例的相关图像检索操作的第四例子。以上,参照图13至图15的流程图解释了与第四实施例对应的第四相关图像检索处理的例子。
在以上解释的例子中,采用根图像(静止图像或运动图像)作为用作根的图像。与根图像相关的图像被设置为相关图像,基于此规则,搜索相关图像的操作被作为相关图像检索操作。
某一图像被设置为根,符合搜索与根相关的图像的规则的操作(以下称为相关检索操作)除了能够应用于相关图像检索操作,还能够应用于例如安装在音乐播放器或盘服务器设备中的GUI上下文菜单等的显示操作。
例如,图16是解释应用于安装在音乐播放器中的GUI上下文菜单的显示操作的相关检索操作的操作例子的示图。具体地,图16是解释利用被设置为根的“音乐专辑”显示的GUI上下文菜单(以下,称为根菜单),搜索与根菜单相关的GUI上下文菜单(以下,称为相关菜单)的操作(以下,称为相关菜单搜索操作)例子示图。显示为“音调(melody)”的GUI上下文菜单用于十二级音调分析等。显示为“流派(Genre)”的GUI上下文菜单用于诸如ID3标签的信息。
例如,图17是解释应用于安装在盘服务器设备中的GUI上下文菜单的显示操作的相关检索操作的操作例子的示图。具体地,图17是解释相对于显示的根菜单“盘服务器”,搜索根菜单的相关菜单的相关菜单检索操作的例子示图。
以上解释了各种相关图像检索操作和与其对应的各种相关图像检索处理。
如上所述,相关图像检索操作是这样的操作:允许用户通过直观的操作诸个搜索相关图像,而不必提供专门的检索装置。相关图像检索操作能够应用于如第一例子所示的搜索相关图像的操作而没有特定目的,并且能够应用于如第二至第四例子所示的检索所希望的一个图像的目的。尤其在第三例子中,可以容易地搜索和检索相关图像,即使考虑到分类如此抽象以使得用户不容易想出搜索词。把任意操作应用于搜索的相关图像的终点(最后搜索的相关图像)以检查搜索历史和检索历史的方法也能够被实现。通过这种方法,能够容易地执行相关图像的再搜索和再检索。
下面参照图18A至图18C来解释相关图像检索操作的第五例子。参照图19的流程图来解释与第五例子对应的第五相关图像检索处理的例子。
如图18A所示,作为前提,假定:所有的图像组是分散在具有无限空间大小的桌面上的图像,并且桌面的一部分通常显示在触摸屏18。
假定:采用基本与第一例子相同的操作作为相关图像检索操作本身。通过多种划动操作搜索多个相关图像。具体地,如图18B所示,当从根图像P1开始第一次执行划动操作时,相关图像P2和P4重新显示在触摸屏18上第一次执行的划动操作结束的位置,即手指f1放开的位置。当用户进一步从重新显示的相关图像(例如,相关图像P2)开始第二次执行划动操作时,相关图像P3重新显示在触摸屏18上第二次执行的划动操作结束的位置,即手指f1放开的位置。
这种情况下,重新显示的相关图像P3显示在触摸屏18的右端。如果用户试图继续沿向右方向从相关图像P2开始第二次执行划动操作,该划动操作的结束位置在显示区域之外。因此,难以在第二次执行的划动操作结束的位置,即手指f1放开的位置,显示相关图像P3。
然而,在第五例子中,如图18A所示,作为前提,所有图像组分散在具有无限空间大小的桌面上。因此,原本可以在任何地点执行划动操作。然而,只因为触摸屏18的显示尺寸有限,所以难以执行划动操作。
因此,在第五例子中,具有无限空间大小的桌面在触摸屏18上被显示的区域定义为显示区域。根据这个定义,CPU 23在触摸屏18显示通过搜索相关图像的操作(多次执行的划动操作)检索的新的相关图像,CPU 23执行下面解释的处理。当CPU 23确定新的相关图像不适合当前显示的显示区域时,CPU 23执行移动处理,以自动移动显示区域以便新的相关图像显示在触摸屏18的中央。当CPU 23确定新的相关图像适合当前显示的显示区域时,CPU 23禁止移动处理。
根据这种移动处理,当用户试图从相关图像P2开始在显示区域之外第二次执行划动操作时,如图18C所示,新的相关图像P3显示在触摸屏18的中央位置(实线指示的位置)而非手指f1放开的位置(虚线指示的位置)。
图19是解释与参照图18A至图18C解释的相关图像检索操作的第五例子对应的相关图像检索处理,即第五相关图像检索处理的例子的流程图。
在步骤S161,CPU 23确定是否选择了根图像。
当没有选择根图像时,CPU 23在步骤S161确定没有选择根图像(步骤S161的“否”)并使流程返回至步骤S161。换句话说,在选择了根图像之前,CPU 23反复执行步骤S161的确定处理。
其后,当选择了根图像时,CPU 23在步骤S161确定选择了根图像(步骤S161的“是”),并且流程前进至步骤S162。
在步骤S162,CPU 23控制数字信号处理单元15移动显示区域以便根图像显示在触摸屏18的中央。换句话说,根图像显示在触摸屏18的中央。
在步骤S163,CPU 23确定触摸屏18上的根图像中的区域是否被触摸。
当根图像中没有区域被触摸时,CPU 23在步骤S163确定根图像中没有区域被触摸(步骤S163的“否”)并使流程返回至步骤S163。换句话说,在根图像中的任一区域被触摸之前,CPU 23反复执行步骤S163的确定处理。
其后,当根图像中的任何区域被触摸时,CPU 23在步骤S163确定根图像中的区域被触摸(步骤S163的“是”),并且流程前进至步骤S164。
在步骤S164,CPU 23确定是否从根图像开始执行划动操作。
当没有执行划动操作时,CPU 23在步骤S164确定没有执行划动操作(步骤S164的“否”),使流程返回至步骤S164,并重复执行步骤S164的处理和后续步骤。换句话说,在执行划动操作之前,CPU 23反复执行步骤S164的确定处理。
其后,当执行划动操作时,CPU 23在步骤S164确定执行了划动操作(步骤S164的“是”),并且流程前进至步骤S165。
在步骤S165,CPU 23从记录在记录装置19中的所有图像检索相关图像。
在步骤S166,CPU 23确定手指f1是否从触摸屏18放开,即划动操作是否结束。
当划动操作没有结束时,CPU 23在步骤S166确定手指f1没有从触摸屏18放开(步骤S166的“否”),使流程返回至步骤S166,并反复执行步骤S166的处理和后续步骤。只要划动操作继续,CPU 23就反复执行步骤S166的确定处理。
其后,当划动操作结束时,CPU 23在步骤S166确定手指f1从触摸屏18放开(步骤S166的“是”),并且流程前进至步骤S167。
在步骤S167,CPU 23在虚拟桌面上、手指f1放开的位置显示相关图像。
应该注意相关图像显示在虚拟桌面上、而非显示在触摸屏18上。换句话说,当在虚拟桌面上手指f1放开的位置是在显示区域之外的位置时,在步骤S167的处理中,相关图像不被显示在触摸屏18上。
在步骤S168,CPU 23把显示图像历史信息存储在记录装置19中。
在步骤S169,CPU 23确定相关图像是否能够显示在触摸屏18上。
如上所述,当在虚拟桌面上手指f1放开的位置是在显示区域之外的位置时,如果这个状态不改变,难以在触摸屏18上显示相关图像。因此,这种情况下,CPU 23在步骤S169确定相关图像不能显示在触摸屏18上(步骤S169的“否”),并且流程前进至步骤S170。
在步骤S170,CPU 23控制数字信号处理单元15移动显示区域以便相关图像显示在触摸屏18的中央。换句话说,相关图像显示在触摸屏18的中央。例如,在图18A至图18C示出的例子中,如图18C所示,相关图像P3显示在触摸屏18的中央。其后,流程前进至步骤S171。然而,稍后解释步骤S171的处理和后续步骤。
另一方面,当在虚拟桌面上手指f1放开的位置是在显示区域之内的位置时,可以在触摸屏18上显示相关图像而不必改变状态。因此,这种情况下,CPU 23在步骤S169确定相关图像能够显示在触摸屏18上并且不执行步骤S170的处理。流程前进至步骤S171。
在步骤S171,CPU 23确定是否指示了处理结束。除非指示了处理结束,否则CPU 23在步骤S171确定没有指示处理的结束(步骤S171的“否”),使流程返回至步骤S163,并重复步骤S163的处理和后续步骤。具体地,每次执行划动操作时,反复执行步骤S163的“是”、步骤S164的“是”、步骤S166的“是”、步骤S167、步骤S168、步骤S169的“是”/步骤S169的“否”、步骤S170和步骤S171的“否”的循环处理,并且新的相关图像显示在触摸屏18的中央。通过重复划动操作,用户能够反复执行循环处理,好像用户搜索相关图像一样。这种相关图像通常移至触摸屏18的中央。
其后,当指示了处理结束时,CPU 23在步骤S171确定指示了处理结束(步骤S171的“是”),并且结束第五相关图像检索处理。
以这种方法,在第五相关图像检索处理中,CPU 23自动移动具有有限物理尺寸的触摸屏18中的显示区域,以便用户再现的具有最高优先级的图像(新的相关图像)总是显示在触摸屏18的中央。因此,可以不管触摸屏18的显示尺寸而再现大量图像,并且不会影响图像的尺寸。此外,可以使用户体验在具有无限尺寸的桌面上搜索相关图像的感受。结果,不仅能够采用以矩阵形状排列图像的过去的图像呈现方法,还能够采用允许用户按照喜好排列图像并随后观看图像的图像呈现方法。
以上参照图18A至图18C解释了相关图像检索操作的第五例子。以上参照图19的流程图解释了与第五实施例对应的第五相关图像检索处理的例子。
在第五实施例中,当通过搜索相关图像的操作(多次执行的划动操作)搜索到的新的相关图像被显示在触摸屏18时,在确定相关图像适合当前显示的显示区域时,禁止显示区域中的移动处理。例如,在图20A至图20C示出的例子中,假定:相关图像P4是新的相关图像。这种情况下,如图20A所示,新的相关图像P4没有显示在触摸屏18的中央,而是显示在手指f1放开的位置。
在图20A示出的状态下,例如,当通过诸如GUI滑动条或缩放操作放大或缩小当前的显示区域时,如图20B所示,CPU 23执行自动移动显示区域的移动处理,以便新的相关图像P4显示在触摸屏18的中央。CPU 23放大或缩小如图20A所示的显示区域。以下,这一系列处理称为放大/缩小图像显示处理。
图21是解释参照图20A至图20C解释的放大/缩小图像显示处理例子的流程图。
在步骤S181,CPU 23确定是否执行了放大/缩小操作。
当既未执行放大操作又未执行缩小操作时,CPU 23在步骤S181确定没有执行放大/缩小操作(步骤S181的“否”),并使流程返回至步骤S181。换句话说,在执行放大操作或缩小操作之前,CPU 23反复执行步骤S181的确定处理。
其后,当执行了放大操作或缩小操作时,CPU 23在步骤S181确定已执行放大/缩小操作(步骤S181的“是”),并且流程前进至步骤S182。
在步骤S182,CPU 23控制数字信号处理单元15移动显示区域以便新的相关图像显示在触摸屏18的中央。换句话说,新的相关图像显示在触摸屏18的中央。例如,在图20A至图20C示出的例子中,如图20B所示,相关图像P4显示在触摸屏18的中央。
在步骤S183,CPU 23控制数字信号处理单元15放大或缩小显示区域以进行显示。例如,在图20A至图20C示出的例子中,如图20C所示,显示区域被放大以进行显示。
因此,放大/缩小图像显示处理结束。
通过采用这种放大/缩小图像显示处理,可以防止这样的缺点:当用户执行放大操作时,用户最希望观看的图像(相关图像)的一部分被切掉、或者图像隐藏在显示区域之外。
例如,CPU 23可控制数字信号处理单元15在触摸屏18显示滑动条,并且当用户操作滑动条时,根据该操作调整显示区域。
例如,CPU 23可检查两个手指的划动操作,并根据划动操作的方向和移动距离调整显示区域。
例如,当CPU 23检测触摸屏18上的任意点的接触操作时,CPU 23可使触摸屏18在当前显示区域周围的区域中,显示分散状态的图像,作为地图。另外,例如,当CPU 23检测地图上的接触操作时,CPU 23可移动显示区域以设置地图的一个范围作为显示区域。
以上解释的一系列处理能够通过硬件执行或者能够通过软件执行。
这种情况下,不言自明,这一系列处理可由图1示出的成像设备执行。此外,例如,图22示出的个人计算机可以执行这一系列处理。
在图22,CPU 101根据记录在ROM(只读存储器)102中的程序或从存储单元108载入RAM(随机存取存储器)103的程序执行各种处理。当CPU 101执行各种处理时所需的数据等也根据需要存储在RAM 103中。
CPU 101、ROM 102和RAM 103经总线104彼此连接。输入/输出接口105也连接到总线104。
包括键盘和鼠标的输入单元106、输出单元107、包括硬盘的存储单元108、包括调制解调器和终端适配器的通信单元109被连接到输入和输出接口105。通信单元109控制经网络(包括互联网)在个人计算机和另一设备(未示出)之间执行的通信。
当需要时,驱动器110也连接到输入和输出接口105。根据需要,可移除介质111(诸如,磁盘、光盘、磁光盘或半导体存储器)插入到驱动器110。当需要时,从可移除介质111读取的计算机程序安装到存储单元108中。
当这一系列处理通过软件来执行时,形成软件的程序从网络或记录介质安装到包括在专用硬件中的计算机或通过安装各种程序能够执行各种功能的通用个人计算机等。
包括这种程序的记录介质不限于可移除介质(打包介质)111(图16),诸如磁盘(包括软盘)、光盘(CD-ROM(压缩盘-只读存储器)和DVD(数字通用盘))、磁光盘(包括MD(小型盘)),或被分发以便从如图1或图22所示的设备主体外部向用户提供程序的半导体存储器。记录介质可以是硬盘等,被包括在图1示出的程序ROM 26或者图22示出的ROM 102或存储单元108中,其提供给用户的同时被包含在设备主体中并记录有程序。
本说明书中,描述被记录在记录介质中的程序的步骤不仅包括根据步骤的次序按时间顺序方式执行的处理,还包括并行或单独执行的处理,虽然不总是按时间顺序执行处理。
以上,诸如液晶显示面板17的液晶显示装置解释为根据本实施例的信息处理设备控制以显示图像的显示装置。然而,本发明不仅可应用于液晶显示面板,还可以应用于下面解释的显示装置。本发明可应用于这样的显示装置:显示装置指示每个单元(以下这种单元称为段)(诸如,形成运动图像的帧或场)的显示,其中在预定时间期间形成一个段的多个像素由显示元件形成,并且能够保持至少一部分显示元件的显示。以下这种显示元件称为保持类型显示元件。屏幕由这种保持类型显示元件形成的显示装置称为保持类型显示装置。换句话说,液晶显示装置仅是保持类型显示装置的例子。本发明可应用于所有的保持类型显示装置。
另外,本发明不仅可应用于保持类型显示装置,还可应用于例如采用有机EL(有机发光)装置作为发光元件的平面自发光类型的显示装置。本发明可应用于由多个像素形成图像并且包括显示这些像素的显示元件的所有显示装置。这种显示装置称为像素类型显示装置。在像素类型显示装置中,不必一个显示元件与一个像素相关联。
换句话说,根据本实施例的信息处理设备控制以显示图像的显示装置只需要是能够执行这一系列处理的显示装置。
本申请包含与2008年8月28日提交给日本专利局的日本优先权专利申请JP 2008-219119公开的主题相关的主题,该专利申请的全部内容通过引用包含于此。
本领域技术人员应该理解,在不脱离权利要求或其等同物的范围的情况下,可以根据设计的需要和其它因素做出各种变型、组合、子组合和替换。

Claims (18)

1.一种信息处理设备,包括:
显示装置,用于显示图像;
操作输入接收装置,用于接收用户的操作输入;以及
显示控制装置,当操作输入接收装置接收到对显示装置显示的根图像的预定操作时,执行显示控制以使显示装置显示与根图像相关的相关图像。
2.权利要求1所述的信息处理设备,其中,
基于一个或多个分类项目,计算能够是所述根图像或所述相关图像的所有图像和其它图像之间的相关程度,
显示控制装置基于根图像和其它图像之间的相关程度,从所有图像中检索一个或多个相关图像,并使显示装置显示所检索到的一个或多个相关图像。
3.权利要求2所述的信息处理设备,其中所述分类项目基于与所述图像有关的附加信息被事先确定。
4.权利要求2所述的信息处理设备,其中当显示控制装置使显示装置显示根图像时,显示控制装置检索所述一个或多个相关图像。
5.权利要求2所述的信息处理设备,其中当用户把手指沿预定方向移动预定距离、同时保持手指与显示装置接触的操作被表示为划动操作时,当操作输入接收装置接收到划动操作时,显示控制装置使显示装置显示所述相关图像。
6.权利要求5所述的信息处理设备,其中显示控制装置使显示装置在划动操作结束的位置显示所述相关图像。
7.权利要求6所述的信息处理设备,其中
所述一个或多个分类项目中的预定的一个分类项目与划动操作的每个方向关联,以及
显示控制装置在基于与划动操作的方向相对应的分类项目而计算的相关程度的基础上,检索所述一个或多个相关图像。
8.权利要求6所述的信息处理设备,其中每次操作输入接收装置接收到划动操作时,显示控制装置使显示装置依次地显示新的相关图像。
9.权利要求6所述的信息处理设备,其中当操作输入接收装置接收到对相关图像的划动操作时,显示控制装置把该相关图像设置为新的根图像,并使显示装置显示与该新的根图像相关的新的相关图像。
10.权利要求8所述的信息处理设备,其中从根图像或相关图像开始执行所述划动操作。
11.权利要求2所述的信息处理设备,其中当操作输入接收装置接收到用户手指对根图像的接触操作时,显示控制装置进一步使显示装置显示指示一个或多个分类项目中的各个分类项目图像,并且当检测到用户手指对所述一个或多个分类项目图像中的预定的一个分类项目图像的接触操作时,显示控制装置在基于对其执行了接触操作的分类项目图像所指示的分类项目而计算的相关程度的基础上,检索所述一个或多个相关图像。
12.权利要求2所述的信息处理设备,其中当操作输入接收装置接收到用户手指对根图像的接触操作时,显示控制装置分析基于执行了接触操作的位置的图像,基于分析结果来指定所述分类项目,并在基于指定的分类项目而计算的相关程度的基础上,检索所述一个或多个相关图像。
13.权利要求1所述的信息处理设备,还包括:存储装置,用于存储显示控制装置的显示控制的历史信息。
14.权利要求13所述的信息处理设备,其中,作为显示控制,当操作输入接收装置接收到用户手指对根图像或相关图像的接触操作时,显示控制装置进一步使显示装置显示存储在所述存储装置中的所述历史信息。
15.权利要求14所述的信息处理设备,其中当操作输入接收装置接收到用户手指对所述历史信息中所包括的图像的接触操作时,显示控制装置将该图像设置为根图像来检索一个或多个相关图像,并使显示装置显示所述相关图像。
16.一种信息处理方法,包括下述步骤:
当接收到对显示的根图像的预定操作时,允许显示图像并接收用户的操作输入的信息处理设备执行显示控制,以使显示装置显示与所述根图像相关的相关图像。
17.一种计算机程序,当接收到对显示的根图像的预定操作时,使计算机控制显示图像并接收用户的操作输入的信息处理设备执行显示控制,以使显示装置显示与所述根图像相关的相关图像。
18.一种信息处理设备,包括:
显示单元,用于显示图像;
操作输入接收单元,用于接收用户的操作输入;
显示控制单元,当操作输入接收单元接收到对显示单元上显示的根图像的预定操作时,执行显示控制以使显示单元显示与根图像相关的相关图像。
CN2009101651583A 2008-08-28 2009-07-23 信息处理设备和方法 Expired - Fee Related CN101662584B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008219119 2008-08-28
JP2008-219119 2008-08-28
JP2008219119A JP4636141B2 (ja) 2008-08-28 2008-08-28 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
CN101662584A true CN101662584A (zh) 2010-03-03
CN101662584B CN101662584B (zh) 2011-11-23

Family

ID=41693204

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101651583A Expired - Fee Related CN101662584B (zh) 2008-08-28 2009-07-23 信息处理设备和方法

Country Status (7)

Country Link
US (1) US8312374B2 (zh)
EP (1) EP2173089A3 (zh)
JP (1) JP4636141B2 (zh)
KR (1) KR20100027028A (zh)
CN (1) CN101662584B (zh)
BR (1) BRPI0902761A2 (zh)
RU (1) RU2421775C2 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102196178A (zh) * 2010-03-15 2011-09-21 佳能株式会社 摄像设备及其控制方法
CN103856716A (zh) * 2012-12-06 2014-06-11 三星电子株式会社 用于显示图像的显示装置及其方法
CN105512170A (zh) * 2015-11-19 2016-04-20 南京信息工程大学 一种基于手势的雷达拼图显示优化方法
CN109106392A (zh) * 2014-06-11 2019-01-01 佳能株式会社 图像显示装置、显示控制装置及显示控制方法
CN105302433B (zh) * 2014-06-11 2019-01-11 佳能株式会社 医疗图像显示装置及其控制方法
CN111049989A (zh) * 2019-12-26 2020-04-21 维沃移动通信有限公司 一种图像显示方法及电子设备

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7814040B1 (en) 2006-01-31 2010-10-12 The Research Foundation Of State University Of New York System and method for image annotation and multi-modal image retrieval using probabilistic semantic models
USD609714S1 (en) * 2007-03-22 2010-02-09 Fujifilm Corporation Electronic camera
KR20100035043A (ko) 2008-09-25 2010-04-02 삼성전자주식회사 컨텐츠 관리 방법 및 장치
US9152317B2 (en) * 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
JP2011091571A (ja) * 2009-10-21 2011-05-06 Olympus Imaging Corp 動画像作成装置及び動画像作成方法
JP5519376B2 (ja) * 2010-04-01 2014-06-11 株式会社ザクティ 電子機器
JP2011248768A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
JP5833822B2 (ja) * 2010-11-25 2015-12-16 パナソニックIpマネジメント株式会社 電子機器
JP5777446B2 (ja) * 2010-11-30 2015-09-09 キヤノン株式会社 表示制御装置及びその制御方法
US20120151413A1 (en) * 2010-12-08 2012-06-14 Nokia Corporation Method and apparatus for providing a mechanism for presentation of relevant content
KR101890135B1 (ko) 2011-03-18 2018-08-23 삼성전자주식회사 잔상 감소를 위한 gui 제공 방법 및 표시 장치
US8687023B2 (en) * 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
KR20130025301A (ko) * 2011-09-01 2013-03-11 삼성전자주식회사 디스플레이 장치 및 그 ui 제공 방법
WO2013099054A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 画像表示制御装置、画像表示制御方法およびプログラム
JP5857832B2 (ja) * 2012-03-26 2016-02-10 コニカミノルタ株式会社 画像形成装置、入力装置及び画像形成システム
KR102005315B1 (ko) * 2012-07-23 2019-07-30 삼성전자 주식회사 클라우드 서비스 지원 방법과 시스템 및 이를 지원하는 단말기
JP6153710B2 (ja) * 2012-09-28 2017-06-28 株式会社Pfu 帳票入出力装置、帳票入出力方法、および、プログラム
USD750115S1 (en) * 2012-12-05 2016-02-23 Ivoclar Vivadent Ag Display screen or a portion thereof having an animated graphical user interface
US8996516B2 (en) * 2013-01-02 2015-03-31 Google Inc. Adjacent search results exploration
AU350321S (en) * 2013-01-04 2013-08-23 Samsung Electronics Co Ltd Display Screen For An Electronic Device
CN103677564B (zh) * 2013-11-20 2016-03-30 小米科技有限责任公司 滑动操作响应方法、装置及终端设备
US11222044B2 (en) 2014-05-16 2022-01-11 Microsoft Technology Licensing, Llc Natural language image search
KR20150142348A (ko) * 2014-06-11 2015-12-22 삼성전자주식회사 사용자 단말 및 이의 제어 방법

Family Cites Families (161)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5485565A (en) * 1993-08-04 1996-01-16 Xerox Corporation Gestural indicators for selecting graphic objects
WO1996009579A1 (en) * 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
DE69523423T2 (de) * 1994-12-16 2002-06-27 Canon Kk Anzeigeverfahren von hierarchischen Daten und Informationssystem zur Durchführung
GB2301757B (en) * 1995-06-01 2000-02-02 Ibm Graphical user interface
US5754179A (en) * 1995-06-07 1998-05-19 International Business Machines Corporation Selection facilitation on a graphical interface
US5966122A (en) * 1996-03-08 1999-10-12 Nikon Corporation Electronic camera
US5917488A (en) * 1996-08-21 1999-06-29 Apple Computer, Inc. System and method for displaying and manipulating image data sets
US6249316B1 (en) * 1996-08-23 2001-06-19 Flashpoint Technology, Inc. Method and system for creating a temporary group of images on a digital camera
US6097431A (en) * 1996-09-04 2000-08-01 Flashpoint Technology, Inc. Method and system for reviewing and navigating among images on an image capture unit
US5745116A (en) * 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US5847708A (en) * 1996-09-25 1998-12-08 Ricoh Corporation Method and apparatus for sorting information
US6253218B1 (en) * 1996-12-26 2001-06-26 Atsushi Aoki Three dimensional data display method utilizing view point tracing and reduced document images
US5875446A (en) * 1997-02-24 1999-02-23 International Business Machines Corporation System and method for hierarchically grouping and ranking a set of objects in a query context based on one or more relationships
US6069606A (en) * 1997-05-15 2000-05-30 Sony Corporation Display of multiple images based on a temporal relationship among them with various operations available to a user as a function of the image size
US5912668A (en) * 1997-05-30 1999-06-15 Sony Corporation Controlling a screen display of a group of images represented by a graphical object
US6573907B1 (en) * 1997-07-03 2003-06-03 Obvious Technology Network distribution and management of interactive video and multi-media containers
US6266098B1 (en) * 1997-10-22 2001-07-24 Matsushita Electric Corporation Of America Function presentation and selection using a rotatable function menu
WO1999028811A1 (en) * 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US6091395A (en) * 1997-12-15 2000-07-18 International Business Machines Corporation Computer system and method of manipulating a graphical user interface component on a computer display through collision with a pointer
US6075531A (en) * 1997-12-15 2000-06-13 International Business Machines Corporation Computer system and method of manipulating multiple graphical user interface components on a computer display with a proximity pointer
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6308187B1 (en) * 1998-02-09 2001-10-23 International Business Machines Corporation Computer system and method for abstracting and accessing a chronologically-arranged collection of information
US6097387A (en) * 1998-05-11 2000-08-01 Sony Corporation Dynamic control of panning operation in computer graphics
US6285366B1 (en) * 1998-06-30 2001-09-04 Sun Microsystems, Inc. Hierarchy navigation system
US6414700B1 (en) * 1998-07-21 2002-07-02 Silicon Graphics, Inc. System for accessing a large number of menu items using a zoned menu bar
US6538698B1 (en) * 1998-08-28 2003-03-25 Flashpoint Technology, Inc. Method and system for sorting images in an image capture unit to ease browsing access
US6188405B1 (en) * 1998-09-14 2001-02-13 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory, to objects
US6728752B1 (en) * 1999-01-26 2004-04-27 Xerox Corporation System and method for information browsing using multi-modal features
JP2000276493A (ja) * 1999-01-29 2000-10-06 Canon Inc 電子的にアクセスできるリソースのブラウジング方法
US6239803B1 (en) * 1999-04-14 2001-05-29 Stanley W. Driskell Method to achieve least effort selection from an item list of arbitrary length
WO2001031502A1 (fr) * 1999-10-27 2001-05-03 Fujitsu Limited Dispositif et procede de classement et de rangement d'informations multimedia
US6976229B1 (en) * 1999-12-16 2005-12-13 Ricoh Co., Ltd. Method and apparatus for storytelling with digital photographs
US20020033837A1 (en) * 2000-01-10 2002-03-21 Munro James A. Multiple-image viewer
US7415662B2 (en) * 2000-01-31 2008-08-19 Adobe Systems Incorporated Digital media management apparatus and methods
JP4487383B2 (ja) * 2000-05-01 2010-06-23 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
JP2001312410A (ja) * 2000-05-01 2001-11-09 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
JP4431918B2 (ja) * 2000-05-01 2010-03-17 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
US6580437B1 (en) * 2000-06-26 2003-06-17 Siemens Corporate Research, Inc. System for organizing videos based on closed-caption information
CA2317336A1 (en) * 2000-09-06 2002-03-06 David Cowperthwaite Occlusion resolution operators for three-dimensional detail-in-context
US6918091B2 (en) * 2000-11-09 2005-07-12 Change Tools, Inc. User definable interface system, method and computer program product
US7134092B2 (en) * 2000-11-13 2006-11-07 James Nolen Graphical user interface method and apparatus
US6590568B1 (en) * 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
US6629104B1 (en) * 2000-11-22 2003-09-30 Eastman Kodak Company Method for adding personalized metadata to a collection of digital images
US6646652B2 (en) * 2000-12-21 2003-11-11 Xerox Corporation System and method for browsing node-link structures based on an estimated degree of interest
US6883145B2 (en) * 2001-02-15 2005-04-19 Denny Jaeger Arrow logic system for creating and operating control systems
US7240300B2 (en) * 2001-02-15 2007-07-03 Nbor Corporation Method for creating user-defined computer operations using arrows
US6915489B2 (en) * 2001-03-28 2005-07-05 Hewlett-Packard Development Company, L.P. Image browsing using cursor positioning
US8028249B2 (en) * 2001-05-23 2011-09-27 Eastman Kodak Company Method and system for browsing large digital multimedia object collections
JP2003099171A (ja) * 2001-09-21 2003-04-04 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びにプログラム
US7680817B2 (en) * 2001-10-15 2010-03-16 Maya-Systems Inc. Multi-dimensional locating system and method
US7644102B2 (en) * 2001-10-19 2010-01-05 Xerox Corporation Methods, systems, and articles of manufacture for soft hierarchical clustering of co-occurring objects
US6943842B2 (en) * 2001-11-02 2005-09-13 Hewlett-Packard Development Company, L.P. Image browsing user interface apparatus and method
US6928436B2 (en) * 2002-02-28 2005-08-09 Ilog Sa Interactive generation of graphical visualizations of large data structures
JP3890246B2 (ja) * 2002-04-05 2007-03-07 キヤノン株式会社 撮像装置
US7003737B2 (en) * 2002-04-19 2006-02-21 Fuji Xerox Co., Ltd. Method for interactive browsing and visualization of documents in real space and time
US20030210281A1 (en) * 2002-05-07 2003-11-13 Troy Ellis Magnifying a thumbnail image of a document
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
US7194527B2 (en) * 2002-06-18 2007-03-20 Microsoft Corporation Media variations browser
US7292243B1 (en) * 2002-07-02 2007-11-06 James Burke Layered and vectored graphical user interface to a knowledge and relationship rich data source
US7265786B2 (en) * 2002-09-13 2007-09-04 Eastman Kodak Company Display overlay containing spatially-distributed menu options for a digital camera user interface
GB0229625D0 (en) * 2002-12-19 2003-01-22 British Telecomm Searching images
US7327347B2 (en) * 2002-12-23 2008-02-05 Fuji Xerox Co., Ltd. Image classifying systems and methods
US7325198B2 (en) * 2002-12-31 2008-01-29 Fuji Xerox Co., Ltd. Calendar-based interfaces for browsing and manipulation of digital images
US20040175764A1 (en) * 2003-01-06 2004-09-09 Hiroto Nishiyama Image processing apparatus, image processing program, recording medium, and image processing method
US7663605B2 (en) * 2003-01-08 2010-02-16 Autodesk, Inc. Biomechanical user interface elements for pen-based computers
US7117453B2 (en) * 2003-01-21 2006-10-03 Microsoft Corporation Media frame object visualization system
US7139006B2 (en) * 2003-02-04 2006-11-21 Mitsubishi Electric Research Laboratories, Inc System and method for presenting and browsing images serially
US7769794B2 (en) * 2003-03-24 2010-08-03 Microsoft Corporation User interface for a file system shell
US7587411B2 (en) * 2003-03-27 2009-09-08 Microsoft Corporation System and method for filtering and organizing items based on common elements
US8046705B2 (en) * 2003-05-08 2011-10-25 Hillcrest Laboratories, Inc. Systems and methods for resolution consistent semantic zooming
US7164410B2 (en) * 2003-07-28 2007-01-16 Sig G. Kupka Manipulating an on-screen object using zones surrounding the object
US7055110B2 (en) * 2003-07-28 2006-05-30 Sig G Kupka Common on-screen zone for menu activation and stroke input
US7818689B2 (en) * 2003-09-29 2010-10-19 Olympus Corporation Information managing method, information managing apparatus, information managing program and storage medium
US7313574B2 (en) * 2003-10-02 2007-12-25 Nokia Corporation Method for clustering and querying media items
US6990637B2 (en) * 2003-10-23 2006-01-24 Microsoft Corporation Graphical user interface for 3-dimensional view of a data collection based on an attribute of the data
US7495659B2 (en) * 2003-11-25 2009-02-24 Apple Inc. Touch pad for handheld device
WO2005059699A2 (en) * 2003-12-15 2005-06-30 Quantum Matrix Holdings, Llc System and method for multi-dimensional organization, management, and manipulation of data
US8434027B2 (en) * 2003-12-15 2013-04-30 Quantum Matrix Holdings, Llc System and method for multi-dimensional organization, management, and manipulation of remote data
US7685134B2 (en) * 2003-12-31 2010-03-23 Nokia Corporation Media file sharing, correlation of metadata related to shared media files and assembling shared media file collections
US20050154997A1 (en) * 2004-01-13 2005-07-14 Xerox Corporation Methods and systems for accessing and selecting data items utilizing graphically displayed iconettes
US7441186B2 (en) * 2004-01-23 2008-10-21 Microsoft Corporation System and method for automatically grouping items
US7366995B2 (en) * 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
US20050187943A1 (en) * 2004-02-09 2005-08-25 Nokia Corporation Representation of media items in a media file management application for use with a digital device
US7340678B2 (en) * 2004-02-12 2008-03-04 Fuji Xerox Co., Ltd. Systems and methods for creating an interactive 3D visualization of indexed media
US7437005B2 (en) * 2004-02-17 2008-10-14 Microsoft Corporation Rapid visual sorting of digital files and data
US7721226B2 (en) * 2004-02-18 2010-05-18 Microsoft Corporation Glom widget
US20050188326A1 (en) * 2004-02-25 2005-08-25 Triworks Corp. Image assortment supporting device
US20050210416A1 (en) * 2004-03-16 2005-09-22 Maclaurin Matthew B Interactive preview of group contents via axial controller
JP4182930B2 (ja) * 2004-07-12 2008-11-19 ソニー株式会社 表示装置及びバックライト装置
US8028250B2 (en) * 2004-08-31 2011-09-27 Microsoft Corporation User interface having a carousel view for representing structured data
US7995078B2 (en) * 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
US7454717B2 (en) * 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US8001476B2 (en) * 2004-11-16 2011-08-16 Open Text Inc. Cellular user interface
KR100703690B1 (ko) * 2004-11-19 2007-04-05 삼성전자주식회사 스킨 이미지를 사용하여 아이콘을 그룹별로 관리하는사용자 인터페이스 및 방법
AU2004231206A1 (en) * 2004-11-19 2006-06-08 Canon Kabushiki Kaisha Displaying a plurality of images in a stack arrangement
US7629966B2 (en) * 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
US7548936B2 (en) * 2005-01-12 2009-06-16 Microsoft Corporation Systems and methods to present web image search results for effective image browsing
US7788592B2 (en) * 2005-01-12 2010-08-31 Microsoft Corporation Architecture and engine for time line based visualization of data
JP4408087B2 (ja) * 2005-02-08 2010-02-03 キヤノン株式会社 画像再生装置及びその制御方法
US7383503B2 (en) * 2005-02-23 2008-06-03 Microsoft Corporation Filtering a collection of items
US7477233B2 (en) * 2005-03-16 2009-01-13 Microsoft Corporation Method and system for providing modifier key behavior through pen gestures
US7710423B2 (en) * 2005-03-21 2010-05-04 Microsoft Corproation Automatic layout of items along an embedded one-manifold path
US7725837B2 (en) * 2005-03-31 2010-05-25 Microsoft Corporation Digital image browser
JP4533791B2 (ja) * 2005-04-19 2010-09-01 株式会社日立製作所 情報閲覧装置
US7614016B2 (en) * 2005-04-21 2009-11-03 Microsoft Corporation Multiple roots in navigation pane
US7797641B2 (en) * 2005-05-27 2010-09-14 Nokia Corporation Mobile communications terminal and method therefore
US7543248B2 (en) * 2005-05-31 2009-06-02 Fuji Xerox Co., Ltd. User-machine interface
JP4318047B2 (ja) * 2005-06-06 2009-08-19 ソニー株式会社 3次元オブジェクト表示装置、3次元オブジェクト切替表示方法及び3次元オブジェクト表示プログラム
JP4929630B2 (ja) 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
KR100763949B1 (ko) * 2005-07-11 2007-10-05 삼성전자주식회사 디스플레이장치 및 그 제어방법
CA2513232C (en) * 2005-07-25 2019-01-15 Kayla Cornale Method for teaching reading and lterary
JP2007066291A (ja) * 2005-08-02 2007-03-15 Seiko Epson Corp 画像表示方法および画像表示装置、画像表示システム、サーバ、プログラム、記録媒体
US9081470B2 (en) * 2005-09-08 2015-07-14 Microsoft Technology Licensing, Llc Single action selection of data elements
US20070067738A1 (en) * 2005-09-16 2007-03-22 Microsoft Corporation Extensible, filtered lists for mobile device user interface
JP4536638B2 (ja) * 2005-10-28 2010-09-01 株式会社スクウェア・エニックス 表示情報選択装置及び方法、プログラム並びに記録媒体
JP4536637B2 (ja) * 2005-10-28 2010-09-01 株式会社スクウェア・エニックス 情報散策装置及び方法、プログラム並びに記録媒体
US7535475B2 (en) * 2005-11-01 2009-05-19 Adobe Systems Incorporated Virtual view tree
US7451407B2 (en) * 2005-11-30 2008-11-11 Microsoft Corporation Presentation of groups of items
KR20080077269A (ko) * 2005-12-14 2008-08-21 야파 코포레이션 화상 표시 장치
TWI306355B (en) * 2005-12-21 2009-02-11 Avermedia Tech Inc Method for controlling image display
US7603633B2 (en) * 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
US7644373B2 (en) * 2006-01-23 2010-01-05 Microsoft Corporation User interface for viewing clusters of images
US7836050B2 (en) * 2006-01-25 2010-11-16 Microsoft Corporation Ranking content based on relevance and quality
JP2007206919A (ja) * 2006-02-01 2007-08-16 Sony Corp 表示制御装置および方法、プログラム、並びに記録媒体
US7536654B2 (en) * 2006-02-06 2009-05-19 Microsoft Corporation Photo browse and zoom
US7668867B2 (en) * 2006-03-17 2010-02-23 Microsoft Corporation Array-based discovery of media items
JP4802790B2 (ja) * 2006-03-20 2011-10-26 セイコーエプソン株式会社 サーバ装置
JP2007257199A (ja) * 2006-03-22 2007-10-04 Fujifilm Corp 画像表示方法及び画像表示装置並びに画像表示システム
US7542994B2 (en) * 2006-03-24 2009-06-02 Scenera Technologies, Llc Graphical user interface for rapid image categorization
KR100672605B1 (ko) * 2006-03-30 2007-01-24 엘지전자 주식회사 아이템 선택 방법 및 이를 위한 단말기
KR101269375B1 (ko) * 2006-05-24 2013-05-29 엘지전자 주식회사 터치스크린 장치 및 이의 이미지 표시방법
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7747968B2 (en) * 2006-09-11 2010-06-29 Apple Inc. Content abstraction presentation along a multidimensional path
US7792868B2 (en) * 2006-11-10 2010-09-07 Microsoft Corporation Data object linking and browsing tool
US20080118160A1 (en) * 2006-11-22 2008-05-22 Nokia Corporation System and method for browsing an image database
US7779363B2 (en) * 2006-12-05 2010-08-17 International Business Machines Corporation Enabling user control over selectable functions of a running existing application
US20080144107A1 (en) * 2006-12-18 2008-06-19 Innovive Technologies Llc Method for arranging a collection of visual content
US7954065B2 (en) * 2006-12-22 2011-05-31 Apple Inc. Two-dimensional timeline display of media items
US7986324B2 (en) * 2007-01-12 2011-07-26 Fujitsu Limited Display device, display program storage medium and display method
JP4353259B2 (ja) 2007-02-22 2009-10-28 ソニー株式会社 情報処理装置、画像表示装置、および、これらにおける制御方法ならびに当該方法をコンピュータに実行させるプログラム
JP4771087B2 (ja) 2007-02-28 2011-09-14 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8892997B2 (en) * 2007-06-08 2014-11-18 Apple Inc. Overflow stack user interface
CA2601154C (en) * 2007-07-07 2016-09-13 Mathieu Audet Method and system for distinguising elements of information along a plurality of axes on a basis of a commonality
US8122384B2 (en) * 2007-09-18 2012-02-21 Palo Alto Research Center Incorporated Method and apparatus for selecting an object within a user interface by performing a gesture
KR20090046137A (ko) * 2007-11-05 2009-05-11 삼성전자주식회사 미디어 데이터 검색 장치 및 방법
US8549407B2 (en) * 2007-12-05 2013-10-01 Ebay Inc. Multi-dimensional dynamic visual browsing
US20090153475A1 (en) * 2007-12-14 2009-06-18 Apple Inc. Use of a remote controller Z-direction input mechanism in a media system
US8005927B2 (en) * 2008-01-22 2011-08-23 Microsoft Corporation Current updates
KR101467293B1 (ko) * 2008-04-22 2014-12-02 삼성전자주식회사 촬영될 영상에 관련된 메뉴를 표시하는 ui 제공방법 및이를 적용한 촬영장치
US10031549B2 (en) * 2008-07-10 2018-07-24 Apple Inc. Transitioning between modes of input
JP4393565B1 (ja) * 2008-08-28 2010-01-06 株式会社東芝 表示処理装置、表示処理方法、およびプログラム
KR101565378B1 (ko) * 2008-09-03 2015-11-03 엘지전자 주식회사 이동단말기 및 그 제어 방법
US20100058238A1 (en) * 2008-09-04 2010-03-04 Avigdor Ben Moshe Data navigation system
US8385952B2 (en) * 2008-10-23 2013-02-26 Microsoft Corporation Mobile communications device user interface
US20100107125A1 (en) * 2008-10-24 2010-04-29 Microsoft Corporation Light Box for Organizing Digital Images
US20100162174A1 (en) * 2008-12-24 2010-06-24 Ron Karidi Flat Navigation of Information and Content Presented on User Monitor
US20100287513A1 (en) * 2009-05-05 2010-11-11 Microsoft Corporation Multi-device gesture interactivity
US20110016150A1 (en) * 2009-07-20 2011-01-20 Engstroem Jimmy System and method for tagging multiple digital images
US9798855B2 (en) * 2010-01-07 2017-10-24 Affymetrix, Inc. Differential filtering of genetic data
US8774526B2 (en) * 2010-02-08 2014-07-08 Microsoft Corporation Intelligent image search results summarization and browsing

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102196178A (zh) * 2010-03-15 2011-09-21 佳能株式会社 摄像设备及其控制方法
CN102196178B (zh) * 2010-03-15 2015-01-21 佳能株式会社 摄像设备及其控制方法
CN104539849A (zh) * 2010-03-15 2015-04-22 佳能株式会社 摄像设备及其控制方法
CN103856716A (zh) * 2012-12-06 2014-06-11 三星电子株式会社 用于显示图像的显示装置及其方法
CN109106392A (zh) * 2014-06-11 2019-01-01 佳能株式会社 图像显示装置、显示控制装置及显示控制方法
CN105302433B (zh) * 2014-06-11 2019-01-11 佳能株式会社 医疗图像显示装置及其控制方法
US10222954B2 (en) 2014-06-11 2019-03-05 Canon Kabushiki Kaisha Image display apparatus, display control apparatus and display control method using thumbnail images
US10324582B2 (en) 2014-06-11 2019-06-18 Canon Kabushiki Kaisha Medical image display apparatus, method for controlling the same
CN105512170A (zh) * 2015-11-19 2016-04-20 南京信息工程大学 一种基于手势的雷达拼图显示优化方法
CN111049989A (zh) * 2019-12-26 2020-04-21 维沃移动通信有限公司 一种图像显示方法及电子设备
CN111049989B (zh) * 2019-12-26 2021-04-06 维沃移动通信有限公司 一种图像显示方法及电子设备

Also Published As

Publication number Publication date
JP4636141B2 (ja) 2011-02-23
RU2421775C2 (ru) 2011-06-20
BRPI0902761A2 (pt) 2010-05-25
KR20100027028A (ko) 2010-03-10
JP2010055343A (ja) 2010-03-11
US8312374B2 (en) 2012-11-13
EP2173089A3 (en) 2010-05-12
US20100053408A1 (en) 2010-03-04
EP2173089A2 (en) 2010-04-07
RU2009132437A (ru) 2011-03-10
CN101662584B (zh) 2011-11-23

Similar Documents

Publication Publication Date Title
CN101662584B (zh) 信息处理设备和方法
CN101661370B (zh) 信息处理系统及方法
US7716604B2 (en) Apparatus with thumbnail display
US10739958B2 (en) Method and device for executing application using icon associated with application metadata
CN102473304B (zh) 元数据标记系统、图像搜索方法和设备、及其用于标记手势的方法
CN109993045B (zh) 物品查找方法及查找装置、查找系统和机器可读存储介质
US9538116B2 (en) Relational display of images
CN102279700A (zh) 显示控制设备、显示控制方法、显示控制程序及记录介质
CN102779153B (zh) 信息处理设备和信息处理方法
US20090327891A1 (en) Method, apparatus and computer program product for providing a media content selection mechanism
US20090049083A1 (en) Method and Apparatus for Accessing Data Using a Symbolic Representation Space
KR101747299B1 (ko) 데이터 객체 디스플레이 방법 및 장치와 컴퓨터로 읽을 수 있는 저장 매체
CN111399724A (zh) 系统设置项的显示方法、装置、终端及存储介质
WO2011056105A1 (en) Multi dimensional media navigation
KR20070002159A (ko) 동영상 관리 방법 및 장치
US10026198B2 (en) Method, system and electronic device for at least one of efficient graphic processing and salient based learning
KR20100018660A (ko) 영상 데이터의 파일명 생성 방법
CN114529634A (zh) 电厂单元快速定位方法
KR20210097830A (ko) 컨텐츠 제공 방법을 실행하기 위하여 기록 매체에 저장된 컴퓨터 프로그램, 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111123

Termination date: 20150723

EXPY Termination of patent right or utility model