CN101640762B - 信息处理设备、方法 - Google Patents

信息处理设备、方法 Download PDF

Info

Publication number
CN101640762B
CN101640762B CN2009101593959A CN200910159395A CN101640762B CN 101640762 B CN101640762 B CN 101640762B CN 2009101593959 A CN2009101593959 A CN 2009101593959A CN 200910159395 A CN200910159395 A CN 200910159395A CN 101640762 B CN101640762 B CN 101640762B
Authority
CN
China
Prior art keywords
additional information
image
touch
show state
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009101593959A
Other languages
English (en)
Other versions
CN101640762A (zh
Inventor
小泽博之
高冈绫
岩濑绫子
入矢真一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101640762A publication Critical patent/CN101640762A/zh
Application granted granted Critical
Publication of CN101640762B publication Critical patent/CN101640762B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明涉及信息处理设备、方法和程序。信息处理设备包括:显示单元,显示图像;操作输入接收单元,接收在显示单元上执行的用户操作;显示控制单元,在操作输入接收单元接收到预定操作时执行显示控制,所述显示控制使显示单元的显示状态从第一显示状态和第二显示状态中的一个状态变为第一显示状态和第二显示状态中的另一状态,在第一显示状态中,图像被显示作为卡片的正面,在第二显示状态中,包括与所述图像关联的一条或多条附加信息的附加信息图像被显示作为卡片的背面。

Description

信息处理设备、方法
技术领域
本发明涉及一种信息处理设备、方法和程序,尤其涉及一种能够容易地检查与捕捉图像或记录图像相关的附加信息的信息处理设备、方法和程序。 
背景技术
在一些情况下,利用数字照相机捕捉的图像(例如参见JP-A-2007-019685)和记录在数字照相机中的图像与捕捉和记录图像所关联的信息(以下,称为附加信息)相关。当检查这种附加信息时,例如,用户一般执行下述操作:也就是说,现有技术的数字照相机具有专用硬件按键(诸如,DISPLAY按钮)和菜单。用户操作按钮和其它部件中的任何一个以在液晶面板或任何其它合适的监视器上显示设置数字照相机提供的多个功能的屏幕,并选择提供希望的附加信息的功能。因此,用户在视觉上识别显示在液晶面板或任何其它合适的监视器上的附加信息。 
发明内容
然而,上述操作在某些情况下对于用户比较麻烦,需要更简单的附加信息检查操作。另外,最近几年,使用GPS(全球定位系统)代表的附件以及与互联网连接趋于增加附加信息的数量。因此,满足上述需求是很重要的。也就是说,虽然需要简化显示关于捕捉图像和记录图像的附加信息的操作(以下,称为附加信息显示操作),但这种需求到目前位置仍未很好满足。 
因此,希望简化附加信息显示操作。 
根据本发明实施例的信息处理设备包括:一种信息处理设备,包 括:显示单元,显示图像;操作输入接收单元,接收在显示单元上执行的用户操作;显示控制单元,在操作输入接收单元接收预定操作时执行显示控制,所述显示控制允许显示单元的显示状态从第一显示状态和第二显示状态中的一个状态变为第一显示状态和第二显示状态中的另一状态,在第一显示状态中,图像被显示为卡片的正面,在第二显示状态中,包括与图像关联的一条或多条附加信息的附加信息图像被显示为卡片的背面。 
显示控制单元执行下述控制作为显示控制:当操作输入接收单元在第一显示状态下检测到用户手指触摸操作输入接收单元时,进一步在与触摸位置对应的位置显示附加信息访问入口作为用于访问附加信息的图像,当操作输入接收单元检测到追踪操作时,显示单元的显示状态被强行转变,追踪操作被定义为在手指触摸操作输入接收单元的情况下用户把手指移动预定距离的操作,追踪操作从附加信息访问入口开始。 
显示控制单元还执行下述控制作为显示控制:图像减小的比率根据追踪操作中手指的路径而改变,被改变的捕捉图像或记录图像被显示在显示单元。 
显示控制单元执行下述控制作为显示控制:当操作输入接收单元检测到在第一显示状态用户对预定区域触摸了至少固定时段时,显示单元的显示状态被强行转变。 
显示单元和操作输入接收单元设置于信息处理设备的各个表面之中的第一表面。信息处理设备还包括具有触摸面板的触摸面板单元,触摸面板设置于与第一表面相对一侧的第二表面。显示控制单元执行下述控制作为显示控制:当触摸面板单元检测到用户用手指触摸所述触摸面板单元的预定区域时,显示单元的显示状态被强行转变。 
信息处理设备还包括检测单元,用于检测信息处理设备的倾斜,显示控制单元执行下述控制作为显示控制:当检测单元基于检测结果检测到用户把信息处理设备旋转360度时,显示单元的显示状态被强行转变。 
信息处理设备还包括检测单元,用于检测信息处理设备的倾斜,显示控制单元执行下述控制作为显示控制:当检测单元基于检测结果检测到用户执行把信息处理设备旋转180或90度的第一操作、并随后执行以相反方向把信息处理设备旋转180或90度的第二操作时,显示单元的显示状态被强行转变。
当显示单元的显示状态是第一显示状态时,显示控制单元在检测到所述预定操作之前事先获取被包含在附加信息图像中的附加信息。 
根据本发明另一实施例的信息处理方法和程序是与上述根据本发明实施例的信息处理设备对应的方法和程序。 
在根据本发明另一实施例的信息处理方法和程序中,包括显示单元和操作输入接收单元的信息处理设备执行下述控制:也就是说,显示单元上的显示状态包括第一显示状态和第二显示状态,在第一显示状态中,在显示单元上图像被显示作为卡片的正面,在第二显示状态中,在显示单元上包括与所述图像关联的一条或多条附加信息的附加信息图像被显示作为卡片的背面。在这种情况下,当检测到预定操作时,显示单元的显示状态从第一显示状态和第二显示状态中的一个状态转变为第一显示状态和第二显示状态中的另一状态。 
如上所述,本发明简化了附加信息显示操作。 
附图说明
图1是表示应用本发明的信息处理设备的实施例的成像设备的示例结构的方框图; 
图2A和图2B是表示图1示出的成像设备的示例外部结构的透视图; 
图3A至图3E描述成像设备的附加信息显示操作的第一例子; 
图4是描述第一附加信息显示处理例子的流程图; 
图5A至图5C描述成像设备的附加信息显示操作的第二例子; 
图6是描述第二附加信息显示处理例子的流程图; 
图7A至图7C描述成像设备的附加信息显示操作的第三例子; 
图8是描述第三附加信息显示处理例子的流程图; 
图9A和图9B描述成像设备的附加信息显示操作的第四例子; 
图10是描述第四附加信息显示处理例子的流程图; 
图11A至图11C描述成像设备的附加信息显示操作的第五例子; 
图12是描述第五附加信息显示处理例子的流程图; 
图13A至图13E描述设置基本功能的操作的例子; 
图14是表示与图1示出的结构不同的应用本发明的信息处理设备的示例结构的方框图。 
具体实施方式
下面,将参照附图来描述本发明的实施例。 
图1是表示应用本发明的信息处理设备的实施例的成像设备的示例结构的方框图。 
图1示出的例子中,成像设备包括透镜单元11至触摸面板28。 
透镜单元11包括诸如成像透镜、光圈和聚焦透镜。成像装置12(诸如,CCD(电荷耦合装置))设置于通过透镜单元11入射的物光传播的光路上。 
成像装置12、模拟信号处理器13、A/D(模拟/数字)转换器14和数字信号处理器15以此顺序彼此连接。 
数字信号处理器15连接到液晶面板17、记录装置19和触摸面板28。 
透镜单元11连接到用于调整光圈和移动聚焦透镜的致动器20,光圈和聚焦透镜都是透镜单元11的部件。致动器20还连接到电机驱动器21。电机驱动器21驱动并控制致动器20。 
CPU(中央处理单元)23控制整个成像设备。为此,CPU 23连接到模拟信号处理器13、A/D转换器14、数字信号处理器15、电机驱动器21、TG(定时发生器)22、操作单元24、EEPROM(电可擦除可编程ROM)25、程序ROM(只读存储器)26、RAM(随机存取存储 器)27、触摸面板16和触摸面板28。 
触摸屏18包括触摸面板16和液晶面板17。触摸面板28设置于成像设备的与触摸屏18相对的一侧,即设置在成像透镜侧(参见后面描述的图2A和图2B)。 
记录装置19包括:例如,DVD(数字通用盘)或任何其它类似的光盘、存储卡或任何其它类似的半导体存储器或者任何其它类似的可移除记录介质。记录装置19能够自由连接到成像设备主体以及从成像设备主体卸下。 
EEPROM 25存储已设置的各种类型信息。EEPROM 25还存储其它信息,例如,当关闭电源时应该保存的信息。 
程序ROM 26存储CPU 23执行的程序和CPU 23执行程序所需的数据。 
RAM 27用作当CPU 23执行各种处理时使用的工作区,并临时存储必要的程序和数据。 
下面将简要描述具有图1示出结构的整个成像设备的动作。 
CPU 23通过执行记录在程序ROM 26中的程序来控制组成成像设备的部件。CPU 23响应于来自触摸面板16或触摸面板28的信号和来自操作单元24的信号执行预定处理。稍后,将参照图4、图6、图8和图12示出的流程图来描述这些处理的具体例子。 
用户对操作单元24进行操作,操作单元24依次向CPU 23提供与操作对应的信号。 
也就是说,当例如手指在任意位置触摸所述触摸屏18或触摸面板28时,即当用户执行预定输入操作时,触摸屏18或触摸面板28检测触摸位置的坐标。代表检测坐标的电信号(以下,称为坐标信号)被发送给CPU 23。CPU 23从坐标信号获得触摸位置的坐标,获取与坐标相关的预定信息,并基于该信息执行预定处理。 
这里所说的“触摸”不仅包括静态触摸(仅触摸单个预定区域),还包括动态触摸(当手指或任何其它物体沿预定路径行进时发生的触摸)。例如,在图像上滑动或由手指执行的任何其它类似的追踪操作 都是一种触摸形式。 
致动器20被驱动以把透镜单元11拖出成像设备的壳体并把透镜单元11推入壳体。另外,致动器20被驱动以调整光圈和移动聚焦透镜,光圈和聚焦透镜都是透镜单元11的部件。 
TG 22在CPU 23的控制下向成像装置12提供定时信号。定时信号控制成像装置12的曝光时间和其它参数。 
成像装置12基于从TG提供的定时信号工作,并接收通过透镜单元11入射的物光,物光随后受到光电转换处理。根据接收光的量,成像装置12随后向模拟信号处理器13提供模拟图像信号。这个过程中,电机驱动器21在CPU 23的控制下驱动致动器20。 
模拟信号处理器13对成像装置12提供的模拟图像信号执行放大和其它模拟信号处理。模拟信号处理器13向A/D转换器14提供所得到的模拟图像信号。 
A/D转换器14在CPU 23的控制下把来自模拟信号处理器13的模拟图像信号转换成数字图像信号。A/D转换器14向数字信号处理器15提供所得到的数字图像信号。 
在CPU 23的控制下,数字信号处理器15对A/D转换器14提供的数字图像信号执行噪声去除和其它数字信号处理。数字信号处理器15在液晶面板17显示与数字图像信号对应的图像作为捕捉图像。 
另外,根据预定压缩和编码方案(例如,JPEG(联合图像专家组)),数字信号处理器15对A/D转换器14提供的数字图像信号进行压缩和编码。数字信号处理器15把压缩和编码的数字图像信号记录在记录装置19。 
数字信号处理器15还从记录装置19读取压缩和编码的数字图像信号,并根据与预定压缩和编码方案对应的解压缩和解码方案对信号进行解压缩和解码。数字信号处理器15在液晶面板17显示与数字图像信号对应的图像作为记录图像。 
另外,在CPU 23的控制下,数字信号处理器15在液晶面板17产生用于执行AF(自动聚焦)功能的帧图像(以下,称为AF帧)。 
也就是说,成像装置12捕捉的图像显示在液晶面板17。这种情况下,AF帧设置在显示于液晶面板17的图像上。基于AF帧内的图像执行聚焦控制。 
如上所述,成像设备具有AF功能。AF功能不仅包括聚焦控制功能,还包括在显示于液晶面板17的图像上的任意位置设置AF帧的功能。AF功能还包括通过仅操作液晶面板17和触摸面板16形成的触摸屏18来控制AF帧的位置、尺寸和其它参数的功能。 
为了执行AF功能,CPU 23读取程序ROM 26中的程序,并执行程序。成像设备还具有AE(自动曝光)功能和AWB(自动白平衡)功能。这些功能也是通过指令CPU 23读取程序ROM 26的程序并执行程序来执行的。 
更具体地,AF功能、AE功能和AWB功能仅为成像设备提供的功能的例子。也就是说,成像设备具有各种与成像相关的功能。在下面的描述中,各种功能之中,与成像相关的基本功能称为基本功能,与成像相关的应用功能称为应用功能。基本功能不仅包括AF功能、AE功能和AWB功能,还包括“成像模式选择功能”和“成像定时器设置功能”。应用功能包括“像素数改变功能”和“颜色调整功能”。 
图2A和图2B是表示图1示出例子的成像设备的示例外部结构的透视图。 
在下面的描述中,在成像设备的各个表面之中,面对要被用户成像的对象的表面,即设置透镜单元11的表面,称为前表面。另一方面,在成像设备的各个表面之中,面对拍摄所述对象的图像的用户的表面,即与前表面相对的表面,称为后表面。在成像设备的各个表面之中,当用户拍摄对象的图像时位于上侧的表面和位于下侧的表面分别称为上表面和下表面。 
图2A是表示成像设备的前表面的示例外部结构的透视图,图2B是表示成像设备的后表面的示例外部结构的透视图。 
成像设备的前表面可利用透镜盖47盖住。图2A表示在前表面的透镜盖47向下滑动并打开之后的状态。如图2A所示,包含在透 镜单元11中的成像透镜45和AF照明器46按从右至左方向以此顺序设置于已移开透镜盖47的上前部分。触摸面板28设置于透镜盖47盖住的下前部分。具体地,触摸面板28所在的部分是成像设备的中央部分或其附近,即当用户拍摄对象时成像设备不被用户握住的部分。 
AF照明器46还用作自拍灯。在成像设备的上表面,按照图2A从左至右的方向依次设置了变焦杆(TELE/WIDE)41、快门按钮42、重放按钮43和电源按钮44。变焦杆41、快门按钮42、重放按钮43和电源按钮44是图1示出的操作单元24的部件。 
如图2B所示,触摸屏18设置在成像设备的后表面。 
由于触摸屏18如此设置在成像设备的后表面,所以用户在拍摄对象时能够利用触摸屏18操作GUI(图形用户界面),同时成像设备的前表面仍面对对象。 
在本实施例中,例如,能够利用触摸屏18通过GUI来执行附加信息显示操作的操作。 
参照图3A至图3E来描述本实施例的附加信息显示操作的第一例子。 
图3A表示触摸屏18显示任意捕捉或记录图像的状态。在下面的描述中,在触摸屏18显示捕捉图像表达为再现捕捉图像。下面的描述集中于再现捕捉图像。需要注意后面将要描述的与附加信息显示操作基本相同的操作能够应用于记录图像。不仅第一例子如此,在其它例子中也同样适用。 
在图3A示出的状态,当用户的手指f1触摸所述触摸屏18再现的捕捉图像的右下区域时,触摸屏18显示的状态变为图3B示出的状态。也就是说,触摸屏18显示的状态,具体地,右下区域的显示的状态以下面方式改变:捕捉图像的区域51如图3B所示卷起。此后捕捉图像中明显卷起的区域51称为附加信息访问入口51。 
显示附加信息访问入口51的成像设备能够使用户自然感觉到,例如“我想对卷起部分做点什么”或“在卡片后侧可能有什么东西”。 
附加信息访问入口51的显示形式不限于图3B示出的形式,也就是说,卷起形式。例如,包含消息“也看看后侧”的图像可用作附加信息访问入口51。 
在如图3B所示的触摸屏18显示的状态下,用户用手指f1触摸附加信息访问入口51,如图3C所示。在手指f1保持触摸所述触摸屏18的同时,用户沿预定方向从附加信息访问入口51把手指f1移动预定距离。此后,上述动作称为追踪操作。 
当用户在图3C示出的状态下沿基本水平的方向执行追踪操作时,触摸屏18显示的状态变为图3D示出的状态。 
也就是说,CPU 23控制数字信号处理器15在手指f1追踪路径时改变捕捉图像尺寸减小的比率,并在触摸屏18连续显示尺寸减小的图像。以这种方法,触摸屏18显示运动图像,就好像用户翻转单一卡片(该卡片是捕捉图像),如图3D所示。 
替换地,可以使用动画处理来表示尺寸正以变化比率减小的图像,也就是说,显然用户正在翻转的单一卡片(捕捉图像)。 
CPU 23执行的处理以类似方式在稍后将要描述的其它GUI操作执行。也就是说,在下述描述中当运动图像显示在触摸屏18上时,运动图像产生处理或动画处理被适当执行,但将省略对它们的描述。 
当在图3D示出的显示状态下沿至少固定距离执行追踪操作时,触摸屏18显示的状态变为显示关于捕捉图像的附加信息的状态,如图3E所示。以下,具有被显示的捕捉图像的附加信息的图像称为附加信息图像。如上所述,当把显示在触摸屏的捕捉图像看作单一卡片(照片)时,模拟该卡片的背面的图像是附加信息图像。也就是说,在实际生活中,用户经常在卡片后侧写与卡片(照片)关联的附加信息。模拟后侧的图像是附加信息图像。实际生活中,写在卡片后侧的附加信息可根据用户而不同,也就是说,可以是任意信息,包含在附加信息图像中的附加信息不限于特定信息,可以是任意信息。 
图3E示出例子中的附加信息图像包含拍摄捕捉图像的日期和时间61、文件大小62、图像分辨率63和位置信息64作为附加信息。 
位置信息64表示拍摄捕捉图像的位置。位置信息64的显示形式不限于特定形式。位置信息64可以以文本形式显示或以地图形式显示,如图3E所示。 
上述附加信息,即拍摄捕捉图像的日期和时间61、文件大小62、图像分辨率63和位置信息64以及其它信息,指示当拍摄捕捉图像时的各种环境和记录条件,并与存储前的捕捉图像数据相关。因此,以下,上述附加信息统一称为成像条件信息。 
成像条件信息是,当捕捉图像打印到卡片上(纸媒体的一面)时用户能够在卡片后侧(纸媒体的背面)写下的内容。 
换句话说,在捕捉图像打印到纸媒体上之后,上述成像条件信息一般被写在纸媒体的背面。相反,在本实施例中,成像条件信息被包含于与捕捉图像相关的附加信息图像中,而不必把捕捉图像打印到纸媒体上。因此,仅通过在成像设备的触摸屏18上执行追踪操作,用户就能够在触摸屏18显示附加信息图像并在视觉上识别成像条件信息,就好像用户翻动卡片(捕捉图像)并观看卡片的背面。 
需要注意,在触摸屏18显示附加信息图像意味着用户能够操作附加信息图像。 
例如,因此还可以以这样方式产生附加信息图像:当对位置信息64执行预定操作时,成像设备执行预定功能。 
例如,如图3E所示,当以地图形式显示位置信息64并且指定地图的预定位置时,成像设备可被指定为执行这样的功能:存储关于该指定位置的信息作为周边信息。替换地,当显示范围改变时,成像设备可被指定为执行这样的功能:改变附加信息图像中显示的地图范围。 
例如,附加信息图像可还包含例如符号(诸如,图标和软件按钮),所述符号允许执行各种操作。具体地,例如,垃圾图标65、打印机图标66和服务器图标67包含于图3E示出例子的附加信息图像中。 
垃圾图标65指示成像设备执行删除捕捉图像的功能。也就是 说,用户通过用手指f1对垃圾图标65执行预定操作能够删除与附加信息图像对应的捕捉图像。 
打印机图标66指示成像设备执行打印捕捉图像的功能。也就是说,用户通过用手指f1对打印机图标66执行预定操作能够打印与附加信息图像对应的捕捉图像。 
服务器图标67指示成像设备执行把捕捉图像上载到网络上的服务器的功能。也就是说,用户通过用手指f1对服务器图标67执行预定操作能够把与附加信息图像对应的捕捉图像上载到网络的服务器。 
附加信息图像显示的信息可以是在成像时与捕捉图像关联的信息或用户任意输入的信息。 
通过执行参照图3A至图3E描述的示例操作(也就是说,本实施例的附加信息显示操作的第一例子的操作),用户能够有与好像用户翻动照片(本实施例中作为捕捉图像的卡片的正面)并观看后侧(本实施例中作为附加信息的卡片的背面)的备忘录获得的感觉类似的感觉。 
在以上描述中,追踪操作的起点假定为触摸屏18的右下区域,如图3A至图3E的例子所示。然而,追踪操作的起点不限于图3A至图3E的例子的情况。例如,触摸屏18的四个角之一能够用作追踪操作的开始区域。 
下面将描述图1示出的成像设备执行的处理,图1示出的成像设备执行处理以便执行参照图3A至图3E描述的示例操作,即本实施例的附加信息显示操作的第一例子的操作。以下,为了执行本实施例的附加信息显示操作而由成像设备执行的处理称为附加信息显示处理。特别地,为了执行本实施例的附加信息显示操作的第K例子(K是大于或等于1的整数)的操作而执行的附加信息显示处理称为第K附加信息显示处理。 
图4是描述第一附加信息显示处理的例子的流程图。 
在成像设备动作的各个状态之中,在触摸屏18再现捕捉图像的状态,即用户能够观看捕捉图像的状态称为捕捉图像再现状态。假定当成像设备动作的状态变为捕捉图像再现状态时,启动第一附加信息 显示处理。另外,第一附加信息显示处理不仅在流程图描述的处理正常完成时强行终止,还在成像设备动作的状态从捕捉图像再现状态变为另一状态时、或正在再现的捕捉图像变为另一图像时强行终止。上述假定类似地应用于稍后描述的第二至第五附加信息显示处理。 
在步骤S1,CPU 23控制数字信号处理器15和其它适当部件产生与正在再现的捕捉图像对应的附加信息图像。也就是说,获取包含在附加信息图像中的附加信息。 
附加信息图像仅需要在启动步骤S9的处理之前产生。也就是说,特别地,产生附加信息图像的时间不必是执行步骤S1的时间。 
在步骤S2,CPU 23判断触摸屏18的任何区域是否被触摸。 
当触摸屏18的区域都没有被触摸时,步骤S2的判断为NO,控制返回至步骤S2的处理。也就是说,重复步骤S2的判断处理,直到触摸屏18的任何区域被触摸。 
其后,当触摸屏18的任何区域被触摸时,步骤S2的判断为YES,控制前进至步骤S3的处理。 
在步骤S3,CPU 23判断触摸位置是否是触摸屏18的四个角之一。 
例如,当手指f1如图3A所示触摸所述触摸屏18的任何区域时,形成触摸屏18的触摸面板16把坐标信号输入给CPU 23。 
因此,当坐标信号输入到CPU 23时,CPU 23判断步骤S2的处理结果为YES并从坐标信号中获得触摸位置(触摸屏18的坐标)。 
当获得的触摸位置不是触摸屏18的四个角中的任何一个时,步骤S3的判断为NO,控制返回至步骤S2的处理。其后,重复步骤S2的处理和后续处理。 
另一方面,当获得的触摸位置是触摸屏18的四个角中的任何一个时,步骤S3的判断为YES,控制前进至步骤S4的处理。 
在步骤S4,CPU 23判断附加信息访问入口51是否显示在触摸屏18。 
当没有显示附加信息访问入口51时,步骤S4的判断为NO,控 制前进至步骤S10的处理。 
在步骤S10,CPU 23控制数字信号处理器15在触摸屏18显示附加信息访问入口51。附加信息访问入口51显示在触摸屏18上包含触摸位置的区域中,也就是说,显示于触摸屏18的四个角中的任何一角。例如,当如图3A所示手指f1触摸所述触摸屏18的四个角中的右下角时,即当触摸位置是右下区域时,附加信息访问入口51如图3B所示显示在右下区域。 
然后,控制返回至步骤S2的处理,重复步骤S2的处理和后续处理。在这种状态下,当手指f1保持触摸附加信息访问入口51时,步骤S2、S3和S4的处理判断结果全部是YES,并且控制前进至步骤S5的处理。 
在步骤S5,CPU 23判断是否已经执行从触摸屏18的附加信息访问入口51开始的追踪操作。 
例如,在图3C示出的状态下,也就是说,当手指f1触摸附加信息访问入口51时,判断在触摸屏18上是否已经执行基本向左的追踪操作。 
通过使用CPU 23监测来自组成触摸屏18的触摸面板16的坐标信号,能够判断是否正在执行追踪操作。也就是说,CPU 23通过使用时间序列坐标信号能够识别手指f1的路径。然后,CPU 23基于识别结果检测是否正在执行追踪操作。 
因此,当CPU 23从手指f1的路径的识别结果中没有检测到追踪操作时,步骤S5的判断为NO,并且控制返回至步骤S5中的处理。然后,重复步骤S5的处理和后续处理。也就是说,重复步骤S5的判断处理,直到检测到追踪操作。 
其后,当CPU 23检查手指f1的路径的识别结果并检测从附加信息访问入口51开始的追踪操作时,步骤S5的判断为YES,并且控制前进至步骤S6的处理。 
在步骤S6,CPU 23响应于追踪操作显示卷起的捕捉图像。具体地,例如,CPU 23控制数字信号处理器15如图3D所示根据手指f1 的路径在水平方向缩小捕捉图像,并在触摸屏18显示缩小图像。替换地,可使用动画处理来表示卷起的捕捉图像。然后,控制前进至步骤S7的处理。 
在步骤S7,CPU 23判断手指f1是否已经从触摸屏18放开。也就是说,追踪操作定义为这样的操作:保持手指f1和触摸屏18之间触摸的情况下,手指f1在触摸屏18移动。因此,当用户从触摸屏18放开手指f1时,追踪操作完成。当不再从组成触摸屏18的触摸面板16输入坐标信号时,CPU 23能够判断手指f1已经放开。 
只要CPU 23继续接收坐标信号,CPU 23就判断步骤S7的处理的结果为NO,并把控制返还给步骤S7的处理。也就是说,只要追踪操作继续,就重复步骤S7的循环处理。 
其后,当不再输入坐标信号,也就是说追踪操作完成时,步骤S7的判断为YES,并且控制前进至步骤S8的处理。 
在步骤S8,CPU 23判断从附加信息访问入口51到放开位置的距离是否大于或等于固定值。 
当从附加信息访问入口51到放开位置的距离大于或等于所述固定值时,步骤S8的判断为YES,并且控制前进至步骤S9。 
在步骤S9,CPU 23在触摸屏118显示附加信息图像。结果,触摸屏118上的显示状态变为,例如图3E示出的状态。到此,第一附加信息显示处理完成。 
另一方面,当从附加信息访问入口51到放开位置的距离小于所述固定值时,步骤S8的判断为NO,并且控制前进至步骤S11的处理。 
在步骤S11,CPU 23再次再现并显示捕捉图像。到此,第一附加信息显示处理完成。 
在图3E示出的显示状态下,也就是说,当附加信息图像显示在触摸屏18时,通过执行与第一附加信息显示处理相同的处理,CPU23能够把触摸屏18的显示从附加信息图像切换到捕捉图像,也就是说,CPU 23能够把触摸屏18的显示改回到图3A示出的显示状态。 
已参照图3A至图3E描述了本实施例的附加信息显示操作的第一例子。已参照图4示出的流程图描述了第一例子的第一附加信息显示处理的例子。 
将参照图5A至图5C描述本实施例的附加信息显示操作的第二例子。随后将参照图6示出的流程图描述第二例子的第二附加信息显示处理的例子。 
图5A表示触摸屏18显示任意捕捉图像的状态。 
在图5A示出的状态下,当用户手指f1触摸所述触摸屏18再现的捕捉图像的左侧区域时,触摸屏18的显示变为图5B示出的状态。也就是说,再现图像以这种方式显示在触摸屏18:触摸区域环绕捕捉图像的垂直轴向后侧旋转,如图5B所示。 
需要注意,在CPU 23检测到用户手指f1的触摸之前过去的时间不限于特定值,但优选地至少是固定值以防止用户的错误操作。 
当图5B示出的显示状态下手指f1的触摸继续时,触摸屏18的显示状态从图5B示出的显示状态变为图5C示出的显示状态。也就是说,附加信息图像显示在触摸屏18上。 
尽管参照在图5A至图5C中手指f1触摸左侧区域的情况进行了描述,但手指f1可触摸右侧区域。这种情况下,触摸屏的显示以这种方式产生:旋转方向与图5B的旋转方向相反。 
另外,手指f1触摸的区域不限于特定区域,手指f1可触摸所述触摸屏18的上侧或下侧区域。这种情况下,虽然没有示出,但捕捉图像以这种方式显示在触摸屏18:触摸的区域环绕捕捉图像的水平轴向后侧旋转。 
图6是参照图5A至图5C描述的附加信息显示操作的第二例子的附加信息显示处理,也就是说,第二附加信息显示处理例子的流程图。 
在步骤S21,CPU 23控制数字信号处理器15和其它适当部件产生与正在再现的捕捉图像对应的附加信息图像。也就是说,获取被包含在附加信息图像中的附加信息。 
附加信息图像仅需要在启动步骤S25的处理之前产生。也就是说,特别地,产生附加信息图像的时间不必是执行步骤S21的时间。 
在步骤S22,CPU 23判断手指f1是否对触摸屏18触摸了固定时间。 
也就是说,当用户手指f1触摸所述触摸屏18的任何区域时,组成触摸屏18的触摸面板16把坐标信号输入给CPU 23。 
当没有坐标信号输入到CPU 23时,步骤S22的判断为NO,控制返回至步骤S22的处理。即使当坐标信号被输入、但触摸没有持续所述固定时段时,步骤S22的判断也为NO,控制返回至步骤S22的处理。也就是说,重复步骤S22的判断处理,直到CPU 23持续接收坐标信号达到所述固定时段。 
其后,当CPU 23持续接收坐标信号至所述固定时段时,步骤S22的判断为YES,控制前进至步骤S23的处理。 
在步骤S23,CPU 23判断触摸的区域是否为触摸屏18的右侧区域或左侧区域。需要注意,右侧区域和左侧区域的每一个区域具有任意的预设宽度。 
当触摸区域不是右侧区域或左侧区域而是任何其它区域时,步骤S23的判断为NO,控制返回至步骤S22的处理。然后,重复步骤S22的处理和后续处理。 
另一方面,当触摸区域是右侧区域或左侧区域时,步骤S23的判断为YES,控制前进至步骤S24的处理。 
如上所述,特别地,步骤S23的处理判断为YES的触摸区域不必是图6的例子的那些触摸区域(即,左侧区域或右侧区域),可以是任意区域。然而,优选地,触摸区域是当在后面描述的步骤S24的处理中旋转并显示捕捉图像时不会使用户感觉奇怪的区域。在这个意义上,除了右侧区域或左侧区域,优选地,触摸区域是上侧区域或下侧区域。 
在步骤S24,CPU 23旋转并显示捕捉图像。具体地,例如,CPU 23控制数字信号处理器15以这样方式产生在触摸屏18显示的 运动图像:已被触摸所述固定时段的区域向内侧旋转,如图5B所示。随后,控制前进至步骤S25的处理。 
在步骤S25,CPU 23在触摸屏18显示附加信息图像。结果,例如,触摸屏18的显示状态变为图5C示出的状态。到此,第二附加信息显示处理完成。 
在图5C示出的显示状态下,也就是说,当附加信息图像显示在触摸屏18时,通过执行与第二附加信息显示处理相同的处理,CPU23能够把触摸屏18的显示从附加信息图像切换到捕捉图像,也就是说,CPU 23能够把触摸屏18的显示改回到图5A示出的显示状态。 
已参照图5A至图5C描述了本实施例的附加信息显示操作的第二例子。已参照图6示出的流程图描述了第二例子的第二附加信息显示处理的例子。 
将参照图7A至图7C描述本实施例的附加信息显示操作的第三例子。随后将参照图8示出的流程图描述第三例子的第三附加信息显示处理的例子。 
上述第一例子和第二例子中,CPU 23基于从组成位于成像设备后侧的触摸屏18的触摸面板16输入的坐标信号判断手指f1是否触摸所述触摸面板16。 
相反,在第三例子中,CPU 23基于从位于成像设备前侧的触摸面板28输入的坐标信号判断手指f1是否触摸所述触摸面板28。 
图7A表示用户双手握住成像设备并且触摸屏18显示任意捕捉图像的状态。 
图7B表示在图7A示出的状态下成像设备前侧的示例性外部结构。在第三例子中,假定:用户把拇指放在成像设备后侧并且除拇指以外的其它四指放在成像设备前侧,即成像设备夹在拇指和其它四指之间,以这种方式,用户握住并操作成像设备。 
在图7B,用户用手指f3触摸所述触摸面板28。在CPU 23检测到用户手指f3的触摸之前过去的时间不限于特定值。然而,在下面的描述中,假定:在从触摸面板28输入坐标信号之后,CPU 23立刻 检测到手指f3的触摸。 
用于触摸所述触摸面板28的手指不限于图7B示出的手指f3。也就是说,除拇指以外的任何手指可以触摸所述触摸面板28。在下面描述中,手指f3触摸所述触摸面板28以简化描述。 
尽管在图2B和图7B示出的例子中,触摸面板28设置于成像设备的前表面的中心附近,但特别地,触摸面板28不必设置于中心附近。触摸面板28甚至可以设置于成像设备的侧面。然而,如上所述,当假定如图7A和图7B所示用户握住成像设备时,优选地,触摸面板28设置于图7B示出的位置以防止错误的操作。也就是说,触摸面板28优选地设置于当用户握住成像设备时用户的任何手指不容易触摸到触摸面板28的位置,即,用户两手之间的位置。 
当手指f3触摸所述触摸面板28时,触摸屏18的显示状态从图7A示出的状态变为图7C示出的状态。也就是说,附加信息图像显示在触摸屏18。 
图8是表示参照图7A至图7C描述的附加信息显示操作的第三例子的附加信息显示处理,也就是说,第三附加信息显示处理例子的流程图。 
在步骤S31,CPU 23控制数字信号处理器15和其它适当部件产生与正在再现的捕捉图像对应的附加信息图像。也就是说,获取被包含在附加信息图像中的附加信息。 
附加信息图像仅需要在启动步骤S33的处理之前产生。也就是说,特别地,产生附加信息图像的时间不必是执行步骤S31的时间。 
在步骤S32,CPU 23判断手指f3是否触摸到成像设备前侧的触摸面板28。 
也就是说,当用户手指f3触摸所述触摸面板28的任何区域时,触摸面板28把坐标信号输入给CPU 23。 
当没有坐标信号输入到CPU 23时,步骤S32的判断为NO,控制返回至步骤S32的处理。也就是说,重复步骤S32的判断处理,直到输入坐标信号。 
其后,当输入坐标信号时,步骤S32的判断为YES,控制前进至步骤S33的处理。 
在步骤S33,CPU 23在触摸屏18显示附加信息图像。结果,例如,触摸屏18的显示状态变为图7C示出的状态。到此,第三附加信息显示处理完成。 
在图7C示出的显示状态下,也就是说,当附加信息图像显示在触摸屏18时,通过执行与第三附加信息显示处理相同的处理,CPU23能够把触摸屏18的显示从附加信息图像切换到捕捉图像,也就是说,CPU 23能够把触摸屏18的显示改回到图7A示出的显示状态。 
已参照图7A至图7C描述了本实施例的附加信息显示操作的第三例子。已参照图8示出的流程图描述了第三例子的第三附加信息显示处理的例子。 
将参照图9A和图9B描述本实施例的附加信息显示操作的第四例子。随后将参照图10示出的流程图描述第四例子的第四附加信息显示处理的例子。 
参照使用设置于成像设备后侧的触摸屏18或设置于成像设备前侧的触摸面板28的附加信息显示操作描述了第一至第三例子。具体地,参照用户用手指f1或f3触摸所述触摸屏18或触摸面板28以显示附加信息图像的附加信息显示操作描述了第一至第三例子。 
相反,将参照使用成像设备中内置的陀螺仪(gyroscopic)传感器以显示附加信息图像的附加信息显示操作描述第四例子。陀螺仪传感器能够检测指示成像设备的倾斜的信息,例如,速度、角度、角速度、加速度和磁性。在下面描述中,陀螺仪传感器检测的信息统称为倾斜信息。 
在下面描述中,具有内置陀螺仪传感器的成像设备具体称为带有陀螺仪传感器的成像设备。虽然在本实施例没有示出,但带有陀螺仪传感器的成像设备基本具有图1示出的例子结构,并且还包括连接到CPU 23的陀螺仪传感器。实际上,带有陀螺仪传感器的成像设备不需要触摸面板16和触摸面板28。 
如图9A所示,用户在水平或垂直方向把带有陀螺仪传感器的成像设备旋转360度。旋转操作使触摸屏18的显示状态变为图9B示出的状态。也就是说,附加信息图像显示在触摸屏18。 
在图9B示出的显示状态下,也就是说,当附加信息图像显示在触摸屏18时,用户能够在水平或垂直方向把带有陀螺仪传感器的成像设备旋转360度。旋转操作把触摸屏18的显示从附加信息图像切换到捕捉图像。 
也就是说,在水平或垂直方向把带有陀螺仪传感器的成像设备旋转360度的操作把触摸屏18的显示从附加信息图像切换到捕捉图像、或从捕捉图像切换到附加信息图像。 
图10是表示参照图9A和图9B描述的附加信息显示操作的第四例子的附加信息显示处理,也就是说,第四附加信息显示处理例子的流程图。 
在步骤S51,CPU 23控制数字信号处理器15和其它适当部件产生与正在再现的捕捉图像对应的附加信息图像。也就是说,获取被包含在附加信息图像中的附加信息。 
附加信息图像仅需要在启动步骤S55的处理之前产生。也就是说,特别地,产生附加信息图像的时间不必是执行步骤S51的时间。 
在步骤S52,CPU 23判断是否检测到带有陀螺仪传感器的成像设备的倾斜。 
也就是说,当带有陀螺仪传感器的成像设备倾斜时,陀螺仪传感器把倾斜信息输入给CPU 23。 
因此,除非陀螺仪传感器输入倾斜信息,否则步骤S52的判断为NO,控制返回至步骤S52的处理。也就是说,重复步骤S52的判断处理,直到陀螺仪传感器输入倾斜信息。 
其后,当陀螺仪传感器输入倾斜信息时,步骤S52的判断为YES,控制前进至步骤S53的处理。 
在步骤S53,CPU 23判断带有陀螺仪传感器的成像设备是否已从原始位置在水平或垂直方向旋转360度。这里的原始位置指的是在 用户使带有陀螺仪传感器的成像设备倾斜之前带有陀螺仪传感器的成像设备的姿态。也就是说,原始位置是用户以这种方式握住的成像设备的姿态:用户面向触摸屏18(成像设备的后侧)。 
在带有陀螺仪传感器的成像设备的旋转期间,带有陀螺仪传感器的成像设备的旋转角度小于360度。因此,这种情况下,步骤S53的判断为NO,控制前进至步骤S57的处理。 
在步骤S57,CPU 23判断自CPU 23检测到带有陀螺仪传感器的成像设备的倾斜以来是否已过去固定时段。 
当已过去所述固定时段时,步骤S57的判断为YES,第四附加信息显示处理结束。 
也就是说,用户应该能够在大约几秒内把带有陀螺仪传感器的成像设备旋转360度。当带有陀螺仪传感器的成像设备在已过去所述固定时段(例如,大约10秒)之后还没有旋转360度时,判断用户没有想要旋转成像设备,CPU 23结束第四附加信息显示处理。 
当尚未过去所述固定时段时,判断用户仍想要旋转成像设备。步骤S57的判断为NO,控制返回至步骤S52的处理。 
也就是说,如果尚未过去所述固定时段,并且用户正在水平或垂直方向把带有陀螺仪传感器的成像设备旋转360度,重复包括步骤S52的YES、步骤S53的NO和步骤S57的NO的循环处理。 
其后,当带有陀螺仪传感器的成像设备在过去所述固定时段之前已旋转360度时,步骤S53的判断为YES,控制前进至步骤S54的处理。 
在步骤S54,CPU 23判断触摸屏18显示的内容是否为捕捉图像。 
当触摸屏18显示的内容是捕捉图像时,步骤S54的判断为YES,控制前进至步骤S55的处理。在步骤S55,CPU 23控制数字信号处理器15在触摸屏18显示附加信息图像。也就是说,在水平或垂直方向把带有陀螺仪传感器的成像设备旋转360度的操作把触摸屏18的显示从捕捉图像切换到附加信息图像。到此,第四附加信息显 示处理完成。其后,当重新开始第四附加信息显示处理时,步骤S56的处理(将在后面描述)把触摸屏18的显示从附加信息图像切换到捕捉图像。 
另一方面,触摸屏18显示的内容不是捕捉图像而是附加信息图像时,步骤S54的判断为NO,控制前进至步骤S56的处理。在步骤S56,CPU 23控制数字信号处理器15在触摸屏18显示捕捉图像。也就是说,在水平或垂直方向把带有陀螺仪传感器的成像设备旋转360度的操作把触摸屏18的显示从附加信息图像切换到捕捉图像。到此,第四附加信息显示处理完成。其后,当重新开始第四附加信息显示处理时,步骤S55的处理(前面已经描述)把触摸屏18的显示从捕捉图像切换到附加信息图像。 
已参照图9A和图9B描述了本实施例的附加信息显示操作的第四例子。已参照图10示出的流程图描述了第四例子的第四附加信息显示处理的例子。 
将参照图11A至图11C描述本实施例的附加信息显示操作的第五例子。随后将参照图12示出的流程图描述第五例子的第五附加信息显示处理的例子。 
在第五例子中,如在第四例子的情况一样,带有陀螺仪传感器的成像设备用作成像设备。也就是说,第五例子在以下方面与第四例子相同:陀螺仪传感器检测成像设备的倾斜,基于检测结果显示附加信息图像。但第五例子的上述操作以与第四例子不同的方式执行。 
也就是说,在第四例子中,通过把带有陀螺仪传感器的成像设备旋转360度来显示附加信息图像。相反,在第五例子中,通过下述方式显示附加信息图像:把带有陀螺仪传感器的成像设备旋转180度或90度,然后再把带有陀螺仪传感器的成像设备沿相反方向旋转180度或90度,即把带有陀螺仪传感器的成像设备放回原始位置。 
图11A表示触摸屏18显示任意捕捉图像的状态。 
图11B的左侧部分表示用户已经把带有陀螺仪传感器的成像设备从图11A示出的状态旋转180度的状态。 
把如图11B的左侧部分所示设置的带有陀螺仪传感器的成像设备再次放回到图11A示出的状态的操作使触摸屏18的显示状态从图11A示出的状态变为图11C示出的状态。也就是说,触摸屏18显示附加信息图像。 
图11B的右侧部分表示用户已经把带有陀螺仪传感器的成像设备从图11A示出的状态旋转90度的状态。 
把如图11B的右侧部分所示设置的带有陀螺仪传感器的成像设备放回至图11A示出的状态的操作使触摸屏18的显示状态从图11A示出的状态变为图11C示出的状态。也就是说,触摸屏18显示附加信息图像。 
在第五例子以及第四例子中,当触摸屏18的显示状态为图11C示出的状态时,也就是说,当显示附加信息图像时,用户能够执行上述相同的旋转操作,即执行180或90度的旋转,并随后以相反方向执行180或90度的旋转。这个旋转操作使触摸屏18的显示状态从图11C示出的状态变为图11A示出的状态。也就是说,触摸屏18显示捕捉图像。 
图12是表示参照图11A至图11C描述的附加信息显示操作的第五例子的附加信息显示处理,也就是说,第五附加信息显示处理例子的流程图。 
在步骤S71,CPU 23控制数字信号处理器15和其它适当部件产生与正在再现的捕捉图像对应的附加信息图像。也就是说,获取被包含在附加信息图像中的附加信息。 
附加信息图像仅需要在启动步骤S76的处理之前产生。也就是说,特别地,产生附加信息图像的时间不必是执行步骤S71的时间。 
在步骤S72,CPU 23判断是否检测到带有陀螺仪传感器的成像设备的倾斜。 
也就是说,当带有陀螺仪传感器的成像设备倾斜时,陀螺仪传感器把倾斜信息输入给CPU 23。 
因此,除非陀螺仪传感器输入倾斜信息,否则步骤S72的判断为 NO,控制返回至步骤S72的处理。也就是说,重复步骤S72的判断处理,直到陀螺仪传感器输入倾斜信息。 
其后,当陀螺仪传感器输入倾斜信息时,步骤S72的判断为YES,控制前进至步骤S73的处理。 
在步骤S73,CPU 23判断带有陀螺仪传感器的成像设备是否已从原始位置在水平或垂直方向旋转180或90度。这里的原始位置指在用户倾斜带有陀螺仪传感器的成像设备之前带有陀螺仪传感器的成像设备的姿态。也就是说,原始位置是用户以这种方式握住的成像设备的姿态:用户面向触摸屏18(成像设备的后侧)。 
在带有陀螺仪传感器的成像设备的旋转期间,与图10示出的第四附加信息显示处理的情况一样,步骤S73的判断为NO,控制前进至步骤S78的处理。 
在步骤S78,CPU 23判断自CPU 23检测到带有陀螺仪传感器的成像设备的倾斜以来是否已过去固定时段。 
当已过去所述固定时段时,步骤S78的判断为YES,第五附加信息显示处理结束。 
也就是说,用户应该能够在大约几秒内旋转带有陀螺仪传感器的成像设备。当带有陀螺仪传感器的成像设备在已过去所述固定时段(例如,大约10秒)之后还没有旋转时,判断用户没有想要旋转成像设备,CPU 23结束第五附加信息显示处理。 
当尚未过去所述固定时段时,判断用户仍想要旋转成像设备。步骤S78的判断为NO,控制返回至步骤S72的处理。 
也就是说,如果尚未过去所述固定时段,并且用户正在旋转带有陀螺仪传感器的成像设备,重复包括步骤S72的YES、步骤S73的NO和步骤S78的NO的循环处理。 
其后,当带有陀螺仪传感器的成像设备在过去所述固定时段之前已旋转180或90度时,步骤S73的判断为YES,控制前进至步骤S74的处理。 
根据第五附加信息显示操作,用户应该随后把带有陀螺仪传感器 的成像设备放回到原始位置,也就是说,用户应该以相反方向把带有陀螺仪传感器的成像设备旋转180或90度(以下,称为反向旋转操作)。 
在步骤S74,CPU 23判断带有陀螺仪传感器的成像设备是否已被放回到原始位置。也就是说,在步骤S74,CPU 23判断带有陀螺仪传感器的成像设备是否已在水平或垂直方向被反向旋转180或90度。 
当带有陀螺仪传感器的成像设备正被反向旋转时,与步骤S73的判断处理的情况一样,步骤S74的判断为NO,控制前进至步骤S78的处理。 
在步骤S78,CPU 23判断自CPU 23检测到带有陀螺仪传感器的成像设备的倾斜以来是否已过去所述固定时段。 
当已过去所述固定时段时,步骤S78的判断为YES,第五附加信息显示处理结束。 
另一方面,当尚未过去所述固定时段时,判断用户仍想要反向旋转成像设备。步骤S78的判断为NO,控制返回至步骤S72的处理。 
也就是说,如果尚未过去所述固定时段,并且用户正在反向旋转带有陀螺仪传感器的成像设备,重复包括步骤S72的YES、步骤S73的YES、步骤S74的NO和步骤S78的NO的循环处理。 
其后,当带有陀螺仪传感器的成像设备在过去所述固定时段之前已旋转180或90度时,步骤S74的判断为YES,控制前进至步骤S75的处理。 
在步骤S75,CPU 23判断触摸屏18显示的内容是否为捕捉图像。 
当触摸屏18显示的内容是捕捉图像时,步骤S75的判断为YES,控制前进至步骤S76的处理。在步骤S76,CPU 23控制数字信号处理器15在触摸屏18显示附加信息图像。也就是说,在水平或垂直方向把带有陀螺仪传感器的成像设备旋转180或90度并以相反方向把带有陀螺仪传感器的成像设备旋转相同量的操作把触摸屏18 的显示从捕捉图像切换到附加信息图像。到此,第五附加信息显示处理完成。其后,当重新开始第五附加信息显示处理时,步骤S77的处理(将在后面描述)把触摸屏18的显示从附加信息图像切换到捕捉图像。 
另一方面,当触摸屏18显示的内容不是捕捉图像而是附加信息图像时,步骤S75的判断为NO,控制前进至步骤S77的处理。在步骤S77,CPU 23控制数字信号处理器15在触摸屏18显示捕捉图像。也就是说,在水平或垂直方向把带有陀螺仪传感器的成像设备旋转180或90度并以相反方向把带有陀螺仪传感器的成像设备旋转相同量的操作把触摸屏18的显示从附加信息图像切换到捕捉图像。到此,第五附加信息显示处理完成。其后,当重新开始第五附加信息显示处理时,步骤S76的处理(前面已经描述)把触摸屏18的显示从捕捉图像切换到附加信息图像。 
已参照在触摸屏18显示与捕捉图像对应的附加信息图像的情况描述了附加信息显示操作的第一至第五例子。在第一至第五例子中,假定捕捉图像和附加信息图像具有一一对应的关系。也就是说,由于在第一至第五例子中模拟实际生活中的卡片,假定捕捉图像和附加信息图像是同一卡片的两面。 
然而,可以想到单个捕捉图像具有多个附加信息图像和关联图像。因此,优选地,用户能够对单个捕捉图像显示多条附加信息和关联图像。以下,这个操作称为附加信息/其它显示操作。 
将参照图13A至图13E来描述附加信息/其它显示操作的例子。下面的描述基于这样的假定:图13A至图13E示出例子的基本附加信息/其它显示操作与第二、第四和第五例子的附加信息显示操作相同。 
图13A表示触摸屏18显示任意捕捉图像的状态。 
图13B表示当触摸屏18具有图13A示出的显示状态时,通过虚拟地围绕垂直轴向左旋转触摸屏18,触摸屏18的显示状态变为显示作为多个附加信息图像之一的第一附加信息图像的状态。 
这里使用的围绕垂直轴虚拟向左旋转操作是这样的操作:执行该操作,好像捕捉图像围绕垂直轴向左旋转一样。第二、第四和第五例子的操作统称为围绕垂直轴虚拟向左旋转操作。 
也就是说,在第二实施例中,围绕垂直轴虚拟向左旋转操作是这样的操作:用户用手指f1对触摸屏18的左侧区域持续触摸固定时段。 
在第四实施例中,围绕垂直轴虚拟向左旋转操作是这样的操作:用户在水平方向围绕垂直轴把成像设备向左旋转360度。 
在第五实施例中,围绕垂直轴虚拟向左旋转操作是这样的操作:用户在水平方向围绕垂直轴把成像设备向左旋转180或90度,然后围绕垂直轴把成像设备反向向右旋转180或90度,以把成像设备放回到原始位置。 
图13C表示当触摸屏18具有图13B示出的显示状态时,通过进一步虚拟地围绕垂直轴向左旋转触摸屏18,触摸屏18的显示状态变为显示与第一附加信息图像不同的第二附加信息图像的状态。 
图13D表示当触摸屏18具有图13A示出的显示状态时,通过虚拟地围绕垂直轴向右旋转触摸屏18,触摸屏18的显示状态变为显示作为多个关联图像之一的第一关联图像的状态。 
这里使用的围绕垂直轴虚拟向右旋转操作是这样的操作:执行该操作,好像捕捉图像围绕垂直轴向右旋转一样。第二、第四和第五例子的操作统称为围绕垂直轴虚拟向右旋转操作。 
也就是说,在第二实施例中,围绕垂直轴虚拟向右旋转操作是这样的操作:用户用手指f1对触摸屏18的右侧区域持续触摸固定时段。 
在第四实施例中,围绕垂直轴虚拟向右旋转操作是这样的操作:用户在水平方向围绕垂直轴把成像设备向右旋转360度。 
在第五实施例中,围绕垂直轴虚拟向右旋转操作是这样的操作:用户在水平方向围绕垂直轴把成像设备向右旋转180或90度,然后围绕垂直轴把成像设备反向向左旋转180或90度,以把成像设备放 回到原始位置。 
图13E表示当触摸屏18具有图13D示出的显示状态时,通过进一步虚拟地围绕垂直轴向右旋转触摸屏18,触摸屏18的显示状态变为显示与第一关联图像不同的第二关联图像的状态。 
图13A至图13E示出附加信息/其它显示操作不特别限定于水平旋转操作,也可以是垂直旋转操作。这种情况下,图13A示出的捕捉图像受到围绕水平轴虚拟向上或向下旋转操作,由此,触摸屏18的显示状态变为显示多条附加信息和关联图像的状态。 
在图13A至图13E示出的例子中,通过执行围绕垂直轴向左旋转或围绕水平轴向上旋转来显示附加信息图像,通过执行围绕垂直轴向右旋转或围绕水平轴向下旋转来显示关联图像。然而,当然,通过各项操作显示的图像不限于以上例子的图像。 
上述一系列处理可通过硬件或软件来执行。 
这种情况下,上述一系列处理当然可以通过图1示出的成像设备执行,或者可通过例如图14示出的个人计算机执行。 
在图14,CPU 101根据记录在ROM(只读存储器)102中的程序或从存储单元108载入到RAM(随机存取存储器)103的程序执行各种处理。另外,RAM 103根据需要存储CPU 101执行各种处理所需的数据。 
CPU 101、ROM 102和RAM 103经总线104彼此连接。输入/输出接口105也连接到总线104。 
输入/输出接口105连接到:输入单元106,包括键盘、鼠标和其它部件;输出单元107;存储单元108,包括硬盘驱动器和其它部件;通信单元109,包括调制解调器、终端适配器和其它部件。通信单元109控制经网络(包括互联网)与其它设备(未示出)的通信。 
输入/输出接口105也根据需要连接到驱动器110,在驱动器110中,根据需要载入可移除介质111,诸如磁盘、光盘、磁光盘和半导体存储器。根据需要,从以上任一介质读取的计算机程序安装到存储单元108中。 
当通过软件执行一系列处理时,形成所述软件的程序经网络或通过任一记录介质安装到例如包括在专用硬件中的计算机或通过安装各种程序能够执行各种功能的通用个人计算机。 
如图1或图14所示,包含这种程序的记录介质不仅包括分发给用户以从设备体外部提供程序的可移除介质(封装介质)111(图14),诸如记录有程序的磁盘(包括软盘)、光盘(包括CD-ROM(压缩盘-只读存储器)和DVD(数字通用盘))、磁光盘(包括MD(小型盘))和半导体存储器;还包括图1示出的程序ROM 26、ROM 102、图14示出的存储单元108中所包含的硬盘和事先包括在设备体中并提供给用户其它部件并且记录有程序的其它部件。 
在本说明书中,描述记录在任何存储介质中的程序的步骤不仅包括按时间序列方式顺序执行的处理,还包括不必按时间序列方式执行而是同步或单独执行的处理。 
以上描述是参照以下情况进行的:应用本发明的信息处理设备控制显示操作的显示装置是液晶显示装置,具体地,是液晶显示面板17。本发明不仅可应用于液晶显示面板,还可应用于这样的显示装置:其中,在帧或场基础上指示显示操作(帧或场形成视频图像,每一个帧或场以下称为显示单元);形成单个显示单元的多个像素由显示元件形成;所述显示元件的至少一部分能够保持显示状态。以下,上述显示元件称为保持类型显示元件,具有保持类型显示元件形成的屏幕的显示装置称为保持类型显示装置。也就是说,液晶显示装置仅作为保持类型显示装置的示例,本发明可应用于任何保持类型显示装置。 
本发明不仅可应用于保持类型显示装置,还可应用于例如使用有机EL(有机发光)装置作为发光元件的平板、自照明显示装置。也就是说,本发明可应用于包括显示形成图像的多个像素的显示元件的任何显示装置。上述显示装置称为像素类型显示装置。像素类型显示装置中,特别地,单个像素不一定与单个显示元件相关联。 
换句话说,应用本发明的信息处理设备控制显示操作的显示装置 仅需要是能够执行上述一系列处理的显示装置。 
本申请包含与2008年7月31日提交给日本专利局的日本优先权专利申请JP 2008-197215公开的主题相关的主题,该专利申请的全部内容包含于此以资参考。 
本领域技术人员应该理解,在不脱离权利要求或其等同物的范围的情况下,可以根据设计的需要和其它因素做出各种变型、组合、子组合和替换。 

Claims (8)

1.一种信息处理设备,包括:
显示单元,显示图像;
操作输入接收单元,接收对显示单元执行的用户操作;
显示控制单元,在操作输入接收单元接收到预定操作时执行显示控制,所述显示控制允许显示单元的显示状态从第一显示状态和第二显示状态中的一个状态变为第一显示状态和第二显示状态中的另一状态,在第一显示状态中,图像被显示为卡片的正面,在第二显示状态中,包括与所述图像关联的一条或多条附加信息的附加信息图像被显示为卡片的背面,
其中显示控制单元执行下述控制作为显示控制:
当操作输入接收单元在第一显示状态下检测到用户手指触摸操作输入接收单元时,在与触摸位置对应的位置进一步显示附加信息访问入口作为访问所述附加信息的图像,以及
当操作输入接收单元检测到追踪操作时,显示单元的显示状态被强行转变,追踪操作被定义为在手指触摸操作输入接收单元的情况下用户把手指移动预定距离的操作,追踪操作从附加信息访问入口开始。
2.权利要求1所述的信息处理设备,
其中显示控制单元还执行下述控制作为显示控制:图像缩小的比率根据追踪操作中手指的路径而改变,被改变的图像被显示在显示单元上。
3.权利要求1所述的信息处理设备,
其中,显示控制单元执行下述控制作为显示控制:当操作输入接收单元在第一显示状态下检测到用户的手指对预定区域触摸了至少固定时段时,显示单元的显示状态被强行转变。
4.权利要求1所述的信息处理设备,
其中显示单元和操作输入接收单元设置于信息处理设备的各个表面之中的第一表面,
信息处理设备还包括具有触摸面板的触摸面板单元,该触摸面板设置于与第一表面相对一侧的第二表面,以及
显示控制单元执行下述控制作为显示控制:当触摸面板单元检测到用户用手指触摸所述触摸面板单元的预定区域时,显示单元的显示状态被强行转变。
5.权利要求1所述的信息处理设备,
还包括检测单元,用于检测信息处理设备的倾斜,
其中显示控制单元执行下述控制作为显示控制:当检测单元基于检测结果检测到用户把信息处理设备旋转360度时,显示单元的显示状态被强行转变。
6.权利要求1所述的信息处理设备,
还包括检测单元,用于检测信息处理设备的倾斜,
其中显示控制单元执行下述控制作为显示控制:当检测单元基于检测结果检测到用户执行把信息处理设备旋转180或90度的第一操作、并随后执行以相反方向把信息处理设备旋转180或90度的第二操作时,显示单元的显示状态被强行转变。
7.权利要求1所述的信息处理设备,
其中当显示单元的显示状态是第一显示状态时,显示控制单元在检测到所述预定操作之前,事先获取要被包含在附加信息图像中的所述附加信息。
8.一种用于信息处理设备的信息处理方法,所述信息处理设备包括显示单元和操作输入接收单元,显示单元具有如下两种显示状态,
第一显示状态,其中在显示单元上图像被显示为卡片的正面,以及
第二显示状态,其中在显示单元上包括与所述图像关联的一条或多条附加信息的附加信息图像被显示为卡片的背面,该方法包括下述步骤:
当检测到预定操作时,执行显示控制以把显示单元的显示状态从第一显示状态和第二显示状态中的一个状态变为第一显示状态和第二显示状态中的另一状态;
其中执行下述控制作为显示控制:
当操作输入接收单元在第一显示状态下检测到用户手指触摸操作输入接收单元时,在与触摸位置对应的位置进一步显示附加信息访问入口作为访问所述附加信息的图像,以及
当操作输入接收单元检测到追踪操作时,显示单元的显示状态被强行转变,追踪操作被定义为在手指触摸操作输入接收单元的情况下用户把手指移动预定距离的操作,追踪操作从附加信息访问入口开始。
CN2009101593959A 2008-07-31 2009-07-15 信息处理设备、方法 Expired - Fee Related CN101640762B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008-197215 2008-07-31
JP2008197215 2008-07-31
JP2008197215 2008-07-31

Publications (2)

Publication Number Publication Date
CN101640762A CN101640762A (zh) 2010-02-03
CN101640762B true CN101640762B (zh) 2012-03-21

Family

ID=40941595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101593959A Expired - Fee Related CN101640762B (zh) 2008-07-31 2009-07-15 信息处理设备、方法

Country Status (4)

Country Link
US (1) US8847977B2 (zh)
EP (1) EP2151747B1 (zh)
JP (1) JP5219929B2 (zh)
CN (1) CN101640762B (zh)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4088749B2 (ja) 2001-11-09 2008-05-21 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP5463739B2 (ja) 2009-06-03 2014-04-09 ソニー株式会社 撮像装置、画像処理方法及びプログラム
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP5371626B2 (ja) * 2009-08-18 2013-12-18 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9519356B2 (en) * 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
JP4976520B2 (ja) 2010-04-09 2012-07-18 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
JP5269851B2 (ja) * 2010-09-27 2013-08-21 富士フイルム株式会社 画像編集装置及びその画像編集方法並びにそのプログラム
TWI435597B (zh) * 2010-10-20 2014-04-21 Altek Corp 結合臉部特徵辨識之相片資訊顯示方法及其具有攝像功能之電子裝置
CN102455840A (zh) * 2010-10-20 2012-05-16 华晶科技股份有限公司 结合脸部特征辨识的相片资讯显示方法及其具有摄像功能的电子装置
JP5640680B2 (ja) * 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
US20120182288A1 (en) * 2011-01-18 2012-07-19 Sony Corporation Method and apparatus for information presentation
JP5806822B2 (ja) * 2011-02-24 2015-11-10 京セラ株式会社 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP5323111B2 (ja) * 2011-03-10 2013-10-23 シャープ株式会社 表示装置、表示方法、コンピュータプログラム及び記録媒体
US20120272180A1 (en) * 2011-04-20 2012-10-25 Nokia Corporation Method and apparatus for providing content flipping based on a scrolling operation
JPWO2013022087A1 (ja) * 2011-08-10 2015-03-05 株式会社ニコン 電子機器
CN102955642B (zh) * 2011-08-22 2017-04-19 联想(北京)有限公司 Widget显示方法及电子设备
JP5915053B2 (ja) * 2011-09-22 2016-05-11 カシオ計算機株式会社 情報生成装置、情報生成方法及びプログラム
JP6010303B2 (ja) * 2012-01-31 2016-10-19 株式会社ザクティ 画像再生装置
CN104254826A (zh) * 2012-02-27 2014-12-31 株式会社尼康 图像显示程序和图像显示装置
JP6132832B2 (ja) * 2012-03-26 2017-05-24 株式会社ザクティ 電子機器、関連情報表示方法及びプログラム
WO2013174293A1 (zh) * 2012-05-23 2013-11-28 Wang Hao 影像记录装置和影像记录方法
WO2013174294A1 (zh) * 2012-05-23 2013-11-28 Wang Hao 影像摄影装置和影像摄影方法
WO2013174287A1 (zh) * 2012-05-23 2013-11-28 Wang Hao 影像记录装置和影像记录方法
JP6213467B2 (ja) * 2012-06-29 2017-10-18 日本電気株式会社 端末装置、表示制御方法およびプログラム
US20140267094A1 (en) * 2013-03-13 2014-09-18 Microsoft Corporation Performing an action on a touch-enabled device based on a gesture
CN103188400A (zh) * 2013-03-27 2013-07-03 广东欧珀移动通信有限公司 一种手机上查看照片信息的方法
JP5693657B2 (ja) * 2013-05-16 2015-04-01 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
KR20150000632A (ko) * 2013-06-25 2015-01-05 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
KR102097639B1 (ko) * 2013-11-05 2020-04-06 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9292175B2 (en) 2013-11-08 2016-03-22 Minted, Llc Vendor website GUI for marketing greeting cards
JP6615456B2 (ja) * 2014-07-28 2019-12-04 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 検索結果を提供する方法及び装置
CN105630366A (zh) * 2014-10-31 2016-06-01 阿里巴巴集团控股有限公司 用于在屏幕显示设备上展示客体信息的方法及装置
US10251241B2 (en) * 2015-03-27 2019-04-02 Osram Sylvania Inc. Gesture-based control techniques for lighting systems
US9936138B2 (en) * 2015-07-29 2018-04-03 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
US11284003B2 (en) 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
CN105549879A (zh) * 2015-12-08 2016-05-04 联想(北京)有限公司 一种信息处理方法及电子设备
WO2018112928A1 (zh) * 2016-12-23 2018-06-28 北京金山安全软件有限公司 一种信息展示方法、装置及终端设备
JP7306111B2 (ja) * 2019-06-28 2023-07-11 セイコーエプソン株式会社 表示装置および表示制御プログラム
CN113467681A (zh) * 2021-06-30 2021-10-01 深圳集智数字科技有限公司 图片的翻转和显示方法、装置、电子设备及可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5463725A (en) * 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
US6115724A (en) * 1992-01-29 2000-09-05 Apple Computer, Inc. Method and apparatus for displaying a double-sided graphic image

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04280376A (ja) 1991-03-08 1992-10-06 Fujitsu Ltd 画像表示装置
JP3974948B2 (ja) 1994-10-07 2007-09-12 株式会社日立製作所 ページめくり表示方法および装置
JPH0981103A (ja) 1995-09-12 1997-03-28 Canon Inc 表示制御装置および表示制御方法
JPH1056610A (ja) * 1996-05-20 1998-02-24 Casio Comput Co Ltd 電子撮像装置
US6297838B1 (en) * 1997-08-29 2001-10-02 Xerox Corporation Spinning as a morpheme for a physical manipulatory grammar
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6788292B1 (en) * 1998-02-25 2004-09-07 Sharp Kabushiki Kaisha Display device
JP2000163193A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP2000242390A (ja) 1999-02-18 2000-09-08 Sony Corp 情報の表示方法及び、情報表示装置
JP4088749B2 (ja) 2001-11-09 2008-05-21 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2003216300A (ja) 2002-01-17 2003-07-31 Seiko Epson Corp 表示装置、表示装置の制御方法、プログラムおよび記録媒体
JP2003263144A (ja) 2002-03-11 2003-09-19 Toshiba Corp 情報処理装置および表示制御方法
US7502036B2 (en) * 2004-03-03 2009-03-10 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US20060092137A1 (en) 2004-10-27 2006-05-04 Branden Lee Portable electronic product
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
JP3865141B2 (ja) * 2005-06-15 2007-01-10 任天堂株式会社 情報処理プログラム及び情報処理装置
US7676767B2 (en) 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
JP4929630B2 (ja) 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
US20070146314A1 (en) * 2005-12-27 2007-06-28 Motorola, Inc. Method and apparatus for a user interface
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
JP4560554B2 (ja) * 2006-02-06 2010-10-13 株式会社クリエイティヴ・リンク 表示処理装置、表示処理方法、及びコンピュータプログラム
US20070247422A1 (en) * 2006-03-30 2007-10-25 Xuuk, Inc. Interaction techniques for flexible displays
US20070268246A1 (en) * 2006-05-17 2007-11-22 Edward Craig Hyatt Electronic equipment with screen pan and zoom functions using motion
US20080040692A1 (en) 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
EP1956811A3 (en) * 2007-02-06 2012-02-01 LG Electronics Inc. Mobile terminal and world time display method thereof
JP2008197215A (ja) 2007-02-09 2008-08-28 Sumitomo Chemical Co Ltd 酸素遮断膜形成用塗布液、及びそれを用いるカラーフィルターの製造方法
US20090235162A1 (en) 2008-03-11 2009-09-17 Disney Enterprises, Inc. Method and system for providing enhanced virtual books
JP4840474B2 (ja) 2008-08-11 2011-12-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2010054762A (ja) 2008-08-28 2010-03-11 Sony Corp 情報処理装置および方法、並びにプログラム
JP4984174B2 (ja) 2008-08-29 2012-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4720878B2 (ja) 2008-08-29 2011-07-13 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4811452B2 (ja) 2008-11-19 2011-11-09 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP4735995B2 (ja) 2008-12-04 2011-07-27 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5463739B2 (ja) 2009-06-03 2014-04-09 ソニー株式会社 撮像装置、画像処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6115724A (en) * 1992-01-29 2000-09-05 Apple Computer, Inc. Method and apparatus for displaying a double-sided graphic image
US5463725A (en) * 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material

Also Published As

Publication number Publication date
EP2151747A3 (en) 2014-03-05
JP5219929B2 (ja) 2013-06-26
US8847977B2 (en) 2014-09-30
EP2151747A2 (en) 2010-02-10
JP2010055599A (ja) 2010-03-11
EP2151747B1 (en) 2017-05-03
CN101640762A (zh) 2010-02-03
US20100026719A1 (en) 2010-02-04

Similar Documents

Publication Publication Date Title
CN101640762B (zh) 信息处理设备、方法
JP5406813B2 (ja) パノラマ画像表示装置およびパノラマ画像表示方法
RU2480938C2 (ru) Представление информации на основе ориентации экрана дисплея
CN102469242A (zh) 成像设备,成像方法和程序
US7791594B2 (en) Orientation based multiple mode mechanically vibrated touch screen display
JP4851412B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP4864295B2 (ja) 画像表示システム、画像表示装置およびプログラム
US20120032988A1 (en) Display control apparatus that displays list of images onto display unit, display control method, and storage medium storing control program therefor
CN1992803B (zh) 图像显示装置和拍照装置
CN102469261A (zh) 成像设备,成像显示控制方法和程序
JP5754074B2 (ja) 画像処理装置、画像処理方法およびプログラム
CA3114601A1 (en) A cloud-based system and method for creating a virtual tour
CN101676913A (zh) 图像检索装置、数字照相机以及图像检索方法
JP2006352183A (ja) ビデオカメラ
JP2009187426A (ja) 記録再生装置
JP6143678B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2011035774A (ja) 携帯型電子機器、制御方法、プログラム、撮像システム
JP6149862B2 (ja) 表示制御装置、表示制御システムおよび表示制御方法
EP3735631B1 (en) Devices, methods, and computer program for displaying user interfaces
KR102128955B1 (ko) 스핀 이미지 생성 방법 및 그 장치
JP2011170764A (ja) 表示制御装置及びその制御方法、プログラム並びに記憶媒体
JP2007322452A (ja) 画像表示装置およびその方法、並びに、記憶媒体
CN101453570A (zh) 数字拍摄设备、控制方法和存储程序的记录介质
KR101895865B1 (ko) 랜드스케이프 동영상 컨텐츠의 적응적 재생 시스템 및 재생방법
JP5646033B2 (ja) 画像表示装置および画像表示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120321

Termination date: 20150715

EXPY Termination of patent right or utility model