CN117170556A - 图像处理设备、图像处理方法和存储介质 - Google Patents

图像处理设备、图像处理方法和存储介质 Download PDF

Info

Publication number
CN117170556A
CN117170556A CN202310617881.0A CN202310617881A CN117170556A CN 117170556 A CN117170556 A CN 117170556A CN 202310617881 A CN202310617881 A CN 202310617881A CN 117170556 A CN117170556 A CN 117170556A
Authority
CN
China
Prior art keywords
image
thumbnail
thumbnail image
angle
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310617881.0A
Other languages
English (en)
Inventor
石井正俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN117170556A publication Critical patent/CN117170556A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供图像处理设备、图像处理方法和存储介质。该图像处理设备包括:图像获取单元,其被配置为获取被记录在图像文件中的具有第一视角的第一缩略图图像;图像生成单元,其被配置为生成具有与第一视角不同的第二视角的第二缩略图图像;图像设置单元,其被配置为根据用户所操作的光标是否位于画面上的缩略图显示区域中,来设置要显示在缩略图显示区域中的缩略图图像;以及显示单元,其被配置为在画面上的缩略图显示区域中显示图像设置单元所设置的缩略图图像,其中,在光标位于画面上的缩略图显示区域中的情况下,图像设置单元将第二缩略图图像设置为要显示在缩略图显示区域中的缩略图图像。

Description

图像处理设备、图像处理方法和存储介质
技术领域
本发明涉及用于处理显示器上所显示的缩略图图像的图像处理。
背景技术
传统上,视频透视头戴式显示器(video see-through head-mounted display,HMD)通过将计算机图形学(CG)图像叠加在通过拍摄实际被摄体所获取的真实图像(拍摄图像)上来生成显示图像,将该显示图像显示在诸如液晶显示器(LCD)等的显示元件上,并且通过显示光学系统将来自该显示元件的光引入观察者的眼睛中。为了容易地将拍摄图像和显示图像的位置进行匹配,通常,上述视频透视HMD拍摄图像所用的视角(下文中被称为“摄像视角”)比显示元件上所显示的图像的视角(下文中被称为“显示视角”)宽。此外,当观察者使用屏幕截图功能将所观察到的显示图像记录为图像文件时,通常,HMD使用屏幕截图功能将具有显示视角的显示图像无任何改变地记录为图像文件。因此,当之后在外部显示器上再现并观察被记录为图像文件的屏幕截图图像时,无法检查显示视角的周围环境。
关于上述视频透视HMD,日本特开2018-23026讨论了用于生成与HMD上所显示的显示图像相比具有更宽视角的图像的技术。根据日本特开2018-23026中所讨论的技术,可以在外部显示器上显示与显示图像相比具有更宽视角的图像。
发明内容
根据本发明的一个方面,一种图像处理设备,用于执行用于在画面上显示缩略图图像的处理,其包括:输入单元,其被配置为输入包括具有比所述缩略图图像的视角更宽的视角的主图像的图像文件;以及控制单元,其被配置为在光标位于所述画面上的缩略图显示区域中的情况下,执行用于在所述画面上显示所述主图像作为缩略图图像的控制。
从参考附图对示例性实施例的以下描述中,本发明的进一步特征将变得明显。
附图说明
图1是示出根据第一示例性实施例的图像显示系统(视频透视头戴式显示器(HMD)系统)的一般配置的示例的图。
图2是示出图1所示的HMD的内部配置的示例的图。
图3是示出图1所示的图像处理设备的系统配置的示例的框图。
图4是示出根据第一示例性实施例的图1和图3所示的图像处理设备的配置的示例的框图。
图5是示出根据第一示例性实施例的图3和图4所示的图像处理设备所执行的图像处理方法的处理示例的流程图。
图6A和图6B是示出根据第一示例性实施例的根据光标是否位于画面上的图像文件的缩略图显示区域中而改变的缩略图图像的显示方法的图。
图7A、图7B和图7C是示出根据第三示例性实施例的在光标位于画面上的图像文件的缩略图显示区域中的情况下的缩略图图像的显示方法的图。
图8是示出根据第二示例性实施例的图1和图3所示的图像处理设备的功能配置的示例的框图。
图9是示出根据第二示例性实施例的图3和图8所示的图像处理设备所执行的图像处理方法的处理示例的流程图。
图10A和图10B是示出根据第二示例性实施例的根据光标是否位于画面上的图像文件的缩略图显示区域中而改变的缩略图图像的显示方法的图。
具体实施方式
下文中,下面将参考附图描述用于实施本发明的实施例(示例性实施例)。下文中描述的示例性实施例并不旨在限制本发明的内容,并且示例性实施例中所描述的特征的组合并非全部都是本发明的解决方案所必需的。此外,对彼此类似的构成元素给出相同的附图标记。
当生成屏幕截图图像文件时,通过日本特开2018-23026中讨论的方法生成具有比显示视角更宽的视角的图像,并且代替具有显示视角的图像,将所生成的图像设置为主图像。另一方面,以传统方式将具有显示视角的图像设置为缩略图图像。然后,将主图像和缩略图图像一起记录在图像文件中。利用该配置,可以通过缩略图的显示来检查观察者实际观察到的图像,并且可以通过主图像的显示来检查其周围环境。
另一方面,无法在缩略图图像上检查与在保存屏幕截图时观察者通过HMD观察的显示视角的外部有关的信息。因此,有必要打开一次图像文件并检查主图像。因此,存在主图像的显示处理需要时间的问题。
本发明涉及如下技术,该技术使得观察者能够在不打开图像文件并检查主图像的情况下,迅速检查与观察者观察的显示视角的外部有关的信息。
首先,描述第一示例性实施例。
在本示例性实施例中,当在画面上显示由缩略图图像指示的文件列表时,针对包括与缩略图图像的视角相比具有更宽视角的主图像的图像文件执行以下处理。
具体地,根据本示例性实施例中描述的处理,所显示的缩略图图像的视角根据作为观察者的用户所操作的光标的位置而改变。
图1是示出根据本示例性实施例的图像显示系统(视频透视HMD系统)100的一般配置的示例的图。如图1所示,图像显示系统100包括视频透视HMD 101、图像处理设备102和用户输入设备103。
HMD 101是安装在观察者头部上的头戴式显示器,该头戴式显示器使得观察者能够分别通过观察者的左眼和右眼来观察通过摄像获取的左眼的拍摄图像和右眼的拍摄图像。HMD 101是视频透视型HMD。
图像处理设备102处理由HMD 101获取的图像。在本示例性实施例中,图像处理设备102和HMD 101通过诸如高清晰度多媒体接口(HDMI)(注册商标)线缆等的视频信号线或诸如通用串行总线(USB)线缆等的数据信号线而彼此连接,并且发送和接收图像数据和控制信号。
用户输入设备103接受从作为在头部上佩戴有HMD 101的观察者的用户向图像处理设备102的输入。例如,用户输入设备103可以包括键盘、鼠标和控制器。
图2是示出图1所示的HMD 101的内部配置的示例的图。
如图2所示,HMD 101包括用于获取实际世界的真实图像的左眼背景照相机201和右眼背景照相机202,这些左眼背景照相机201和右眼背景照相机202布置在与观察者的左眼El和右眼Er相对应的位置处。左眼摄像视角209和右眼摄像视角210是这些背景照相机201和202的摄像视角。在本示例性实施例中,为了简化描述,假设左眼摄像视角209和右眼摄像视角210相等,并且也被简称为“摄像视角”。此外,如图2所示,为了使得观察者能够观察图像,HMD 101包括分别针对观察者的左眼El和右眼Er布置的左眼显示器203和右眼显示器206。左眼显示器203和右眼显示器206各自包括诸如液晶面板或有机电致发光(EL)面板等的显示面板。此外,如图2所示,HMD 101包括布置在显示器203和206前方的左眼目镜204和右眼目镜207。观察者分别通过目镜204和207来观察显示在显示器203和206上的显示图像的放大虚像。左眼显示视角205和右眼显示视角208是包括显示器203和206以及目镜204和207的显示单元的显示视角。在本示例性实施例中,为了简化描述,假设左眼显示视角205和右眼显示视角208相等,并且也被简称为“显示视角”。HMD 101还包括用于获取观察者的位置和姿势的各种传感器(未示出)。这里,背景照相机201和202的各个摄像视角(即左眼摄像视角209和右眼摄像视角210)被设计为比显示单元的显示视角(即左眼显示视角205和右眼显示视角208)更宽。
HMD 101安装在观察者(未示出)的头部上,并且使得观察者能够通过观察者的左眼El和右眼Er来观察左眼显示图像和右眼显示图像的放大虚像。
图像处理设备102通过将CG渲染图像叠加在从HMD 101的左眼背景照相机201和右眼背景照相机202各自获取的真实图像上,来生成第一图像。然后,图像处理设备102从第一图像中获取与HMD 101的显示视角相对应的图像区域,并生成左眼显示图像和右眼显示图像。然后,图像处理设备102在HMD 101的左眼显示器203和右眼显示器206上显示所生成的显示图像。
虽然根据本示例性实施例的配置被描述为图像处理设备102与HMD 101独立设置的系统配置,但也可以采用HMD 101的内部包括图像处理装置102的集成HMD系统。此外,尽管描述了用户输入设备103通过线路连接到图像处理设备102的系统配置,但是也可以采用用户输入装置103通过诸如蓝牙(Bluetooth)(注册商标)等的已知无线技术连接到图像处理设备102的系统配置。
图3是示出图1所示的图像处理设备102的系统配置的示例的框图。
如图3所示,图像处理设备102具有包括中央处理单元(CPU)301、随机存取存储器(RAM)302、只读存储器(ROM)303、硬盘驱动器(HDD)304、通用接口(I/F)305、图像输出I/F306和主总线307的系统配置。
CPU 301是用于总体上控制图像处理设备102中所包括的单元的处理器。RAM 302用作CPU 301的主存储器和工作区域。ROM 303存储由CPU 301执行的程序组。HDD 304存储由CPU 301执行的应用和用于图像处理的数据。通用I/F 305是诸如USB或符合电气和电子工程师协会(IEEE)1394的串行总线接口等的串行总线接口,并且与用户输入设备103相连接。作为观察者的用户可以经由用户输入设备103向图像处理设备102发送诸如屏幕截图命令等的命令。通用I/F 305还与HMD 101连接,并且用于获取由左眼背景照相机201和右眼背景照相机202拍摄的图像、以及获取位置/姿势信息。在本示例性实施例中,通用I/F 305被配置为用作如下的输入单元,该输入单元用于将包括与缩略图图像相比具有更宽视角的主图像的图像文件输入到图像处理设备102的CPU 301(包括RAM 302和HDD 304)。图像输出I/F 306是诸如HDMI或DisplayPort等的用于将显示图像显示在HMD 101上的接口。主总线307可通信地连接CPU 301、RAM 302、ROM 303、HDD 304、通用I/F 305和图像输出I/F 306。
图4是示出根据第一示例性实施例的图1和图3所示的图像处理设备102的配置的示例的框图。
图4中的图像处理设备102包括光标位置获取单元401、光标位置判断单元402、第一缩略图图像获取单元403、第二缩略图图像生成单元404、缩略图图像设置单元405和显示单元406。例如,存储在ROM 303中的程序由图3所示的CPU 301执行,使得实现图4所示的各个构成元素401至406。
针对包括具有比缩略图图像的第一视角更宽的视角的主图像的图像文件,图像处理设备102执行用于在左眼显示器203和右眼显示器206各自的画面上显示由缩略图图像指示的文件列表的处理。
光标位置获取单元401是用于获取由作为在头部上佩戴有HMD 101的观察者的用户进行操作以选择图像文件的光标的位置的位置获取单元。然后,光标位置获取单元401将所获取的光标位置输出到光标位置判断单元402。
光标位置判断单元402是用于判断光标位置获取单元401所获取的光标位置是否是画面上的图像文件的缩略图显示区域(缩略图图像)内的位置的位置判断单元。然后,光标位置判断单元402将判断结果输出到缩略图图像设置单元405。
第一缩略图图像获取单元403是用于获取被记录在图像文件中的具有第一视角的缩略图图像作为第一缩略图图像的图像获取单元。然后,第一缩略图图像获取单元403将所获取的第一缩略图图像输出到缩略图图像设置单元405。
第二缩略图图像生成单元404是用于生成具有与上述第一缩略图图像的第一视角不同的第二视角的第二缩略图图像的图像生成单元。
在本示例性实施例中,第二缩略图图像生成单元404生成具有与记录在图像文件中的主图像的视角相同的第二视角(即,比第一视角宽的视角)的缩略图图像作为第二缩略图图像。换言之,第二缩略图图像生成单元404接收主图像并生成第二缩略图图像。然后,第二缩略图图像生成单元404将所生成的第二缩略图图像输出到缩略图图像设置单元405。
缩略图图像设置单元405是如下的图像设置单元,该图像设置单元用于根据光标位置判断单元402对光标是否位于画面上的图像文件的缩略图显示区域中做出的判断结果,来设置要显示在缩略图显示区域中的缩略图图像。具体地,在光标位于画面上的图像文件的缩略图显示区域中的情况下,缩略图图像设置单元405将第二缩略图图像设置为要显示在缩略图显示区域中的上述缩略图图像。此外,在光标不位于画面上的图像文件的缩略图显示区域中的情况下,缩略图图像设置单元405将第一缩略图图像设置为要显示在缩略图显示区域中的上述缩略图图像。然后,缩略图图像设置单元405将所设置的缩略图图像输出到显示单元406。可替代地,缩略图图像设置单元405可以输出用于控制显示单元406将所设置的缩略图图像显示在显示单元406上的控制信号。在这种情况下,缩略图图像设置单元405被配置为用作图像处理设备102中的控制单元。除了缩略图图像设置单元405之外,控制单元还可以包括光标位置获取单元401、光标位置判断单元402、第一缩略图图像获取单元403和第二缩略图图像生成单元404。
显示单元406是用于在左眼显示器203和右眼显示器206各自的画面上的图像文件的缩略图显示区域中显示由缩略图图像设置单元405设置的缩略图图像的显示单元。
接下来,将描述本示例性实施例的图像处理设备102基于作为在头部上佩戴有HMD101的观察者的用户所进行的光标操作而执行的处理。
图5是示出根据本示例性实施例的图3和图4所示的图像处理设备102所执行的图像处理方法的处理示例的流程图。图3中的CPU 301读取存储在ROM 303或HDD 304中的用于执行图5中的流程图的处理的程序,并且通过使用RAM 302作为工作区域来执行该处理。通过以上处理,图3中的CPU 301用作图4所示的功能构成元素。另外,图5的流程图中的各个处理步骤用符号“S”来表示。
在步骤S501中,光标位置获取单元401获取通过用户进行的用于选择图像文件的操作而输入到用户输入设备103的光标位置。此时,光标位置获取单元401获取例如正交坐标系中的坐标值作为光标位置,其中该正交坐标系将左眼显示器203和右眼显示器206各自的画面的左上角设置为原点。
在步骤S502中,光标位置判断单元402判断在步骤S501中获取的光标位置是否是画面上的图像文件的缩略图显示区域内的位置。
参考图6A和图6B描述步骤S502中的处理。
图6A和图6B是示出根据本示例性实施例的根据光标是否位于画面600上的图像文件的缩略图显示区域中而改变的缩略图图像的显示方法的图。图6A示出位于左眼显示器203和右眼显示器206各自的画面600上的缩略图显示区域外的光标601的示例。图6B示出位于左眼显示器203和右眼显示器206各自的画面600上的缩略图显示区域中的光标601的示例。在图5中的步骤S502中,可以通过将指示光标601的位置的坐标值与指示显示有缩略图的缩略图显示区域的坐标值(例如,缩略图显示区域的左上角坐标和右下角坐标)进行比较来判断光标601的位置。
再次参考图5描述该处理。
作为步骤S502中的判断结果,在步骤S501中所获取的光标位置是画面上的图像文件的缩略图显示区域内的位置的情况下(步骤S502中的“是”),处理进行到步骤S503。
在步骤S503中,第二缩略图图像生成单元404通过诸如双线性插值方法等的已知方法对包括在由光标指示的图像文件中的主图像执行缩小处理,并且生成具有与主图像的视角相对应的第二视角的第二缩略图图像。在步骤S503中生成的第二缩略图图像被缓存在图3所示的RAM 302中。在已经生成第二缩略图图像的缓存图像数据的情况下,第二缩略图图像生成单元404可以读取图像数据而不执行用于生成第二缩略图图像的处理,使得不必每次执行主图像的上述缩小处理。
接下来,在步骤S504中,缩略图图像设置单元405将在步骤S503中生成的第二缩略图图像设置为要显示在画面上的图像文件的缩略图显示区域中的缩略图图像。
作为步骤S502中的判断结果,在步骤S501中获取的光标位置是画面上的图像文件的缩略图显示区域外的位置的情况下(步骤S502中的“否”),处理进行到步骤S505。
在步骤S505中,第一缩略图图像获取单元403获取被记录在图像文件中的具有第一视角的缩略图图像作为第一缩略图图像。第一缩略图图像的第一视角比主图像或第二缩略图图像的第二视角窄。
接下来,在步骤S506中,缩略图图像设置单元405将在步骤S505中获取的第一缩略图图像设置为要显示在画面上的图像文件的缩略图显示区域中的缩略图图像。
当步骤S504或S506中的处理结束时,处理进行到步骤S507。
在步骤S507中,显示单元406在左眼显示器203和右眼显示器206各自的画面上的相应图像文件的缩略图显示区域中显示在步骤S504或S506中设置的缩略图图像。在图6A中,由于光标601位于画面600上的缩略图图像602的显示区域外,因此在其上显示图像文件中所记录的第一缩略图图像602。另一方面,在图6B中,由于光标601位于缩略图图像603的显示区域内,因此其上显示与第一缩略图图像602相比具有更宽视角的第二缩略图图像603。在图6B所示的示例中,第二缩略图图像生成单元404生成与第一缩略图图像602相比具有更大的大小的第二缩略图图像603。此外,如上所述,在本示例性实施例中,第二缩略图图像603的视角(即第二视角)与图像文件中所记录的主图像的视角一致(相等)。
当步骤S507中的处理结束时,图5中的流程图所示的处理结束。
当在画面上显示由缩略图图像指示的文件列表时,根据上述本示例性实施例的图像处理设备102针对包括与缩略图图像相比具有更宽视角的主图像的图像文件执行以下处理。具体地,光标位置获取单元401获取由作为在头部上佩戴有HMD 101的观察者的用户进行操作的光标的位置。第一缩略图图像获取单元403获取记录在图像文件中的具有第一视角的第一缩略图图像。此外,第二缩略图图像生成单元404生成具有与第一缩略图图像的第一视角不同的第二视角(在本示例性实施例中为比第一视角宽的视角)的第二缩略图图像。然后,缩略图图像设置单元405根据光标位置获取单元401所获取的光标位置是否是画面上的图像文件的缩略图显示区域内的位置,来设置要显示在缩略图显示区域中的缩略图图像。具体地,在光标位于画面上的图像文件的缩略图显示区域中的情况下,缩略图图像设置单元405将第二缩略图图像设置为要显示在缩略图显示区域中的缩略图图像。然后,显示单元406在左眼显示器203和右眼显示器206各自的画面上的图像文件的缩略图显示区域中显示缩略图图像设置单元405所设置的缩略图图像。
通过上述配置,针对包括与缩略图图像相比具有更宽视角的主图像的图像文件,当在画面上显示由缩略图图像指示的文件列表时,可以根据用户所操作的光标的位置来改变要显示的缩略图图像的视角。因此,观察者可以在不打开图像文件并检查主图像的情况下,迅速检查与由此观察的显示视角的外部有关的信息。
接下来,将描述第二示例性实施例。在下面描述的本示例性实施例中,省略了与第一示例性实施例中描述的那些项目共同的项目的描述,并且描述了与第一示例性实施例不同的项目。
在本示例性实施例中,当要在画面上显示由缩略图图像指示的文件列表时,针对包括与缩略图图像相比具有更宽视角的主图像的图像文件执行以下处理。
具体地,在本示例性实施例中,在作为观察者的用户所操作的光标位于画面上的图像文件的缩略图显示区域中的情况下,图像处理设备102执行用于将要显示的缩略图图像的视角改变为包括从主图像切出的主图像的中心部分的视角的处理。
根据本示例性实施例的图像显示系统(视频透视HMD系统)100的一般配置与图1所示的根据第一示例性实施例的图像显示系统(视频透视HDMD系统)100类似。此外,根据本示例性实施例的HMD 101的内部配置与图2所示的根据第一示例性实施例的HMD的内部配置类似。此外,根据本示例性实施例的图像处理设备102的系统配置与图3所示的根据第一示例性实施例的图像处理装置102的系统配置类似。
图8是示出根据本示例性实施例的图1和图3所示的图像处理设备102的功能配置的示例的框图。
图8中的图像处理设备102包括光标位置获取单元801、光标位置判断单元802、第一缩略图图像获取单元803、第二缩略图图像生成单元804、缩略图图像设置单元805、显示单元806和显示区域信息获取单元807。
光标位置获取单元801具有与图4中的光标位置获取单元401的功能类似的功能。换言之,光标位置获取单元801是用于获取由作为在头部上佩戴有HMD 101的观察者的用户进行操作以选择图像文件的光标的位置的位置获取单元。然后,光标位置获取单元801将所获取的光标位置输出到光标位置判断单元802。
光标位置判断单元802具有与图4中的光标位置判断单元402的功能类似的功能。换句话说,光标位置判断单元802是用于判断光标位置获取单元801所获取的光标位置是否是画面上的图像文件的缩略图显示区域(缩略图图像)内的位置的位置判断单元。然后,光标位置判断单元802将判断结果输出到缩略图图像设置单元805。
第一缩略图图像获取单元803具有与图4中的第一缩略图图像获取单元403的功能类似的功能。换言之,第一缩略图图像获取单元803是用于获取记录在图像文件中的具有第一视角的缩略图图像作为第一缩略图图像的图像获取单元。然后,第一缩略图图像获取单元803将所获取的第一缩略图图像输出到缩略图图像设置单元805。
显示区域信息获取单元807是用于从图像文件的元数据中获取用于描述主图像中的与第一缩略图图像相对应的部分区域(图像区域)的大小的显示区域信息的信息获取单元。在本示例性实施例中,显示区域信息包括与主图像中的与第一缩略图图像相对应的部分区域的宽度和高度有关的信息。然后,显示区域信息获取单元807将所获取的显示区域信息输出到第二缩略图图像生成单元804。
第二缩略图图像生成单元804具有与图4中的第二缩略图图像生成单元404的功能类似的功能。换言之,第二缩略图图像生成单元804是用于生成具有与上述第一缩略图图像的第一视角不同的第二视角的第二缩略图图像的图像生成单元。具体地,基于从显示区域信息获取单元807接收到的显示区域信息,第二缩略图图像生成单元804生成具有如下视角的图像作为第二缩略图图像,其中该视角包括以主图像中的与第一缩略图图像相对应的部分区域的大小从主图像中切出的主图像的中心部分。然后,第二缩略图图像生成单元804将所生成的第二缩略图图像输出到缩略图图像设置单元805。
缩略图图像设置单元805具有与图4中的缩略图图像设置单元405的功能类似的功能。换言之,缩略图图像设置单元805是如下的图像设置单元,该图像设置单元用于根据光标位置判断单元802对光标是否位于画面上的图像文件的缩略图显示区域中做出的判断结果,来设置要显示在缩略图显示区域中的缩略图图像。具体地,在光标位于画面上的图像文件的缩略图显示区域中的情况下,缩略图图像设置单元805将第二缩略图图像设置为要显示在缩略图显示区域中的上述缩略图图像。此外,在光标不位于画面上的图像文件的缩略图显示区域中的情况下,缩略图图像设置单元805将第一缩略图图像设置为要显示在缩略图显示区域中的上述缩略图图像。然后,缩略图图像设置单元805将所设置的缩略图图像输出到显示单元806。
显示单元806具有与图4中的显示单元406的功能类似的功能。换句话说,显示单元806是用于在左眼显示器203和右眼显示器206各自的画面上的图像文件的缩略图显示区域中显示缩略图图像设置单元805所设置的缩略图图像的显示单元。
接下来,将描述本示例性实施例的图像处理设备102基于作为在头部上佩戴有HMD101的观察者的用户所进行的光标操作而执行的处理。
图9是示出根据本示例性实施例的图3和图8所示的图像处理设备102所执行的图像处理方法的处理示例的流程图。图3中的CPU 301读取存储在ROM 303或HDD 304中的用于执行图9中的流程图的处理的程序,并且通过使用RAM 302作为工作区域来执行该处理。通过以上处理,图3中的CPU 301用作图4所示的功能构成元素。另外,图9的流程图中的各个处理步骤用符号“S”来表示。
在步骤S901中,光标位置获取单元401获取通过用户进行的用于选择图像文件的操作而输入到用户输入设备103的光标位置。此时,例如光标位置获取单元801获取正交坐标系中的坐标值作为光标位置,其中该正交坐标系将左眼显示器203和右眼显示器206各自的画面的左上角设置为原点。
在步骤S902中,光标位置判断单元802判断在步骤S901中获取的光标位置是否是画面上的图像文件的缩略图显示区域内的位置。
参考图10A和图10B描述步骤S902中的处理。
图10A和图10B是示出根据本示例性实施例的根据光标是否位于画面上的图像文件的缩略图显示区域中而改变的缩略图图像的显示方法的图。图10A示出位于左眼显示器203和右眼显示器206各自的画面上的缩略图显示区域外的光标1001的示例。图10B示出位于左眼显示器203和右眼显示器206各自的画面上的缩略图显示区域中的光标1001的示例。在图9的步骤S902中,可以通过将指示光标1001的位置的坐标值与指示显示有缩略图图像的缩略图显示区域的坐标值(例如,缩略图显示区域的左上角坐标和右下角坐标)进行比较来判断光标1001的位置。
再次参考图9描述该处理。
作为步骤S902中的判断结果,在步骤S901中所获取的光标位置是画面上的图像文件的缩略图显示区域内的位置的情况下(步骤S902中的“是”),处理进行到步骤S903。
在步骤S903中,显示区域信息获取单元807从图像文件的元数据中获取用于描述主图像中的与第一缩略图图像相对应的部分区域的大小的显示区域信息。这里,因为图10A中的第一缩略图图像1002的视角比主图像1003的视角窄,所以第一缩略图图像1002是与主图像1003的部分区域相对应的图像。换言之,在步骤S903中获取的显示区域信息是用于指定主图像1003中的与第一缩略图图像1002相对应的部分区域的大小的信息。显示区域信息获取单元807获取如下信息作为显示区域信息,该信息包括与主图像1003中的与第一缩略图图像1002相对应的部分区域的宽度和高度有关的信息。另外,可以获取与主图像1003中的与第一缩略图图像1002相对应的部分区域中的左上角坐标和右下角坐标有关的信息、或者与相对于主图像1003的水平视角和垂直视角的部分区域的水平视角和垂直视角有关的信息,作为显示区域信息。换言之,可以获取任意类型的信息作为显示区域信息,只要可以由此指定主图像1003中的与第一缩略图图像1002相对应的部分区域的大小(即宽度和高度)即可。
接下来,在步骤S904中,基于在步骤S903中获取的显示区域信息,第二缩略图图像生成单元804生成具有与第一缩略图图像的第一视角不同的第二视角的第二缩略图图像。具体地,第二缩略图图像生成单元804通过对具有如下视角的图像执行缩小处理来生成第二缩略图图像,其中该视角包括以由光标指示的图像文件中所包括的主图像中的与第一缩略图图像相对应的部分区域的大小从该主图像中切出的该主图像的中心部分。在步骤S904中生成的第二缩略图图像被缓存在图3所示的RAM 302中。在已经生成第二缩略图图像的缓存图像数据的情况下,第二缩略图图像生成单元804可以读取图像数据而不执行用于生成第二缩略图图像的处理,使得不必每次执行主图像的上述缩小处理。
接下来,在步骤S905中,缩略图图像设置单元805将在步骤S904中生成的第二缩略图图像设置为要显示在画面上的图像文件的缩略图显示区域中的缩略图图像。
作为步骤S902中的判断结果,在步骤S901中所获取的光标位置是画面上的图像文件的缩略图显示区域外的位置的情况下(步骤S902中的“否”),处理进行到步骤S906。
在步骤S906中,第一缩略图图像获取单元803获取记录在图像文件中的具有第一视角的缩略图图像作为第一缩略图图像。第一缩略图图像的第一视角比主图像的视角窄。
接下来,在步骤S907中,缩略图图像设置单元805将在步骤S906中获取的第一缩略图图像设置为要显示在画面上的图像文件的缩略图显示区域中的缩略图图像。
当步骤S905或S907中的处理结束时,处理进行到步骤S908。
在步骤S908中,显示单元806在左眼显示器203和右眼显示器206各自的画面上的相应图像文件的缩略图显示区域中显示在步骤S905或S907中设置的缩略图图像。在图10A中,由于光标1001位于缩略图图像1002的显示区域外,因此在其上显示图像文件中所记录的第一缩略图图像1002。在图10A所示的示例中,从主图像1003的中心部分略向左偏移的部分区域被用作第一缩略图图像1002的视角。另一方面,在图10B中,光标1001位于缩略图图像1004的显示区域中。因而,在图10B中,生成并在其上显示主图像1003的中心部分的切出图像(即具有与第一缩略图图像1002的第一视角不同的第二视角的第二缩略图图像1004)。如图10B所示,生成并显示第二缩略图图像1004的原因是主被摄体通常存在于主图像1003的中心部分。
如上所述,当要在画面上显示由缩略图图像指示的文件列表时,根据本示例性实施例的图像处理设备102针对包括与缩略图图像相比具有更宽视角的主图像的图像文件执行以下处理。具体地,显示区域信息获取单元807从图像文件的元数据中获取用于描述主图像中的与第一缩略图图像相对应的部分区域的大小的显示区域信息。然后,基于从显示区域信息获取单元807接收到的显示区域信息,第二缩略图图像生成单元804生成具有如下视角的图像作为第二缩略图图像,其中该视角包括以主图像中的与第一缩略图图像相对应的部分区域的大小从该主图像中切出的主图像的中心部分。
通过上述配置,在用户所操作的光标位于画面上的图像文件的缩略图显示区域中的情况下(步骤S902中的“是”),可以将所显示的缩略图图像的视角改变为包括从主图像中切出的主图像的中心部分的视角。因此,观察者可以在不打开图像文件并检查主图像的情况下,迅速检查与由此观察的显示视角的外部有关的信息(即,在图10A和图10B的示例中为与第一缩略图图像1002中未拍摄到的第二缩略图图像1004的右侧区域有关的信息)。
接下来,将描述第三示例性实施例。在下面描述的本示例性实施例中,省略了与第一示例性实施例和第二示例性实施例中描述的项目共同的项目的描述,并且描述了与第一示例性实施例和第二示例性实施例不同的项目。
根据本示例性实施例的图像显示系统(视频透视HMD系统)100的一般配置与图1所示的根据第一示例性实施例的图像显示系统(视频透视HDMD系统)100类似。此外,根据本示例性实施例的HMD 101的内部配置与图2所示的根据第一示例性实施例的HMD 101的内部配置类似。此外,根据本示例性实施例的图像处理设备102的系统配置与图3所示的根据第一示例性实施例的图像处理设备102的系统配置类似。此外,例如,根据本示例性实施例的图像处理设备102的功能配置与图8所示的根据第二示例性实施例的图像处理设备102的功能配置类似。
图7A、图7B和图7C是示出根据本示例性实施例的在光标701位于画面700上的图像文件的缩略图显示区域中的情况下的缩略图图像的显示方法的图。具体地,图7A至图7C是示出图6B所示的第一示例性实施例中所描述的缩略图图像的显示方法的变型例的图。
图7A和图7B分别示出第二缩略图图像生成单元804所生成的比图6A中的第一缩略图图像602大的第二缩略图图像703和705。在图7A中,第二缩略图图像生成单元804生成第二缩略图图像703,该第二缩略图图像703附加有矩形形状702作为用于识别图6A中的第一缩略图图像602的区域(即,与第一缩略图图像602的视角相对应的区域)的信息。在图7B中,第二缩略图图像生成单元804生成第二缩略图图像705,该第二缩略图图像705包括与图6A中的第一缩略图图像602的视角外的区域相对应的具有较低亮度的区域704作为上述的用于识别区域的信息。为了在图7A和图7B所示的这两种类型的处理各自中计算与第一缩略图图像602的视角相对应的区域,图像处理设备102包括第二示例性实施例中所描述的显示区域信息获取单元807作为其功能配置。因此,第二缩略图图像生成单元804通过使用显示区域信息获取单元807所获取的、用于描述主图像中的与第一缩略图图像602的视角相对应的部分区域(图像区域)的大小的显示区域信息来生成第二缩略图图像703。
在图7C中,第二缩略图图像生成单元804生成在不改变画面上显示的缩略图图像的显示区域的大小的情况下具有改变的视角的第二缩略图图像706。换句话说,在图7C中,第二缩略图图像生成单元804生成与图6A中的第一缩略图图像602的大小具有相同大小的第二缩略图图像706。另外,通过用于附加图7A所示的矩形形状702的处理或用于降低图7B所示的区域704的亮度的处理,也可以将用于识别图6A所示的第一缩略图图像602的区域的信息附加到图7C所示的第二缩略图图像706。此外,在上述示例性实施例中,在显示有第一缩略图图像的区域中显示第二缩略图图像。然而,第二缩略图图像可以显示在与显示有第一缩略图图像的区域不同的区域中。例如,第二缩略图图像可以显示在从显示有第一缩略图图像的区域偏移的区域中,或者可以显示在从该区域偏移的弹出区域中。
当针对包括与缩略图图像相比具有更宽视角的主图像的图像文件、在画面上显示由缩略图图像指示的文件列表时,在图7A至图7C中的任意示例中都可以获取以下效果。具体地,可以根据作为观察者的用户所操作的光标的位置来改变画面上所显示的缩略图图像的视角。通过该配置,观察者可以在不打开图像文件并检查主图像的情况下,迅速检查与由此观察的显示视角的外部有关的信息。
本发明可以通过以下处理来实现,在该处理中,将用于实现根据上述示例性实施例的一个或多于一个功能的程序经由网络或存储介质供给到系统或设备,并且该系统或设备中的一个或多于一个处理器读取并执行该程序。此外,本发明还可以利用用于实现一个或多于一个功能的电路(例如,专用集成电路(ASIC))来实现。
本发明中还包括程序和存储该程序的计算机可读存储介质。
另外,本发明的上述示例性实施例仅是用于体现本发明的示例,而不应被解释为限制本发明的技术范围。换言之,在不脱离本发明的技术精神或主要特征的情况下,可以以多种方式实现本发明。
根据本发明,观察者可以在不打开图像文件并检查主图像的情况下,迅速检查与由此观察的显示视角的外部有关的信息。
其他实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
虽然参考示例性实施例描述了本发明,但是应当理解,本发明不限于所公开的示例性实施例。所附权利要求书的范围应被赋予最广泛的解释,以涵盖所有这样的修改以及等同的结构和功能。

Claims (11)

1.一种图像处理设备,用于执行用于在画面上显示缩略图图像的处理,所述图像处理设备包括:
输入单元,其被配置为输入包括具有比所述缩略图图像的视角更宽的视角的主图像的图像文件;以及
控制单元,其被配置为在光标位于所述画面上的缩略图显示区域中的情况下,执行用于在所述画面上显示所述主图像作为缩略图图像的控制。
2.根据权利要求1所述的图像处理设备,
其中,所述控制单元包括:
位置获取单元,其被配置为获取所述光标的位置;
图像获取单元,其被配置为获取被记录在所述图像文件中的具有第一视角的第一缩略图图像;
图像生成单元,其被配置为生成具有与所述第一视角不同的第二视角的第二缩略图图像;以及
图像设置单元,其被配置为根据所述光标是否位于所述缩略图显示区域中来设置要显示在所述缩略图显示区域中的缩略图图像,以及
其中,所述控制单元执行用于在所述画面上显示所设置的缩略图图像的控制。
3.根据权利要求2所述的图像处理设备,其中,所述第二视角比所述第一视角宽。
4.根据权利要求2所述的图像处理设备,其中,所述第二视角与记录在所述图像文件中的所述主图像的视角相同。
5.根据权利要求2至4中任何一项所述的图像处理设备,其中,所述图像生成单元生成具有比所述第一缩略图图像的大小大的大小的所述第二缩略图图像。
6.根据权利要求5所述的图像处理设备,其中,所述图像生成单元生成附加有用于识别所述第一缩略图图像的区域的信息的所述第二缩略图图像。
7.根据权利要求2至4中任何一项所述的图像处理设备,其中,所述图像生成单元生成具有与所述第一缩略图图像的大小相同的大小的所述第二缩略图图像。
8.根据权利要求2至4中任何一项所述的图像处理设备,还包括信息获取单元,所述信息获取单元被配置为从所述图像文件的元数据中获取用于指示所述主图像中的与所述第一缩略图图像相对应的部分区域的大小的显示区域信息,
其中,基于所述显示区域信息,所述图像生成单元生成具有如下视角的图像作为所述第二缩略图图像,其中该视角包括从所述主图像切出成所述部分区域的大小的所述主图像的中心部分。
9.根据权利要求8所述的图像处理设备,其中,所述显示区域信息包括与所述部分区域的宽度和高度有关的信息。
10.一种图像处理方法,用于执行用于在画面上显示缩略图图像的处理,所述图像处理方法包括:
输入包括具有比所述缩略图图像的视角更宽的视角的主图像的图像文件;以及
在光标位于所述画面上的缩略图显示区域中的情况下,执行用于在所述画面上显示所述主图像作为缩略图图像的控制。
11.一种非暂态计算机可读存储介质,其存储有程序,所述程序用于使计算机执行图像处理方法,所述图像处理方法用于执行用于在画面上显示缩略图图像的处理,所述图像处理方法包括:
输入包括具有比所述缩略图图像的视角更宽的视角的主图像的图像文件;以及
在光标位于所述画面上的缩略图显示区域中的情况下,执行用于在所述画面上显示所述主图像作为缩略图图像的控制。
CN202310617881.0A 2022-06-02 2023-05-29 图像处理设备、图像处理方法和存储介质 Pending CN117170556A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-090068 2022-06-02
JP2022090068A JP2023177422A (ja) 2022-06-02 2022-06-02 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
CN117170556A true CN117170556A (zh) 2023-12-05

Family

ID=86657290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310617881.0A Pending CN117170556A (zh) 2022-06-02 2023-05-29 图像处理设备、图像处理方法和存储介质

Country Status (4)

Country Link
US (1) US20230393795A1 (zh)
EP (1) EP4290348A1 (zh)
JP (1) JP2023177422A (zh)
CN (1) CN117170556A (zh)

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6054989A (en) * 1998-09-14 2000-04-25 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory in three-dimensions, to objects and which provides spatialized audio
US6188405B1 (en) * 1998-09-14 2001-02-13 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory, to objects
US6160553A (en) * 1998-09-14 2000-12-12 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory in three-dimensions, to objects and in which object occlusion is avoided
US6243093B1 (en) * 1998-09-14 2001-06-05 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory in three-dimensions, to objects and which visually groups matching objects
US6166738A (en) * 1998-09-14 2000-12-26 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory in three-dimensions, to objects
US6414677B1 (en) * 1998-09-14 2002-07-02 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory in three-dimensions, to objects and which visually groups proximally located objects
US7900823B1 (en) * 1998-10-09 2011-03-08 Diebold, Incorporated Banking system controlled by data bearing records
JP3646931B2 (ja) * 2001-08-29 2005-05-11 セイコーエプソン株式会社 イメージレタッチプログラム
KR101058025B1 (ko) * 2004-11-18 2011-08-19 삼성전자주식회사 이중 썸네일 모드를 이용한 이미지 디스플레이 장치 및 방법
US7885701B2 (en) * 2006-06-30 2011-02-08 Depuy Products, Inc. Registration pointer and method for registering a bone of a patient to a computer assisted orthopaedic surgery system
US20130212534A1 (en) * 2006-10-23 2013-08-15 Jerry Knight Expanding thumbnail with metadata overlay
US9075492B1 (en) * 2007-03-30 2015-07-07 Amazon Technologies, Inc. Method and system for displaying items
US8201096B2 (en) * 2007-06-09 2012-06-12 Apple Inc. Browsing or searching user interfaces and other aspects
JP5223318B2 (ja) * 2007-12-07 2013-06-26 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR101454025B1 (ko) * 2008-03-31 2014-11-03 엘지전자 주식회사 영상표시기기에서 녹화정보를 이용한 영상 재생 장치 및 방법
US20100281371A1 (en) * 2009-04-30 2010-11-04 Peter Warner Navigation Tool for Video Presentations
US8930999B1 (en) * 2011-06-29 2015-01-06 Intellectual Ventures Fund 79 Llc Methods, devices, and mediums for generating a programming menu
JP5684691B2 (ja) * 2011-11-14 2015-03-18 東芝テック株式会社 コンテンツ配信装置およびプログラム
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US9736526B2 (en) * 2013-04-10 2017-08-15 Autodesk, Inc. Real-time scrubbing of videos using a two-dimensional grid of thumbnail images
JP6167703B2 (ja) * 2013-07-08 2017-07-26 株式会社リコー 表示制御装置、プログラム及び記録媒体
JP6505556B2 (ja) * 2015-09-07 2019-04-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
KR20170126295A (ko) * 2016-05-09 2017-11-17 엘지전자 주식회사 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
JP6419118B2 (ja) * 2016-08-04 2018-11-07 キヤノン株式会社 画像表示システム
KR102567803B1 (ko) * 2016-09-06 2023-08-18 엘지전자 주식회사 디스플레이 장치
US10783320B2 (en) * 2017-05-16 2020-09-22 Apple Inc. Device, method, and graphical user interface for editing screenshot images

Also Published As

Publication number Publication date
US20230393795A1 (en) 2023-12-07
JP2023177422A (ja) 2023-12-14
EP4290348A1 (en) 2023-12-13

Similar Documents

Publication Publication Date Title
CA2917196C (en) Display control apparatus and computer-readable recording medium
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
US20190335115A1 (en) Display control device, head-mounted display, and control program
KR102279300B1 (ko) 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램
CN108259883B (zh) 图像处理方法、头戴式显示器以及可读存储介质
US20190243461A1 (en) Cable movable region display device, cable movable region display method, and cable movable region display program
US20180041699A1 (en) Image display system
EP3293960A1 (en) Information processing device, information processing method, and program
WO2016132688A1 (en) Information processing apparatus, information processing method, and storage medium
KR102279306B1 (ko) 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램
CN117170556A (zh) 图像处理设备、图像处理方法和存储介质
KR20190129982A (ko) 전자기기 및 그 제어 방법
US20230388475A1 (en) Image processing apparatus and storage medium
US11356632B2 (en) Display-information generating apparatus, information processing apparatus, and imaging system
JP5281720B1 (ja) 立体映像処理装置及び立体映像処理方法
EP4270324A1 (en) Object manipulation in mixed reality
EP3410256A1 (en) Method for outputting of combined 2d and 3d imaging
JP2021163179A (ja) 情報処理装置及びその制御方法、プログラム、記憶媒体
JP2014199963A (ja) 表示装置
JP2014089514A (ja) 電子文書データを生成する装置、方法およびプログラム
JP2011158956A (ja) 情報処理装置および情報処理方法
JP2012043345A (ja) 画像処理装置および方法
JP2009115851A (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination