CN113574592A - 电子设备、电子设备的控制方法、程序和存储介质 - Google Patents

电子设备、电子设备的控制方法、程序和存储介质 Download PDF

Info

Publication number
CN113574592A
CN113574592A CN202080022373.2A CN202080022373A CN113574592A CN 113574592 A CN113574592 A CN 113574592A CN 202080022373 A CN202080022373 A CN 202080022373A CN 113574592 A CN113574592 A CN 113574592A
Authority
CN
China
Prior art keywords
display
change
display range
electronic apparatus
tilt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080022373.2A
Other languages
English (en)
Inventor
横山俊一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN113574592A publication Critical patent/CN113574592A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/34Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators for rolling or scrolling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

根据本发明的电子设备包括:检测单元,其被配置为检测显示面的倾斜;接收单元,其被配置为接收用户操作;以及控制单元,其被配置为进行控制,以在所述显示面上显示图像的一部分作为显示范围,响应于所述显示面的倾斜的变化来改变所述显示范围的位置,并响应于用户操作来改变所述显示范围的位置,其中,所述控制单元基于所述显示范围通过用户操作移动的第一移动量来校正所述显示范围响应于所述显示面的倾斜的变化而移动的第二移动量。

Description

电子设备、电子设备的控制方法、程序和存储介质
技术领域
本发明涉及电子设备、电子设备的控制方法、程序和存储介质,尤其涉及用于使得显示具有宽视频范围的图像的控制方法。
背景技术
传统上已经提出了如下技术:在显示单元上显示具有宽范围视频的图像(诸如半天球图像或天球图像)的一部分作为显示范围,并且响应于显示单元的朝向(显示面的倾斜)的变化、用户操作等来任意改变显示范围的位置。还提出了传送如此使用的图像的图像传送技术。
专利文献1公开了如下技术:根据头戴式显示器的倾斜的方向及其大小,来控制360°视频的时间轴方向及其再现速度。
引文列表
专利文献
专利文献1:日本特开2017-111539号公报
发明内容
技术问题
根据传统技术,在通过改变显示面的倾斜来改变显示范围的位置之后,可以通过进行用户操作来进一步改变显示范围的位置。然而,在如此改变显示范围的位置之后,即使显示面的倾斜返回到原始倾斜,显示范围的位置也不会返回到原始位置,因此显示范围的位置无法容易地改变到预期位置。换句话说,用户无法通过直观地改变显示面的倾斜来将显示范围的位置改变到预期位置。
本发明提供使得显示范围的位置能够容易地改变到预期位置的技术。
解决问题的技术手段
根据本发明的电子设备包括:检测单元,其被配置为检测显示面的倾斜;接收单元,其被配置为接收用户操作;以及控制单元,其被配置为进行控制,以在所述显示面上显示图像的一部分作为显示范围,响应于所述显示面的倾斜的变化来改变所述显示范围的位置,并响应于用户操作来改变所述显示范围的位置,其中,所述控制单元基于所述显示范围通过用户操作移动的第一移动量,来校正所述显示范围响应于所述显示面的倾斜的变化而移动的第二移动量。
发明的有利效果
根据本发明,显示范围的位置能够容易地改变到预期位置。
附图说明
图1是示出根据第一实施例的电子设备的构造的示例的硬件框图。
图2是示出根据第一实施例的视频传送系统的构造的示例的图。
图3是示出根据第一实施例的视频播放器的画面的示例的图。
图4是示出根据第一实施例的确定显示范围的方法的示例的图。
图5是示出从根据第一实施例的电子设备发送的信息的示例的图。
图6是示出显示控制处理的示例的流程图。
图7是示出要通过第一实施例解决的问题的示例的图。
图8是示出根据第一实施例的方向对应关系的示例的图。
图9是示出根据第一实施例的确认画面的示例的图。
图10是示出根据第二实施例的用户的姿势的示例的图。
图11是示出根据第二实施例的显示控制处理的示例的流程图。
具体实施方式
<第一实施例>
下面将描述本发明的第一实施例。图1是示出根据本实施例的电子设备100的构造的示例的硬件框图。电子设备100是智能电话、头戴式显示器等。当电子设备100不是头戴式显示器时,电子设备100还可以通过附接到头戴式适配器而用作头戴式显示器(HMD)。头戴式适配器也称为“VR(虚拟现实)护目镜”。
电子设备100(CPU 101)在显示单元110的显示面上显示图像(对象图像)的一部分作为显示范围。注意,显示单元110也可以是与电子设备100分离的显示设备。例如,电子设备100可以是不具有显示单元110的个人计算机(PC)、游戏机、任何再现设备等,而显示单元110可以是连接到电子设备100等的HMD。
对象图像为半天球图像、天球图像等,并且具有比以正常倍率显示对象图像时的显示范围更宽的视频范围(存在视频的范围;有效视频范围)。有效视频范围也可以说是“成像范围”。正常倍率是例如既不实现放大也不实现缩小的倍率。天球图像也被称为“全方位图像”、“360°图像”、“360°全景图像”等。对象图像的有效视频范围对应于垂直方向360度(垂直角、相对于天顶的角、俯仰角或高度角)的最大视场和水平方向360度(水平角或方位角)的最大视场。注意,对象图像的有效视频范围可以对应于小于360度的俯仰角(例如,180度(±90度)),也可以对应小于360度的方位角(例如,180度(±90度))。对象图像可以是静止图像或运动图像。本实施例将描述对象图像是运动图像的示例。
电子设备100(CPU 101)响应于电子设备100的朝向的变化(显示单元110(显示单元110的显示面)的倾斜的变化),任意改变显示范围的位置。这使得用户能够通过直观地改变电子设备100在垂直/水平方向上的朝向,来将显示范围的位置改变到预期位置。此外,电子设备100(CPU 101)响应于用户操作(显示位置改变操作)任意改变显示范围的位置。这使得用户能够在不改变电子设备100的朝向、用户的姿势等的情况下,将显示范围的位置改变到预期位置。能够适当地选择性地进行电子设备100的朝向的改变和显示位置改变操作的用户可以方便地改变显示范围的位置。显示位置改变操作的示例包括对设置在显示单元110的显示面上的触摸面板进行的触摸操作(诸如轻敲操作、轻拂操作或滑动操作等)。显示位置改变操作也可以是对连接到电子设备100等的控制器进行的操作。
在对应于HMD的电子设备100附接到用户的头部区域的状态下,用户可以在不手动保持电子设备100的情况下视觉识别显示单元110上显示的显示范围。在这种情况下,当用户移动头部区域或其整个身体时,电子设备100(显示单元110)的朝向也改变。因此,电子设备100的朝向可以换言之为“用户的头部区域的朝向(用户的视线朝向的方向)”。
响应于电子设备100(显示单元110)的朝向的改变而改变显示范围的位置的显示方法被称为“VR显示”等。VR显示使得用户能够感觉视觉感受(沉浸感或存在感),就像实际在对象图像(VR空间)中一样。对象图像也可以说是“具有形成虚拟空间(VR空间)的至少一部分的有效视频范围的图像”。将这种显示如通过VR显示而使用的对象图像的方法称为“VR视图”等,并且将可以VR显示的图像称为“VR图像”等。注意,对象图像可以是VR图像,也可以不是VR图像。
如图1所示,在电子设备100中,CPU 101、DRAM 102、ROM 103、RAM 104、显示控制单元105、操作单元106、方向检测单元107、通信IF 108、显示单元110和EEPROM 111连接到内部总线109。连接到内部总线109的上述多个单元可以经由内部总线109相互交换数据。
显示单元110是诸如液晶面板的显示设备。ROM 103存储各种程序和各种数据。例如,在ROM 103中,预先存储用于控制电子设备100的整体处理(操作)的程序、用于稍后描述的视频播放器的应用程序等。CPU 101执行存储在ROM 103中的程序,以控制电子设备100的各个单元的处理。DRAM 102是电子设备100的主存储器。RAM 104用作CPU 101的工作存储器。EEPROM 111是非易失性存储器,该存储器即使在电子设备100的电源关闭时也能够连续存储信息。通信IF 108响应于来自CPU 101的指令进行与诸如因特网等的网络120的通信。
操作单元106是接收操作(用户操作)的输入设备。例如,操作单元106包括诸如触摸面板的定点设备。触摸面板输出与用户、触摸笔等接触触摸面板的接触位置相对应的坐标信息,并堆叠在显示单元110的显示面上,以例如与显示单元110一体构造。注意,显示面、触摸面板等可以是平面构造的,也可以不是平面构造的。CPU 101响应于对操作单元106进行的操作,控制电子设备100的各个单元的处理。具体地,操作单元106基于对操作单元106进行的操作来生成控制信号,并且将控制信号提供给CPU 101。CPU 101基于从操作单元106提供的控制信号来控制电子设备100的各个单元的处理。因此,可以使电子设备100基于用户操作进行操作。
显示控制单元105生成用于使显示单元110显示图像的显示信号(诸如图像信号或用于驱动显示单元110的驱动信号等),并将显示信号输出到显示单元110。CPU 101生成与要在显示单元110上显示的图像对应的显示控制信号,并将显示控制信号提供给显示控制单元105。显示控制单元105基于从CPU 101提供的显示控制信号来生成显示信号,并将显示信号提供给显示单元110。显示单元110基于从显示控制单元105提供的显示信号,在显示面上显示图像。
方向检测单元107检测电子设备100的朝向(显示单元110(显示单元110的显示面)的倾斜;电子设备100朝向的方向),并将检测结果提供给CPU 101。在本实施例中,方向检测单元107向CPU 101通知电子设备100(显示单元110(显示单元110的显示面))朝向的方向(仰角和方位角)作为检测结果。CPU 101可以基于从方向检测单元107向其提供的信息来确定(检测)电子设备100的朝向(倾斜),或者确定(检测)电子设备100的朝向是否改变。作为方向检测单元107,可以使用诸如加速度传感器、陀螺仪传感器、地磁传感器和方位传感器等的多个传感器中的至少一种。作为方向检测单元107,也可以使用多个传感器的组合。注意,当显示单元110是与电子设备100分离的显示设备时,方向检测单元107设置在显示单元110中,而从方向检测单元107获取检测结果的接口设置在电子设备100中。
图2是示出根据本实施例的视频传送系统的构造的示例的图。在图2的视频传送系统中,电子设备100经由网络120连接到视频传送服务器10。视频传送服务器10在其中存储与上述对象图像相对应的视频(对象视频)。电子设备100向视频传送服务器10发送与显示范围和显示时间位置有关的信息。显示时间位置是包括在从对象视频开始到其结尾的时段内的多个时间位置中的显示对象的时间位置。当接收到与显示范围和显示时间位置有关的信息时,视频传送服务器10从对象视频数据(对象视频的视频数据)中提取与显示范围和显示时间位置相对应的图像数据,并将图像数据发送到电子设备100。然后,电子设备100显示基于接收到的图像数据的图像。以更新电子设备100上的显示的各个更新定时来进行这种处理。
注意,由视频传送服务器10提取的图像数据的图像大小没有特别限制。图像的放大或缩小可以由视频传送服务器10进行,或者也可以由电子设备100进行。当视频传送服务器10进行图像的放大或缩小时,由视频传送服务器10提取的图像数据的图像大小可以变化。当视频传送服务器10不进行图像的放大或缩小时,由视频传送服务器10提取的图像数据的图像大小不变化。电子设备100也可以获取整个对象视频数据,从对象视频数据中提取与显示范围和显示时间位置相对应的图像数据,并显示图像数据。对象视频数据也可以从与视频传送服务器10不同的设备获取。
图3是示出在电子设备100上显示的画面的示例的图。图3中的画面是视频播放器的画面。如图3所示,视频播放器的画面具有显示区域301、再现按钮302、暂停按钮303、停止按钮304和显示位置改变按钮305。显示区域301是显示对象视频的区域。再现按钮302接收用于再现对象视频的用户操作。暂停按钮303接收用于暂停对象视频的用户操作。停止按钮304接收用于停止对象视频的用户操作。再现控制(诸如再现、暂停和停止等)由CPU 101进行。显示位置改变按钮305接收用于改变显示范围的位置的用户操作。换言之,在本实施例中,对显示位置改变按钮305进行的用户操作对应于上述显示位置改变操作。
操作单元106基于对再现按钮302、暂停按钮303、停止按钮304、显示位置改变按钮305等进行的用户操作来生成控制信号,并将控制信号提供给CPU 101。然后,CPU 101基于从操作单元106提供的控制信号来控制电子设备100的各个单元的处理。例如,当对再现按钮302进行用户操作时,CPU 101基于控制信号进行控制,使得显示时间位置被依次更新,并且信息(与显示范围和显示时间位置有关的信息)被顺次发送到视频传送服务器10。当对暂停按钮303进行用户操作时,CPU 101基于控制信号进行控制,使得显示时间位置不被更新,并且信息被顺次发送到视频传送服务器10。当对停止按钮304进行用户操作时,CPU 101基于控制信号进行控制,使得停止向视频传送服务器10发送信息,以防止显示对象视频。
当对任何显示位置改变按钮305进行用户操作时,CPU 101基于从操作单元106提供的控制信号进行控制,使得显示范围被更新,并且信息(与显示范围和显示时间位置有关的信息)被顺次发送到视频传送服务器10。在图3的示例中,显示位置改变按钮305包括向上箭头按钮305a、向下箭头按钮305b、向左箭头按钮305c和向右箭头按钮305d。每当对向上箭头按钮305a进行用户操作时,显示范围向上移动一级,而每当对向下箭头按钮305b进行用户操作时,显示范围向下移动一级。每当对向左箭头按钮305c进行用户操作时,显示范围向左移动一级,而每当对向右箭头按钮305d进行用户操作时,显示范围向右移动一级。
图4(A)至图4(C)是各自示出确定显示范围的方法的示例的图。图4(A)至图4(C)示出了由对象视频形成半球形虚拟空间401的示例。这里假设,当对象视频由电子设备100再现时,电子设备100位于虚拟空间401中的基准面(底面)402的中心。注意,由对象视频(对象图像)形成的虚拟空间的形状不限于半球形。例如,也可以形成完全球形的虚拟空间。
在图4(A)中,箭头403指示电子设备100在虚拟空间401中朝向的方向。箭头403的方向也可以说是“用户观看的方向(查看方向;虚拟空间401中的视点方向)”。在虚拟空间401的表面上,箭头403的方向上的范围404被确定为显示范围。使用方位角θ和仰角Φ来表示箭头403的方向和显示范围404的位置。方位角θ是基准面402上的基准线405与用于连接基准面402的中心点T和从显示范围404的中心垂直延伸到基准面402的线所到达的点P的线之间的角度。仰角Φ是用于连接中心点T和点P的线与用于连接显示范围404的中心和中心点T的线之间的角度。
在图4(B)中,用户使电子设备100指向虚拟空间401(对象视频)中的物体406。因此,设置包括物体406的显示范围407,并且显示范围407显示在显示区域301中。在图4(C)中,用户使电子设备100指向虚拟空间401(对象视频)中的物体408。因此,设置包括物体408的显示范围409,并且显示范围409显示在显示区域301中。如图4(B)和图4(C)所示,通过改变电子设备100的朝向,用户可以自由地改变显示范围的位置(方位角θ和仰角Φ),并且可以查看显示区域301中的任何显示范围。
还如上所述,用户还可以通过对任何显示位置改变按钮305(向上箭头按钮305a、向下箭头按钮305b、向左箭头按钮305c和向右箭头按钮305d)进行用户操作来自由地改变显示范围的位置。例如,每当对向上箭头按钮305a进行用户操作时,仰角Φ增大1度,而每当对向下箭头按钮305b进行用户操作时,仰角Φ减小1度。每当对向左箭头按钮305c进行用户操作时,方位角θ增大1度,而每当对向右箭头按钮305d进行用户操作时,方位角θ减小1度。
注意,形成半球形虚拟空间401的对象视频数据存储在视频传送服务器10中。电子设备100使用通信IF 108来将由方向检测单元107生成的信息(方位角θ和仰角Φ)发送到视频传送服务器10。然后,视频传送服务器10基于经由网络120从电子设备100接收的作为对象视频数据的信息,提取由方位角θ和仰角Φ确定的显示范围内的图像数据。然后,视频传送服务器10经由网络120将所提取的图像数据发送到电子设备100。电子设备100使用通信IF 108来接收从视频传送服务器10发送的图像数据(显示范围内的图像数据)。然后,电子设备100的CPU 101基于接收到的图像数据来生成显示控制信号,显示控制单元105基于显示控制信号来生成显示信号,并且显示单元110基于显示信号来显示图像。因此,显示范围内的图像显示在显示单元110的显示面上(显示区域301中)。对于从对象视频数据中提取(生成)要在电子设备上显示的图像数据的处理,可以使用各种提出的技术。
图5是示出从电子设备100向视频传送服务器10发送的信息(数据)的示例的图。在本实施例中,电子设备100发送方位角θ和仰角Φ作为显示范围信息(与显示范围有关的信息)。电子设备100还发送从对象视频的开始到显示时间位置所经过的时间段,作为显示时间位置信息(与显示时间位置有关的信息)。图5中的计数值利用显示更新定时向上计数并由电子设备100管理,其中利用显示更新定时来更新电子设备100上的显示。每当计数值被向上计数时,电子设备100将显示范围信息和显示时间位置信息发送到视频传送服务器10。
在图5的示例中,假设每分钟对计数值进行向上计数,即每分钟更新电子设备100上的显示。在计数值0至5处,暂停对象视频,并且显示时间位置停止在0:00(分:秒)。在计数值6和随后的计数值处,再现对象视频,并且显示时间位置从0:01开始逐秒前进。在计数值0至2处,方位角θ和仰角Φ均是0°,并且显示由方位角θ和仰角Φ定义的方向上的视频数据。在计数值3和随后的计数值处,方位角θ和仰角Φ各自都发生了变化,并且电子设备100上显示的图像数据的方向(即显示范围的位置)发生了变化。
图6是示出在电子设备100中进行的显示控制处理的示例的流程图。CPU 101在RAM104中展开存储在ROM 103中的用于视频播放器的应用程序,并执行该应用程序从而实现图6的流程图中的各个处理步骤。这里假设对象视频是预先确定的。另外,表示电子设备100(显示单元110(显示单元110的显示面))所朝向的方向(方位角θ1和仰角Φ1)的设备朝向信息L1被称为“设备朝向信息L1(θ1,Φ1)”。另外,表示显示范围(查看方向)通过显示位置改变操作(对显示位置改变按钮305进行的用户操作)移动的移动量(方位角变化量θ2和仰角变化量Φ2)的移动量信息L2被称为“移动量信息L2(θ2,Φ2)”。另外,将发送至视频传送服务器10的显示范围信息L(表示显示范围(方位角θ及仰角Φ)的信息)被称为“显示范围信息L(θ,Φ)”。
在描述图6中的显示控制处理之前,将给出本实施例(图6中的显示控制处理)要解决的问题的描述。这里考虑响应于显示单元的朝向(显示面的倾斜)的改变和显示位置改变操作而可以任意改变显示范围的位置的情况。在这种情况下,在通过改变显示面的倾斜来改变显示范围的位置之后,还可以通过进行显示位置改变操作来改变显示范围的位置。然而,在如此改变显示范围的位置之后,即使显示面的倾斜返回到原始倾斜,显示范围的位置也不会返回到原始位置,因此显示范围的位置无法容易地改变到预期位置。换句话说,用户无法通过直观地改变显示面的倾斜来将显示范围的位置改变到预期位置。
例如,考虑如下情况:在如图7(A)所示显示满足方位角θ=仰角Φ=0°的范围的状态下朝向水平方向的电子设备如图7(B)所示向上倾斜30°。在这种情况下,显示范围垂直移动,以将满足方位角θ=仰角Φ=0°的范围更新为满足方位角θ=0°和仰角Φ=30°的范围。然后,当进行显示位置改变操作时,显示范围进一步移动。例如,如图7(C)所示,显示范围以变化量Φ2=30°垂直移动,将满足方位角θ=0°和仰角Φ=30°的范围更新为满足方位角θ=0°和仰角Φ=60°的范围。然后,当电子设备朝向水平方向时,变化量Φ2=30°保持不变,因此显示范围不会返回到满足方位角θ=仰角Φ=0°的范围,并导致满足方位角θ=0°和仰角Φ=30°的范围。因此,即使当电子设备朝向水平方向时,用户也不能将显示范围返回到满足方位角θ=仰角Φ=0°的范围。
因此,在图6的显示控制处理中,进行如下处理:基于显示范围通过显示位置改变操作而移动的移动量(变化量θ2,Φ2),来校正显示范围响应于显示面的倾斜等的变化而移动的移动量。这使得显示范围的位置能够容易地改变到预期位置。
在图6的步骤S601中,CPU 101从方向检测单元107获取设备朝向信息L1(θ1,Φ1)并将设备朝向信息L1(θ1,Φ1)记录在RAM 104中。在图7(B)的状态下,获取设备朝向信息L1(θ1=0°,Φ1=30°)。CPU 101还将显示范围信息L(θ,Φ)和移动量信息L2(θ2,Φ2)中的各个记录在RAM 104中。在步骤S601中,不存在由于显示位置改变操作而导致的显示范围的移动。因此,CPU 101将显示范围信息L(θ=θ1,Φ=Φ1)和移动量信息L2(θ2=0°,Φ2=0°)中的各个记录在RAM 104中。然后,CPU 101将显示范围信息L(θ=θ1,Φ=Φ1)和显示时间位置信息作为计数值0处的信息发送到视频传送服务器10。计数值0处的显示时间位置信息表示例如对象视频的开头帧的时间位置(0:00)。注意,计数值0处的显示时间位置信息也可以表示其他时间位置。例如,表示先前停止再现对象视频的时间位置的信息也可以用作计数值0处的显示时间位置信息。这样的时间位置可以由电子设备100和视频传送服务器10中的至少一个来管理。
在步骤S602中,CPU 101使用通信IF 108从视频传送服务器10接收图像数据(显示范围内的图像数据),并将接收的图像数据记录在RAM 104中。然后,CPU 101使用显示控制单元105在显示单元110上显示基于存储在RAM 104中的图像数据的图像(显示范围内的图像)。
在步骤S603中,CPU 101确定是否进行了显示位置改变操作(对任何显示位置改变按钮305进行的用户操作)。通过监视从操作单元106输出的控制信号,可以进行步骤S603中的确定。当确定为进行了显示位置改变操作时,处理前进到步骤S604,并且当确定为没有进行显示位置改变操作时,处理前进到步骤S607。
在步骤S604中,CPU 101从操作单元106获取与显示位置改变操作相对应的移动量信息L2(θ2,Φ2)。然后,CPU 101将存储在RAM 104中的移动量信息L2(θ2,Φ2)更新为从操作单元106获取的移动量信息L2(θ2,Φ2)。在图7(C)的状态下,获取移动量信息L2(θ2=0°,Φ2=30°)。
在步骤S605中,CPU 101基于存储在RAM 104中的设备朝向信息L1(θ1,Φ1)和移动量信息L2(θ2,Φ2)来更新存储在RAM 104中的显示范围信息L(θ,Φ)。具体地,使用下面所示的表达式1和2,计算更新后的方位角θ和更新后的仰角Φ,并且更新存储在RAM 104中的显示范围信息L(θ,Φ)。当存在从图7(B)的状态到图7(C)的状态的改变时,计算更新后的方位角θ=0°和更新后的仰角Φ=60°,并且将显示范围信息L(θ,Φ)更新为显示范围信息L(θ=0°,Φ=60°)。
θ=θ1+θ2…(表达式1)
Φ=Φ1+Φ2…(表达式2)
在步骤S606中,CPU 101确定电子设备100(显示单元110(显示单元110的显示面))的仰角Φ1与显示范围的仰角Φ之间的对应关系(方向对应关系)。图8(A)示出了初始状态下的方向对应关系,诸如在进行显示位置改变操作之前的方向对应关系或者在移动量信息L2(θ2=0°,Φ2=0°)表示的状态下的方向对应关系等。在初始状态的方向对应关系中,显示范围的仰角Φ等于电子设备100的仰角Φ1。当存在从图7(B)的状态到图7(C)的状态的改变时,在步骤S606中,确定图8(B)所示的方向对应关系。图8(B)中的点A处的仰角Φn是在进行步骤S606时存储在RAM 104中的仰角Φ=Φ1+Φ2=60°(显示范围信息L(θ,Φ))。点A处的仰角Φ1n是在进行步骤S606时存储在RAM 104中的仰角Φ1=30°(设备朝向信息L1(θ1,Φ1))。
这里考虑使用图8(B)所示的方向对应关系来确定显示范围的情况。在该情况下,确定显示范围,使得响应于电子设备100的倾斜的变化(该变化使电子设备100(显示单元110(显示单元110的显示面))朝向的方向更接近指定方向),显示范围连续移动到与电子设备100的倾斜相对应的位置。在本实施例中,指定方向为水平方向(电子设备的仰角Φ1为0°或180°的方向)。“与电子设备100的倾斜相对应的位置”是不考虑变化量Φ2(移动量信息L2(θ2,Φ2))且显示范围的仰角Φ等于电子设备100的仰角Φ1的位置。
注意,由图8(B)中的方向对应关系表示的仰角Φ是通过基于变化量Φ2对仰角Φ1进行校正而获得的仰角。因此,图8(B)中的方向对应关系也可以说是“基于变化量Φ2校正由仰角Φ1的变化引起的仰角Φ的变化量的对应关系”。注意,变化量Φ2也可以说是“显示范围通过显示位置改变操作在虚拟方向(仰角方向)上移动的移动量”。由仰角Φ1的变化引起的仰角Φ的变化量也可以说是“显示范围响应于显示面的倾斜在仰角方向上的变化而在垂直方向(仰角方向)上移动的移动量”。
在步骤S607中,CPU 101从方向检测单元107获取设备朝向信息L1(θ1,Φ1)并将设备朝向信息L1(θ1,Φ1)记录在RAM 104中(更新设备朝向信息L1(θ1,Φ1))。此时,CPU 101确定电子设备100(显示单元110(显示单元110的显示面))的倾斜是否已经改变。在本实施例中,CPU 101确定电子设备100的倾斜是否以大于阈值的变化量而改变。具体地,CPU 101将更新前的设备朝向信息L1(θ1,Φ1)与更新后的设备朝向信息L1(θ1,Φ1)进行比较,以确定仰角Φ1的变化量是否大于阈值。当确定为仰角Φ1的变化量大于阈值时,处理前进到步骤S608,并且当确定为仰角Φ1的变化量等于或小于阈值时,处理进行到步骤S613。
注意,阈值可以为零或可以大于零。阈值可以是也可以不是由制造商等预先确定的值。例如,阈值也可以是用户指定的值(可变值)。在本实施例中,当即使方位角θ1改变、仰角Φ1也没有改变时,确定为电子设备100的倾斜没有改变。然而,在这种情况下,也可以确定为电子设备100的倾斜已经改变。换言之,还可以进一步考虑方位角θ1的变化来确定电子设备100的倾斜是否已经改变。
在步骤S608中,CPU 101确定是否要重置移动量信息L2(θ2,Φ2)(显示范围通过显示位置改变操作而移动的移动量)。在本实施例中,CPU 101使用显示控制单元105在显示面上显示是否要重置移动量信息L2(θ2,Φ2)的确认画面。然后,CPU 101响应于针对确认画面应答的用户操作来确定是否要重置移动量信息L2(θ2,Φ2)。图9示出了重新确认画面的示例。确认画面901叠加显示在视频播放器的画面(图3)上。为了询问用户是否要重置移动量信息L2(θ2,Φ2),确认画面901显示诸如“是否要重置由画面操作进行的视点变化?”等的消息。另外,确认画面901显示是按钮902和否按钮903。当要重置移动量信息L2(θ2,Φ2)时,用户按下是按钮902,而当不重置移动量信息L2(θ2,Φ2)时,用户按下否按钮903。从操作单元106向CPU 101报告对是按钮902、否按钮903等的按下。当确定为要重置移动量信息L2(θ2,Φ2)时,处理前进到步骤S612。当确定为不重置移动量信息L2(θ2,Φ2)时,处理前进到步骤S609。因此,在本实施例中,选择并进行S609中的处理和S612中的处理中的一个。
注意,选择步骤S609中的处理和步骤S612中的处理中的一个的方法不限于上述显示确认画面的方法。例如,可以在图6的显示控制处理开始等时,预先设置要进行的处理(步骤S609中的处理和步骤S612中的处理中的一个)。还可以在不涉及选择步骤S609中的处理和步骤S612中的处理中的一个的情况下,处理总是从步骤S608前进到步骤S609。还可以是处理总是从步骤S608前进到步骤S612。
在步骤S609中,CPU 101从在步骤S606中确定的方向对应关系中,获取与存储在RAM 104中的仰角Φ1(步骤S607中的更新之后的设备朝向信息L1(θ1,Φ1))相对应的仰角Φ。例如,当在步骤S606中确定了图8(B)中的方向对应关系并且将仰角Φ1=15°存储在RAM104中时,获取B点的仰角Φ=30°。然后,CPU 101更新存储在RAM 104中的显示范围信息L(θ,Φ),使得示出获取的仰角Φ。结果,基于变化量Φ2来校正由仰角Φ1的变化引起的仰角Φ的变化量,因此显示范围以校正后的变化量(仰角Φ的变化量)移动。当电子设备100(显示单元110(显示单元110的显示面))朝向水平方向(指定方向)时,不反映变化量Φ2,并且确定基于仰角Φ1的显示范围(满足仰角Φ=Φ1的显示范围)。
在步骤S610中,CPU 101确定电子设备100(显示单元110(显示单元110的显示面))是否朝向水平方向(指定方向)。具体地,CPU 101确定在步骤S609中更新之后的仰角Φ是否具有基准值(0°或180°)。在步骤S606确定的方向对应关系(图8(B))中,当显示范围的仰角Φ具有基准值时,显示范围的仰角Φ等于电子设备100的仰角Φ1。因此,当步骤S609中更新后的仰角Φ具有基准值时,电子设备100朝向水平方向。当确定为仰角Φ具有基准值时,处理前进到步骤S611,并且当确定为仰角Φ不具有基准值时,处理前进到步骤S613。
在步骤S611中,CPU 101将存储在RAM 104中的移动量信息L2(θ2,Φ2)更新(初始化)为移动量信息L2(0,0)。另外,CPU 101将方向对应关系从在步骤S606中确定的方向对应关系返回(初始化)为图8(A)中的方向对应关系。换言之,CPU 101重置移动量信息L2(θ2,Φ2)和方向对应关系。
在步骤S612中的处理之后,不可避免地进行步骤S611中的处理(移动量信息L2(θ2,Φ2)的重置)。因此,在步骤S612中,CPU 101将存储在RAM 104中的显示范围信息L(θ,Φ)更新为存储在RAM 104中的设备朝向信息L1(θ1,Φ1)。换言之,CPU 101将显示范围信息L(θ,Φ)更新为没有反映移动量信息L2(θ2,Φ2)的信息。
在步骤S613中,CPU 101确定是否进行了停止操作(对停止按钮304进行的用户操作)。通过监视从操作单元106输出的控制信号,可以进行步骤S613中的确定。当确定为进行停止操作时,CPU 101使用显示控制单元105来结束对象视频的显示并结束图6中的显示控制处理。当确定为不进行停止操作时,处理前进到步骤S614。
在步骤S614中,CPU 101更新显示时间位置信息。具体地,CPU 101确定是否进行了再现操作(对再现按钮302进行的用户操作)或暂停操作(对暂停按钮303进行的用户操作)。通过监视从操作单元106输出的控制信号,可以进行该确定。然后,在进行再现操作之后和进行暂停操作之前的时段期间,CPU 101顺次更新显示时间位置信息,使得显示时间位置前进,以增加从开始对象视频到显示时间位置所经过的时间段。注意,在进行暂停操作之后和进行再现操作之前的时段期间,CPU 101不更新显示时间位置信息。
在步骤S615中,CPU 101将计数值加一。
在步骤S616中,CPU 101将在步骤S614中更新后的显示时间位置信息和存储在RAM104中的显示范围信息L(θ,Φ),作为与步骤S615中更新后的计数值有关的信息发送到视频传送服务器10。
如上所述,根据本实施例,基于通过显示位置改变操作移动显示范围的移动量,进行如下处理:校正显示范围响应于显示面的倾斜等的变化而移动的移动量。这使得能够将显示范围的位置容易地改变到预期位置。例如,即使在通过显示位置改变操作改变了显示范围的位置之后,通过将显示面的倾斜返回到原始倾斜,也可以将显示范围的位置返回到原始位置。
虽然描述了如下示例:基于由显示位置改变操作引起的变化量Φ2(显示范围的仰角Φ的变化量),来校正由显示面的仰角Φ1的变化引起的显示范围的仰角Φ的变化量,但是校正不限于此。例如,也可以基于由显示位置改变操作引起的变化量θ2(显示范围的方位角θ的变化量),来校正由显示面的方位角θ1的变化引起的显示范围的方位角θ的变化量。可以仅适当地校正方位角θ和仰角Φ中的一个,或者另选地,可以适当地校正方位角θ和仰角Φ两者。另外,指定方向可以是与水平方向不同的方向。例如,指定方向可以是方位角θ1为90°的方向,或者另选地,指定方向可以是满足方位角θ1=仰角Φ1=45°的方向。
还可以的是,在显示面朝向指定方向(诸如水平方向等)的状态下,CPU101不响应于显示位置改变操作而改变显示范围的位置。通过这样做,即使在无意中进行了显示位置改变操作时,用户也可以继续沿指定方向观看。
<第二实施例>
下面将描述本发明的第二实施例。注意,下面将给出与第一实施例不同的点(诸如构造或处理等)的详细描述,并且省略与第一实施例相同的点的描述。
在本实施例中,方向检测单元107还检测电子设备100的用户的姿势(体位)(姿势检测)。具体地,方向检测单元107使用陀螺仪传感器来检测电子设备100所在的高度H。图10示出了电子设备100所在的高度H与用户的姿势之间的对应关系的示例。如图10所示,当用户的姿势在站姿、坐姿、卧姿等之间改变时,电子设备100所在的高度H也会改变。因此,可以说,电子设备100所在的高度是“与用户的姿势相对应的参数”。当用户的姿势改变时,很有可能用户打算再次进行显示位置改变操作。因此,在本实施例中,CPU 101基于来自方向检测单元107的检测结果来确定用户的姿势是否已经改变,并且当确定为用户的姿势已经改变时,CPU 101适当地重置移动量信息L2(θ2,Φ2)。
图11是示出根据本实施例的显示控制处理的示例的流程图。CPU 101在RAM 104中展开存储在ROM 103中的用于视频播放器的应用程序并执行该应用程序,从而实现图11的流程图中的各个处理步骤。
步骤S1101至S1112中的处理步骤与图6中步骤S601至S612中的处理步骤相同。
在步骤S1113中,CPU 101使用方向检测单元107来确定用户的姿势(体位)是否已经改变。在本实施例中,CPU 101确定用户的姿势是否以大于阈值的变化量而改变。具体地,方向检测单元107检测电子设备100所在的高度H并将高度H报告给CPU 101。然后,CPU 101确定所报告的高度H的变化量(诸如与先前报告的高度H的变化量或每给定时间段的变化量等)是否大于阈值。当确定为高度H的变化量大于阈值时,处理前进到步骤S1114,而当确定为高度H的变化量等于或小于阈值时,处理前进到步骤S1119。注意,阈值可以为零或可以大于零。阈值可以是也可以不是由制造商等预先确定的值。例如,阈值也可以是用户指定的值(可变值)。
步骤S1114至S1122中的处理步骤与图6中步骤S608至S616中的处理步骤相同。
如上所述,根据本实施例,当确定为用户的姿势已经改变时,很有可能用户打算再次进行显示位置改变操作,因此移动量信息L2(θ2,Φ2)被适当地重置。这可以提高便利性。
注意,上述假设由CPU 101进行的各种控制操作中的各个也可以由一个硬件项进行,或者另选地,多个硬件项(例如,多个处理器或电路)可以分担处理以控制整个设备。
尽管基于本发明的优选实施例详细描述了本发明,但是本发明不限于这些特定实施例,并且包括不脱离本发明的精神的范围内的各种形式。另外,上述各实施例仅示出了本发明的实施例,并且还可以适当地组合各实施例。
<其他实施例>
本发明还可以通过如下处理来实现,其中,经由网络或存储介质向系统或设备提供实现上述实施例的一个或多个功能的程序,并且该系统或设备的计算机中的一个或多个处理器读取并执行该程序。本发明还可以通过实现一个或多个功能的电路(例如ASIC)来实现。
本发明不受上述实施例限制,并且可以在不脱离本发明的精神和范围的情况下进行各种改变和变型。因此,做出了权利要求以公开本发明的范围。
本申请要求2019年3月19日提交的日本专利申请2019-051262的优先权,该申请的全部内容通过引用并入本文。
[附图标记列表]
100 电子设备
101 CPU
106 操作单元
107 方向检测单元

Claims (17)

1.一种电子设备,其包括:
检测单元,其被配置为检测显示面的倾斜;
接收单元,其被配置为接收用户操作;以及
控制单元,其被配置为进行控制,以在所述显示面上显示图像的一部分作为显示范围,响应于所述显示面的倾斜的变化来改变所述显示范围的位置,并响应于用户操作来改变所述显示范围的位置,
其中,所述控制单元基于所述显示范围通过用户操作移动的第一移动量,来校正所述显示范围响应于所述显示面的倾斜的变化而移动的第二移动量。
2.根据权利要求1所述的电子设备,其中,在所述显示面朝向指定方向的情况下,所述控制单元确定与所述显示面的倾斜相对应并且未反映所述第一移动量的显示范围。
3.根据权利要求2所述的电子设备,其中,所述指定方向为水平方向。
4.根据权利要求2或3所述的电子设备,其中,在所述显示面朝向所述指定方向的状态下,所述控制单元不响应于用户操作改变所述显示范围的位置。
5.根据权利要求2至4中的任一项所述的电子设备,其中,所述控制单元确定所述显示范围,使得响应于使所述显示面朝向的方向更接近所述指定方向的显示面的倾斜的变化,所述显示范围连续移动到与所述显示面的倾斜相对应的位置。
6.根据权利要求1至5中的任一项所述的电子设备,其中,
所述第一移动量是垂直方向上的移动量,以及
所述第二移动量是所述显示范围响应于仰角方向上的所述显示面的倾斜的变化而在所述垂直方向上移动的移动量。
7.根据权利要求1至6中的任一项所述的电子设备,其中,在所述显示面的倾斜改变的情况下,所述控制单元选择性地进行用于以所述第二移动量来移动所述显示范围的处理和用于重置所述第一移动量并确定所述显示范围的处理其中之一。
8.根据权利要求7所述的电子设备,其中,所述显示面的倾斜改变的情况是所述显示面的倾斜以大于阈值的变化量改变的情况。
9.根据权利要求7或8所述的电子设备,其中,在所述显示面的倾斜改变的情况下,所述控制单元进行控制,以在所述显示面上显示与是否要重置所述第一移动量有关的确认画面。
10.根据权利要求1至9中的任一项所述的电子设备,还包括:
姿势检测单元,其被配置为检测用户的姿势,
其中,在用户的姿势改变的情况下,所述控制单元选择性地进行用于以所述第二移动量来移动所述显示范围的处理和用于重置所述第一移动量并确定所述显示范围的处理其中之一。
11.根据权利要求10所述的电子设备,其中,所述姿势检测单元检测所述电子设备所在的高度作为与用户的姿势相对应的参数。
12.根据权利要求10或11所述的电子设备,其中,用户的姿势改变的情况是用户的姿势以大于阈值的变化量改变的情况。
13.根据权利要求10至12中的任一项所述的电子设备,其中,在用户的姿势改变的情况下,所述控制单元进行控制,以在所述显示面上显示与是否要重置所述第一移动量有关的确认画面。
14.根据权利要求1至13中的任一项所述的电子设备,其中,所述图像是虚拟现实图像即VR图像。
15.一种电子设备的控制方法,包括:
检测步骤,用于检测显示面的倾斜;
接收步骤,用于接收用户操作;以及
控制步骤,用于进行控制,以在所述显示面上显示图像的一部分作为显示范围,响应于所述显示面的倾斜的变化来改变所述显示范围的位置,并响应于用户操作来改变所述显示范围的位置,
其中,在所述控制步骤中,基于所述显示范围通过用户操作移动的第一移动量,来校正所述显示范围响应于所述显示面的倾斜的变化而移动的第二移动量。
16.一种程序,其使计算机用作根据权利要求1至14中的任一项所述的电子设备的各单元。
17.一种存储介质,其存储使计算机用作根据权利要求1至14中的任一项所述的电子设备的各单元的程序。
CN202080022373.2A 2019-03-19 2020-03-04 电子设备、电子设备的控制方法、程序和存储介质 Pending CN113574592A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019051262A JP7341685B2 (ja) 2019-03-19 2019-03-19 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP2019-051262 2019-03-19
PCT/JP2020/009091 WO2020189274A1 (ja) 2019-03-19 2020-03-04 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Publications (1)

Publication Number Publication Date
CN113574592A true CN113574592A (zh) 2021-10-29

Family

ID=72520185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080022373.2A Pending CN113574592A (zh) 2019-03-19 2020-03-04 电子设备、电子设备的控制方法、程序和存储介质

Country Status (6)

Country Link
US (1) US11740477B2 (zh)
EP (1) EP3944228A4 (zh)
JP (1) JP7341685B2 (zh)
KR (1) KR102549779B1 (zh)
CN (1) CN113574592A (zh)
WO (1) WO2020189274A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11523212B2 (en) 2018-06-01 2022-12-06 Shure Acquisition Holdings, Inc. Pattern-forming microphone array
WO2023243024A1 (ja) * 2022-06-16 2023-12-21 株式会社ビジョン・コンサルティング セパレート型スマートデバイス

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150020649A (ko) * 2015-01-26 2015-02-26 엘지전자 주식회사 이동 단말기, 그 제어방법 및 이를 포함하는 정보표시 시스템
CN105208368A (zh) * 2015-09-23 2015-12-30 北京奇虎科技有限公司 显示全景数据的方法及装置
CN105828090A (zh) * 2016-03-22 2016-08-03 乐视网信息技术(北京)股份有限公司 全景直播方法及装置
CN106094863A (zh) * 2015-04-23 2016-11-09 鹦鹉无人机股份有限公司 用于沉浸式驾驶无人机的系统
KR20170084443A (ko) * 2016-01-12 2017-07-20 엘지전자 주식회사 헤드 마운트 디스플레이 장치 제어방법
KR20180063581A (ko) * 2016-12-02 2018-06-12 김기창 가상 현실 표시 장치 및 그 제어 방법
US20180196266A1 (en) * 2015-10-14 2018-07-12 Samsung Electronics Co., Ltd. Electronic device and method for controlling same
JP2019016362A (ja) * 2018-08-08 2019-01-31 任天堂株式会社 情報処理システム及び情報処理プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7433760B2 (en) * 2004-10-28 2008-10-07 Accelerated Pictures, Inc. Camera and animation controller, systems and methods
JP5330640B2 (ja) * 2006-05-09 2013-10-30 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP5265159B2 (ja) * 2007-09-11 2013-08-14 株式会社バンダイナムコゲームス プログラム及びゲーム装置
WO2009084213A1 (ja) * 2007-12-28 2009-07-09 Capcom Co., Ltd. コンピュータ、プログラムおよび記憶媒体
JP5800473B2 (ja) * 2010-06-11 2015-10-28 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US20120314899A1 (en) * 2011-06-13 2012-12-13 Microsoft Corporation Natural user interfaces for mobile image viewing
JP6385725B2 (ja) * 2014-06-06 2018-09-05 任天堂株式会社 情報処理システム及び情報処理プログラム
JP6130478B1 (ja) 2015-12-15 2017-05-17 株式会社コロプラ プログラム及びコンピュータ
JP2018037034A (ja) * 2016-09-02 2018-03-08 株式会社タカラトミー 情報処理システム
JP7048230B2 (ja) 2017-09-19 2022-04-05 株式会社ユニバーサルエンターテインメント 遊技機
JP2019015972A (ja) * 2018-08-17 2019-01-31 株式会社コロプラ Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置
JP7214523B2 (ja) * 2019-03-20 2023-01-30 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム
US11677911B2 (en) * 2019-11-14 2023-06-13 Canon Kabushiki Kaisha Display apparatus capable of controlling a position of a display range based on a change of focal distance

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150020649A (ko) * 2015-01-26 2015-02-26 엘지전자 주식회사 이동 단말기, 그 제어방법 및 이를 포함하는 정보표시 시스템
CN106094863A (zh) * 2015-04-23 2016-11-09 鹦鹉无人机股份有限公司 用于沉浸式驾驶无人机的系统
CN105208368A (zh) * 2015-09-23 2015-12-30 北京奇虎科技有限公司 显示全景数据的方法及装置
US20180196266A1 (en) * 2015-10-14 2018-07-12 Samsung Electronics Co., Ltd. Electronic device and method for controlling same
KR20170084443A (ko) * 2016-01-12 2017-07-20 엘지전자 주식회사 헤드 마운트 디스플레이 장치 제어방법
CN105828090A (zh) * 2016-03-22 2016-08-03 乐视网信息技术(北京)股份有限公司 全景直播方法及装置
KR20180063581A (ko) * 2016-12-02 2018-06-12 김기창 가상 현실 표시 장치 및 그 제어 방법
JP2019016362A (ja) * 2018-08-08 2019-01-31 任天堂株式会社 情報処理システム及び情報処理プログラム

Also Published As

Publication number Publication date
EP3944228A1 (en) 2022-01-26
EP3944228A4 (en) 2022-11-23
JP7341685B2 (ja) 2023-09-11
WO2020189274A1 (ja) 2020-09-24
US20210405383A1 (en) 2021-12-30
KR20210139325A (ko) 2021-11-22
KR102549779B1 (ko) 2023-06-30
JP2020154567A (ja) 2020-09-24
US11740477B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
JP5981591B1 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
US9164621B2 (en) Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
US9086742B2 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
US20170316582A1 (en) Robust Head Pose Estimation with a Depth Camera
EP3097689B1 (en) Multi-view display control for channel selection
US20170078570A1 (en) Image processing device, image processing method, and image processing program
WO2019059020A1 (ja) 制御装置、制御方法、及びプログラム
WO2016169409A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
US20180316911A1 (en) Information processing apparatus
US20220291744A1 (en) Display processing device, display processing method, and recording medium
CN112616048B (zh) Ar眼镜及其显示方法和系统、图像处理方法及设备
US10216357B2 (en) Apparatus and method for controlling the apparatus
JP2017191492A (ja) 情報処理装置、情報処理方法および映像生成システム
CN113574592A (zh) 电子设备、电子设备的控制方法、程序和存储介质
US20230343022A1 (en) Mediated Reality
EP2952233B1 (en) Information processing system, information processing program, information processing apparatus, and information processing method
CN111857461B (zh) 图像显示方法、装置、电子设备及可读存储介质
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP6452585B2 (ja) 情報処理装置および位置情報取得方法
US11125997B2 (en) Information processing apparatus, information processing method, and program
CN110494915B (zh) 电子装置及其控制方法和计算机可读介质
CN112738404B (zh) 电子设备的控制方法及电子设备
JP2020154792A (ja) 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
EP4383700A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
US20240231481A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination