CN107637076A - 电子设备及其控制方法 - Google Patents

电子设备及其控制方法 Download PDF

Info

Publication number
CN107637076A
CN107637076A CN201680031737.7A CN201680031737A CN107637076A CN 107637076 A CN107637076 A CN 107637076A CN 201680031737 A CN201680031737 A CN 201680031737A CN 107637076 A CN107637076 A CN 107637076A
Authority
CN
China
Prior art keywords
visual field
distance
virtual visual
electronic equipment
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680031737.7A
Other languages
English (en)
Other versions
CN107637076B (zh
Inventor
陈敬信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN107637076A publication Critical patent/CN107637076A/zh
Application granted granted Critical
Publication of CN107637076B publication Critical patent/CN107637076B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

公开了一种电子设备。所述电子设备包括:显示器,用于显示虚拟现实(VR)内容;检测单元,用于检测所述电子设备与用户和所述用户持有的终端设备中的至少一个之间的距离;以及处理器,用于确定与由检测单元检测到的距离相对应的虚拟视场,并且控制显示器显示包括与虚拟视场相对应的VR内容区域在内的屏幕。

Description

电子设备及其控制方法
技术领域
本发明涉及一种电子设备及其控制方法,更具体地,涉及一种提供虚拟现实(VR)服务的电子设备及其控制方法。
背景技术
一般来说,虚拟现实(VR)技术是这样一种技术,其能够在通过计算机图形(CG)创建的与实际环境相似的3D虚拟环境中实现人体的所有感官(视觉、听觉、嗅觉、味觉和触觉)并且最终目的是通过使虚拟空间三维地再现给参与者并使参与者沉浸在虚拟空间中使人们沉浸在虚拟空间中来最大化信息利用。
近年来,已经开发了用于提供VR内容的各种电子设备以及利用VR技术实现的VR内容。
然而,为了提供这样的VR内容,存在需要提供用于VR内容再现的专用设备的缺点。
因此,有必要寻找一种方式来使用户使用现有的TV和监视器体验VR内容。
发明内容
本发明的目的是提供一种电子设备及其控制方法,其用于提供具有与用户和电子设备之间的距离相对应的虚拟视场的VR内容。
根据示例性实施例的电子设备包括:显示器,被配置为显示虚拟现实(VR)内容;检测单元,被配置为检测所述电子设备与用户和所述用户持有的终端设备中的至少一个之间的距离;以及处理器,被配置为确定与由所述检测单元检测到的距离相对应的虚拟视场,并且控制所述显示器显示包括与所述虚拟视场相对应的VR内容区域在内的屏幕。
所述处理器可以响应于所述虚拟视场是基于用户的视场并且检测到的距离增加至大于先前感测到的距离,增大所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,减小所述虚拟视场。
所述处理器可以响应于所述虚拟视场是基于所述电子设备的视场并且检测到的距离增加至大于先前感测到的距离,减小所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,增大所述虚拟视场。
所述处理器可以控制所述显示器根据检测到的距离的改变以与改变后的距离相对应的预定比例来改变所述虚拟视场,并且显示包括与改变后的虚拟视场相对应的VR内容区域在内的屏幕。
所述处理器可以根据输入用户的事件、输入特定类型内容的事件以及感测到的距离满足预定阈值距离的事件中的至少一个来改变所述预定比例并且应用所述预定比例。
所述处理器可以在根据感测到的距离改变所述虚拟视场的视场改变模式中操作,或者在不管感测到的距离如何都维持所述虚拟视场的视场固定模式中操作。
所述检测单元可以被实现为以下至少一项:相机、RF传感器、超声波传感器、激光传感器以及红外传感器。
所述处理器可以从内容反映在虚拟三维空间中的所述VR内容中提取并显示包括与所述虚拟视场相对应的内容区域在内的屏幕。
当所述检测单元检测到多个用户时,所述处理器可以确定与距所述多个用户中的预定用户一定距离或者所述多个用户的平均距离相对应的虚拟视场。
根据示例性实施例的电子设备的控制方法包括确定与由所述检测单元感测到的距离相对应的虚拟视场;以及控制所述显示器显示包括与所述虚拟视场相对应的VR内容区域在内的屏幕。在该情况下,电子设备可以包括:显示器,显示VR内容;以及检测单元,检测所述电子设备与用户和所述用户持有的终端设备中的至少一个之间的距离。
在本文中,所述控制方法还可以包括:响应于所述虚拟视场是基于用户的视场并且检测到的距离增加至大于先前感测到的距离,增大所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,减小所述虚拟视场。
所述控制方法还可以包括:响应于所述虚拟视场是基于所述电子设备的视场并且检测到的距离增加至大于先前感测到的距离,减小所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,增大所述虚拟视场。
所述控制方法还可以包括:控制显示器根据检测到的距离的改变以与改变后的距离相对应的预定比例来改变所述虚拟视场,并且显示包括与改变后的虚拟视场相对应的VR内容区域在内的屏幕。
所述控制方法还可以包括:根据输入用户的事件、输入特定类型内容的事件以及感测到的距离满足预定阈值距离的事件中的至少一个来改变所述预定比例并且应用所述预定比例。
所述控制方法还可以包括:在根据感测到的距离改变所述虚拟视场的视场改变模式中操作,或者在不管感测到的距离如何都维持所述虚拟视场的视场固定模式中操作。
所述检测单元可以被实现为以下至少一项:相机、RF传感器、超声波传感器、激光传感器以及红外传感器。
所述控制方法还可以包括:从内容反映在虚拟三维空间中的所述VR内容中提取并显示包括与所述虚拟视场相对应的内容区域在内的屏幕。
所述控制方法还包括:当所述检测单元检测到多个用户时,确定与距所述多个用户中的预定用户一定距离或者所述多个用户的平均距离相对应的虚拟视场。
如上所述,根据本发明的各种示例性实施例,可以提供具有与用户与电子设备之间的距离相对应的虚拟视场在内的VR内容,以向用户提供最佳的浸入感。
附图说明
图1A和图1B是示出了根据示例性实施例的电子设备的示例的视图。
图2是用于示出根据示例性实施例的电子设备的配置的框图。
图3是示出了根据示例性实施例用于改变预设比例的GUI的图。
图4A和图4B是用于描述根据示例性实施例的改变基于用户的视场的视图。
图5A和图5B是用于描述根据示例性实施例的改变基于显示设备的视场的视图。
图6是用于描述根据示例性实施例的根据感测到的距离改变视场的过程的流程图。
图7是示出了根据另一示例性实施例的电子设备的详细配置的框图。
图8是用于描述根据示例性实施例的电子设备的控制方法的流程图。
具体实施方式
在下文中,将参考附图来更详细地描述示例实施例。
图1A和图1B是示出了根据示例性实施例的电子设备100的示例的视图。
根据图1A和图1B,根据示例性实施例的VR设备(即,电子设备100)可以被实现为一般显示设备100。
具体地,显示设备100可以通过用各种距离测量方法测量显示设备100与用户10之间的距离来确定虚拟视场。在本文中,视场指的是人的视线到达的范围,并且虚拟视场指的是与电子设备100和用户10之间的距离相对应的预定视场,以便向用户10提供空间感。由于人的最大视场对应于100度至120度,所以虚拟视场的最大范围也可以设置为100度至120度。
例如,如图1A所示,当显示设备100与用户10之间的距离为A时,显示设备100可以显示与距离A相对应的第一虚拟视场的VR内容。同时,如图1B所示,当显示设备100与用户10之间的距离是从A变为B(B>A)时,显示设备100可以在具有比第一虚拟视场更大的值的第二虚拟视场中显示VR内容。
这里,VR可以包括其中信息以三维方式显示的覆盖在屏幕等上的增强现实。
另外,电子设备100可以与诸如遥控器、游戏控制台和3D眼镜之类的设备结合操作。在这种情况下,电子设备100可以具有各种形式,例如TV、监视器、移动电话、PDA、电子词典、MP3、PMP、平板PC等。
同时,电子设备100可以检测电子设备100与用户10之间的距离,基于检测到的距离改变虚拟视场,并且通过将改变后的视场应用于VR内容来显示改变后的视场。下文将参考附图详细描述本发明。
图2是示出了根据示例性实施例的电子设备100的配置的框图。
根据图2,根据本发明的示例性实施例的电子设备100包括显示器100、检测单元120和处理器130。这里,电子设备100可以从外部接收VR内容,或者可以基于从外部输入的数据产生VR内容。
显示器110显示VR内容。这里,VR内容可以是一般的二维图像,但是不限于此,并且可以是包括用于提供VR服务的左眼图像和右眼图像的3D图像、或者全景VR内容。
在处理器130的控制下,显示器100还可以显示应用了与电子设备100和用户10之间的距离相对应的虚拟视场的VR内容。
检测单元120可以检测电子设备100与用户10和用户10所持有的终端设备中的至少一个之间的距离。
具体地,检测单元120可以检测电子设备100和用户10之间的距离。这里,用于检测检测电子设备100和用户10之间的距离的参考点可以改变。例如,参考点可以是作为电子设备100的一部分的显示器100、边框(未示出)、底座(未示出)、检测单元120等。在用户10的情况下,用户10的所有身体部位或整个身体可以是参考点。检测单元120可以向检测参考点的处理器130发送距离信息。这里,当存在多个用户10时,检测单元120可以向处理器130发送从多个用户检测到的距离信息中的关于一部分用户或全部用户的检测信息。
检测单元120可以检测电子设备100和用户10持有的终端设备之间的距离。
这里,用户10提供的终端设备可以是各种终端设备,诸如用于控制显示设备的遥控器、用于操作游戏的操纵杆以及移动电话。检测单元120可以通过感测用户10提供的终端设备来间接检测用户10。
同时,检测单元120可以由相机、RF传感器、超声波传感器、激光传感器和红外传感器中的至少一个来实现。
相机可以拍摄用户10和由用户10提供的终端设备中的至少一个。稍后将描述的处理器130可以执行相机校准以确定相机坐标系和相机坐标系之间的固有参数、外部参数。在该处理之后,处理器130可以从多个图像中提取用户10的终端设备或用户10并测量距离。这里,处理器130可以是两个或更多个相机。此时,处理器130可以同时从两个或更多个相机获取图像,并通过在图像之间进行匹配来测量距离。同时,相机可以设置在电子设备100的一部分处或者经由延伸部分与电子设备100隔开的位置处。
RF传感器使用射频(RF)测量距离。RF传感器向用户10的终端设备或用户10发射与微波相对应的电磁波(通常为1MHz或更大)。可以接收从用户10的终端设备或用户10反射回来的微波,并测量微波被反射并返回到RF传感器的时间。
超声波传感器使用超声波来测量距离。这里,超声(超声波)是指人耳无法听到并且大于20Khz的声音的声音。超声波传感器通过使用压电元件(当施加机械压力时产生电压并且当施加电压时产生机械变化的设备)产生超声波。超声波传感器可以测量超声波从用户10的终端设备或用户10反射的时间。
激光传感器使用激光测量距离。激光传感器使用激光发射机和激光接收机发射并检测激光。激光传感器发射激光脉冲信号以测量来自用户10或测量范围内的用户10的反射脉冲信号到达激光接收机的时间。备选地,激光传感器发射具有特定频率的连续调制的激光束,并测量从测量范围内的用户10或用户终端10反射回来的信号的相位变化量。
红外传感器使用红外(900nm以上的波长)测量距离。红外传感器可以发射红外信号并且测量由用户10或由用户10提供的终端10反射的红外光的量。这里,红外传感器可以通过使用红外线的反射量与距离平方成反比的相关性来测量距离。
上述距离测量方法可以使用各种已知的感测技术以及相机、RF传感器、超声波传感器、激光传感器和红外传感器来测量。
在上面的描述中,距离是通过相机、RF传感器、超声波传感器、激光传感器和红外传感器本身来测量的。然而,在相机、RF传感器、超声波传感器、激光传感器和红外传感器中,收集的数据也可以由处理器130处理并测量距离。
在以上描述中,假设用户10是单个用户。然而,在处理器130检测到多个用户的情况下,可以确定与距用户一定距离或多个用户的平均距离相对应的虚拟视场。在一个示例中,可以将预定用户设置为多个用户中最近的人或者最大的人,并且多个用户的平均距离可以是多个用户中的一些用户的距离的平均值。
同时,检测单元120可以感测用户10的终端的向上移动、向下移动、向左移动和向右移动。为此,检测单元120还可以包括诸如RADAR之类的具有根据终端的向上移动、向下移动、向左移动和向右移动识别用户10的位置的功能的传感器。这里,处理器130可以根据由检测单元120检测到的用户10的终端的垂直位置、水平位置和左侧位置来向上、向下、向左、向右移动VR内容区域。处理器130控制电子设备100的总体操作。特别地,处理器130可以确定与由检测单元120感测到的距离相对应的虚拟视场。
具体地,处理器130可以使用其中记录了与感测到的距离匹配的虚拟视场的表格。
在一个示例中,处理器130可以接收经由检测单元120接收到的电子设备100和用户10之间的距离。此时,当接收到的距离是2m时,处理器130可以参考该表格来将与距离2m相对应的虚拟视场确定为90度。
这里,在表格中,与感测到的距离匹配的类型被描述为虚拟视场,但是与感测到的距离匹配的类型可以是VR空间中的坐标值。
另一方面,当确定了与检测到的距离相对应的视场时,处理器130可以控制显示器110显示包括与虚拟视场相对应的VR内容区域在内的屏幕。
具体地,处理器130可以进行控制,以在内容被投影在虚拟三维空间中的VR内容中提取并显示包括与虚拟视场相对应的内容区域在内的屏幕。
为此,处理器130可以更新与更新后的虚拟视场相对应的内容区域的坐标。例如,处理器130可以根据虚拟视场的变化率来增大或减小与内容区域匹配的坐标值。在这种情况下,坐标值可以以像素为单位。
同时,当用户10的终端设备和用户10之间的距离改变时,处理器130也可以改变虚拟视场。
具体地,当感测到的距离改变时,处理器130将虚拟视场改变与改变后的距离相对应的预定比例,并且显示包括与改变后的虚拟视场110相对应的VR内容区域在内的屏幕。
这里,处理器130根据以下至少一个来改变预定比例并且应用改变后的比例:输入用户10的命令的事件、输入特定类型的内容的事件以及感测到的距离满足预定阈值距离的事件。预定比例是用于根据感测到的距离的增加或减小而增大或减小虚拟视场的比例。
处理器130可以根据输入用户10的命令的事件来改变预设比例。这将参考图3进行描述。
图3是示出了根据示例性实施例用于改变预设比例的GUI的图。
参考图3,例如,处理器130在显示器110上输出用于调整预定比例的图形用户界面(GUI)。用于调整预定比例的GUI 310包括可以通过用户10的操作向上和向下移动的调整GUI 311。这里,当调整GUI 311从先前位置向上移动时,预定比例增加,并且当调整GUI 311从先前位置向下移动时,预定比例减小。当预设比例增加时,虚拟视场的比例随着感测到的距离的增加而增大或减小。此外,当预定比例减小时,增大或减小的虚拟视场的比例随着感测到的距离的减小而增加。
上述GUI仅仅是示例,并且GUI可以以各种示例实现,以从用户接收用于调整预定比例的输入。
另外,处理器130可以根据输入特定类型的内容的事件来改变预设比例。
例如,当特定类型的内容是射击游戏时,由于用户10为了瞄准目标而需要将目标点放大至相对较大,所以处理器130可以将该预定比例设定为较大的值,使得可以增加与电子设备100与用户或电子设备100与用户的终端设备之间的距离的变化相对应的虚拟视场的大小的变化率。
备选地,如果特定类型的内容是浪漫电影,则可能不需要由于距离改变而改变虚拟视场。此时,处理器130可以将预定比例设置为较小的值,使得与电子设备100与用户或用户10的终端设备之间的距离的变化相对应的虚拟视场的大小的变化率可以减小。
另外,处理器130可以根据感测到的距离满足预定阈值距离的事件来改变预定比例。
具体地,当用户10或用户10所提供的终端设备远离或靠近电子设备100时,不能使虚拟视场无限大或无限小。因此,当感测到的距离超出预定阈值距离时,处理器130可以减小与感测到的距离的改变相对应地改变虚拟视场的预定比例。这里,当预定感测距离满足预定阈值距离时,处理器130可以停止增大或减小虚拟视场。
同时,处理器130可以根据感测到的距离的增加或减小来增大或减小、减小或增大虚拟视场。这将参考图4A和图4B进行详细描述。
图4A和图4B是用于描述根据示例性实施例的改变基于用户的视场的视图。
图4A和图4B示出了基于用户10的视场的变化。参考图4A,VR内容包括三维空间上的所有区域的图像。因此,可以假设通过电子设备100的显示器110观看VR内容的区域,就好像用户10在球体410内观看球体410的区域420一样。
这里,假定球体410的一个区域420是一个墙壁,则如果用户10位于距离C处并移动到距离D的位置(C>D),则用户10移动到靠近墙壁。这样,当墙壁靠近用户10时,用户10的视场减小。
结果,如果虚拟视场是基于用户10的视场,则当感测到的距离大于先前感测到的距离时,处理器130增大虚拟视场,并且如果感测到的距离减小至小于先前感测到的距离,则可以减小虚拟视场。
图5A和图5B是用于描述根据示例性实施例的基于显示设备改变视场的视图。
图5A和图5B示出了基于电子设备100的视场变化。参考图5A,假设电子设备100是窗户,则用户10可以位于与电子设备100相距距离E的位置处,并且通过窗户(即电子设备100)来观看球体510的区域530。在图5中,用户10位于远离电子设备100的距离F的区域中。也就是说,与图5A中相比,用户10已经移动到更靠近电子设备100(E>F)。这里,用户10通过窗口(即,电子设备100)观看球体510的一个区域520。这样,当用户10变得更靠近电子设备100时,用户10的视场增大。
这样,如果虚拟视场是电子设备参考的视场,则处理器130可以减小虚拟视场,并且如果感测到的距离大于先前感测到的距离,则也可以增大虚拟视场。
图6是用于描述根据示例性实施例的根据感测到的距离改变视场的过程的流程图。
参考图6,可以向电子设备100输入VR内容(S610)。如上所述,处理器130还能够从外部接收VR内容并产生VR内容。
当输入VR内容时,处理器130设置虚拟视场的初始值(S620)。这里,初始值可以是在设置初始值时与VR内容的类型相对应的虚拟视场或者与用户的距离相对应的视场。
当设置初始值时,处理器130确定是否固定虚拟视场(S630)。这里,处理器130可以根据VR内容的类型确定是否固定视场,或者可以通过接收用户10的输入来确定是否固定视场。例如,处理器130可以在根据感测到的距离改变虚拟视场的视场改变模式中操作,或者在不管感测到的距离如何都维持虚拟视场的视场固定模式中操作。
如果确定虚拟视场是固定的(是),则处理器130控制显示器110显示VR内容。如果确定虚拟视场不是固定的(否),则可以设置响应于感测到的距离的改变而改变虚拟视场的比例(S640)。这里,处理器可以根据VR内容的类型确定比例,或者可以从用户10接收输入并确定比例。
当响应于感测到的距离的改变来设置改变虚拟视场的比例时,处理器130使用检测单元120来测量电子设备100与用户之间或者由用户所拥有的终端设备之间的距离(S650)。
另外,处理器130可以基于感测到的距离来改变虚拟视场(S660)。之后,处理器130可以控制显示器110显示应用了改变后的虚拟视场的VR内容区域(S670)。处理器130可以通过以预定时间间隔感测电子设备100与用户之间的距离或用户的终端设备之间的距离来更新虚拟视场。
图7是示出了根据另一示例性实施例的电子设备100’的详细配置的框图。
参考图7,电子设备100’包括显示器110、检测单元120、控制器130、存储设备140和通信器150。将省略图7中所示的配置中与图2所示的那些重叠的图7的详细描述的部分。
显示器110显示VR内容。在这种情况下,显示器110可以被实现为液晶显示器(LCD面板)、有机发光二极管(OLED)等,但是不限于此。此外,根据情况,显示器110可以被实现为柔性显示器、透明显示器等。当智能手机被连接并用作监视器时,显示器110可以被实现为智能手机的显示器。
检测单元120可以感测用户10或用户10的终端设备。检测单元120可以连接到从电子设备100’延伸的线。
处理器130的操作可以通过存储的程序来实现。
具体地,处理器130包括RAM 131、ROM 132、主CPU 133、图形处理器134、第一接口135-1至第n接口135-n、以及总线136。
RAM 131、ROM 132、主CPU 133、图形处理器134以及第一接口135-1至第n接口135-n可以通过总线136相互连接。
将第一接口135-1至第n接口135-n连接到上述各种组件。接口之一可以是经由网络连接到外部设备的网络接口。
主CPU 133访问存储设备140,并使用存储设备140中存储的O/S执行引导。然后,使用存储在存储设备140中的各种程序、内容、数据等执行各种操作。例如,主CPU 133可以使用存储在存储设备140中的表格来确定与感测到的距离相对应的虚拟视场。
ROM 132存储用于引导系统等的命令集。当输入开启命令并且供电时,主CPU 133根据ROM 132中存储的命令,将存储设备140中存储的O/S拷贝到RAM 131中,并执行O/S以引导系统。当完成引导时,主CPU 133向RAM 131拷贝存储设备140中存储的多种应用程序,执行向RAM 131拷贝的应用程序,并且执行多种操作。
图形处理器134使用操作单元(未示出)和渲染单元(未示出)产生包括多种对象(例如,图标、图像和文本)的屏幕。操作单元(未示出)基于接收的控制命令根据屏幕的布局来计算诸如坐标值、形状、尺寸和颜色的属性值,通过所述属性值显示每个对象。渲染单元(未示出)基于由操作单元(未示出)计算出的属性值,产生包括所述对象的多种布局的屏幕。
存储设备140可以存储各种数据,诸如用于驱动电子设备100’的O/S软件模块和各种多媒体内容。
具体地,根据示例性实施例,存储设备150可以存储与感测到的距离相对应的虚拟视场的信息。
另外,存储设备140可以存储用于产生与通过各种UI屏幕输入的用户命令相对应的控制信号的数据。
通信器150与外部设备进行通信。通信器150可以通过诸如蓝牙(BT)、无线保真(WI-FI)、Zigbee、IR、串行接口、通用串行总线的各种通信方法与外部设备进行通信。特别地,通信器150可以从外部设备接收VR内容数据。
通信器150可以从用户10所持有的终端接收位置信息。
具体地,用户10所持有的终端可以包括例如陀螺仪传感器。用户10的终端可以将与由陀螺仪传感器感测到的用户10的终端的顶部、底部、左侧和右侧相对应的位置信息发送到电子设备100’。此时,处理器130可以基于用户10的终端的位置信息移动并显示VR内容的区域。例如,当用户10的终端的位置向左移动时,处理器130可以向左移动并显示VR内容的区域。
通信器150可以从用户10提供的终端接收与由用户10提供的终端的上移按钮、下移按钮、左移按钮和右移按钮的输入相对应的信号。例如,当处理器130接收到与用户10的终端的左移按钮的输入相对应的信号时,处理器130可以向左移动并显示VR内容的区域。这样,电子设备100’可以根据用户10的输入来显示VR内容的整个上、下、右和左区域,由此忠实地向用户10提供VR内容的体验。
图8是用于描述根据示例性实施例的电子设备的控制方法的流程图。
根据图8所示的根据本发明实施例的控制电子设备的方法,确定与由检测单元感测到的距离相对应的虚拟视场(S810),并且可以控制显示器显示包括相应VR内容区域的屏幕(S820)。在这种情况下,电子设备可以被实现为用于显示虚拟现实(VR)内容的显示器、以及用于感测用户与由用户提供的终端设备中的至少一个与电子设备之间的距离的检测单元。
所述控制方法还可以包括:当所述虚拟视场是基于用户的视场时并且当检测到的距离大于先前感测到的距离时,增大所述虚拟视场,并且如果感测到的距离小于先前感测到的距离,则减小所述虚拟视场。
所述控制方法还可以包括:响应于所述虚拟视场是基于用户的视场并且检测到的距离增加至大于先前感测到的距离,增大所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,减小所述虚拟视场。
所述控制方法还可以包括:控制显示器根据检测到的距离的改变以与改变后的距离相对应的预定比例来改变所述虚拟视场,并且显示包括与改变后的虚拟视场相对应的VR内容区域在内的屏幕。
所述控制方法还可以包括:根据输入用户的事件、输入特定类型内容的事件以及感测到的距离满足预定阈值距离的事件中的至少一个来改变所述预定比例并且应用所述预定比例。
所述控制方法还可以包括:在根据感测到的距离改变所述虚拟视场的视场改变模式中操作,或者在不管感测到的距离如何都维持所述虚拟视场的视场固定模式中操作。
所述检测单元可以被实现为以下至少一项:相机、RF传感器、超声波传感器、激光传感器以及红外传感器。
所述控制方法还可以包括:从内容反映在虚拟三维空间中的所述VR内容中提取并显示包括与所述虚拟视场相对应的内容区域在内的屏幕。
所述控制方法还包括:当所述检测单元检测到多个用户时,确定与距所述多个用户中的预定用户一定距离或者所述多个用户的平均距离相对应的虚拟视场。
同时,根据各种实施例的方法可以被编程并存储在多种存储介质中。相应地,根据上述各种实施例的方法可以在执行存储介质的各种类型的电子设备中实现。
更具体地,根据本发明的实施例,可以提供一种非暂时性计算机可读介质,在该非暂时性计算机可读介质中存储了程序,所述程序用于顺序地执行以下步骤:确定与由检测单元感测到的距离相对应的虚拟视场;并控制显示器显示包括与虚拟视场相对应的VR内容区域在内的屏幕。
非暂时性计算机可读存储介质不是被配置为临时存储数据的介质(例如,寄存器、缓存器或存储器),而是被配置为半永久性地存储数据的装置可读介质。具体地,上述多种应用或程序可以存储并提供在非暂时性装置可读介质中,例如光盘(CD)、数字多功能盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)、存储卡或只读存储设备(ROM)。
前述示例性实施例和优点仅是示例性的,而不应被理解为限制本发明构思。可以容易地将示例性实施例应用于其他类型的设备或装置。此外,对示例性实施例的描述只是说明性的,而不是为了限制本发明构思的范围,并且本领域技术人员将清楚多种备选方式、修改和变化。

Claims (15)

1.一种电子设备,包括:
显示器,被配置为显示虚拟现实VR内容;
检测单元,被配置为检测所述电子设备与用户和所述用户持有的终端设备中的至少一个之间的距离;以及
处理器,被配置为确定与由所述检测单元检测到的距离相对应的虚拟视场,并且控制所述显示器显示包括与所述虚拟视场相对应的VR内容区域在内的屏幕。
2.根据权利要求1所述的电子设备,其中,所述处理器被配置为:响应于所述虚拟视场是基于用户的视场并且检测到的距离增加至大于先前感测到的距离,增大所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,减小所述虚拟视场。
3.根据权利要求1所述的电子设备,其中,所述处理器被配置为:响应于所述虚拟视场是基于所述电子设备的视场并且检测到的距离增加至大于先前感测到的距离,减小所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,增大所述虚拟视场。
4.根据权利要求1所述的电子设备,其中,所述处理器被配置为:控制所述显示器根据检测到的距离的改变以与改变后的距离相对应的预定比例来改变所述虚拟视场,并且显示包括与改变后的虚拟视场相对应的VR内容区域在内的屏幕。
5.根据权利要求4所述的电子设备,其中,所述处理器根据输入用户的事件、输入特定类型内容的事件以及感测到的距离满足预定阈值距离的事件中的至少一个来改变所述预定比例并且应用所述预定比例。
6.根据权利要求1所述的电子设备,其中,所述处理器在根据感测到的距离改变所述虚拟视场的视场改变模式中操作,或者在不管感测到的距离如何都维持所述虚拟视场的视场固定模式中操作。
7.根据权利要求1所述的电子设备,其中,所述检测单元被实现为以下至少一项:相机、RF传感器、超声波传感器、激光传感器以及红外传感器。
8.根据权利要求1所述的电子设备,其中,所述处理器从内容反映在虚拟三维空间中的所述VR内容中提取并显示包括与所述虚拟视场相对应的内容区域在内的屏幕。
9.根据权利要求1所述的电子设备,其中,当所述检测单元检测到多个用户时,所述处理器确定与距所述多个用户中的预定用户一定距离或者所述多个用户的平均距离相对应的虚拟视场。
10.一种电子设备的控制方法,所述电子设备包括:显示器,显示VR内容;以及检测单元,检测所述电子设备与用户和所述用户持有的终端设备中的至少一个之间的距离,所述方法包括:
确定与由所述检测单元感测到的距离相对应的虚拟视场;以及
控制所述显示器显示包括与所述虚拟视场相对应的VR内容区域在内的屏幕。
11.根据权利要求10所述的方法,还包括:
响应于所述虚拟视场是基于用户的视场并且检测到的距离增加至大于先前感测到的距离,增大所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,减小所述虚拟视场。
12.根据权利要求10所述的方法,还包括:
响应于所述虚拟视场是基于所述电子设备的视场并且检测到的距离增加至大于先前感测到的距离,减小所述虚拟视场,并且响应于检测到的距离减小至小于先前检测到的距离,增大所述虚拟视场。
13.根据权利要求10所述的方法,还包括:
控制显示器根据检测到的距离的改变以与改变后的距离相对应的预定比例来改变所述虚拟视场,并且显示包括与改变后的虚拟视场相对应的VR内容区域在内的屏幕。
14.根据权利要求13所述的方法,还包括:
根据输入用户的事件、输入特定类型内容的事件以及感测到的距离满足预定阈值距离的事件中的至少一个来改变所述预定比例并且应用所述预定比例。
15.根据权利要求10所述的方法,还包括:
在根据感测到的距离改变所述虚拟视场的视场改变模式中操作,或者在不管感测到的距离如何都维持所述虚拟视场的视场固定模式中操作。
CN201680031737.7A 2015-10-14 2016-10-13 电子设备及其控制方法 Active CN107637076B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2015-0143569 2015-10-14
KR1020150143569A KR102402048B1 (ko) 2015-10-14 2015-10-14 전자 장치 및 그 제어 방법
PCT/KR2016/011510 WO2017065535A1 (ko) 2015-10-14 2016-10-13 전자 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
CN107637076A true CN107637076A (zh) 2018-01-26
CN107637076B CN107637076B (zh) 2020-10-09

Family

ID=58517423

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680031737.7A Active CN107637076B (zh) 2015-10-14 2016-10-13 电子设备及其控制方法

Country Status (5)

Country Link
US (1) US10422996B2 (zh)
EP (1) EP3293973A4 (zh)
KR (1) KR102402048B1 (zh)
CN (1) CN107637076B (zh)
WO (1) WO2017065535A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109656371A (zh) * 2018-12-28 2019-04-19 努比亚技术有限公司 移动终端护眼方法、装置、移动终端及存储介质
CN111527523A (zh) * 2018-02-02 2020-08-11 三星电子株式会社 用于共享虚拟现实环境的装置和方法
CN112198963A (zh) * 2020-10-19 2021-01-08 深圳市太和世纪文化创意有限公司 一种沉浸式隧道型多媒体交互展示方法、设备及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102172517B1 (ko) 2017-04-04 2020-10-30 주식회사 엘지화학 크래쉬 빔 구조를 갖는 배터리 팩
CN106990537A (zh) * 2017-05-25 2017-07-28 巢湖市金辉自控设备有限公司 一种基于vr眼镜和定位模块的空间行走装置
JP7341685B2 (ja) * 2019-03-19 2023-09-11 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US11436959B2 (en) 2019-12-31 2022-09-06 Samsung Electronics Co., Ltd. Display apparatus having rollable display and control method thereof
US11545024B1 (en) * 2020-09-24 2023-01-03 Amazon Technologies, Inc. Detection and alerting based on room occupancy
WO2024071681A1 (ko) * 2022-09-26 2024-04-04 삼성전자 주식회사 이미지를 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1838778A (zh) * 2005-03-24 2006-09-27 精工爱普生株式会社 立体图像显示装置及方法
CN1934584A (zh) * 2004-06-04 2007-03-21 松下电器产业株式会社 显示控制方法及装置、程序以及便携设备
CN102075776A (zh) * 2011-01-18 2011-05-25 青岛海信电器股份有限公司 一种立体显示的控制方法及装置
CN102158721A (zh) * 2011-04-06 2011-08-17 青岛海信电器股份有限公司 调节三维立体图像的方法、装置及电视机
CN102710952A (zh) * 2011-03-28 2012-10-03 索尼公司 显示控制装置及方法、检测装置及方法、程序和显示系统
CN101566875B (zh) * 2008-04-24 2012-11-14 索尼株式会社 图像处理装置和图像处理方法
CN102842301A (zh) * 2012-08-21 2012-12-26 京东方科技集团股份有限公司 显示画面调节装置、显示装置及显示方法
KR101287251B1 (ko) * 2011-12-26 2013-07-17 고려대학교 산학협력단 능동적 가상현실 서비스 제공 장치
WO2014005605A1 (en) * 2012-07-06 2014-01-09 Telefonaktiebolaget L M Ericsson (Publ) Method and system for shared viewing based on viewer position tracking
KR20140107973A (ko) * 2013-02-28 2014-09-05 고려대학교 산학협력단 스테레오 영상 획득 및 시청 연동 시스템
CN104937929A (zh) * 2013-03-18 2015-09-23 Lg电子株式会社 3d显示装置及其控制方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4309667A1 (de) 1993-03-26 1994-09-29 Univ Dresden Tech Optisches System zur zwei- und dreidimensionalen Darstellung von Information
JP3683632B2 (ja) 1995-12-21 2005-08-17 株式会社ハドソン 家庭用テレビゲーム機
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
US6317127B1 (en) 1996-10-16 2001-11-13 Hughes Electronics Corporation Multi-user real-time augmented reality system and method
JPH10334275A (ja) 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
US6508709B1 (en) 1999-06-18 2003-01-21 Jayant S. Karmarkar Virtual distributed multimedia gaming method and system based on actual regulated casino games
US7305691B2 (en) 2001-05-07 2007-12-04 Actv, Inc. System and method for providing targeted programming outside of the home
US6999239B1 (en) 2001-05-23 2006-02-14 Research Foundation Of The University Of Central Florida, Inc Head-mounted display by integration of phase-conjugate material
US7091926B2 (en) 2002-02-08 2006-08-15 Kulas Charles J Computer display system using multiple screens
US7682021B2 (en) 2002-02-08 2010-03-23 Novavision, Inc. System and methods for the treatment of retinal diseases
US6906836B2 (en) * 2002-10-04 2005-06-14 William Parker Full color holographic image combiner system
US7212208B2 (en) 2003-02-25 2007-05-01 Bahram Khozai System and method to present and display multiple data using enhanced box charts
GB0615433D0 (en) 2006-08-04 2006-09-13 Univ York Display systems
US8269822B2 (en) * 2007-04-03 2012-09-18 Sony Computer Entertainment America, LLC Display viewing system and methods for optimizing display view based on active tracking
TW200907764A (en) 2007-08-01 2009-02-16 Unique Instr Co Ltd Three-dimensional virtual input and simulation apparatus
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
CA2727585C (en) 2008-03-21 2018-09-25 Atsushi Takahashi Three-dimensional digital magnifier operation supporting system
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8646910B1 (en) 2009-11-27 2014-02-11 Joyce Schenkein Vision training method and apparatus
US8610771B2 (en) 2010-03-08 2013-12-17 Empire Technology Development Llc Broadband passive tracking for augmented reality
US10448083B2 (en) 2010-04-06 2019-10-15 Comcast Cable Communications, Llc Streaming and rendering of 3-dimensional video
JP2012053090A (ja) 2010-08-31 2012-03-15 Sega Corp 運転模擬装置
KR20120072714A (ko) 2010-12-24 2012-07-04 엘지디스플레이 주식회사 패턴드 리타더 방식의 3차원 영상 시스템에서 사용하는 능동형 광 시야각 보상 입체 안경
JP5811534B2 (ja) 2010-12-27 2015-11-11 キヤノンマーケティングジャパン株式会社 画像表示制御サーバ
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US8831780B2 (en) 2012-07-05 2014-09-09 Stanislav Zelivinski System and method for creating virtual presence
JP6380881B2 (ja) 2012-07-31 2018-08-29 Tianma Japan株式会社 立体画像表示装置、画像処理装置及び立体画像処理方法
KR102051418B1 (ko) 2012-09-28 2019-12-03 삼성전자주식회사 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
JP2014206638A (ja) 2013-04-12 2014-10-30 株式会社ジャパンディスプレイ 立体表示装置
US9865089B2 (en) * 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10409443B2 (en) * 2015-06-24 2019-09-10 Microsoft Technology Licensing, Llc Contextual cursor display based on hand tracking

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1934584A (zh) * 2004-06-04 2007-03-21 松下电器产业株式会社 显示控制方法及装置、程序以及便携设备
CN1838778A (zh) * 2005-03-24 2006-09-27 精工爱普生株式会社 立体图像显示装置及方法
CN101566875B (zh) * 2008-04-24 2012-11-14 索尼株式会社 图像处理装置和图像处理方法
CN102075776A (zh) * 2011-01-18 2011-05-25 青岛海信电器股份有限公司 一种立体显示的控制方法及装置
CN102710952A (zh) * 2011-03-28 2012-10-03 索尼公司 显示控制装置及方法、检测装置及方法、程序和显示系统
CN102158721A (zh) * 2011-04-06 2011-08-17 青岛海信电器股份有限公司 调节三维立体图像的方法、装置及电视机
KR101287251B1 (ko) * 2011-12-26 2013-07-17 고려대학교 산학협력단 능동적 가상현실 서비스 제공 장치
WO2014005605A1 (en) * 2012-07-06 2014-01-09 Telefonaktiebolaget L M Ericsson (Publ) Method and system for shared viewing based on viewer position tracking
CN102842301A (zh) * 2012-08-21 2012-12-26 京东方科技集团股份有限公司 显示画面调节装置、显示装置及显示方法
KR20140107973A (ko) * 2013-02-28 2014-09-05 고려대학교 산학협력단 스테레오 영상 획득 및 시청 연동 시스템
CN104937929A (zh) * 2013-03-18 2015-09-23 Lg电子株式会社 3d显示装置及其控制方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111527523A (zh) * 2018-02-02 2020-08-11 三星电子株式会社 用于共享虚拟现实环境的装置和方法
CN111527523B (zh) * 2018-02-02 2024-03-15 三星电子株式会社 用于共享虚拟现实环境的装置和方法
CN109656371A (zh) * 2018-12-28 2019-04-19 努比亚技术有限公司 移动终端护眼方法、装置、移动终端及存储介质
CN112198963A (zh) * 2020-10-19 2021-01-08 深圳市太和世纪文化创意有限公司 一种沉浸式隧道型多媒体交互展示方法、设备及存储介质

Also Published As

Publication number Publication date
US10422996B2 (en) 2019-09-24
KR102402048B1 (ko) 2022-05-26
KR20170043911A (ko) 2017-04-24
EP3293973A1 (en) 2018-03-14
US20180196266A1 (en) 2018-07-12
EP3293973A4 (en) 2018-08-29
CN107637076B (zh) 2020-10-09
WO2017065535A1 (ko) 2017-04-20

Similar Documents

Publication Publication Date Title
CN107637076A (zh) 电子设备及其控制方法
US11699271B2 (en) Beacons for localization and content delivery to wearable devices
US20210405761A1 (en) Augmented reality experiences with object manipulation
US10416786B2 (en) Method of displaying pointing information and device for performing the method
KR101975906B1 (ko) 영상 표시 장치에서 응용 프로그램의 레이아웃을 스케일링하기 위한 장치 및 방법
US8957856B2 (en) Systems, methods, and apparatuses for spatial input associated with a display
US20120268372A1 (en) Method and electronic device for gesture recognition
US11689877B2 (en) Immersive augmented reality experiences using spatial audio
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
US10802784B2 (en) Transmission of data related to an indicator between a user terminal device and a head mounted display and method for controlling the transmission of data
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US20150084853A1 (en) Method and System for Mapping for Movement Trajectory of Emission Light Source Application Trajectory Thereof
US20150084936A1 (en) Method and apparatus for drawing three-dimensional object
US20240004197A1 (en) Dynamic sensor selection for visual inertial odometry systems
US20210406542A1 (en) Augmented reality eyewear with mood sharing
CN110913133B (zh) 拍摄方法及电子设备
KR20180052501A (ko) 디스플레이 장치 및 그 동작 방법
KR102640871B1 (ko) 증강 현실을 이용한 영상 데이터를 제공하는 전자 장치 및 그 제어 방법
KR100573895B1 (ko) 3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을수행하는 디스플레이장치
KR20170057056A (ko) 원격제어장치, 원격제어장치의 구동방법, 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
KR101617738B1 (ko) 다중 객체 실시간 영상 매핑 시스템 및 방법
KR20130103463A (ko) 이미지 공유가 가능한 사용자 단말기 및 이의 제어 방법
KR20170018865A (ko) 중력을 이용한 홀로그램 객체 표시 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant