KR20180074180A - Method and apparatus for providing information for virtual reality video - Google Patents
Method and apparatus for providing information for virtual reality video Download PDFInfo
- Publication number
- KR20180074180A KR20180074180A KR1020160178011A KR20160178011A KR20180074180A KR 20180074180 A KR20180074180 A KR 20180074180A KR 1020160178011 A KR1020160178011 A KR 1020160178011A KR 20160178011 A KR20160178011 A KR 20160178011A KR 20180074180 A KR20180074180 A KR 20180074180A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- interest
- virtual reality
- user
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000004891 communication Methods 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
가상현실 영상에 대한 정보를 제공하는 장치 및 방법에 관한 것이다.And more particularly, to an apparatus and method for providing information on a virtual reality image.
최근 가상 현실 장치(Virtual Reality Device)를 이용하여 사용자에게 이미지를 제공하는 장치들이 개발되고 있다. 가상 현실 기술은 조작된 감각 자극을 통해 사용자가 현실감을 느끼도록 하는 것으로 게임, 교육, 의료, 저널리즘 등 많은 산업 영역에서 활용될 수 있다.Recently, devices for providing images to users by using a virtual reality device have been developed. Virtual reality technology enables users to feel reality through manipulated sensory stimulation and can be used in many industrial fields such as games, education, medical care, journalism.
가상현실 영상 관련 기술이 발전하면서, 사용자는 다양한 디바이스를 이용하여 360도 영상을 시청할 수 있게 되었다. 360도 영상을 시청하는 사용자는 평면 영상을 시청할 때 보다 더 큰 몰입감을 느낄 수 있다. With the development of virtual reality video related technologies, users can view 360 degree images using various devices. A user who views a 360-degree image can feel a greater immersion feeling than when viewing a plane image.
가상현실 영상에 대한 정보를 제공하는 장치 및 방법을 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.And an apparatus and method for providing information on a virtual reality image. It is still another object of the present invention to provide a computer-readable recording medium on which a program for executing the above method on a computer is recorded. The technical problem to be solved by this embodiment is not limited to the above-mentioned technical problems, and other technical problems can be deduced from the following embodiments.
본 개시의 1 측면은, 가상현실 영상에 대한 정보를 제공하는 방법에 있어서, 가상현실 영상을 제공하는 단계; 상기 가상현실 영상을 시청하는 사용자의 시선에 기초하여, 상기 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정하는 단계; 및 상기 관심 영상에 대한 정보를 제공하는 단계;를 포함하는 방법을 제공할 수 있다.According to an aspect of the present disclosure, there is provided a method of providing information on a virtual reality image, the method comprising: providing a virtual reality image; Determining an image to be reproduced in a partial area of the virtual reality image as an image of interest based on a line of sight of a user viewing the virtual reality image; And providing information on the image of interest.
또한, 상기 관심 영상에 대한 정보는, 상기 관심 영상이 재생되는 영역의 좌표 및 상기 관심 영상의 재생 구간을 포함할 수 있다.The information on the image of interest may include coordinates of an area in which the image of interest is reproduced and a reproduction section of the image of interest.
또한, 상기 사용자의 시선이 상기 가상현실 영상의 특정 영역에 고정된 경우, 상기 사용자의 시선이 고정된 상기 가상현실 영상의 영역을 결정하는 단계; 및 상기 결정된 영역에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 단계;를 포함할 수 있다.Determining a region of the virtual reality image in which the user's gaze is fixed when the user's gaze is fixed in a specific region of the virtual reality image; And determining the virtual reality image reproduced in the determined region as the image of interest.
또한, 상기 가상현실 영상에 포함된 객체의 움직임에 따라 상기 사용자의 시선이 이동하는 경우, 상기 사용자의 시선의 이동 경로를 획득하는 단계; 상기 사용자의 시선의 이동 경로에 대응하는 상기 가상현실 영상의 영역들을 결정하는 단계; 및 상기 결정된 영역들에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 단계;를 포함할 수 있다.Acquiring a movement path of the user's gaze when the gaze of the user moves according to the movement of the object included in the virtual reality image; Determining areas of the virtual reality image corresponding to a movement path of the user's gaze; And determining the virtual reality image reproduced in the determined regions as the image of interest.
또한, 상기 관심 영상에 포함된 프레임들을 획득하는 단계; 상기 프레임들의 변화량에 기초하여, 상기 프레임들 중에서 적어도 하나의 키 프레임을 결정하는 단계; 및 상기 적어도 하나의 키 프레임에 대한 정보를 제공하는 단계;를 포함할 수 있다.The method may further include: obtaining frames included in the image of interest; Determining at least one key frame among the frames based on the amount of change of the frames; And providing information about the at least one key frame.
또한, 상기 가상현실 영상의 일부 영역에서 재생되는 관심 영상을, 나머지 영역에서 재생되는 영상보다 높은 화질로 제공하는 단계;를 포함할 수 있다.The method may further include providing a video image of interest reproduced in a partial region of the virtual reality image with a higher image quality than an image reproduced in the remaining region.
또한, 상기 관심 영상에 대한 상기 사용자의 코멘트(comment)를 수신하는 단계; 및 상기 사용자의 코멘트를 상기 관심 영상에 대한 정보와 링크하여 저장하는 단계;를 더 포함할 수 있다.Receiving a user's comment on the image of interest; And linking the user's comment with information about the image of interest, and storing the linked information.
또한, 상기 관심 영상의 재생 데이터를 획득하는 단계; 및 상기 획득된 재생 데이터를 외부 디바이스로 전송하는 단계;를 더 포함할 수 있다.The method may further include: obtaining reproduction data of the image of interest; And transmitting the obtained reproduction data to an external device.
또한, 상기 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석한 결과에 기초하여, 다른 사용자들의 관심 영상에 대한 정보를 수신하는 단계; 및 상기 수신된 다른 사용자들의 관심 영상에 대한 정보를 제공하는 단계;를 더 포함할 수 있다.Receiving information on a user's interest image based on a result of analyzing the gaze of other users viewing the virtual reality image; And providing information on the images of interest of the received other users.
또한, 상기 제공된 적어도 하나의 키 프레임에 대한 정보를 선택하는 상기 사용자의 입력을 수신하는 단계; 및 상기 선택된 키 프레임의 재생 위치에서부터 상기 가상현실 영상을 재생하는 단계;를 더 포함할 수 있다. Receiving an input of the user selecting information about the provided at least one key frame; And reproducing the virtual reality image from a reproduction position of the selected key frame.
본 개시의 2 측면은, 가상현실 영상에 대한 정보를 제공하는 디바이스에 있어서, 상기 가상현실 영상을 시청하는 사용자의 시선을 감지하는 센싱부; 및 상기 가상현실 영상을 제공하고, 상기 감지된 사용자의 시선에 기초하여 상기 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정하고, 상기 관심 영상에 대한 정보를 제공하는 제어부;를 포함하는 디바이스를 제공할 수 있다.According to two aspects of the present disclosure, there is provided a device for providing information on a virtual reality image, the device comprising: a sensing unit for sensing a line of sight of a user viewing the virtual reality image; And a controller for providing the virtual reality image, determining an image to be reproduced in a partial area of the virtual reality image as an image of interest based on the sensed user's gaze, and providing information about the image of interest Device can be provided.
또한, 상기 제어부는 상기 사용자의 시선이 상기 가상현실 영상의 특정 영역에 고정된 경우 상기 사용자의 시선이 고정된 상기 가상현실 영상의 영역을 결정하고, 상기 결정된 영역에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정할 수 있다.Also, Wherein the control unit determines an area of the virtual reality image in which the user's gaze is fixed when the user's gaze is fixed to a specific area of the virtual reality image and outputs the virtual reality image, .
또한, 상기 제어부는 상기 가상현실 영상에 포함된 객체의 움직임에 따라 상기 사용자의 시선이 이동하는 경우 상기 사용자의 시선의 이동 경로를 획득하고, 상기 사용자의 시선의 이동 경로에 대응하는 상기 가상현실 영상의 영역들을 결정하고, 상기 결정된 영역들에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정할 수 있다.Also, Wherein the controller acquires a moving path of the user's gaze when the user's gaze moves according to the movement of the object included in the virtual reality image, And determine the virtual reality image reproduced in the determined regions as the image of interest.
또한, 상기 제어부는 상기 관심 영상에 포함된 프레임들을 획득하고, 상기 프레임들의 변화량에 기초하여 상기 프레임들 중에서 적어도 하나의 키 프레임을 결정하고, 상기 적어도 하나의 키 프레임에 대한 정보를 제공할 수 있다.Also, the control unit may obtain the frames included in the interest image, determine at least one key frame among the frames based on the amount of change of the frames, and provide information about the at least one key frame .
또한, 상기 제어부는 상기 가상현실 영상의 일부 영역에서 재생되는 관심 영상을, 나머지 영역에서 재생되는 영상보다 높은 화질로 제공할 수 있다.In addition, the controller may provide the image of interest, which is reproduced in a partial region of the virtual reality image, at a higher image quality than an image to be reproduced in the remaining region.
또한, 상기 관심 영상에 대한 상기 사용자의 코멘트를 수신하는 통신부를 더 포함하며, 상기 제어부는 상기 사용자의 코멘트를 상기 관심 영상에 대한 정보와 링크하여 저장할 수 있다.The apparatus may further include a communication unit for receiving the user's comment on the image of interest, wherein the controller may link the comment of the user with the information on the image of interest.
또한, 상기 제어부는 상기 관심 영상의 재생 데이터를 획득하며, 상기 획득된 재생 데이터를 외부 디바이스로 전송하는 통신부를 더 포함할 수 있다.The control unit may further include a communication unit for acquiring reproduction data of the image of interest and transmitting the obtained reproduction data to an external device.
또한, 상기 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석한 결과에 기초하여, 다른 사용자들의 관심 영상에 대한 정보를 수신하는 통신부를 더 포함하며, 상기 제어부는, 상기 수신된 다른 사용자들의 관심 영상에 대한 정보를 제공할 수 있다.The apparatus may further include a communication unit for receiving information on a video of interest of other users based on a result of analyzing the gaze of other users viewing the virtual reality video, Can be provided.
또한, 상기 제공된 적어도 하나의 키 프레임에 대한 정보를 선택하는 상기 사용자의 입력을 수신하는 통신부를 더 포함하며, 상기 제어부는, 상기 선택된 키 프레임의 재생 위치에서부터 상기 가상현실 영상을 재생할 수 있다.The apparatus may further include a communication unit for receiving an input of the user for selecting information on the provided at least one key frame, The control unit may reproduce the virtual reality image from the reproduction position of the selected key frame.
본 개시의 3 측면은, 제 1측면의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.Three aspects of the present disclosure are a computer-readable recording medium having recorded thereon a program for executing the method of the first aspect in a computer.
본 개시의 4 측면은, 사용자의 위치 정보를 획득하는 단계; 상기 사용자의 시선을 감지하는 단계; 상기 감지된 사용자의 시선에 대응하는 디스플레이 영역을 관심 영역으로 결정하는 단계; 및 상기 위치 정보 및 상기 관심 영역을 매칭함으로써 상기 관심 영역에 표시되는 뷰(view) 정보를 제공하는 단계;를 포함하는 방법 및 디바이스를 제공할 수 있다.Four aspects of the present disclosure provide a method comprising: obtaining location information of a user; Sensing a line of sight of the user; Determining a display area corresponding to the sensed user's gaze as a region of interest; And providing view information displayed in the ROI by matching the ROI and the ROI.
도 1은 일 실시예에 따른 가상현실 영상에 대한 정보를 제공하는 방법의 개요도이다.
도 2는 일 실시예에 따른 정적 관심 영상을 결정하는 방법의 예시를 설명하는 도면이다.
도 3은 일 실시예에 따른 동적 관심 영상을 결정하는 방법의 예시를 설명하는 도면이다.
도 4는 일 실시예에 따른 가상현실 영상의 키 프레임을 결정하는 예시를 설명하는 도면이다.
도 5는 일 실시예에 따른 관심 영상이 사용자에게 제공되는 예시를 설명하는 도면이다.
도 6은 일 실시예에 따른 관심 영상에 대한 사용자의 코멘트를 표시하는 예시를 설명하는 도면이다.
도 7은 일 실시예에 따른 외부로부터 수신된 관심 영상에 대한 정보를 제공하는 예시를 설명하는 도면이다.
도 8은 일 실시예에 따른 사용자가 선택한 관심 영상에 대한 정보를 제공하는 예시를 설명하는 도면이다.
도 9는 일 실시예에 따른 가상현실 영상에 관한 정보를 제공하는 방법을 설명하는 흐름도이다.
도 10은 일 실시예에 따른 가상현실 영상에 관한 정보를 제공하는 장치의 블록도이다.
도 11은 일 실시예에 따른 GPS를 이용하여 사용자에게 관심 영역에 대한 정보를 제공하는 예시를 설명하는 도면이다.1 is a schematic diagram of a method for providing information on a virtual reality image according to an exemplary embodiment of the present invention.
2 is a diagram illustrating an example of a method for determining a static interest image in accordance with one embodiment.
3 is a diagram illustrating an example of a method for determining a dynamic interest image in accordance with one embodiment.
4 is a view for explaining an example of determining a key frame of a virtual reality image according to an embodiment.
FIG. 5 is a diagram illustrating an example in which an image of interest is provided to a user according to an embodiment.
FIG. 6 is a diagram illustrating an example of displaying a user's comment on a video of interest according to an embodiment.
7 is a view for explaining an example of providing information on an image of interest received from the outside according to an embodiment.
8 is a view for explaining an example of providing information on a user-selected interest image according to an exemplary embodiment.
9 is a flowchart illustrating a method of providing information on a virtual reality image according to an exemplary embodiment.
10 is a block diagram of an apparatus for providing information about a virtual reality image according to an embodiment.
11 is a view for explaining an example of providing information on a region of interest to a user using GPS according to an embodiment.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein. In the drawings, the same reference numerals are used to denote like elements throughout the specification for the purpose of clearly illustrating the present disclosure.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and / or software configurations that perform particular functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented with algorithms running on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic configuration, signal processing, and / or data processing, and the like. Terms such as " mechanism, " " element, " " means, " and " configuration " and the like are widely used and are not limited to mechanical and physical configurations.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. Also, the connection lines or connection members between the components shown in the figures are merely illustrative of functional connections and / or physical or circuit connections. In practical devices, connections between components can be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 가상현실 영상에 대한 정보를 제공하는 방법의 개요도이다.1 is a schematic diagram of a method for providing information on a virtual reality image according to an exemplary embodiment of the present invention.
디스플레이 장치(10)는 사용자에게 가상현실 영상(20)을 제공할 수 있다. 일 실시예에서 디스플레이 장치(10)는 사용자에게 360도 영상을 제공할 수 있으나, 제공되는 영상의 형태는 이에 제한되지 않는다. 예를 들어, 사용자는 디스플레이 장치(10)를 머리에 고정시키고 디스플레이 장치(10)를 통해 가상현실 영상을 시청할 수 있으며, 디스플레이 장치(10)는 사용자의 시선을 감지함으로써 사용자가 360도 영상 중 어느 영역에서 재생되고 있는 가상현실 영상(20)을 시청하고 있는지 결정할 수 있다. 일 실시예에서 디스플레이 장치(10)는 디스플레이 장치(10)의 방향(orientation)을 감지하는 센서 및 사용자의 시선의 방향(gaze direction)을 감지하는 센서를 이용하여 사용자의 시선을 분석함으로써 사용자가 시청하고 있는 가상현실 영상의 영역(30) (이하, 시청 영역)을 결정할 수 있다.The
일 실시예에서 디스플레이 장치(10)는 극 좌표계(polar coordinates) 및 직각 좌표계(cartesian coordinates)를 이용하여 가상현실 영상(20)의 영역을 구별함으로써 가상현실 영상(20)의 영역 중에서 일부를 시청 영역(30)으로 결정할 수 있다. 예를 들어, 디스플레이 장치(10)는 사용자의 시선을 감지함으로써 사용자의 시선에 대응하는 가상현실 영상(20)의 좌표를 획득하고, 해당 좌표가 포함된 가상현실 영상(20)의 영역을 시청 영역(30)으로 결정할 수 있다.In one embodiment, the
디스플레이 장치(10)는 복수의 시청 영역들(30) 중 일부의 시청 영역에서 재생되는 영상을 관심 영상(40)으로 결정할 수 있다. 일 실시예에서 디스플레이 장치(10)는 시청 영역(30)의 좌표, 및 사용자의 시선이 시청 영역(30)에 위치하는 동안 재생되는 가상현실 영상(20)의 재생 구간을 이용하여 관심 영상(40)을 결정할 수 있다. 구체적인 방법은 도 2 및 도 3에서 살펴보기로 한다.The
디스플레이 장치(10)는 관심 영상(40)에 대한 정보를 사용자에게 제공할 수 있다. 일 실시예에서 관심 영상(40)에 대한 정보는, 관심 영상(40)이 재생되는 영역의 좌표, 관심 영상(40)의 재생 구간, 관심 영상(40)에 포함된 키 프레임에 대한 정보, 키 프레임에 포함된 객체에 대한 정보 및 키 프레임에 대한 컨텍스트 정보를 포함할 수 있으나, 이에 제한되지 않는다. The
예를 들어, 디스플레이 장치(10)는 특정 빌딩이 재생되는 영역의 가상현실 영상(21)을 관심 영상(41)으로 결정할 수 있다. 디스플레이 장치(10)는 관심 영상(41)의 키 프레임에 포함된 객체가 'A 빌딩'이란 것을 식별할 수 있고, 사용자에게 'A 빌딩'의 건축 년도 및 특징에 대한 정보를 제공할 수 있다.For example, the
한편, 일 실시예에서 디스플레이 장치(10)는 다른 사용자들의 관심 영상에 대한 정보를 외부 디바이스(미도시) 또는 서버(미도시)로부터 수신할 수 있다. 또한, 디스플레이 장치(10)는 사용자와 동일한 가상현실 영상(20)을 시청하는 다른 사용자들의 시선을 분석함으로써 결정된 관심 영상에 대한 정보를 사용자에게 제공할 수 있다.Meanwhile, in one embodiment, the
도 2는 일 실시예에 따른 정적 관심 영상을 결정하는 방법의 예시를 설명하는 도면이다.2 is a diagram illustrating an example of a method for determining a static interest image in accordance with one embodiment.
도 2를 참조하면 디스플레이 장치(10)는 감지된 사용자의 시선을 분석할 수 있다. 디스플레이 장치(10)는 시간에 따라 변하는 사용자의 시선에 대응하는 가상현실 영상의 좌표를 획득할 수 있다. 일 실시예에서 극 좌표계를 이용하여 가상현실 영상의 좌표를 표현할 수 있다. 예를 들어, 가상현실 영상의 좌표는 P(φ, θ)로 표현될 수 있는데, φ(-π≤φ≤π)는 기준 방향에서 x 축 양의 방향으로 떨어진 각도이고 θ(-π≤θ≤π)는 기준 방향에서 z 축 양의 방향으로 떨어진 각도를 의미한다. 한편, 기준 방향이란 P(φ=0, θ=0)로 표현될 수 있으며, 가상현실 영상 내 기설정된 방향, 또는 사용자가 가상현실 영상을 시청하기 시작한 시점의 사용자의 시선의 방향일 수 있으나, 이에 제한되지 않는다.Referring to FIG. 2, the
도 2a를 참조하면 디스플레이 장치(10)는 사용자의 시선의 이동량을 계산할 수 있다. 일 실시예에서 극 좌표계를 이용하여 가상현실 영상의 좌표(P(φ, θ))를 표현하는 경우, 디스플레이 장치(10)는 시간에 따른 σ값(σ=sum(φ, θ))의 변화 그래프(210)를 이용하여 사용자의 시선의 이동량을 계산할 수 있다.Referring to FIG. 2A, the
한편, 디스플레이 장치(10)는 시간에 따른 σ값의 변화 그래프(210)를 필터링할 수 있다. 예를 들어, 디스플레이 장치(10)는 스텝 디텍션 알고리즘(step detection algorithm)을 이용하여 시간에 따른 σ값의 변화 그래프(210)를 필터링할 수 있다. 스텝 디텍션 알고리즘에는 토탈 베리에이션 디노이징 알고리즘(total variation denoising algorithm), 평균 이동 알고리즘(mean shift algorithm) 또는 바이레트럴 필터(bilateral filter)가 사용될 수 있으나, 이에 제한되지 않는다.On the other hand, the
일 실시예에서, 시간에 따른 σ값의 변화량(그래프의 기울기)이 기설정된 제 1 임계 값 이하인 경우, 디스플레이 장치(10)는 사용자의 시선이 가상현실 영상의 특정 영역에 고정된다고 판단할 수 있다. 사용자의 시선이 고정된다는 것은 시선이 정지된 상태 및 소정의 허용 가능한 범위 내에서 움직이는 경우를 포함할 수 있다. 또한, 디스플레이 장치(10)는 시간에 따른 σ값의 변화량 그래프(210)의 스텝(step)을 계산함으로써, 사용자의 시선이 가상현실 영상의 특정 영역에 고정된다고 판단할 수 있다.In one embodiment, when the amount of change of the sigma value with time (slope of the graph) is equal to or less than the predetermined first threshold value, the
디스플레이 장치(10)는 사용자의 시선이 위치한 시청 영역의 좌표(211), 및 사용자의 시선이 시청 영역에 위치하는 동안 재생되는 가상현실 영상의 재생 구간(212)을 획득할 수 있다. 예를 들어, 시간에 따른 σ값의 변화량 그래프(210)의 기울기를 계산한 결과, t1~t2 시간 동안의 그래프의 기울기가 기설정된 제 1 임계 값 이하인 경우, 디스플레이 장치(10)는 t1~t2 시간 동안 사용자의 시선이 위치한 시청 영역의 좌표(211), 및 가상현실 영상의 재생 구간 t1~t2(212)를 획득할 수 있다.The
도 2b를 참조하면 사용자의 시선의 이동 동선(221)이 가상현실 영상(20)이 재생되는 극 좌표계에 표시된다. t1~t2(212) 시간 동안 사용자의 시선이 위치한 시청 영역의 좌표(211)를 이용하여, 디스플레이 장치(10)는 복수의 시청 영역들 중 일부 영역(222)을 결정할 수 있고, 일부 영역(222)에서 재생되는 영상을 정적 관심 영상으로 결정할 수 있다. Referring to FIG. 2B, a moving
도 3은 일 실시예에 따른 동적 관심 영상을 결정하는 방법의 예시를 설명하는 도면이다. 이하에서 도 2와 중복되는 설명은 편의상 생략하기로 한다.3 is a diagram illustrating an example of a method for determining a dynamic interest image in accordance with one embodiment. Hereinafter, the description overlapping with FIG. 2 will be omitted for the sake of simplicity.
도 3a를 참조하면, 그래프(310)의 기울기가 기설정된 제 1 임계 값을 초과하고 제 2 임계값 이하인 경우(제 1 임계 값 < 제 2 임계 값), 디스플레이 장치(10)는 가상현실 영상에 포함된 객체의 움직임에 따라 사용자의 시선이 이동한다고 판단할 수 있다. 디스플레이 장치(10)는 사용자의 시선이 위치한 시청 영역의 좌표(311), 및 사용자의 시선이 시청 영역에 위치하는 동안 재생되는 가상현실 영상의 재생 구간을 획득할 수 있다. 3A, when the slope of the
예를 들어, 시간에 따른 σ값의 변화량 그래프(310)의 기울기를 계산한 결과, t3~t4 시간 동안의 그래프의 기울기가 기설정된 제 1 임계 값을 초과하고 제 2 임계값 이하인 경우, 디스플레이 장치(10)는 t3~t4 시간 동안 사용자의 시선이 위치한 시청 영역의 좌표(311), 및 사용자의 시선이 시청 영역에 위치하는 동안 재생되는 가상현실 영상의 재생 구간 t3~t4(312)를 획득할 수 있다.For example, when the slope of the graph of the variation amount of the sigma value over time is calculated as a result of the calculation, the slope of the graph during the period from t3 to t4 exceeds the predetermined first threshold value and is equal to or less than the second threshold value, The
도 3b를 참조하면, 가상현실 영상에 포함된 객체의 움직임에 따라 사용자의 시선이 이동한다. 디스플레이 장치(10)는 t3~t4(312) 시간 동안 사용자의 시선의 이동 경로에 대응하는 가상현실 영상의 영역들(312a 내지 312d)을 결정할 수 있다. 또한, 디스플레이 장치(10)는 결정된 영역들(312a 내지 312d)에서 재생되는 가상현실 영상을 동적 관심 영상으로 결정할 수 있다. 일 실시예에서 결정된 영역들(312a 내지 312d)은 가상현실 영상에 포함된 프레임 별로 상이할 수 있다. 또한, 결정된 영역들(312a 내지 312d)은 프레임 별로 상이할 수 있으므로 결정된 영역들(312a 내지 312d) 각각은 독립적이다.Referring to FIG. 3B, the user's gaze moves according to the movement of the object included in the virtual reality image. The
일 실시예에서 정적 관심 영상은 특정 시청 영역(30)에서 재생되는 가상현실 영상(20)일 수 있으며, 동적 관심 영상은 정해진 시청 영역(30)이 아닌 객체의 움직임에 따라 변하는 복수의 시청 영역들(30)에서 재생되는 가상현실 영상(20)일 수 있다. In one embodiment, the static interest image may be a
일 실시예에서, 디스플레이 장치(10)는 컨벌루션(convolution) 및 크로스 코릴레이션(cross-correlation)을 이용하여 시간에 따른 σ값의 변화량 그래프의 구간들 간의 유사성을 파악할 수 있다. 또한, 디스플레이 장치(10)는 기설정된 방법 외에도, 사용자 설정 방법 및 머신 러닝(machine learning) 방법을 이용하여 관심 영역의 종류를 판단할 수 있으나, 판단 방법은 이에 제한되지 않는다.In one embodiment, the
도 4는 일 실시예에 따른 가상현실 영상의 키 프레임을 결정하는 예시를 설명하는 도면이다.4 is a view for explaining an example of determining a key frame of a virtual reality image according to an embodiment.
가상현실 영상의 시청 영역 별로 복수의 프레임들(410)이 포함될 수 있다. 일 실시예에서 디스플레이 장치(10)는 복수의 프레임들(410) 중에서 이미지의 변화량이 상대적으로 많은 프레임들을 키 프레임들(420)로 결정할 수 있다. 이미지의 변화량을 측정하는 방법으로는 자기상관(autocorrelation), SIFT(scale-invariant feature method) 및 SURF(speeded up robust features) 알고리즘을 이용할 수 있으나, 측정 방법은 이에 제한되지 않는다.A plurality of
디스플레이 장치(10)는 키 프레임들(420)에 대한 정보를 제공할 수 있다. 일 실시예에서 키 프레임에 대한 정보(430)는 키 프레임이 포함된 가상현실 영상의 이름, 키 프레임의 좌표, 키 프레임의 재생 위치, 키 프레임에 포함된 객체에 대한 정보 및 키 프레임에 대한 컨텍스트 정보를 포함할 수 있으나, 이에 제한되지 않는다.
또한, 디스플레이 장치(10)는 키 프레임들(420)에 대한 사용자의 감정 정보를 획득할 수 있다. 일 실시예에서, 디스플레이 장치(10)는 사용자의 표정 정보 및 음성 정보에 기초하여 사용자의 감정 정보를 획득할 수 있다. 예를 들어, 디스플레이 장치(10)는 사용자의 표정 정보 및 음성 정보를 이용하여 사용자의 감정을 분석함으로써, 기쁨, 슬픔 또는 화남 등의 사용자의 감정 정보를 획득할 수 있다.In addition, the
또한, 디스플레이 장치(10)는 키 프레임들(420)에 포함된 객체에 대한 정보를 획득할 수 있다. 일 실시예에서, 디스플레이 장치(10)는 키 프레임들(420)에 포함된 객체를 검출할 수 있다. 예를 들어, 디스플레이 장치(10)는 대표 이미지에 포함된 로컬 디스크립터(local descriptor)를 이용한 객체 검출 방법, 전역 특징(global features)을 이용한 객체 검출 방법, 및 색상 및 형태 특징(color and shape features)를 이용한 객체 검출 방법을 이용하여 키 프레임들(420)에 포함된 객체를 검출할 수 있으나, 이에 제한되지 않는다.In addition, the
또한, 디스플레이 장치(10)는 키 프레임에 대한 컨텍스트(context) 정보를 제공할 수 있다. 일 실시예에서 디스플레이 장치(10)는 사용자의 감정 정보 및 키 프레임에 포함된 객체에 대한 정보를 분석함으로써, 키 프레임에 대한 컨텍스트 정보를 제공할 수 있다. 예를 들어, 디스플레이 장치(10)는 키 프레임에 대한 컨텍스트 정보를 제공하기 위해 CNN(Convolutional Neural Network) 및 RNNLM(Recurrent Neural Network Language Model)을 이용할 수 있다.In addition, the
도 5는 일 실시예에 따른 관심 영상이 사용자에게 제공되는 예시를 설명하는 도면이다.FIG. 5 is a diagram illustrating an example in which an image of interest is provided to a user according to an embodiment.
도 5a를 참조하면, 가상현실 영상(510)이 사용자에게 제공된다. 가상현실 영상(510)에 포함된 모든 영역이 동일한 화질로 사용자에게 제공될 수 있다.Referring to FIG. 5A, a
한편, 도 5b를 참조하면, 디스플레이 장치(10)는 관심 영상이 재생되는 영역(530)의 가상현실 영상을 나머지 영역에서 재생되는 가상현실 영상(520)보다 높은 화질로 제공할 수 있다. 일 실시예에서 디스플레이 장치(10)가 저장된 가상현실 영상(520)을 로딩할 때 또는 실시간 영상을 스트리밍할 때, 관심 영상이 재생되는 영역(530)의 가상현실 영상(520)을 나머지 영역에서 재생되는 가상현실 영상보다 높은 화질로 제공할 수 있다. Referring to FIG. 5B, the
도 6은 일 실시예에 따른 관심 영상에 대한 사용자의 코멘트를 표시하는 예시를 설명하는 도면이다.FIG. 6 is a diagram illustrating an example of displaying a user's comment on a video of interest according to an embodiment.
도 6을 참조하면, 디스플레이 장치(10)는 관심 영상(610)에 대한 사용자의 코멘트를 수신할 수 있다. 일 실시예에서 디스플레이 장치(10)는 관심 영상(610)에 대한 사용자의 메시지, 사용자의 감정 정보 및 사용자의 선호도 정보를 수신할 수 있으나, 수신할 수 있는 사용자의 코멘트는 이에 제한되지 않는다. 예를 들어, 사용자는 아이콘(620)을 선택하여 관심 영상(610)에 대한 메시지를 작성할 수 있다. Referring to FIG. 6, the
또한, 디스플레이 장치(10)는 수신한 사용자의 코멘트를 관심 영상에 대한 정보와 링크하여 디스플레이 장치(10) 또는 서버(미도시)에 저장할 수 있다.Also, the
한편, 디스플레이 장치(10)는 관심 영상(610)의 재생 데이터를 획득할 수 있다. 일 실시예에서 디스플레이 장치(10)는 사용자의 입력을 수신하여 관심 영상의 데이터를 획득할 수 있다. 예를 들어, 사용자가 아이콘(630)을 선택하면 디스플레이 장치(10)는 관심 영상(610)의 재생 데이터를 획득할 수 있다. 관심 영상(610)의 재생 데이터는 관심 영상(610)에 포함된 비디오 정보, 오디오 정보 및 관심 영상(610)에 대한 사용자의 코멘트 정보를 포함할 수 있으나, 이에 제한되지 않는다.On the other hand, the
일 실시예에서 디스플레이 장치(10)는 획득된 관심 영상의 재생 데이터를 외부 디바이스(미도시) 및 서버(미도시)로 전송할 수 있다.In one embodiment, the
도 7은 일 실시예에 따른 외부로부터 수신된 관심 영상에 대한 정보를 제공하는 예시를 설명하는 도면이다.7 is a view for explaining an example of providing information on an image of interest received from the outside according to an embodiment.
도 7을 참조하면, 디스플레이 장치(10)는 외부 디바이스(미도시) 또는 서버(미도시)로부터 관심 영상에 대한 정보를 수신할 수 있다. 일 실시예에서 수신된 관심 영상에 대한 정보는, 사용자가 시청한 가상현실 영상과 동일한 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석함으로써 획득된 정보일 수 있다. Referring to FIG. 7, the
디스플레이 장치(10)는 수신된 다른 사용자들의 관심 영상에 대한 정보를 사용자에게 제공할 수 있다. 일 실시예에서 디스플레이 장치(10)는 다른 사용자들의 관심 영상에 대한 정보에 포함된 관심 영상이 재생되는 영역의 좌표를 이용하여, 다른 사용자들의 관심 영상에 대한 정보를 가상현실 영상(700) 내 해당 좌표(710)에 표시할 수 있다. 또한, n명의 다른 사용자들로부터 획득된 정보를 수신한 경우, 수신된 정보를 사용자 별로 구별하여 가상현실 영상(700) 내 해당 좌표(710)에 표시할 수 있다. The
일 실시예에서, 수신된 관심 영상에 대한 정보는 관심 영상이 재생되는 영역의 좌표, 관심 영상의 재생 구간, 관심 영상에 포함된 키 프레임에 대한 정보, 키 프레임에 포함된 객체에 대한 정보 및 키 프레임에 대한 컨텍스트 정보를 포함할 수 있다. 또한, 수신된 관심 영상에 대한 정보는 다른 사용자들이 입력한 관심 영상에 대한 메시지 및 획득된 다른 사용자들의 감정 정보를 포함할 수 있으나, 이에 제한되지 않는다.In one embodiment, the information about the received interest image includes coordinates of an area in which the image of interest is reproduced, a reproduction interval of the interest image, information about a key frame included in the interest image, information about an object included in the key frame, Context information for the frame may be included. In addition, the information on the received interest image may include a message about interest images input by other users and emotion information of other users obtained, but the present invention is not limited thereto.
도 8은 일 실시예에 따른 사용자가 선택한 관심 영상에 대한 정보를 제공하는 예시를 설명하는 도면이다.8 is a view for explaining an example of providing information on a user-selected interest image according to an exemplary embodiment.
도 8을 참조하면, 관심 영상에 대한 정보를 선택하는 사용자의 입력을 수신할 수 있다. 일 실시예에서 디스플레이 장치(10)는 관심 영역에 포함된 복수의 키 프레임들의 목록(810)을 표시할 수 있다. 사용자는 표시된 키 프레임들의 목록(810) 중에서 하나의 키 프레임(820a)을 선택할 수 있다. 디스플레이 장치(10)는 사용자가 선택한 키 프레임(820a)에 대한 정보를 제공할 수 있다. 예를 들어, 디스플레이 장치(10)는 사용자가 선택한 키 프레임(820a)의 좌표 및 키 프레임(820a)의 재생 위치를 제공할 수 있다. 또한, 디스플레이 장치(10)는 제공된 정보를 이용하여, 선택된 키 프레임(820b)의 재생 위치에서부터 사용자가 가상현실 영상을 시청할 수 있도록 가상현실 영상을 재생할 수 있다.Referring to FIG. 8, an input of a user selecting information on a video of interest can be received. In one embodiment, the
도 9는 일 실시예에 따른 가상현실 영상에 관한 정보를 제공하는 방법을 설명하는 흐름도이다.9 is a flowchart illustrating a method of providing information on a virtual reality image according to an exemplary embodiment.
도 9를 참조하면, 단계 901에서 디스플레이 장치(10)는 사용자에게 가상현실 영상을 제공할 수 있다. 디스플레이 장치(10)는 사용자에게 360도 영상을 제공할 수 있다.Referring to FIG. 9, in
단계 902에서 디스플레이 장치(10)는 가상현실 영상을 시청하는 사용자의 시선에 기초하여, 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정할 수 있다. 디스플레이 장치(10)는 사용자의 시선을 감지함으로써 사용자가 360도 영상 중 어느 영역에서 재생되고 있는 가상현실 영상을 시청하고 있는지, 사용자의 시청 영역을 결정할 수 있다. 디스플레이 장치(10)는 시청 영역(30)의 좌표, 및 사용자의 시선이 시청 영역에 위치하는 동안 재생되는 가상현실 영상의 재생 구간을 이용하여 관심 영상을 결정할 수 있다.In
단계 903에서 디스플레이 장치(10)는 관심 영상에 대한 정보를 사용자에게 제공할 수 있다. 관심 영상에 대한 정보는, 관심 영상이 재생되는 영역의 좌표, 관심 영상의 재생 구간, 관심 영상에 포함된 키 프레임에 대한 정보, 키 프레임에 포함된 객체에 대한 정보 및 키 프레임에 대한 컨텍스트 정보를 포함할 수 있다.In
도 10은 일 실시예에 따른 가상현실 영상에 관한 정보를 제공하는 장치의 블록도이다.10 is a block diagram of an apparatus for providing information about a virtual reality image according to an embodiment.
도 10을 참고하면, 디스플레이 장치(1000)는 제어부(1010), 통신부(1020), 센싱부(1030) 및 디스플레이(1040)를 포함할 수 있다. 도 1에 도시된 디바이스(1000)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다. 10, the
디스플레이 장치(1000)는 가상현실 영상을 제공할 수 있는 헤드 마운트 디스플레이(Head Mounnted Display), VR 헤드셋(headset), 가상 현실 장치, PC(Personal Computer), 랩탑(laptop), 스마트 TV, 휴대폰, PDA, 스마트 단말기, 또는 게임기 등일 수 있으나 이에 제한되지 않는다. 또한, 가상 현실 제공 장치(1000)는 통신 기능 및 데이터 프로세싱 기능을 구비한 안경, 헤어 밴드, 시계등일 수 있다.The
제어부(1010)는 디스플레이 장치(1000) 사용자에게 가상현실 영상을 제공할 수 있다. 또한, 제어부(1010)는 가상현실 영상을 시청하는 사용자의 시선에 기초하여, 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정할 수 있다. 또한, 제어부(1010)는 관심 영상에 대한 정보를 사용자에게 제공할 수 있다.The
통신부(1020)는 디스플레이 장치(1000)와 외부 디바이스(미도시) 또는 서버(미도시) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 일 실시예에서, 통신부(1020)는 외부 디바이스(미도시) 또는 서버(미도시)로부터 관심 영상에 대한 정보를 획득할 수 있다. 통신부(1020)에서 수신한 관심 영상에 대한 정보는, 사용자가 시청하는 가상현실 영상과 동일한 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석함으로써 획득된 정보일 수 있다. 한편, 통신부(1020)는 관심 영상에 대한 사용자의 코멘트를 수신할 수 있다. The
센싱부(1030)는 디스플레이 장치(1000)의 상태 또는 디스플레이 장치(1000) 사용자의 상태를 감지하고, 감지된 정보를 제어부(1010)로 전달할 수 있다. 센싱부(1030)는, 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 근접 센서, 오리엔테이션 센서(orientation sensor), 시선 방향 센서(gaze direction sensor) 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 제한되지 않는다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The
한편, 센싱부(103)는 오리엔테이션 센서(orientation sensor), 시선 방향 센서(gaze direction sensor)를 이용하여 사용자의 시선을 감지할 수 있다. 또한, 센싱부(103)는 카메라와 결합하여 사용자의 표정을 감지할 수 있다. 또한, 센싱부(103)는 마이크로폰 및 텐션 센서(tension sensor)와 결합하여 사용자의 음성을 감지할 수 있다.Meanwhile, the sensing unit 103 can sense the user's gaze using an orientation sensor and a gaze direction sensor. In addition, the sensing unit 103 can detect the user's facial expression in combination with the camera. In addition, the sensing unit 103 may be coupled with a microphone and a tension sensor to sense a user's voice.
디스플레이(1040)는 디스플레이 장치(1000)에서 처리되는 정보를 표시할 수 있다. 일 실시예에서 디스플레이(1040)는 제어부(1010)에서 결정된 관심 영상에 대한 정보를 표시할 수 있다. 또한, 디스플레이(1040)는 관심 영상에 대한 정보를 가상현실 영상의 시청 영역에 표시할 수 있다. 또한, 디스플레이(1040)은 통신부(1020)에서 수신한 복수의 관심 영상들에 대한 정보를 표시할 수 있다.The
한편, 상술한 센싱부(1030) 및 디스플레이(1040)의 기능 및 역할은 별도의 외부 디바이스(미도시)에 의해 수행될 수 있다. 예를 들어, 센싱부(1030)의 기능 및 역할은 디스플레이 장치(1000) 외부에 위치한 카메라(미도시)에 의해 수행될 수 있고, 디스플레이(1040)의 기능 및 역할은 디스플레이 장치(1000) 외부에 위치한 스크린에 의해 수행될 수 있다.Meanwhile, functions and roles of the
도 11은 일 실시예에 따른 GPS를 이용하여 사용자에게 관심 영역에 대한 정보를 제공하는 예시를 설명하는 도면이다. 이하에서 도 1 내지 10과 중복되는 설명은 편의상 생략하기로 한다.11 is a view for explaining an example of providing information on a region of interest to a user using GPS according to an embodiment. Hereinafter, the description overlapping with Figs. 1 to 10 will be omitted for the sake of convenience.
일 실시예에서 디스플레이 장치(1121)는 관심 영역에 대한 정보를 제공할 수 있는 스크린을 포함할 수 있으며, 디스플레이 장치(1121)는 카메라(1122)와 결합하여 동작할 수 있다.In one embodiment, the
디스플레이 장치(1121)는 사용자의 위치 정보를 획득할 수 있다. 또한, 디스플레이 장치(1121)는 사용자의 시선을 감지함으로써 사용자의 시선에 대응하는 디스플레이 영역을 관심 영역으로 결정할 수 있다. 또한, 디스플레이 장치(1121)는 위치 정보 및 관심 영역을 매칭함으로써 관심 영역에 표시되는 뷰(view) 정보를 제공할 수 있다.The
도 11a를 참조하면 디스플레이 장치(1121)는 GPS를 이용하여 사용자의 위치 정보(1110)를 획득할 수 있다. 예를 들어, 디스플레이 장치(1121)는 GPS를 이용하여 차량에 탑승한 사용자의 위치 정보(1110)를 획득할 수 있다. 일 실시예에서 디스플레이 장치(1121)는 외부 디바이스(미도시) 또는 서버(미도시)로부터 사용자의 위치 정보(1110)를 획득할 수 있다.Referring to FIG. 11A, the
도 11b를 참조하면 디스플레이 장치(1121)는 카메라(1121)를 이용하여 사용자의 시선을 감지함으로써, 디스플레이 장치(1121) 상의 어느 영역에 사용자의 시선이 위치하는지 및 사용자의 시선이 이동하는 동선을 결정할 수 있다.Referring to FIG. 11B, the
일 실시예에서 사용자의 시선이 디스플레이 장치(1121)의 특정 영역에 일정 시간 동안 위치한다고 판단되는 경우, 디스플레이 장치는 특정 영역을 관심 영역(1123)으로 결정할 수 있다. 디스플레이 장치(1121)는 사용자의 위치 정보 및 관심 영역(1123)을 분석함으로써, 사용자에게 관심 영역에 표시되는 뷰 정보를 제공할 수 있다. 일 실시예에서 뷰 정보는 관심 영역 주변에 표시될 수 있다. In one embodiment, when it is determined that the user's line of sight is located in a specific area of the
예를 들어, 디스플레이 장치(1121)은 사용자 위치 정보 및 관심 영역(1123)을 분석함으로써, 관심 영역(1123)에 포함된 객체가 'A 빌딩'인 것을 결정할 수 있다. 디스플레이 장치(1121)는 뷰 정보로써, 'A 빌딩'의 건축 년도 및 특징을 사용자에게 제공할 수 있다.For example, the
또한, 일 실시예에서, 운전 중인 사용자의 주의가 분사되는 것을 방지하기 위해, 디스플레이 장치(1121)는 수신된 뷰 정보가 표시되는 특정 영역을 차단(block)할 수 있다.Further, in one embodiment, the
일 실시예에서 디스플레이 장치(1121)는 외부 디바이스(미도시) 또는 서버(미도시)로부터 수신된 뷰 정보를 사용자에게 제공할 수 있다. 디스플레이 장치(1121)는 사용자의 위치 정보를 이용하여 수신된 뷰 정보를 디스플레이 장치(1121)의 특정 영역에 표시할 수 있다.In one embodiment, the
한편, 디스플레이 장치(1121)는 스크린, PC 및 스마트 폰을 통해 관심 영역에 대한 뷰 정보를 사용자에게 제공할 수 있으나, 이에 제한되지 않는다.On the other hand, the
일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment may also be implemented in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.
또한, 본 명세서에서, "부"는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.Also, in this specification, the term "part" may be a hardware component such as a processor or a circuit, and / or a software component executed by a hardware component such as a processor.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
Claims (20)
가상현실 영상을 제공하는 단계;
상기 가상현실 영상을 시청하는 사용자의 시선에 기초하여, 상기 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정하는 단계; 및
상기 관심 영상에 대한 정보를 제공하는 단계;
를 포함하는, 방법.A method for providing information about a virtual reality image,
Providing a virtual reality image;
Determining an image to be reproduced in a partial area of the virtual reality image as an image of interest based on a line of sight of a user viewing the virtual reality image; And
Providing information about the image of interest;
/ RTI >
상기 관심 영상에 대한 정보는, 상기 관심 영상이 재생되는 영역의 좌표 및 상기 관심 영상의 재생 구간을 포함하는 것인, 방법.The method according to claim 1,
Wherein the information on the image of interest includes coordinates of an area in which the image of interest is reproduced and a reproduction interval of the image of interest.
상기 관심 영상으로 결정하는 단계는,
상기 사용자의 시선이 상기 가상현실 영상의 특정 영역에 고정된 경우, 상기 사용자의 시선이 고정된 상기 가상현실 영상의 영역을 결정하는 단계; 및
상기 결정된 영역에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 단계;
를 포함하는, 방법.The method according to claim 1,
The method of claim 1,
Determining an area of the virtual reality image in which the user's gaze is fixed when the user's gaze is fixed in a specific area of the virtual reality image; And
Determining the virtual reality image reproduced in the determined region as the image of interest;
/ RTI >
상기 관심 영상으로 결정하는 단계는,
상기 가상현실 영상에 포함된 객체의 움직임에 따라 상기 사용자의 시선이 이동하는 경우, 상기 사용자의 시선의 이동 경로를 획득하는 단계;
상기 사용자의 시선의 이동 경로에 대응하는 상기 가상현실 영상의 영역들을 결정하는 단계; 및
상기 결정된 영역들에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 단계;
를 포함하는, 방법.The method according to claim 1,
The method of claim 1,
Acquiring a movement path of the user's gaze when the gaze of the user moves according to the movement of the object included in the virtual reality image;
Determining areas of the virtual reality image corresponding to a movement path of the user's gaze; And
Determining the virtual reality image reproduced in the determined regions as the image of interest;
/ RTI >
상기 관심 영상에 대한 정보를 제공하는 단계는,
상기 관심 영상에 포함된 프레임들을 획득하는 단계;
상기 프레임들의 변화량에 기초하여, 상기 프레임들 중에서 적어도 하나의 키 프레임을 결정하는 단계; 및
상기 적어도 하나의 키 프레임에 대한 정보를 제공하는 단계;
를 포함하는, 방법.The method according to claim 1,
Wherein the step of providing information on the image of interest comprises:
Obtaining frames included in the image of interest;
Determining at least one key frame among the frames based on the amount of change of the frames; And
Providing information about the at least one key frame;
/ RTI >
상기 관심 영상에 대한 정보를 제공하는 단계는,
상기 가상현실 영상의 일부 영역에서 재생되는 관심 영상을, 나머지 영역에서 재생되는 영상보다 높은 화질로 제공하는 단계;
를 더 포함하는, 방법.The method according to claim 1,
Wherein the step of providing information on the image of interest comprises:
Providing an image of interest that is reproduced in a partial region of the virtual reality image with higher image quality than an image to be reproduced in the remaining region;
≪ / RTI >
상기 관심 영상에 대한 상기 사용자의 코멘트(comment)를 수신하는 단계; 및
상기 사용자의 코멘트를 상기 관심 영상에 대한 정보와 링크하여 저장하는 단계;
를 더 포함하는, 방법.The method according to claim 1,
Receiving a user ' s comment on the image of interest; And
Linking the user's comment with information about the image of interest;
≪ / RTI >
상기 관심 영상의 재생 데이터를 획득하는 단계; 및
상기 획득된 재생 데이터를 외부 디바이스로 전송하는 단계;
를 더 포함하는, 방법.The method according to claim 1,
Obtaining reproduction data of the image of interest; And
Transmitting the obtained reproduction data to an external device;
≪ / RTI >
상기 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석한 결과에 기초하여, 다른 사용자들의 관심 영상에 대한 정보를 수신하는 단계; 및
상기 수신된 다른 사용자들의 관심 영상에 대한 정보를 제공하는 단계;
를 더 포함하는, 방법.The method according to claim 1,
Receiving information on a user's interest image based on a result of analyzing the gaze of other users viewing the virtual reality image; And
Providing information on the received images of interest of other users;
≪ / RTI >
상기 제공된 적어도 하나의 키 프레임에 대한 정보를 선택하는 상기 사용자의 입력을 수신하는 단계; 및
상기 선택된 키 프레임의 재생 위치에서부터 상기 가상현실 영상을 재생하는 단계;
를 더 포함하는, 방법.6. The method of claim 5,
Receiving an input of the user for selecting information on the provided at least one key frame; And
Reproducing the virtual reality image from the reproduction position of the selected key frame;
≪ / RTI >
상기 가상현실 영상을 시청하는 사용자의 시선을 감지하는 센싱부; 및
상기 가상현실 영상을 제공하고, 상기 감지된 사용자의 시선에 기초하여 상기 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정하고, 상기 관심 영상에 대한 정보를 제공하는 제어부;
를 포함하는, 디바이스.A device for providing information on a virtual reality image,
A sensing unit for sensing a line of sight of a user viewing the virtual reality image; And
A controller for providing the virtual reality image, determining an image to be reproduced in a partial area of the virtual reality image as an image of interest based on the sensed user's gaze, and providing information about the image of interest;
.
상기 제어부는,
상기 사용자의 시선이 상기 가상현실 영상의 특정 영역에 고정된 경우 상기 사용자의 시선이 고정된 상기 가상현실 영상의 영역을 결정하고, 상기 결정된 영역에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 것인, 디바이스.12. The method of claim 11,
Wherein,
Determining a region of the virtual reality image in which the user's gaze is fixed when the user's gaze is fixed in a specific region of the virtual reality image and determining the virtual reality image to be reproduced in the determined region as the region of interest image Lt; / RTI >
상기 제어부는,
상기 가상현실 영상에 포함된 객체의 움직임에 따라 상기 사용자의 시선이 이동하는 경우 상기 사용자의 시선의 이동 경로를 획득하고, 상기 사용자의 시선의 이동 경로에 대응하는 상기 가상현실 영상의 영역들을 결정하고, 상기 결정된 영역들에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 것인, 디바이스.12. The method of claim 11,
Wherein,
Acquires a moving path of the user's gaze when the gaze of the user moves according to the movement of the object included in the virtual reality image and determines areas of the virtual reality image corresponding to the moving path of the gaze of the user And determines the virtual reality image reproduced in the determined areas as the image of interest.
상기 제어부는,
상기 관심 영상에 포함된 프레임들을 획득하고, 상기 프레임들의 변화량에 기초하여 상기 프레임들 중에서 적어도 하나의 키 프레임을 결정하고, 상기 적어도 하나의 키 프레임에 대한 정보를 제공하는 것인, 디바이스.12. The method of claim 11,
Wherein,
Obtain the frames included in the interest image, determine at least one key frame among the frames based on the amount of change of the frames, and provide information about the at least one key frame.
상기 제어부는,
상기 가상현실 영상의 일부 영역에서 재생되는 관심 영상을, 나머지 영역에서 재생되는 영상보다 높은 화질로 제공하는 것인, 디바이스.12. The method of claim 11,
Wherein,
And provides the image of interest that is reproduced in a partial area of the virtual reality image with higher image quality than the image to be reproduced in the remaining area.
상기 관심 영상에 대한 상기 사용자의 코멘트를 수신하는 통신부를 더 포함하며,
상기 제어부는, 상기 사용자의 코멘트를 상기 관심 영상에 대한 정보와 링크하여 저장하는 것인, 디바이스.12. The method of claim 11,
And a communication unit for receiving the user's comment on the image of interest,
Wherein the controller links the comment of the user with information about the image of interest and stores the information.
상기 제어부는, 상기 관심 영상의 재생 데이터를 획득하며,
상기 획득된 재생 데이터를 외부 디바이스로 전송하는 통신부를 더 포함하는 것인, 디바이스.12. The method of claim 11,
Wherein the controller acquires reproduction data of the video of interest,
And a communication unit for transmitting the obtained reproduction data to an external device.
상기 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석한 결과에 기초하여, 다른 사용자들의 관심 영상에 대한 정보를 수신하는 통신부를 더 포함하며,
상기 제어부는, 상기 수신된 다른 사용자들의 관심 영상에 대한 정보를 제공하는 것인, 디바이스.12. The method of claim 11,
Further comprising a communication unit for receiving information on a user's interest image based on a result of analyzing the gaze of other users viewing the virtual reality image,
Wherein the control unit provides information on the images of interest of the received other users.
상기 제공된 적어도 하나의 키 프레임에 대한 정보를 선택하는 상기 사용자의 입력을 수신하는 통신부를 더 포함하며,
상기 제어부는, 상기 선택된 키 프레임의 재생 위치에서부터 상기 가상현실 영상을 재생하는 것인, 디바이스.15. The method of claim 14,
Further comprising a communication unit for receiving an input of the user for selecting information on the provided at least one key frame,
Wherein the control unit reproduces the virtual reality image from the reproduction position of the selected key frame.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160178011A KR20180074180A (en) | 2016-12-23 | 2016-12-23 | Method and apparatus for providing information for virtual reality video |
US15/851,275 US10970546B2 (en) | 2016-12-23 | 2017-12-21 | Method and apparatus for providing information regarding virtual reality image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160178011A KR20180074180A (en) | 2016-12-23 | 2016-12-23 | Method and apparatus for providing information for virtual reality video |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180074180A true KR20180074180A (en) | 2018-07-03 |
Family
ID=62629799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160178011A KR20180074180A (en) | 2016-12-23 | 2016-12-23 | Method and apparatus for providing information for virtual reality video |
Country Status (2)
Country | Link |
---|---|
US (1) | US10970546B2 (en) |
KR (1) | KR20180074180A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101977258B1 (en) * | 2018-07-19 | 2019-05-10 | 주식회사 테크노블러드코리아 | Method for analysing feedback of virtual reality image |
KR20200013220A (en) * | 2019-04-26 | 2020-02-06 | 주식회사 테크노블러드코리아 | Method for controlling of image based on biometric information |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3285216A1 (en) * | 2016-08-19 | 2018-02-21 | Nokia Technologies Oy | Association of comments to points of interest in virtual reality |
JP7070003B2 (en) * | 2018-04-13 | 2022-05-18 | 京セラドキュメントソリューションズ株式会社 | Display device and image forming device |
JP7165532B2 (en) * | 2018-08-07 | 2022-11-04 | 本田技研工業株式会社 | Display device, display control method, and program |
US12086221B2 (en) * | 2019-02-01 | 2024-09-10 | Sony Group Corporation | Multi-factor authentication for virtual reality |
US11797854B2 (en) | 2019-07-08 | 2023-10-24 | Sony Semiconductor Solutions Corporation | Image processing device, image processing method and object recognition system |
KR102641117B1 (en) * | 2019-08-26 | 2024-02-27 | 삼성전자주식회사 | Method and apparatus of augmenting image |
WO2021152758A1 (en) * | 2020-01-30 | 2021-08-05 | Amatelus株式会社 | Video distribution device, video distribution system, video distribution method, and program |
EP4240019A4 (en) * | 2020-10-27 | 2024-06-05 | Amatelus Inc. | Video distribution device, video distribution system, video distribution method, and program |
US12014030B2 (en) | 2021-08-18 | 2024-06-18 | Bank Of America Corporation | System for predictive virtual scenario presentation |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58602B2 (en) | 1978-05-19 | 1983-01-07 | 株式会社コスモ計器 | Automatic zero compensation device |
WO2008012717A2 (en) | 2006-07-28 | 2008-01-31 | Koninklijke Philips Electronics N. V. | Gaze interaction for information display of gazed items |
US20100231687A1 (en) | 2009-03-16 | 2010-09-16 | Chase Real Estate Services Corporation | System and method for capturing, combining and displaying 360-degree "panoramic" or "spherical" digital pictures, images and/or videos, along with traditional directional digital images and videos of a site, including a site audit, or a location, building complex, room, object or event |
JP5800602B2 (en) | 2011-06-29 | 2015-10-28 | オリンパス株式会社 | Information processing system, portable electronic device, program, and information storage medium |
EP2847648A4 (en) | 2012-05-09 | 2016-03-02 | Intel Corp | Eye tracking based selective accentuation of portions of a display |
US9077647B2 (en) | 2012-10-05 | 2015-07-07 | Elwha Llc | Correlating user reactions with augmentations displayed through augmented views |
US9275460B2 (en) | 2012-10-17 | 2016-03-01 | Google Inc. | Reference orientations for viewing panoramic images |
KR101617649B1 (en) | 2014-12-26 | 2016-05-03 | 세종대학교산학협력단 | Recommendation system and method for video interesting section |
JP6275087B2 (en) * | 2015-08-03 | 2018-02-07 | 株式会社オプティム | Head mounted display, data output method, and head mounted display program. |
US10229541B2 (en) * | 2016-01-28 | 2019-03-12 | Sony Interactive Entertainment America Llc | Methods and systems for navigation within virtual reality space using head mounted display |
US9992429B2 (en) * | 2016-05-31 | 2018-06-05 | Microsoft Technology Licensing, Llc | Video pinning |
US10395428B2 (en) * | 2016-06-13 | 2019-08-27 | Sony Interactive Entertainment Inc. | HMD transitions for focusing on specific content in virtual-reality environments |
JP2018006914A (en) * | 2016-06-29 | 2018-01-11 | フォーブ インコーポレーテッド | External imaging system, external imaging method, external imaging program |
JP2018004950A (en) * | 2016-07-01 | 2018-01-11 | フォーブ インコーポレーテッド | Video display system, video display method, and video display program |
JP2018101019A (en) * | 2016-12-19 | 2018-06-28 | セイコーエプソン株式会社 | Display unit and method for controlling display unit |
-
2016
- 2016-12-23 KR KR1020160178011A patent/KR20180074180A/en not_active Application Discontinuation
-
2017
- 2017-12-21 US US15/851,275 patent/US10970546B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101977258B1 (en) * | 2018-07-19 | 2019-05-10 | 주식회사 테크노블러드코리아 | Method for analysing feedback of virtual reality image |
KR20200013220A (en) * | 2019-04-26 | 2020-02-06 | 주식회사 테크노블러드코리아 | Method for controlling of image based on biometric information |
Also Published As
Publication number | Publication date |
---|---|
US20180181811A1 (en) | 2018-06-28 |
US10970546B2 (en) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20180074180A (en) | Method and apparatus for providing information for virtual reality video | |
US11287956B2 (en) | Systems and methods for representing data, media, and time using spatial levels of detail in 2D and 3D digital applications | |
US10733801B2 (en) | Markerless image analysis for augmented reality | |
US10664140B2 (en) | Object tracking in zoomed video | |
CN106576184B (en) | Information processing device, display device, information processing method, program, and information processing system | |
Jana et al. | Enabling {Fine-Grained} permissions for augmented reality applications with recognizers | |
JP6165846B2 (en) | Selective enhancement of parts of the display based on eye tracking | |
CN111178191B (en) | Information playing method and device, computer readable storage medium and electronic equipment | |
CN110286773A (en) | Information providing method, device, equipment and storage medium based on augmented reality | |
CN110163066B (en) | Multimedia data recommendation method, device and storage medium | |
US20200413138A1 (en) | Adaptive Media Playback Based on User Behavior | |
KR101647969B1 (en) | Apparatus for detecting user gaze point, and method thereof | |
CN111308707B (en) | Picture display adjusting method and device, storage medium and augmented reality display equipment | |
US9058660B2 (en) | Feature searching based on feature quality information | |
US20200260062A1 (en) | Electronic device and operation method therefor | |
JP2009277097A (en) | Information processor | |
JP2020520576A5 (en) | ||
US20190155465A1 (en) | Augmented media | |
US11120569B2 (en) | Head pose estimation | |
CN117032520A (en) | Video playing method and device based on digital person, electronic equipment and storage medium | |
US9041689B1 (en) | Estimating fingertip position using image analysis | |
US10891003B2 (en) | System, method, and apparatus for an interactive container | |
US20210191505A1 (en) | Methods and Apparatuses relating to the Handling of Visual Virtual Reality Content | |
KR102487976B1 (en) | Electronic device and operating method for the same | |
JP6336414B2 (en) | Image concentration guidance device and image concentration guidance method using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal |