KR20180074180A - Method and apparatus for providing information for virtual reality video - Google Patents

Method and apparatus for providing information for virtual reality video Download PDF

Info

Publication number
KR20180074180A
KR20180074180A KR1020160178011A KR20160178011A KR20180074180A KR 20180074180 A KR20180074180 A KR 20180074180A KR 1020160178011 A KR1020160178011 A KR 1020160178011A KR 20160178011 A KR20160178011 A KR 20160178011A KR 20180074180 A KR20180074180 A KR 20180074180A
Authority
KR
South Korea
Prior art keywords
image
interest
virtual reality
user
information
Prior art date
Application number
KR1020160178011A
Other languages
Korean (ko)
Inventor
예브헨 야키슨
올렉산드르 슈르
알렉산드르 라돔스키
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160178011A priority Critical patent/KR20180074180A/en
Priority to US15/851,275 priority patent/US10970546B2/en
Publication of KR20180074180A publication Critical patent/KR20180074180A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

A method for providing information regarding a virtual reality (VR) image is disclosed. The method comprises the steps of: providing a VR image; determining, based on a gaze of a user viewing the VR image, an image which is reproduced in a partial area of the VR image as an image of interest; and providing information regarding the image of interest.

Description

가상현실 영상에 대한 정보를 제공하는 장치 및 방법{METHOD AND APPARATUS FOR PROVIDING INFORMATION FOR VIRTUAL REALITY VIDEO}TECHNICAL FIELD [0001] The present invention relates to an apparatus and a method for providing information on a virtual reality image,

가상현실 영상에 대한 정보를 제공하는 장치 및 방법에 관한 것이다.And more particularly, to an apparatus and method for providing information on a virtual reality image.

최근 가상 현실 장치(Virtual Reality Device)를 이용하여 사용자에게 이미지를 제공하는 장치들이 개발되고 있다. 가상 현실 기술은 조작된 감각 자극을 통해 사용자가 현실감을 느끼도록 하는 것으로 게임, 교육, 의료, 저널리즘 등 많은 산업 영역에서 활용될 수 있다.Recently, devices for providing images to users by using a virtual reality device have been developed. Virtual reality technology enables users to feel reality through manipulated sensory stimulation and can be used in many industrial fields such as games, education, medical care, journalism.

가상현실 영상 관련 기술이 발전하면서, 사용자는 다양한 디바이스를 이용하여 360도 영상을 시청할 수 있게 되었다. 360도 영상을 시청하는 사용자는 평면 영상을 시청할 때 보다 더 큰 몰입감을 느낄 수 있다. With the development of virtual reality video related technologies, users can view 360 degree images using various devices. A user who views a 360-degree image can feel a greater immersion feeling than when viewing a plane image.

가상현실 영상에 대한 정보를 제공하는 장치 및 방법을 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.And an apparatus and method for providing information on a virtual reality image. It is still another object of the present invention to provide a computer-readable recording medium on which a program for executing the above method on a computer is recorded. The technical problem to be solved by this embodiment is not limited to the above-mentioned technical problems, and other technical problems can be deduced from the following embodiments.

본 개시의 1 측면은, 가상현실 영상에 대한 정보를 제공하는 방법에 있어서, 가상현실 영상을 제공하는 단계; 상기 가상현실 영상을 시청하는 사용자의 시선에 기초하여, 상기 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정하는 단계; 및 상기 관심 영상에 대한 정보를 제공하는 단계;를 포함하는 방법을 제공할 수 있다.According to an aspect of the present disclosure, there is provided a method of providing information on a virtual reality image, the method comprising: providing a virtual reality image; Determining an image to be reproduced in a partial area of the virtual reality image as an image of interest based on a line of sight of a user viewing the virtual reality image; And providing information on the image of interest.

또한, 상기 관심 영상에 대한 정보는, 상기 관심 영상이 재생되는 영역의 좌표 및 상기 관심 영상의 재생 구간을 포함할 수 있다.The information on the image of interest may include coordinates of an area in which the image of interest is reproduced and a reproduction section of the image of interest.

또한, 상기 사용자의 시선이 상기 가상현실 영상의 특정 영역에 고정된 경우, 상기 사용자의 시선이 고정된 상기 가상현실 영상의 영역을 결정하는 단계; 및 상기 결정된 영역에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 단계;를 포함할 수 있다.Determining a region of the virtual reality image in which the user's gaze is fixed when the user's gaze is fixed in a specific region of the virtual reality image; And determining the virtual reality image reproduced in the determined region as the image of interest.

또한, 상기 가상현실 영상에 포함된 객체의 움직임에 따라 상기 사용자의 시선이 이동하는 경우, 상기 사용자의 시선의 이동 경로를 획득하는 단계; 상기 사용자의 시선의 이동 경로에 대응하는 상기 가상현실 영상의 영역들을 결정하는 단계; 및 상기 결정된 영역들에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 단계;를 포함할 수 있다.Acquiring a movement path of the user's gaze when the gaze of the user moves according to the movement of the object included in the virtual reality image; Determining areas of the virtual reality image corresponding to a movement path of the user's gaze; And determining the virtual reality image reproduced in the determined regions as the image of interest.

또한, 상기 관심 영상에 포함된 프레임들을 획득하는 단계; 상기 프레임들의 변화량에 기초하여, 상기 프레임들 중에서 적어도 하나의 키 프레임을 결정하는 단계; 및 상기 적어도 하나의 키 프레임에 대한 정보를 제공하는 단계;를 포함할 수 있다.The method may further include: obtaining frames included in the image of interest; Determining at least one key frame among the frames based on the amount of change of the frames; And providing information about the at least one key frame.

또한, 상기 가상현실 영상의 일부 영역에서 재생되는 관심 영상을, 나머지 영역에서 재생되는 영상보다 높은 화질로 제공하는 단계;를 포함할 수 있다.The method may further include providing a video image of interest reproduced in a partial region of the virtual reality image with a higher image quality than an image reproduced in the remaining region.

또한, 상기 관심 영상에 대한 상기 사용자의 코멘트(comment)를 수신하는 단계; 및 상기 사용자의 코멘트를 상기 관심 영상에 대한 정보와 링크하여 저장하는 단계;를 더 포함할 수 있다.Receiving a user's comment on the image of interest; And linking the user's comment with information about the image of interest, and storing the linked information.

또한, 상기 관심 영상의 재생 데이터를 획득하는 단계; 및 상기 획득된 재생 데이터를 외부 디바이스로 전송하는 단계;를 더 포함할 수 있다.The method may further include: obtaining reproduction data of the image of interest; And transmitting the obtained reproduction data to an external device.

또한, 상기 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석한 결과에 기초하여, 다른 사용자들의 관심 영상에 대한 정보를 수신하는 단계; 및 상기 수신된 다른 사용자들의 관심 영상에 대한 정보를 제공하는 단계;를 더 포함할 수 있다.Receiving information on a user's interest image based on a result of analyzing the gaze of other users viewing the virtual reality image; And providing information on the images of interest of the received other users.

또한, 상기 제공된 적어도 하나의 키 프레임에 대한 정보를 선택하는 상기 사용자의 입력을 수신하는 단계; 및 상기 선택된 키 프레임의 재생 위치에서부터 상기 가상현실 영상을 재생하는 단계;를 더 포함할 수 있다. Receiving an input of the user selecting information about the provided at least one key frame; And reproducing the virtual reality image from a reproduction position of the selected key frame.

본 개시의 2 측면은, 가상현실 영상에 대한 정보를 제공하는 디바이스에 있어서, 상기 가상현실 영상을 시청하는 사용자의 시선을 감지하는 센싱부; 및 상기 가상현실 영상을 제공하고, 상기 감지된 사용자의 시선에 기초하여 상기 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정하고, 상기 관심 영상에 대한 정보를 제공하는 제어부;를 포함하는 디바이스를 제공할 수 있다.According to two aspects of the present disclosure, there is provided a device for providing information on a virtual reality image, the device comprising: a sensing unit for sensing a line of sight of a user viewing the virtual reality image; And a controller for providing the virtual reality image, determining an image to be reproduced in a partial area of the virtual reality image as an image of interest based on the sensed user's gaze, and providing information about the image of interest Device can be provided.

또한, 상기 제어부는 상기 사용자의 시선이 상기 가상현실 영상의 특정 영역에 고정된 경우 상기 사용자의 시선이 고정된 상기 가상현실 영상의 영역을 결정하고, 상기 결정된 영역에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정할 수 있다.Also, Wherein the control unit determines an area of the virtual reality image in which the user's gaze is fixed when the user's gaze is fixed to a specific area of the virtual reality image and outputs the virtual reality image, .

또한, 상기 제어부는 상기 가상현실 영상에 포함된 객체의 움직임에 따라 상기 사용자의 시선이 이동하는 경우 상기 사용자의 시선의 이동 경로를 획득하고, 상기 사용자의 시선의 이동 경로에 대응하는 상기 가상현실 영상의 영역들을 결정하고, 상기 결정된 영역들에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정할 수 있다.Also, Wherein the controller acquires a moving path of the user's gaze when the user's gaze moves according to the movement of the object included in the virtual reality image, And determine the virtual reality image reproduced in the determined regions as the image of interest.

또한, 상기 제어부는 상기 관심 영상에 포함된 프레임들을 획득하고, 상기 프레임들의 변화량에 기초하여 상기 프레임들 중에서 적어도 하나의 키 프레임을 결정하고, 상기 적어도 하나의 키 프레임에 대한 정보를 제공할 수 있다.Also, the control unit may obtain the frames included in the interest image, determine at least one key frame among the frames based on the amount of change of the frames, and provide information about the at least one key frame .

또한, 상기 제어부는 상기 가상현실 영상의 일부 영역에서 재생되는 관심 영상을, 나머지 영역에서 재생되는 영상보다 높은 화질로 제공할 수 있다.In addition, the controller may provide the image of interest, which is reproduced in a partial region of the virtual reality image, at a higher image quality than an image to be reproduced in the remaining region.

또한, 상기 관심 영상에 대한 상기 사용자의 코멘트를 수신하는 통신부를 더 포함하며, 상기 제어부는 상기 사용자의 코멘트를 상기 관심 영상에 대한 정보와 링크하여 저장할 수 있다.The apparatus may further include a communication unit for receiving the user's comment on the image of interest, wherein the controller may link the comment of the user with the information on the image of interest.

또한, 상기 제어부는 상기 관심 영상의 재생 데이터를 획득하며, 상기 획득된 재생 데이터를 외부 디바이스로 전송하는 통신부를 더 포함할 수 있다.The control unit may further include a communication unit for acquiring reproduction data of the image of interest and transmitting the obtained reproduction data to an external device.

또한, 상기 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석한 결과에 기초하여, 다른 사용자들의 관심 영상에 대한 정보를 수신하는 통신부를 더 포함하며, 상기 제어부는, 상기 수신된 다른 사용자들의 관심 영상에 대한 정보를 제공할 수 있다.The apparatus may further include a communication unit for receiving information on a video of interest of other users based on a result of analyzing the gaze of other users viewing the virtual reality video, Can be provided.

또한, 상기 제공된 적어도 하나의 키 프레임에 대한 정보를 선택하는 상기 사용자의 입력을 수신하는 통신부를 더 포함하며, 상기 제어부는, 상기 선택된 키 프레임의 재생 위치에서부터 상기 가상현실 영상을 재생할 수 있다.The apparatus may further include a communication unit for receiving an input of the user for selecting information on the provided at least one key frame, The control unit may reproduce the virtual reality image from the reproduction position of the selected key frame.

본 개시의 3 측면은, 제 1측면의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.Three aspects of the present disclosure are a computer-readable recording medium having recorded thereon a program for executing the method of the first aspect in a computer.

본 개시의 4 측면은, 사용자의 위치 정보를 획득하는 단계; 상기 사용자의 시선을 감지하는 단계; 상기 감지된 사용자의 시선에 대응하는 디스플레이 영역을 관심 영역으로 결정하는 단계; 및 상기 위치 정보 및 상기 관심 영역을 매칭함으로써 상기 관심 영역에 표시되는 뷰(view) 정보를 제공하는 단계;를 포함하는 방법 및 디바이스를 제공할 수 있다.Four aspects of the present disclosure provide a method comprising: obtaining location information of a user; Sensing a line of sight of the user; Determining a display area corresponding to the sensed user's gaze as a region of interest; And providing view information displayed in the ROI by matching the ROI and the ROI.

도 1은 일 실시예에 따른 가상현실 영상에 대한 정보를 제공하는 방법의 개요도이다.
도 2는 일 실시예에 따른 정적 관심 영상을 결정하는 방법의 예시를 설명하는 도면이다.
도 3은 일 실시예에 따른 동적 관심 영상을 결정하는 방법의 예시를 설명하는 도면이다.
도 4는 일 실시예에 따른 가상현실 영상의 키 프레임을 결정하는 예시를 설명하는 도면이다.
도 5는 일 실시예에 따른 관심 영상이 사용자에게 제공되는 예시를 설명하는 도면이다.
도 6은 일 실시예에 따른 관심 영상에 대한 사용자의 코멘트를 표시하는 예시를 설명하는 도면이다.
도 7은 일 실시예에 따른 외부로부터 수신된 관심 영상에 대한 정보를 제공하는 예시를 설명하는 도면이다.
도 8은 일 실시예에 따른 사용자가 선택한 관심 영상에 대한 정보를 제공하는 예시를 설명하는 도면이다.
도 9는 일 실시예에 따른 가상현실 영상에 관한 정보를 제공하는 방법을 설명하는 흐름도이다.
도 10은 일 실시예에 따른 가상현실 영상에 관한 정보를 제공하는 장치의 블록도이다.
도 11은 일 실시예에 따른 GPS를 이용하여 사용자에게 관심 영역에 대한 정보를 제공하는 예시를 설명하는 도면이다.
1 is a schematic diagram of a method for providing information on a virtual reality image according to an exemplary embodiment of the present invention.
2 is a diagram illustrating an example of a method for determining a static interest image in accordance with one embodiment.
3 is a diagram illustrating an example of a method for determining a dynamic interest image in accordance with one embodiment.
4 is a view for explaining an example of determining a key frame of a virtual reality image according to an embodiment.
FIG. 5 is a diagram illustrating an example in which an image of interest is provided to a user according to an embodiment.
FIG. 6 is a diagram illustrating an example of displaying a user's comment on a video of interest according to an embodiment.
7 is a view for explaining an example of providing information on an image of interest received from the outside according to an embodiment.
8 is a view for explaining an example of providing information on a user-selected interest image according to an exemplary embodiment.
9 is a flowchart illustrating a method of providing information on a virtual reality image according to an exemplary embodiment.
10 is a block diagram of an apparatus for providing information about a virtual reality image according to an embodiment.
11 is a view for explaining an example of providing information on a region of interest to a user using GPS according to an embodiment.

아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein. In the drawings, the same reference numerals are used to denote like elements throughout the specification for the purpose of clearly illustrating the present disclosure.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and / or software configurations that perform particular functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented with algorithms running on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic configuration, signal processing, and / or data processing, and the like. Terms such as " mechanism, " " element, " " means, " and " configuration " and the like are widely used and are not limited to mechanical and physical configurations.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. Also, the connection lines or connection members between the components shown in the figures are merely illustrative of functional connections and / or physical or circuit connections. In practical devices, connections between components can be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 가상현실 영상에 대한 정보를 제공하는 방법의 개요도이다.1 is a schematic diagram of a method for providing information on a virtual reality image according to an exemplary embodiment of the present invention.

디스플레이 장치(10)는 사용자에게 가상현실 영상(20)을 제공할 수 있다. 일 실시예에서 디스플레이 장치(10)는 사용자에게 360도 영상을 제공할 수 있으나, 제공되는 영상의 형태는 이에 제한되지 않는다. 예를 들어, 사용자는 디스플레이 장치(10)를 머리에 고정시키고 디스플레이 장치(10)를 통해 가상현실 영상을 시청할 수 있으며, 디스플레이 장치(10)는 사용자의 시선을 감지함으로써 사용자가 360도 영상 중 어느 영역에서 재생되고 있는 가상현실 영상(20)을 시청하고 있는지 결정할 수 있다. 일 실시예에서 디스플레이 장치(10)는 디스플레이 장치(10)의 방향(orientation)을 감지하는 센서 및 사용자의 시선의 방향(gaze direction)을 감지하는 센서를 이용하여 사용자의 시선을 분석함으로써 사용자가 시청하고 있는 가상현실 영상의 영역(30) (이하, 시청 영역)을 결정할 수 있다.The display device 10 may provide a virtual reality image 20 to the user. In one embodiment, the display device 10 may provide a 360 degree image to the user, but the form of the image provided is not limited thereto. For example, the user can fix the display device 10 to the head and view the virtual reality image through the display device 10, and the display device 10 can detect the user's gaze, It is possible to determine whether or not the virtual reality image 20 being reproduced in the region is being watched. In one embodiment, the display device 10 analyzes a user's gaze using a sensor that senses the orientation of the display device 10 and a sensor that senses the gaze direction of the user's gaze, (Hereinafter referred to as viewing area) of the virtual reality image.

일 실시예에서 디스플레이 장치(10)는 극 좌표계(polar coordinates) 및 직각 좌표계(cartesian coordinates)를 이용하여 가상현실 영상(20)의 영역을 구별함으로써 가상현실 영상(20)의 영역 중에서 일부를 시청 영역(30)으로 결정할 수 있다. 예를 들어, 디스플레이 장치(10)는 사용자의 시선을 감지함으로써 사용자의 시선에 대응하는 가상현실 영상(20)의 좌표를 획득하고, 해당 좌표가 포함된 가상현실 영상(20)의 영역을 시청 영역(30)으로 결정할 수 있다.In one embodiment, the display device 10 distinguishes an area of the virtual reality image 20 by using polar coordinates and cartesian coordinates, thereby displaying a part of the area of the virtual reality image 20 as a viewing area (30). For example, the display device 10 acquires the coordinates of the virtual reality image 20 corresponding to the user's gaze by sensing the user's gaze, and acquires the area of the virtual reality image 20 including the coordinates as the viewing area (30).

디스플레이 장치(10)는 복수의 시청 영역들(30) 중 일부의 시청 영역에서 재생되는 영상을 관심 영상(40)으로 결정할 수 있다. 일 실시예에서 디스플레이 장치(10)는 시청 영역(30)의 좌표, 및 사용자의 시선이 시청 영역(30)에 위치하는 동안 재생되는 가상현실 영상(20)의 재생 구간을 이용하여 관심 영상(40)을 결정할 수 있다. 구체적인 방법은 도 2 및 도 3에서 살펴보기로 한다.The display device 10 can determine an image to be reproduced in the viewing area of some of the plurality of viewing areas 30 as the image 40 of interest. In one embodiment, the display device 10 displays the coordinates of the viewing region 30 and the position of the region of interest 40 (see FIG. 4) using the reproduction region of the virtual reality image 20 reproduced while the user's line of sight is located in the viewing region 30. [ Can be determined. A specific method will be described with reference to FIGS. 2 and 3. FIG.

디스플레이 장치(10)는 관심 영상(40)에 대한 정보를 사용자에게 제공할 수 있다. 일 실시예에서 관심 영상(40)에 대한 정보는, 관심 영상(40)이 재생되는 영역의 좌표, 관심 영상(40)의 재생 구간, 관심 영상(40)에 포함된 키 프레임에 대한 정보, 키 프레임에 포함된 객체에 대한 정보 및 키 프레임에 대한 컨텍스트 정보를 포함할 수 있으나, 이에 제한되지 않는다. The display device 10 can provide the user with information about the image 40 of interest. In one embodiment, the information about the image 40 of interest includes the coordinates of the region in which the region of interest 40 is reproduced, the region of interest 40, the information about the keyframe contained in the region of interest 40, Information about an object included in a frame, and context information about a key frame.

예를 들어, 디스플레이 장치(10)는 특정 빌딩이 재생되는 영역의 가상현실 영상(21)을 관심 영상(41)으로 결정할 수 있다. 디스플레이 장치(10)는 관심 영상(41)의 키 프레임에 포함된 객체가 'A 빌딩'이란 것을 식별할 수 있고, 사용자에게 'A 빌딩'의 건축 년도 및 특징에 대한 정보를 제공할 수 있다.For example, the display device 10 may determine the virtual reality image 21 of the region in which the specific building is reproduced as the image of interest 41. The display device 10 can identify that the object included in the key frame of the interest image 41 is 'A building' and can provide the user with information about the building year and the characteristics of the 'A building'.

한편, 일 실시예에서 디스플레이 장치(10)는 다른 사용자들의 관심 영상에 대한 정보를 외부 디바이스(미도시) 또는 서버(미도시)로부터 수신할 수 있다. 또한, 디스플레이 장치(10)는 사용자와 동일한 가상현실 영상(20)을 시청하는 다른 사용자들의 시선을 분석함으로써 결정된 관심 영상에 대한 정보를 사용자에게 제공할 수 있다.Meanwhile, in one embodiment, the display device 10 can receive information on images of interest of other users from an external device (not shown) or a server (not shown). In addition, the display device 10 may provide the user with information about the image of interest determined by analyzing the gaze of other users viewing the same virtual reality image 20 as the user.

도 2는 일 실시예에 따른 정적 관심 영상을 결정하는 방법의 예시를 설명하는 도면이다.2 is a diagram illustrating an example of a method for determining a static interest image in accordance with one embodiment.

도 2를 참조하면 디스플레이 장치(10)는 감지된 사용자의 시선을 분석할 수 있다. 디스플레이 장치(10)는 시간에 따라 변하는 사용자의 시선에 대응하는 가상현실 영상의 좌표를 획득할 수 있다. 일 실시예에서 극 좌표계를 이용하여 가상현실 영상의 좌표를 표현할 수 있다. 예를 들어, 가상현실 영상의 좌표는 P(φ, θ)로 표현될 수 있는데, φ(-π≤φ≤π)는 기준 방향에서 x 축 양의 방향으로 떨어진 각도이고 θ(-π≤θ≤π)는 기준 방향에서 z 축 양의 방향으로 떨어진 각도를 의미한다. 한편, 기준 방향이란 P(φ=0, θ=0)로 표현될 수 있으며, 가상현실 영상 내 기설정된 방향, 또는 사용자가 가상현실 영상을 시청하기 시작한 시점의 사용자의 시선의 방향일 수 있으나, 이에 제한되지 않는다.Referring to FIG. 2, the display device 10 can analyze the perceived line of the user. The display device 10 can acquire the coordinates of the virtual reality image corresponding to the user's gaze which changes with time. In one embodiment, the coordinates of the virtual reality image can be expressed using a polar coordinate system. For example, the coordinates of a virtual reality image can be expressed as P (φ, θ), where φ (-π≤φ≤π) is an angle away from the reference direction in the x-axis positive direction and θ (-π≤θ ≤ π) means an angle away from the reference direction in the z-axis positive direction. Meanwhile, the reference direction may be expressed as P (? = 0,? = 0) and may be a predetermined direction in the virtual reality image or a direction of the user's gaze at the time when the user starts to view the virtual reality image, But is not limited thereto.

도 2a를 참조하면 디스플레이 장치(10)는 사용자의 시선의 이동량을 계산할 수 있다. 일 실시예에서 극 좌표계를 이용하여 가상현실 영상의 좌표(P(φ, θ))를 표현하는 경우, 디스플레이 장치(10)는 시간에 따른 σ값(σ=sum(φ, θ))의 변화 그래프(210)를 이용하여 사용자의 시선의 이동량을 계산할 수 있다.Referring to FIG. 2A, the display device 10 can calculate the amount of movement of the user's gaze. In one embodiment, when the coordinates (P (?,?)) Of a virtual reality image are expressed using a polar coordinate system, the display device 10 displays a change (? = Sum The amount of movement of the user's gaze can be calculated using the graph 210. [

한편, 디스플레이 장치(10)는 시간에 따른 σ값의 변화 그래프(210)를 필터링할 수 있다. 예를 들어, 디스플레이 장치(10)는 스텝 디텍션 알고리즘(step detection algorithm)을 이용하여 시간에 따른 σ값의 변화 그래프(210)를 필터링할 수 있다. 스텝 디텍션 알고리즘에는 토탈 베리에이션 디노이징 알고리즘(total variation denoising algorithm), 평균 이동 알고리즘(mean shift algorithm) 또는 바이레트럴 필터(bilateral filter)가 사용될 수 있으나, 이에 제한되지 않는다.On the other hand, the display device 10 can filter the graph 210 of the change of the sigma value over time. For example, the display device 10 may filter the graph 210 of the change in sigma value over time using a step detection algorithm. The step detection algorithm may be, but is not limited to, a total variation denoising algorithm, a mean shift algorithm, or a bilateral filter.

일 실시예에서, 시간에 따른 σ값의 변화량(그래프의 기울기)이 기설정된 제 1 임계 값 이하인 경우, 디스플레이 장치(10)는 사용자의 시선이 가상현실 영상의 특정 영역에 고정된다고 판단할 수 있다. 사용자의 시선이 고정된다는 것은 시선이 정지된 상태 및 소정의 허용 가능한 범위 내에서 움직이는 경우를 포함할 수 있다. 또한, 디스플레이 장치(10)는 시간에 따른 σ값의 변화량 그래프(210)의 스텝(step)을 계산함으로써, 사용자의 시선이 가상현실 영상의 특정 영역에 고정된다고 판단할 수 있다.In one embodiment, when the amount of change of the sigma value with time (slope of the graph) is equal to or less than the predetermined first threshold value, the display device 10 can determine that the user's gaze is fixed to a specific region of the virtual reality image . The fixation of the user's gaze may include a state where the gaze is stopped and a case where the gaze is moved within a predetermined allowable range. Also, the display apparatus 10 can determine that the user's gaze is fixed to a specific region of the virtual reality image by calculating the step of the graph of the variation amount of the sigma value 210 with time.

디스플레이 장치(10)는 사용자의 시선이 위치한 시청 영역의 좌표(211), 및 사용자의 시선이 시청 영역에 위치하는 동안 재생되는 가상현실 영상의 재생 구간(212)을 획득할 수 있다. 예를 들어, 시간에 따른 σ값의 변화량 그래프(210)의 기울기를 계산한 결과, t1~t2 시간 동안의 그래프의 기울기가 기설정된 제 1 임계 값 이하인 경우, 디스플레이 장치(10)는 t1~t2 시간 동안 사용자의 시선이 위치한 시청 영역의 좌표(211), 및 가상현실 영상의 재생 구간 t1~t2(212)를 획득할 수 있다.The display device 10 can acquire the coordinates 211 of the viewing area where the user's line of sight is located and the reproduction interval 212 of the virtual reality image to be reproduced while the user's line of sight is located in the viewing area. For example, as a result of calculating the slope of the variation graph 210 of the sigma value with respect to time, if the slope of the graph during the period between t1 and t2 is equal to or less than the preset first threshold value, the display device 10 displays t1 to t2 The coordinates 211 of the viewing area where the user's line of sight is located, and the playback period t1 to t2 212 of the virtual reality image during the time.

도 2b를 참조하면 사용자의 시선의 이동 동선(221)이 가상현실 영상(20)이 재생되는 극 좌표계에 표시된다. t1~t2(212) 시간 동안 사용자의 시선이 위치한 시청 영역의 좌표(211)를 이용하여, 디스플레이 장치(10)는 복수의 시청 영역들 중 일부 영역(222)을 결정할 수 있고, 일부 영역(222)에서 재생되는 영상을 정적 관심 영상으로 결정할 수 있다. Referring to FIG. 2B, a moving line 221 of the user's gaze is displayed in a polar coordinate system in which the virtual reality image 20 is reproduced. the display device 10 can determine the area 222 of the plurality of viewing areas using the coordinates 211 of the viewing area where the user's gaze is located for t1 to t2 212, Can be determined as a static interest image.

도 3은 일 실시예에 따른 동적 관심 영상을 결정하는 방법의 예시를 설명하는 도면이다. 이하에서 도 2와 중복되는 설명은 편의상 생략하기로 한다.3 is a diagram illustrating an example of a method for determining a dynamic interest image in accordance with one embodiment. Hereinafter, the description overlapping with FIG. 2 will be omitted for the sake of simplicity.

도 3a를 참조하면, 그래프(310)의 기울기가 기설정된 제 1 임계 값을 초과하고 제 2 임계값 이하인 경우(제 1 임계 값 < 제 2 임계 값), 디스플레이 장치(10)는 가상현실 영상에 포함된 객체의 움직임에 따라 사용자의 시선이 이동한다고 판단할 수 있다. 디스플레이 장치(10)는 사용자의 시선이 위치한 시청 영역의 좌표(311), 및 사용자의 시선이 시청 영역에 위치하는 동안 재생되는 가상현실 영상의 재생 구간을 획득할 수 있다. 3A, when the slope of the graph 310 exceeds a predetermined first threshold value and is equal to or less than a second threshold value (first threshold value <second threshold value), the display apparatus 10 displays the virtual reality image It can be determined that the user's line of sight moves according to the motion of the included object. The display device 10 can acquire the coordinates 311 of the viewing area where the user's line of sight is located and the reproduction interval of the virtual reality image to be reproduced while the user's line of sight is located in the viewing area.

예를 들어, 시간에 따른 σ값의 변화량 그래프(310)의 기울기를 계산한 결과, t3~t4 시간 동안의 그래프의 기울기가 기설정된 제 1 임계 값을 초과하고 제 2 임계값 이하인 경우, 디스플레이 장치(10)는 t3~t4 시간 동안 사용자의 시선이 위치한 시청 영역의 좌표(311), 및 사용자의 시선이 시청 영역에 위치하는 동안 재생되는 가상현실 영상의 재생 구간 t3~t4(312)를 획득할 수 있다.For example, when the slope of the graph of the variation amount of the sigma value over time is calculated as a result of the calculation, the slope of the graph during the period from t3 to t4 exceeds the predetermined first threshold value and is equal to or less than the second threshold value, The controller 10 acquires the coordinates 311 of the viewing area where the user's line of sight is located for t3 to t4 and the playback period t3 to t4 312 of the virtual reality image that is reproduced while the user's line of sight is located in the viewing area .

도 3b를 참조하면, 가상현실 영상에 포함된 객체의 움직임에 따라 사용자의 시선이 이동한다. 디스플레이 장치(10)는 t3~t4(312) 시간 동안 사용자의 시선의 이동 경로에 대응하는 가상현실 영상의 영역들(312a 내지 312d)을 결정할 수 있다. 또한, 디스플레이 장치(10)는 결정된 영역들(312a 내지 312d)에서 재생되는 가상현실 영상을 동적 관심 영상으로 결정할 수 있다. 일 실시예에서 결정된 영역들(312a 내지 312d)은 가상현실 영상에 포함된 프레임 별로 상이할 수 있다. 또한, 결정된 영역들(312a 내지 312d)은 프레임 별로 상이할 수 있으므로 결정된 영역들(312a 내지 312d) 각각은 독립적이다.Referring to FIG. 3B, the user's gaze moves according to the movement of the object included in the virtual reality image. The display device 10 can determine the regions 312a to 312d of the virtual reality image corresponding to the movement path of the user's gaze for the time t3 to t4 (312). In addition, the display device 10 can determine the virtual reality image reproduced in the determined areas 312a to 312d as the dynamic interest image. The regions 312a to 312d determined in one embodiment may be different for each frame included in the virtual reality image. Also, since the determined areas 312a to 312d may differ from one frame to another, each of the determined areas 312a to 312d is independent.

일 실시예에서 정적 관심 영상은 특정 시청 영역(30)에서 재생되는 가상현실 영상(20)일 수 있으며, 동적 관심 영상은 정해진 시청 영역(30)이 아닌 객체의 움직임에 따라 변하는 복수의 시청 영역들(30)에서 재생되는 가상현실 영상(20)일 수 있다. In one embodiment, the static interest image may be a virtual reality image 20 that is reproduced in a specific viewing area 30, and the dynamic interest image may be a plurality of viewing areas 30, The virtual reality image 20 may be a virtual reality image 20 reproduced from the virtual reality image 30.

일 실시예에서, 디스플레이 장치(10)는 컨벌루션(convolution) 및 크로스 코릴레이션(cross-correlation)을 이용하여 시간에 따른 σ값의 변화량 그래프의 구간들 간의 유사성을 파악할 수 있다. 또한, 디스플레이 장치(10)는 기설정된 방법 외에도, 사용자 설정 방법 및 머신 러닝(machine learning) 방법을 이용하여 관심 영역의 종류를 판단할 수 있으나, 판단 방법은 이에 제한되지 않는다.In one embodiment, the display device 10 can use the convolution and cross-correlation to determine the similarity between the intervals of the sigma value variation graph over time. In addition to the preset method, the display device 10 can determine the type of the region of interest using a user setting method and a machine learning method, but the determination method is not limited thereto.

도 4는 일 실시예에 따른 가상현실 영상의 키 프레임을 결정하는 예시를 설명하는 도면이다.4 is a view for explaining an example of determining a key frame of a virtual reality image according to an embodiment.

가상현실 영상의 시청 영역 별로 복수의 프레임들(410)이 포함될 수 있다. 일 실시예에서 디스플레이 장치(10)는 복수의 프레임들(410) 중에서 이미지의 변화량이 상대적으로 많은 프레임들을 키 프레임들(420)로 결정할 수 있다. 이미지의 변화량을 측정하는 방법으로는 자기상관(autocorrelation), SIFT(scale-invariant feature method) 및 SURF(speeded up robust features) 알고리즘을 이용할 수 있으나, 측정 방법은 이에 제한되지 않는다.A plurality of frames 410 may be included for each viewing area of the virtual reality image. In one embodiment, the display device 10 may determine, among the plurality of frames 410, frames with a relatively large amount of change in images to be key frames 420. Autocorrelation, scale-invariant feature method (SIFT), and speeded up robust features (SURF) algorithms can be used to measure the amount of change in the image, but the measurement method is not limited thereto.

디스플레이 장치(10)는 키 프레임들(420)에 대한 정보를 제공할 수 있다. 일 실시예에서 키 프레임에 대한 정보(430)는 키 프레임이 포함된 가상현실 영상의 이름, 키 프레임의 좌표, 키 프레임의 재생 위치, 키 프레임에 포함된 객체에 대한 정보 및 키 프레임에 대한 컨텍스트 정보를 포함할 수 있으나, 이에 제한되지 않는다.Display device 10 may provide information about key frames 420. In one embodiment, the information about the key frame 430 includes the name of the virtual reality image including the key frame, the coordinates of the key frame, the playback position of the key frame, information about the object included in the key frame, But are not limited to, information.

또한, 디스플레이 장치(10)는 키 프레임들(420)에 대한 사용자의 감정 정보를 획득할 수 있다. 일 실시예에서, 디스플레이 장치(10)는 사용자의 표정 정보 및 음성 정보에 기초하여 사용자의 감정 정보를 획득할 수 있다. 예를 들어, 디스플레이 장치(10)는 사용자의 표정 정보 및 음성 정보를 이용하여 사용자의 감정을 분석함으로써, 기쁨, 슬픔 또는 화남 등의 사용자의 감정 정보를 획득할 수 있다.In addition, the display device 10 may obtain the user &apos; s emotion information about the key frames 420. [ In one embodiment, the display device 10 can obtain emotion information of the user based on the user's facial expression information and voice information. For example, the display device 10 can acquire emotional information of the user such as joy, sadness, or anger by analyzing the user's emotions using the user's facial expression information and voice information.

또한, 디스플레이 장치(10)는 키 프레임들(420)에 포함된 객체에 대한 정보를 획득할 수 있다. 일 실시예에서, 디스플레이 장치(10)는 키 프레임들(420)에 포함된 객체를 검출할 수 있다. 예를 들어, 디스플레이 장치(10)는 대표 이미지에 포함된 로컬 디스크립터(local descriptor)를 이용한 객체 검출 방법, 전역 특징(global features)을 이용한 객체 검출 방법, 및 색상 및 형태 특징(color and shape features)를 이용한 객체 검출 방법을 이용하여 키 프레임들(420)에 포함된 객체를 검출할 수 있으나, 이에 제한되지 않는다.In addition, the display device 10 may obtain information about the objects included in the key frames 420. In one embodiment, the display device 10 may detect an object contained in the key frames 420. For example, the display device 10 may include an object detection method using a local descriptor included in a representative image, an object detection method using global features, and a color and shape features, The object included in the key frames 420 may be detected using an object detection method using the method of FIG.

또한, 디스플레이 장치(10)는 키 프레임에 대한 컨텍스트(context) 정보를 제공할 수 있다. 일 실시예에서 디스플레이 장치(10)는 사용자의 감정 정보 및 키 프레임에 포함된 객체에 대한 정보를 분석함으로써, 키 프레임에 대한 컨텍스트 정보를 제공할 수 있다. 예를 들어, 디스플레이 장치(10)는 키 프레임에 대한 컨텍스트 정보를 제공하기 위해 CNN(Convolutional Neural Network) 및 RNNLM(Recurrent Neural Network Language Model)을 이용할 수 있다.In addition, the display device 10 may provide context information for a key frame. In one embodiment, the display device 10 may provide context information about a key frame by analyzing information about the user's emotion information and objects included in the key frame. For example, the display device 10 may use a Convolutional Neural Network (CNN) and a Recurrent Neural Network Language Model (RNNLM) to provide context information for a key frame.

도 5는 일 실시예에 따른 관심 영상이 사용자에게 제공되는 예시를 설명하는 도면이다.FIG. 5 is a diagram illustrating an example in which an image of interest is provided to a user according to an embodiment.

도 5a를 참조하면, 가상현실 영상(510)이 사용자에게 제공된다. 가상현실 영상(510)에 포함된 모든 영역이 동일한 화질로 사용자에게 제공될 수 있다.Referring to FIG. 5A, a virtual reality image 510 is provided to a user. All the regions included in the virtual reality image 510 can be provided to the user with the same image quality.

한편, 도 5b를 참조하면, 디스플레이 장치(10)는 관심 영상이 재생되는 영역(530)의 가상현실 영상을 나머지 영역에서 재생되는 가상현실 영상(520)보다 높은 화질로 제공할 수 있다. 일 실시예에서 디스플레이 장치(10)가 저장된 가상현실 영상(520)을 로딩할 때 또는 실시간 영상을 스트리밍할 때, 관심 영상이 재생되는 영역(530)의 가상현실 영상(520)을 나머지 영역에서 재생되는 가상현실 영상보다 높은 화질로 제공할 수 있다. Referring to FIG. 5B, the display apparatus 10 may provide a virtual reality image in an area 530 in which a target image is reproduced at a higher image quality than a virtual reality image 520 in a remaining area. In one embodiment, when loading the virtual reality image 520 stored in the display device 10 or streaming the real-time image, the virtual reality image 520 of the region 530 in which the image of interest is reproduced is reproduced in the remaining region It is possible to provide a higher quality image than the virtual reality image.

도 6은 일 실시예에 따른 관심 영상에 대한 사용자의 코멘트를 표시하는 예시를 설명하는 도면이다.FIG. 6 is a diagram illustrating an example of displaying a user's comment on a video of interest according to an embodiment.

도 6을 참조하면, 디스플레이 장치(10)는 관심 영상(610)에 대한 사용자의 코멘트를 수신할 수 있다. 일 실시예에서 디스플레이 장치(10)는 관심 영상(610)에 대한 사용자의 메시지, 사용자의 감정 정보 및 사용자의 선호도 정보를 수신할 수 있으나, 수신할 수 있는 사용자의 코멘트는 이에 제한되지 않는다. 예를 들어, 사용자는 아이콘(620)을 선택하여 관심 영상(610)에 대한 메시지를 작성할 수 있다. Referring to FIG. 6, the display device 10 may receive a user's comment on the image of interest 610. In one embodiment, the display device 10 may receive the user's message, the user's emotional information, and the user's preference information for the image of interest 610, but the user's comments that may receive it are not limited thereto. For example, the user may select an icon 620 to create a message for the image of interest 610.

또한, 디스플레이 장치(10)는 수신한 사용자의 코멘트를 관심 영상에 대한 정보와 링크하여 디스플레이 장치(10) 또는 서버(미도시)에 저장할 수 있다.Also, the display device 10 may store the received comment of the user in the display device 10 or the server (not shown) by linking it with the information about the image of interest.

한편, 디스플레이 장치(10)는 관심 영상(610)의 재생 데이터를 획득할 수 있다. 일 실시예에서 디스플레이 장치(10)는 사용자의 입력을 수신하여 관심 영상의 데이터를 획득할 수 있다. 예를 들어, 사용자가 아이콘(630)을 선택하면 디스플레이 장치(10)는 관심 영상(610)의 재생 데이터를 획득할 수 있다. 관심 영상(610)의 재생 데이터는 관심 영상(610)에 포함된 비디오 정보, 오디오 정보 및 관심 영상(610)에 대한 사용자의 코멘트 정보를 포함할 수 있으나, 이에 제한되지 않는다.On the other hand, the display device 10 can acquire reproduction data of the image of interest 610. [ In one embodiment, the display device 10 may receive user input and obtain data of the image of interest. For example, when the user selects the icon 630, the display device 10 can acquire the reproduction data of the image of interest 610. [ The reproduction data of the image of interest 610 may include, but is not limited to, video information included in the image of interest 610, audio information, and user's comment information of the image of interest 610.

일 실시예에서 디스플레이 장치(10)는 획득된 관심 영상의 재생 데이터를 외부 디바이스(미도시) 및 서버(미도시)로 전송할 수 있다.In one embodiment, the display device 10 can transmit reproduction data of the acquired interest image to an external device (not shown) and a server (not shown).

도 7은 일 실시예에 따른 외부로부터 수신된 관심 영상에 대한 정보를 제공하는 예시를 설명하는 도면이다.7 is a view for explaining an example of providing information on an image of interest received from the outside according to an embodiment.

도 7을 참조하면, 디스플레이 장치(10)는 외부 디바이스(미도시) 또는 서버(미도시)로부터 관심 영상에 대한 정보를 수신할 수 있다. 일 실시예에서 수신된 관심 영상에 대한 정보는, 사용자가 시청한 가상현실 영상과 동일한 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석함으로써 획득된 정보일 수 있다. Referring to FIG. 7, the display device 10 may receive information on a video of interest from an external device (not shown) or a server (not shown). In one embodiment, the information on the received image of interest may be information obtained by analyzing the gaze of other users viewing the same virtual reality image as the virtual reality image viewed by the user.

디스플레이 장치(10)는 수신된 다른 사용자들의 관심 영상에 대한 정보를 사용자에게 제공할 수 있다. 일 실시예에서 디스플레이 장치(10)는 다른 사용자들의 관심 영상에 대한 정보에 포함된 관심 영상이 재생되는 영역의 좌표를 이용하여, 다른 사용자들의 관심 영상에 대한 정보를 가상현실 영상(700) 내 해당 좌표(710)에 표시할 수 있다. 또한, n명의 다른 사용자들로부터 획득된 정보를 수신한 경우, 수신된 정보를 사용자 별로 구별하여 가상현실 영상(700) 내 해당 좌표(710)에 표시할 수 있다. The display device 10 can provide information to the user about the images of interest of other users. In one embodiment, the display device 10 uses the coordinates of the region in which the image of interest included in the information about the image of interest of the other users is reproduced, and stores information about the image of interest of the other users in the virtual reality image 700 Can be displayed on the coordinate 710. In addition, when information obtained from n other users is received, the received information can be distinguished for each user and displayed in the corresponding coordinates 710 in the virtual reality image 700.

일 실시예에서, 수신된 관심 영상에 대한 정보는 관심 영상이 재생되는 영역의 좌표, 관심 영상의 재생 구간, 관심 영상에 포함된 키 프레임에 대한 정보, 키 프레임에 포함된 객체에 대한 정보 및 키 프레임에 대한 컨텍스트 정보를 포함할 수 있다. 또한, 수신된 관심 영상에 대한 정보는 다른 사용자들이 입력한 관심 영상에 대한 메시지 및 획득된 다른 사용자들의 감정 정보를 포함할 수 있으나, 이에 제한되지 않는다.In one embodiment, the information about the received interest image includes coordinates of an area in which the image of interest is reproduced, a reproduction interval of the interest image, information about a key frame included in the interest image, information about an object included in the key frame, Context information for the frame may be included. In addition, the information on the received interest image may include a message about interest images input by other users and emotion information of other users obtained, but the present invention is not limited thereto.

도 8은 일 실시예에 따른 사용자가 선택한 관심 영상에 대한 정보를 제공하는 예시를 설명하는 도면이다.8 is a view for explaining an example of providing information on a user-selected interest image according to an exemplary embodiment.

도 8을 참조하면, 관심 영상에 대한 정보를 선택하는 사용자의 입력을 수신할 수 있다. 일 실시예에서 디스플레이 장치(10)는 관심 영역에 포함된 복수의 키 프레임들의 목록(810)을 표시할 수 있다. 사용자는 표시된 키 프레임들의 목록(810) 중에서 하나의 키 프레임(820a)을 선택할 수 있다. 디스플레이 장치(10)는 사용자가 선택한 키 프레임(820a)에 대한 정보를 제공할 수 있다. 예를 들어, 디스플레이 장치(10)는 사용자가 선택한 키 프레임(820a)의 좌표 및 키 프레임(820a)의 재생 위치를 제공할 수 있다. 또한, 디스플레이 장치(10)는 제공된 정보를 이용하여, 선택된 키 프레임(820b)의 재생 위치에서부터 사용자가 가상현실 영상을 시청할 수 있도록 가상현실 영상을 재생할 수 있다.Referring to FIG. 8, an input of a user selecting information on a video of interest can be received. In one embodiment, the display device 10 may display a list 810 of a plurality of key frames included in the region of interest. The user may select one key frame 820a from the list of displayed key frames 810. [ The display device 10 may provide information about the key frame 820a selected by the user. For example, the display device 10 may provide the coordinates of the key frame 820a selected by the user and the playback position of the key frame 820a. In addition, the display device 10 can reproduce the virtual reality image so that the user can view the virtual reality image from the reproduction position of the selected key frame 820b using the provided information.

도 9는 일 실시예에 따른 가상현실 영상에 관한 정보를 제공하는 방법을 설명하는 흐름도이다.9 is a flowchart illustrating a method of providing information on a virtual reality image according to an exemplary embodiment.

도 9를 참조하면, 단계 901에서 디스플레이 장치(10)는 사용자에게 가상현실 영상을 제공할 수 있다. 디스플레이 장치(10)는 사용자에게 360도 영상을 제공할 수 있다.Referring to FIG. 9, in step 901, the display device 10 may provide a virtual reality image to a user. The display device 10 can provide a 360-degree image to the user.

단계 902에서 디스플레이 장치(10)는 가상현실 영상을 시청하는 사용자의 시선에 기초하여, 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정할 수 있다. 디스플레이 장치(10)는 사용자의 시선을 감지함으로써 사용자가 360도 영상 중 어느 영역에서 재생되고 있는 가상현실 영상을 시청하고 있는지, 사용자의 시청 영역을 결정할 수 있다. 디스플레이 장치(10)는 시청 영역(30)의 좌표, 및 사용자의 시선이 시청 영역에 위치하는 동안 재생되는 가상현실 영상의 재생 구간을 이용하여 관심 영상을 결정할 수 있다.In step 902, the display device 10 can determine an image to be reproduced in a partial area of the virtual reality image as an image of interest, based on a line of sight of the user who views the virtual reality image. The display device 10 can determine a viewing area of the user by viewing the virtual reality image being reproduced in which area of the 360-degree image, by sensing the user's gaze. The display device 10 can determine the image of interest using the coordinates of the viewing area 30 and the reproduction period of the virtual reality image that is reproduced while the user's line of sight is located in the viewing area.

단계 903에서 디스플레이 장치(10)는 관심 영상에 대한 정보를 사용자에게 제공할 수 있다. 관심 영상에 대한 정보는, 관심 영상이 재생되는 영역의 좌표, 관심 영상의 재생 구간, 관심 영상에 포함된 키 프레임에 대한 정보, 키 프레임에 포함된 객체에 대한 정보 및 키 프레임에 대한 컨텍스트 정보를 포함할 수 있다.In step 903, the display device 10 may provide the user with information about the image of interest. The information on the image of interest includes coordinates of an area in which the image of interest is reproduced, a reproduction interval of the image of interest, information about key frames included in the interest image, information about objects included in the key frame, .

도 10은 일 실시예에 따른 가상현실 영상에 관한 정보를 제공하는 장치의 블록도이다.10 is a block diagram of an apparatus for providing information about a virtual reality image according to an embodiment.

도 10을 참고하면, 디스플레이 장치(1000)는 제어부(1010), 통신부(1020), 센싱부(1030) 및 디스플레이(1040)를 포함할 수 있다. 도 1에 도시된 디바이스(1000)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다. 10, the display device 1000 may include a control unit 1010, a communication unit 1020, a sensing unit 1030, and a display 1040. Only the components associated with the embodiment are shown in the device 1000 shown in FIG. Therefore, it will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 1 may be further included.

디스플레이 장치(1000)는 가상현실 영상을 제공할 수 있는 헤드 마운트 디스플레이(Head Mounnted Display), VR 헤드셋(headset), 가상 현실 장치, PC(Personal Computer), 랩탑(laptop), 스마트 TV, 휴대폰, PDA, 스마트 단말기, 또는 게임기 등일 수 있으나 이에 제한되지 않는다. 또한, 가상 현실 제공 장치(1000)는 통신 기능 및 데이터 프로세싱 기능을 구비한 안경, 헤어 밴드, 시계등일 수 있다.The display apparatus 1000 may include a head mounted display capable of providing a virtual reality image, a VR headset, a virtual reality apparatus, a PC, a laptop, a smart TV, a mobile phone, a PDA , A smart terminal, a game machine, and the like. In addition, the virtual reality providing apparatus 1000 may be a glasses, a hair band, a watch, or the like having a communication function and a data processing function.

제어부(1010)는 디스플레이 장치(1000) 사용자에게 가상현실 영상을 제공할 수 있다. 또한, 제어부(1010)는 가상현실 영상을 시청하는 사용자의 시선에 기초하여, 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정할 수 있다. 또한, 제어부(1010)는 관심 영상에 대한 정보를 사용자에게 제공할 수 있다.The controller 1010 may provide a virtual reality image to the user of the display apparatus 1000. [ In addition, the control unit 1010 can determine an image reproduced in a partial area of the virtual reality image as an image of interest, based on the user's line of sight of the virtual reality image. In addition, the controller 1010 can provide information on a video of interest to a user.

통신부(1020)는 디스플레이 장치(1000)와 외부 디바이스(미도시) 또는 서버(미도시) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 일 실시예에서, 통신부(1020)는 외부 디바이스(미도시) 또는 서버(미도시)로부터 관심 영상에 대한 정보를 획득할 수 있다. 통신부(1020)에서 수신한 관심 영상에 대한 정보는, 사용자가 시청하는 가상현실 영상과 동일한 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석함으로써 획득된 정보일 수 있다. 한편, 통신부(1020)는 관심 영상에 대한 사용자의 코멘트를 수신할 수 있다. The communication unit 1020 may include one or more components that allow communication between the display device 1000 and an external device (not shown) or a server (not shown). In one embodiment, the communication unit 1020 can acquire information about a video of interest from an external device (not shown) or a server (not shown). The information on the image of interest received by the communication unit 1020 may be information obtained by analyzing the gaze of other users who watch the same virtual reality image as the virtual reality image viewed by the user. Meanwhile, the communication unit 1020 can receive a user's comment on a video of interest.

센싱부(1030)는 디스플레이 장치(1000)의 상태 또는 디스플레이 장치(1000) 사용자의 상태를 감지하고, 감지된 정보를 제어부(1010)로 전달할 수 있다. 센싱부(1030)는, 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 근접 센서, 오리엔테이션 센서(orientation sensor), 시선 방향 센서(gaze direction sensor) 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 제한되지 않는다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit 1030 may sense the state of the display device 1000 or the state of the user of the display device 1000 and may transmit the sensed information to the control unit 1010. [ The sensing unit 1030 may include a sensor such as a magnetic sensor, an acceleration sensor, an infrared sensor, a gyroscope sensor, a position sensor (e.g., GPS), a proximity sensor, an orientation sensor, a gaze direction sensor, and an RGB sensor, but the present invention is not limited thereto. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.

한편, 센싱부(103)는 오리엔테이션 센서(orientation sensor), 시선 방향 센서(gaze direction sensor)를 이용하여 사용자의 시선을 감지할 수 있다. 또한, 센싱부(103)는 카메라와 결합하여 사용자의 표정을 감지할 수 있다. 또한, 센싱부(103)는 마이크로폰 및 텐션 센서(tension sensor)와 결합하여 사용자의 음성을 감지할 수 있다.Meanwhile, the sensing unit 103 can sense the user's gaze using an orientation sensor and a gaze direction sensor. In addition, the sensing unit 103 can detect the user's facial expression in combination with the camera. In addition, the sensing unit 103 may be coupled with a microphone and a tension sensor to sense a user's voice.

디스플레이(1040)는 디스플레이 장치(1000)에서 처리되는 정보를 표시할 수 있다. 일 실시예에서 디스플레이(1040)는 제어부(1010)에서 결정된 관심 영상에 대한 정보를 표시할 수 있다. 또한, 디스플레이(1040)는 관심 영상에 대한 정보를 가상현실 영상의 시청 영역에 표시할 수 있다. 또한, 디스플레이(1040)은 통신부(1020)에서 수신한 복수의 관심 영상들에 대한 정보를 표시할 수 있다.The display 1040 can display information processed in the display device 1000. [ In one embodiment, the display 1040 may display information about the images of interest determined by the controller 1010. [ In addition, the display 1040 can display information on the image of interest in the viewing area of the virtual reality image. In addition, the display 1040 can display information on a plurality of images of interest received by the communication unit 1020. [

한편, 상술한 센싱부(1030) 및 디스플레이(1040)의 기능 및 역할은 별도의 외부 디바이스(미도시)에 의해 수행될 수 있다. 예를 들어, 센싱부(1030)의 기능 및 역할은 디스플레이 장치(1000) 외부에 위치한 카메라(미도시)에 의해 수행될 수 있고, 디스플레이(1040)의 기능 및 역할은 디스플레이 장치(1000) 외부에 위치한 스크린에 의해 수행될 수 있다.Meanwhile, functions and roles of the sensing unit 1030 and the display 1040 may be performed by a separate external device (not shown). For example, the function and role of the sensing unit 1030 may be performed by a camera (not shown) located outside the display device 1000, and the function and role of the display 1040 may be performed outside the display device 1000 Lt; / RTI &gt; screen.

도 11은 일 실시예에 따른 GPS를 이용하여 사용자에게 관심 영역에 대한 정보를 제공하는 예시를 설명하는 도면이다. 이하에서 도 1 내지 10과 중복되는 설명은 편의상 생략하기로 한다.11 is a view for explaining an example of providing information on a region of interest to a user using GPS according to an embodiment. Hereinafter, the description overlapping with Figs. 1 to 10 will be omitted for the sake of convenience.

일 실시예에서 디스플레이 장치(1121)는 관심 영역에 대한 정보를 제공할 수 있는 스크린을 포함할 수 있으며, 디스플레이 장치(1121)는 카메라(1122)와 결합하여 동작할 수 있다.In one embodiment, the display device 1121 may include a screen capable of providing information about a region of interest, and the display device 1121 may operate in conjunction with the camera 1122.

디스플레이 장치(1121)는 사용자의 위치 정보를 획득할 수 있다. 또한, 디스플레이 장치(1121)는 사용자의 시선을 감지함으로써 사용자의 시선에 대응하는 디스플레이 영역을 관심 영역으로 결정할 수 있다. 또한, 디스플레이 장치(1121)는 위치 정보 및 관심 영역을 매칭함으로써 관심 영역에 표시되는 뷰(view) 정보를 제공할 수 있다.The display device 1121 can acquire the location information of the user. In addition, the display device 1121 can determine a display area corresponding to the user's gaze as a region of interest by sensing the user's gaze. In addition, the display device 1121 can provide view information displayed in the area of interest by matching the location information and the area of interest.

도 11a를 참조하면 디스플레이 장치(1121)는 GPS를 이용하여 사용자의 위치 정보(1110)를 획득할 수 있다. 예를 들어, 디스플레이 장치(1121)는 GPS를 이용하여 차량에 탑승한 사용자의 위치 정보(1110)를 획득할 수 있다. 일 실시예에서 디스플레이 장치(1121)는 외부 디바이스(미도시) 또는 서버(미도시)로부터 사용자의 위치 정보(1110)를 획득할 수 있다.Referring to FIG. 11A, the display device 1121 can acquire the location information 1110 of the user using the GPS. For example, the display device 1121 can acquire the location information 1110 of the user aboard the vehicle using the GPS. In one embodiment, the display device 1121 may obtain location information 1110 of the user from an external device (not shown) or a server (not shown).

도 11b를 참조하면 디스플레이 장치(1121)는 카메라(1121)를 이용하여 사용자의 시선을 감지함으로써, 디스플레이 장치(1121) 상의 어느 영역에 사용자의 시선이 위치하는지 및 사용자의 시선이 이동하는 동선을 결정할 수 있다.Referring to FIG. 11B, the display device 1121 detects the user's gaze using the camera 1121, thereby determining which area on the display device 1121 the user's gaze is located and the copper line in which the user's gaze moves .

일 실시예에서 사용자의 시선이 디스플레이 장치(1121)의 특정 영역에 일정 시간 동안 위치한다고 판단되는 경우, 디스플레이 장치는 특정 영역을 관심 영역(1123)으로 결정할 수 있다. 디스플레이 장치(1121)는 사용자의 위치 정보 및 관심 영역(1123)을 분석함으로써, 사용자에게 관심 영역에 표시되는 뷰 정보를 제공할 수 있다. 일 실시예에서 뷰 정보는 관심 영역 주변에 표시될 수 있다. In one embodiment, when it is determined that the user's line of sight is located in a specific area of the display device 1121 for a certain period of time, the display device may determine the specific area as the area of interest 1123. The display device 1121 can provide the user with view information displayed in the area of interest by analyzing the user's location information and the area of interest 1123. In one embodiment, view information may be displayed around the region of interest.

예를 들어, 디스플레이 장치(1121)은 사용자 위치 정보 및 관심 영역(1123)을 분석함으로써, 관심 영역(1123)에 포함된 객체가 'A 빌딩'인 것을 결정할 수 있다. 디스플레이 장치(1121)는 뷰 정보로써, 'A 빌딩'의 건축 년도 및 특징을 사용자에게 제공할 수 있다.For example, the display device 1121 may determine that the objects contained in the region of interest 1123 are 'A building' by analyzing the user location information and the area of interest 1123. The display device 1121 can provide the user with the year of construction and characteristics of 'A building' as view information.

또한, 일 실시예에서, 운전 중인 사용자의 주의가 분사되는 것을 방지하기 위해, 디스플레이 장치(1121)는 수신된 뷰 정보가 표시되는 특정 영역을 차단(block)할 수 있다.Further, in one embodiment, the display device 1121 may block a specific area in which the received view information is displayed, in order to prevent the attention of the operating user from being sprayed.

일 실시예에서 디스플레이 장치(1121)는 외부 디바이스(미도시) 또는 서버(미도시)로부터 수신된 뷰 정보를 사용자에게 제공할 수 있다. 디스플레이 장치(1121)는 사용자의 위치 정보를 이용하여 수신된 뷰 정보를 디스플레이 장치(1121)의 특정 영역에 표시할 수 있다.In one embodiment, the display device 1121 may provide the user with view information received from an external device (not shown) or a server (not shown). The display device 1121 can display the received view information on a specific area of the display device 1121 using the user's location information.

한편, 디스플레이 장치(1121)는 스크린, PC 및 스마트 폰을 통해 관심 영역에 대한 뷰 정보를 사용자에게 제공할 수 있으나, 이에 제한되지 않는다.On the other hand, the display device 1121 can provide the user with view information about a region of interest via a screen, a PC, and a smart phone, but is not limited thereto.

일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment may also be implemented in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

또한, 본 명세서에서, "부"는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.Also, in this specification, the term "part" may be a hardware component such as a processor or a circuit, and / or a software component executed by a hardware component such as a processor.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

Claims (20)

가상현실 영상에 대한 정보를 제공하는 방법에 있어서,
가상현실 영상을 제공하는 단계;
상기 가상현실 영상을 시청하는 사용자의 시선에 기초하여, 상기 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정하는 단계; 및
상기 관심 영상에 대한 정보를 제공하는 단계;
를 포함하는, 방법.
A method for providing information about a virtual reality image,
Providing a virtual reality image;
Determining an image to be reproduced in a partial area of the virtual reality image as an image of interest based on a line of sight of a user viewing the virtual reality image; And
Providing information about the image of interest;
/ RTI &gt;
제 1항에 있어서,
상기 관심 영상에 대한 정보는, 상기 관심 영상이 재생되는 영역의 좌표 및 상기 관심 영상의 재생 구간을 포함하는 것인, 방법.
The method according to claim 1,
Wherein the information on the image of interest includes coordinates of an area in which the image of interest is reproduced and a reproduction interval of the image of interest.
제 1항에 있어서,
상기 관심 영상으로 결정하는 단계는,
상기 사용자의 시선이 상기 가상현실 영상의 특정 영역에 고정된 경우, 상기 사용자의 시선이 고정된 상기 가상현실 영상의 영역을 결정하는 단계; 및
상기 결정된 영역에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 단계;
를 포함하는, 방법.
The method according to claim 1,
The method of claim 1,
Determining an area of the virtual reality image in which the user's gaze is fixed when the user's gaze is fixed in a specific area of the virtual reality image; And
Determining the virtual reality image reproduced in the determined region as the image of interest;
/ RTI &gt;
제 1항에 있어서,
상기 관심 영상으로 결정하는 단계는,
상기 가상현실 영상에 포함된 객체의 움직임에 따라 상기 사용자의 시선이 이동하는 경우, 상기 사용자의 시선의 이동 경로를 획득하는 단계;
상기 사용자의 시선의 이동 경로에 대응하는 상기 가상현실 영상의 영역들을 결정하는 단계; 및
상기 결정된 영역들에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 단계;
를 포함하는, 방법.
The method according to claim 1,
The method of claim 1,
Acquiring a movement path of the user's gaze when the gaze of the user moves according to the movement of the object included in the virtual reality image;
Determining areas of the virtual reality image corresponding to a movement path of the user's gaze; And
Determining the virtual reality image reproduced in the determined regions as the image of interest;
/ RTI &gt;
제 1항에 있어서,
상기 관심 영상에 대한 정보를 제공하는 단계는,
상기 관심 영상에 포함된 프레임들을 획득하는 단계;
상기 프레임들의 변화량에 기초하여, 상기 프레임들 중에서 적어도 하나의 키 프레임을 결정하는 단계; 및
상기 적어도 하나의 키 프레임에 대한 정보를 제공하는 단계;
를 포함하는, 방법.
The method according to claim 1,
Wherein the step of providing information on the image of interest comprises:
Obtaining frames included in the image of interest;
Determining at least one key frame among the frames based on the amount of change of the frames; And
Providing information about the at least one key frame;
/ RTI &gt;
제 1항에 있어서,
상기 관심 영상에 대한 정보를 제공하는 단계는,
상기 가상현실 영상의 일부 영역에서 재생되는 관심 영상을, 나머지 영역에서 재생되는 영상보다 높은 화질로 제공하는 단계;
를 더 포함하는, 방법.
The method according to claim 1,
Wherein the step of providing information on the image of interest comprises:
Providing an image of interest that is reproduced in a partial region of the virtual reality image with higher image quality than an image to be reproduced in the remaining region;
&Lt; / RTI &gt;
제 1항에 있어서,
상기 관심 영상에 대한 상기 사용자의 코멘트(comment)를 수신하는 단계; 및
상기 사용자의 코멘트를 상기 관심 영상에 대한 정보와 링크하여 저장하는 단계;
를 더 포함하는, 방법.
The method according to claim 1,
Receiving a user &apos; s comment on the image of interest; And
Linking the user's comment with information about the image of interest;
&Lt; / RTI &gt;
제 1항에 있어서,
상기 관심 영상의 재생 데이터를 획득하는 단계; 및
상기 획득된 재생 데이터를 외부 디바이스로 전송하는 단계;
를 더 포함하는, 방법.
The method according to claim 1,
Obtaining reproduction data of the image of interest; And
Transmitting the obtained reproduction data to an external device;
&Lt; / RTI &gt;
제 1항에 있어서,
상기 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석한 결과에 기초하여, 다른 사용자들의 관심 영상에 대한 정보를 수신하는 단계; 및
상기 수신된 다른 사용자들의 관심 영상에 대한 정보를 제공하는 단계;
를 더 포함하는, 방법.
The method according to claim 1,
Receiving information on a user's interest image based on a result of analyzing the gaze of other users viewing the virtual reality image; And
Providing information on the received images of interest of other users;
&Lt; / RTI &gt;
제 5항에 있어서,
상기 제공된 적어도 하나의 키 프레임에 대한 정보를 선택하는 상기 사용자의 입력을 수신하는 단계; 및
상기 선택된 키 프레임의 재생 위치에서부터 상기 가상현실 영상을 재생하는 단계;
를 더 포함하는, 방법.
6. The method of claim 5,
Receiving an input of the user for selecting information on the provided at least one key frame; And
Reproducing the virtual reality image from the reproduction position of the selected key frame;
&Lt; / RTI &gt;
가상현실 영상에 대한 정보를 제공하는 디바이스에 있어서,
상기 가상현실 영상을 시청하는 사용자의 시선을 감지하는 센싱부; 및
상기 가상현실 영상을 제공하고, 상기 감지된 사용자의 시선에 기초하여 상기 가상현실 영상의 일부 영역에서 재생되는 영상을 관심 영상으로 결정하고, 상기 관심 영상에 대한 정보를 제공하는 제어부;
를 포함하는, 디바이스.
A device for providing information on a virtual reality image,
A sensing unit for sensing a line of sight of a user viewing the virtual reality image; And
A controller for providing the virtual reality image, determining an image to be reproduced in a partial area of the virtual reality image as an image of interest based on the sensed user's gaze, and providing information about the image of interest;
.
제 11항에 있어서,
상기 제어부는,
상기 사용자의 시선이 상기 가상현실 영상의 특정 영역에 고정된 경우 상기 사용자의 시선이 고정된 상기 가상현실 영상의 영역을 결정하고, 상기 결정된 영역에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 것인, 디바이스.
12. The method of claim 11,
Wherein,
Determining a region of the virtual reality image in which the user's gaze is fixed when the user's gaze is fixed in a specific region of the virtual reality image and determining the virtual reality image to be reproduced in the determined region as the region of interest image Lt; / RTI &gt;
제 11항에 있어서,
상기 제어부는,
상기 가상현실 영상에 포함된 객체의 움직임에 따라 상기 사용자의 시선이 이동하는 경우 상기 사용자의 시선의 이동 경로를 획득하고, 상기 사용자의 시선의 이동 경로에 대응하는 상기 가상현실 영상의 영역들을 결정하고, 상기 결정된 영역들에서 재생되는 상기 가상현실 영상을 상기 관심 영상으로 결정하는 것인, 디바이스.
12. The method of claim 11,
Wherein,
Acquires a moving path of the user's gaze when the gaze of the user moves according to the movement of the object included in the virtual reality image and determines areas of the virtual reality image corresponding to the moving path of the gaze of the user And determines the virtual reality image reproduced in the determined areas as the image of interest.
제 11항에 있어서,
상기 제어부는,
상기 관심 영상에 포함된 프레임들을 획득하고, 상기 프레임들의 변화량에 기초하여 상기 프레임들 중에서 적어도 하나의 키 프레임을 결정하고, 상기 적어도 하나의 키 프레임에 대한 정보를 제공하는 것인, 디바이스.
12. The method of claim 11,
Wherein,
Obtain the frames included in the interest image, determine at least one key frame among the frames based on the amount of change of the frames, and provide information about the at least one key frame.
제 11항에 있어서,
상기 제어부는,
상기 가상현실 영상의 일부 영역에서 재생되는 관심 영상을, 나머지 영역에서 재생되는 영상보다 높은 화질로 제공하는 것인, 디바이스.
12. The method of claim 11,
Wherein,
And provides the image of interest that is reproduced in a partial area of the virtual reality image with higher image quality than the image to be reproduced in the remaining area.
제 11항에 있어서,
상기 관심 영상에 대한 상기 사용자의 코멘트를 수신하는 통신부를 더 포함하며,
상기 제어부는, 상기 사용자의 코멘트를 상기 관심 영상에 대한 정보와 링크하여 저장하는 것인, 디바이스.
12. The method of claim 11,
And a communication unit for receiving the user's comment on the image of interest,
Wherein the controller links the comment of the user with information about the image of interest and stores the information.
제 11항에 있어서,
상기 제어부는, 상기 관심 영상의 재생 데이터를 획득하며,
상기 획득된 재생 데이터를 외부 디바이스로 전송하는 통신부를 더 포함하는 것인, 디바이스.
12. The method of claim 11,
Wherein the controller acquires reproduction data of the video of interest,
And a communication unit for transmitting the obtained reproduction data to an external device.
제 11항에 있어서,
상기 가상현실 영상을 시청하는 다른 사용자들의 시선을 분석한 결과에 기초하여, 다른 사용자들의 관심 영상에 대한 정보를 수신하는 통신부를 더 포함하며,
상기 제어부는, 상기 수신된 다른 사용자들의 관심 영상에 대한 정보를 제공하는 것인, 디바이스.
12. The method of claim 11,
Further comprising a communication unit for receiving information on a user's interest image based on a result of analyzing the gaze of other users viewing the virtual reality image,
Wherein the control unit provides information on the images of interest of the received other users.
제 14항에 있어서,
상기 제공된 적어도 하나의 키 프레임에 대한 정보를 선택하는 상기 사용자의 입력을 수신하는 통신부를 더 포함하며,
상기 제어부는, 상기 선택된 키 프레임의 재생 위치에서부터 상기 가상현실 영상을 재생하는 것인, 디바이스.
15. The method of claim 14,
Further comprising a communication unit for receiving an input of the user for selecting information on the provided at least one key frame,
Wherein the control unit reproduces the virtual reality image from the reproduction position of the selected key frame.
제 1항 내지 10항 중에 적어도 어느 한 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing a method according to any one of claims 1 to 10 in a computer.
KR1020160178011A 2016-12-23 2016-12-23 Method and apparatus for providing information for virtual reality video KR20180074180A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160178011A KR20180074180A (en) 2016-12-23 2016-12-23 Method and apparatus for providing information for virtual reality video
US15/851,275 US10970546B2 (en) 2016-12-23 2017-12-21 Method and apparatus for providing information regarding virtual reality image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160178011A KR20180074180A (en) 2016-12-23 2016-12-23 Method and apparatus for providing information for virtual reality video

Publications (1)

Publication Number Publication Date
KR20180074180A true KR20180074180A (en) 2018-07-03

Family

ID=62629799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160178011A KR20180074180A (en) 2016-12-23 2016-12-23 Method and apparatus for providing information for virtual reality video

Country Status (2)

Country Link
US (1) US10970546B2 (en)
KR (1) KR20180074180A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101977258B1 (en) * 2018-07-19 2019-05-10 주식회사 테크노블러드코리아 Method for analysing feedback of virtual reality image
KR20200013220A (en) * 2019-04-26 2020-02-06 주식회사 테크노블러드코리아 Method for controlling of image based on biometric information

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3285216A1 (en) * 2016-08-19 2018-02-21 Nokia Technologies Oy Association of comments to points of interest in virtual reality
JP7070003B2 (en) * 2018-04-13 2022-05-18 京セラドキュメントソリューションズ株式会社 Display device and image forming device
JP7165532B2 (en) * 2018-08-07 2022-11-04 本田技研工業株式会社 Display device, display control method, and program
US12086221B2 (en) * 2019-02-01 2024-09-10 Sony Group Corporation Multi-factor authentication for virtual reality
US11797854B2 (en) 2019-07-08 2023-10-24 Sony Semiconductor Solutions Corporation Image processing device, image processing method and object recognition system
KR102641117B1 (en) * 2019-08-26 2024-02-27 삼성전자주식회사 Method and apparatus of augmenting image
WO2021152758A1 (en) * 2020-01-30 2021-08-05 Amatelus株式会社 Video distribution device, video distribution system, video distribution method, and program
EP4240019A4 (en) * 2020-10-27 2024-06-05 Amatelus Inc. Video distribution device, video distribution system, video distribution method, and program
US12014030B2 (en) 2021-08-18 2024-06-18 Bank Of America Corporation System for predictive virtual scenario presentation

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58602B2 (en) 1978-05-19 1983-01-07 株式会社コスモ計器 Automatic zero compensation device
WO2008012717A2 (en) 2006-07-28 2008-01-31 Koninklijke Philips Electronics N. V. Gaze interaction for information display of gazed items
US20100231687A1 (en) 2009-03-16 2010-09-16 Chase Real Estate Services Corporation System and method for capturing, combining and displaying 360-degree "panoramic" or "spherical" digital pictures, images and/or videos, along with traditional directional digital images and videos of a site, including a site audit, or a location, building complex, room, object or event
JP5800602B2 (en) 2011-06-29 2015-10-28 オリンパス株式会社 Information processing system, portable electronic device, program, and information storage medium
EP2847648A4 (en) 2012-05-09 2016-03-02 Intel Corp Eye tracking based selective accentuation of portions of a display
US9077647B2 (en) 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US9275460B2 (en) 2012-10-17 2016-03-01 Google Inc. Reference orientations for viewing panoramic images
KR101617649B1 (en) 2014-12-26 2016-05-03 세종대학교산학협력단 Recommendation system and method for video interesting section
JP6275087B2 (en) * 2015-08-03 2018-02-07 株式会社オプティム Head mounted display, data output method, and head mounted display program.
US10229541B2 (en) * 2016-01-28 2019-03-12 Sony Interactive Entertainment America Llc Methods and systems for navigation within virtual reality space using head mounted display
US9992429B2 (en) * 2016-05-31 2018-06-05 Microsoft Technology Licensing, Llc Video pinning
US10395428B2 (en) * 2016-06-13 2019-08-27 Sony Interactive Entertainment Inc. HMD transitions for focusing on specific content in virtual-reality environments
JP2018006914A (en) * 2016-06-29 2018-01-11 フォーブ インコーポレーテッド External imaging system, external imaging method, external imaging program
JP2018004950A (en) * 2016-07-01 2018-01-11 フォーブ インコーポレーテッド Video display system, video display method, and video display program
JP2018101019A (en) * 2016-12-19 2018-06-28 セイコーエプソン株式会社 Display unit and method for controlling display unit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101977258B1 (en) * 2018-07-19 2019-05-10 주식회사 테크노블러드코리아 Method for analysing feedback of virtual reality image
KR20200013220A (en) * 2019-04-26 2020-02-06 주식회사 테크노블러드코리아 Method for controlling of image based on biometric information

Also Published As

Publication number Publication date
US20180181811A1 (en) 2018-06-28
US10970546B2 (en) 2021-04-06

Similar Documents

Publication Publication Date Title
KR20180074180A (en) Method and apparatus for providing information for virtual reality video
US11287956B2 (en) Systems and methods for representing data, media, and time using spatial levels of detail in 2D and 3D digital applications
US10733801B2 (en) Markerless image analysis for augmented reality
US10664140B2 (en) Object tracking in zoomed video
CN106576184B (en) Information processing device, display device, information processing method, program, and information processing system
Jana et al. Enabling {Fine-Grained} permissions for augmented reality applications with recognizers
JP6165846B2 (en) Selective enhancement of parts of the display based on eye tracking
CN111178191B (en) Information playing method and device, computer readable storage medium and electronic equipment
CN110286773A (en) Information providing method, device, equipment and storage medium based on augmented reality
CN110163066B (en) Multimedia data recommendation method, device and storage medium
US20200413138A1 (en) Adaptive Media Playback Based on User Behavior
KR101647969B1 (en) Apparatus for detecting user gaze point, and method thereof
CN111308707B (en) Picture display adjusting method and device, storage medium and augmented reality display equipment
US9058660B2 (en) Feature searching based on feature quality information
US20200260062A1 (en) Electronic device and operation method therefor
JP2009277097A (en) Information processor
JP2020520576A5 (en)
US20190155465A1 (en) Augmented media
US11120569B2 (en) Head pose estimation
CN117032520A (en) Video playing method and device based on digital person, electronic equipment and storage medium
US9041689B1 (en) Estimating fingertip position using image analysis
US10891003B2 (en) System, method, and apparatus for an interactive container
US20210191505A1 (en) Methods and Apparatuses relating to the Handling of Visual Virtual Reality Content
KR102487976B1 (en) Electronic device and operating method for the same
JP6336414B2 (en) Image concentration guidance device and image concentration guidance method using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal