KR20150061476A - Method for providing video of non-gazing region - Google Patents
Method for providing video of non-gazing region Download PDFInfo
- Publication number
- KR20150061476A KR20150061476A KR1020130145669A KR20130145669A KR20150061476A KR 20150061476 A KR20150061476 A KR 20150061476A KR 1020130145669 A KR1020130145669 A KR 1020130145669A KR 20130145669 A KR20130145669 A KR 20130145669A KR 20150061476 A KR20150061476 A KR 20150061476A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- user
- area
- viewing area
- user terminal
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Abstract
Description
본 발명은 비주시 영역의 영상을 제공하는 방법에 관한 것이다.The present invention relates to a method of providing an image in a non-localized region.
최근 IT 기술의 발달로, 몸에 착용할 수 있는 단말이 출시되고 있다. 특히, 단말은 머리에 착용할 수 있는 안경이나 헬멧 형태일 수 있는데, 헤드 마운티드 디스플레이(Head Mounted Display) 단말 또는 헤드 마운티드 단말이라고 부를 수 있다. Recently, with the development of IT technology, a terminal that can be worn on the body is being released. In particular, the terminal may be in the form of a pair of glasses or a helmet which can be worn on the head, and may be called a head mounted display terminal or a head mounted terminal.
대표적인 헤드 마운티드 디스플레이 단말로 구글 글래스가 있다. 구글 글래스는 사용자의 눈 앞의 디스플레이에 영상을 포함하는 각종 정보를 표시한다. 구글 글래스는 컴퓨팅 장치, 통신 장치, 카메라, 각종 센서, GPS 장치 등으로 구성되어 스마트폰과 같은 기능을 제공할 수 있다.A typical head-mounted display terminal is Google Glass. Google Glass displays various information including images on the display in front of the user's eyes. Google Glass is composed of a computing device, a communication device, a camera, various sensors, and a GPS device, and can provide the same functions as a smartphone.
그러나, 구글 글래스를 비롯한 현재의 단말은 증강 현실 정보를 제공하는 정도의 기능이 구현되어 있으나, 사용자의 행동을 분석하고, 사용자의 행동을 기초로 사용자에게 정보를 제공하는 기능은 구현되어 있지 않다. 앞으로, 몸에 착용할 수 있는 형태의 단말이 보급되는 경우, 단말이 사용자의 행동으로부터 의미 있는 정보를 추론하는 기술에 대한 수요가 증가할 것으로 예상된다. However, the present terminal including Google Glass implements the function of providing augmented reality information, but the function of analyzing the user's behavior and providing information to the user based on the user's behavior is not implemented. In the future, when terminals that can be worn on the body are deployed, it is expected that the demand for the technology in which the terminal deduces meaningful information from the user's behavior is expected to increase.
사용자가 경기를 볼 때, 경기장 내에서 다양한 이벤트들이 발생한다. 그런데, TV와 달리 현장에서 사용자는 자신이 바라보는 영역(주시 영역)만 볼 수 있고, 비주시 영역은 지각하지 못한다. 그러므로, 중요 이벤트가 비주시 영역에서 발생하는 경우, 사용자는 중요 이벤트를 놓치는 경우가 발생한다. 따라서, 비주시 영역의 영상을 제공하는 경우, 사용자에게 향상된 경기 관람 경험을 제공할 수 있다.When the user watches the game, various events occur in the arena. However, unlike TV, the user can only see the area he / she is looking at (viewing area), and the non-viewing area is not perceived. Therefore, when a critical event occurs in the non-conscious area, the user may miss a critical event. Accordingly, when providing an image of a non-regular region, it is possible to provide an improved game viewing experience to a user.
본 발명이 해결하고자 하는 과제는 눈의 움직임을 추적하여 영상을 주시 영역과 비주시 영역으로 구분하고, 비주시 영역의 영상을 사용자에게 제공하는 방법이다.A problem to be solved by the present invention is to divide an eye into a viewing area and a non-focusing area by tracking an eye movement, and to provide a user with an image of a non-focusing area.
본 발명의 한 실시예에 따라 헤드 마운티드 디스플레이(Head Mounted Display) 형태의 사용자 단말이 사용자에게 영상을 제공하는 방법으로서, 상기 사용자의 전방을 촬영한 제1 영상을 상기 사용자가 주시하는 주시 영역과 비주시 영역으로 구분하는 단계, 상기 비주시 영역에서 일정 기준 이상의 동적 움직임이 발생하는지 판단하는 단계, 그리고 상기 동적 움직임이 발생하는 경우, 상기 비주시 영역을 포함하는 영상을 저장하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a method of providing a user with a head mounted display type image for a user, the method comprising: displaying a first image captured in front of the user, Determining whether a dynamic motion of a predetermined reference or more occurs in the non-homing region, and storing the image including the non-homing region when the dynamic motion occurs.
상기 주시 영역과 비주시 영역으로 구분하는 단계는 상기 사용자의 눈동자 움직임을 촬영한 제2 영상을 분석하여 상기 제1 영상에서 상기 주시 영역을 설정할 수 있다.The step of dividing the viewing area into the viewing area and the non-focusing area may comprise analyzing a second image of the user's pupil motion and setting the viewing area in the first image.
상기 주시 영역과 비주시 영역으로 구분하는 단계는 상기 제2 영상을 기초로 상기 사용자가 바라보는 주시 지점을 추적하는 단계, 상기 제1 영상과 상기 주시 지점을 매핑하는 단계, 상기 제1 영상에서 상기 주시 지점을 포함하는 일정 크기의 영역을 상기 주시 영역으로 설정하는 단계, 그리고 상기 제1 영상에서 상기 주시 영역을 제외한 영역을 비주시 영역으로 설정하는 단계를 포함할 수 있다.Wherein the step of dividing the viewing area into the viewing area and the non-focusing area comprises the steps of: tracking a viewing point viewed by the user based on the second image; mapping the first image and the viewing point; Setting an area having a predetermined size including a viewing point as the viewing area, and setting the area excluding the viewing area in the first image as a non-rendering area.
상기 영상 제공 방법은 저장한 영상을 디스플레이하는 단계를 더 포함할 수 있다.The image providing method may further include displaying the stored image.
상기 영상 제공 방법은 서버로부터 이벤트를 포함하는 경기 정보를 수신하는 단계, 저장한 영상 중에서, 상기 이벤트가 발생한 시점에 저장된 영상을 검색하는 단계, 그리고 검색한 영상을 디스플레이하는 단계를 더 포함할 수 있다.The image providing method may further include receiving competition information including an event from a server, searching an image stored at a time when the event occurs, and displaying the retrieved image .
본 발명의 다른 실시예에 따른 헤드 마운티드 디스플레이(Head Mounted Display) 형태의 사용자 단말로서, 프로세서와 메모리를 통해 영상 제공 어플리케이션을 실행하고 상기 영상 제공 어플리케이션에 프로그램된 동작을 처리하는 컴퓨팅부, 상기 사용자의 눈동자의 움직임을 촬영하는 눈동자 추적용 카메라, 그리고 상기 사용자의 전방을 촬영하는 전방 카메라를 포함하고, 상기 컴퓨팅부는 상기 영상 제공 어플리케이션에 따라 상기 전방 카메라로부터 전달받은 제1 영상과 상기 눈동자 추적용 카메라로부터 전달받은 제2 영상을 분석하여, 상기 제1 영상을 상기 사용자가 주시하는 주시 영역과 비주시 영역으로 구분한다.A user terminal in the form of a head mounted display according to another embodiment of the present invention includes a computing unit for executing an image providing application through a processor and a memory and processing an operation programmed in the image providing application, And a front camera for photographing a front of the user, wherein the computing unit generates a first image from the forward camera and a second image from the eyeball tracking camera according to the image providing application Analyzes the received second image, and divides the first image into a viewing area and a non-viewing area, which are viewed by the user.
상기 컴퓨팅부는 상기 비주시 영역에서 일정 기준 이상의 동적 움직임이 발생하는지 판단하며, 상기 동적 움직임이 발생하는 경우, 상기 비주시 영역을 포함하는 영상을 저장할 수 있다.The computing unit may determine whether a dynamic motion of a predetermined reference or more occurs in the non-homing region, and may store an image including the non-homing region when the dynamic motion occurs.
상기 컴퓨팅부는 상기 제2 영상을 기초로 상기 사용자가 바라보는 주시 지점을 추출하여, 상기 제1 영상과 상기 주시 지점을 매핑하고, 상기 제1 영상에서 상기 주시 지점을 포함하는 일정 크기의 영역을 상기 주시 영역으로 설정하고, 상기 제1 영상에서 상기 주시 영역을 제외한 영역을 비주시 영역으로 설정할 수 있다.Wherein the computing unit extracts a viewing point viewed by the user on the basis of the second image, maps the first image and the viewing point, and displays a region having a predetermined size including the viewing point in the first image, And a region excluding the viewing region in the first image may be set as a non-region.
상기 사용자 단말은 서버로부터 이벤트를 포함하는 경기 정보를 수신하는 통신부를 더 포함하고, 상기 컴퓨팅부는 저장한 영상 중에서, 상기 이벤트가 발생한 시점에 저장된 영상을 검색하고, 검색한 영상을 디스플레이할 수 있다.The user terminal may further include a communication unit for receiving competition information including an event from a server. The computing unit may search images stored at the time when the event occurs, and display the retrieved images from the stored images.
본 발명의 실시예에 따르면 사용자의 행동을 모니터링할 수 있고, 사용자의 행동에 관련된 다양한 정보를 제공할 수 있다. 특히, 본 발명의 실시예에 따르면 비주시 영역에서 중요 이벤트가 발생하는 경우, 사용자는 비주시 영역의 영상을 제공받을 수 있다. 이를 통해, 본 발명의 실시예에 따르면 사용자에게 향상된 경기 관람 경험을 제공할 수 있다.According to the embodiment of the present invention, the user's behavior can be monitored and various information related to the user's behavior can be provided. Particularly, according to the embodiment of the present invention, when a significant event occurs in the non-region, the user can receive the image of the non-region. Thus, according to the embodiment of the present invention, it is possible to provide an improved game viewing experience to the user.
도 1은 본 발명의 한 실시예에 따른 사용자 단말의 블록도이다.
도 2는 본 발명의 한 실시예에 따른 사용자 단말의 예시이다.
도 3은 본 발명의 한 실시예에 따른 영상 제공 시스템을 설명하는 도면이다.
도 4는 본 발명의 한 실시예에 따른 주시 영역과 비주시 영역을 설명하는 도면이다.
도 5는 본 발명의 한 실시예에 따른 영상 제공 방법의 흐름도이다.
도 6은 본 발명의 다른 실시예에 따른 영상 제공 방법의 흐름도이다.1 is a block diagram of a user terminal in accordance with an embodiment of the present invention.
Figure 2 is an illustration of a user terminal in accordance with one embodiment of the present invention.
3 is a view for explaining an image providing system according to an embodiment of the present invention.
4 is a view for explaining a viewing area and a non-focusing area according to an embodiment of the present invention.
5 is a flowchart of an image providing method according to an embodiment of the present invention.
6 is a flowchart of an image providing method according to another embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.
도 1은 본 발명의 한 실시예에 따른 사용자 단말의 블록도이고, 도 2는 본 발명의 한 실시예에 따른 사용자 단말의 예시이다.FIG. 1 is a block diagram of a user terminal according to an embodiment of the present invention, and FIG. 2 is an illustration of a user terminal according to an embodiment of the present invention.
도 1과 도 2를 참고하면, 사용자 단말(100)은 착용할 수 있는(wearable) 단말로서, 예를 들면, 헤드 마운티드 디스플레이(Head Mounted Display) 단말일 수 있다. 예를 들어, 사용자 단말(100)은 안경이나 헬멧 형태로 구현될 수 있지만, 사용자 단말(100)의 외관은 다양하게 설계 변경될 수 있다.Referring to FIGS. 1 and 2, the
사용자 단말(100)은 컴퓨팅부(110), 통신부(120), 디스플레이(130), 눈동자 추적용 카메라(140), 그리고 전방 카메라(150)를 포함한다. 사용자 단말(100)은 위치 측정부(160)를 더 포함할 수 있다. The
컴퓨팅부(110)는 프로세서와 메모리를 통해 각종 프로그램 및 어플리케이션을 실행하고 처리한다. 컴퓨팅부(110)는 사용자 단말(100)에 포함된 각종 장치와 연결되어, 각종 장치를 제어한다. 본 발명의 영상 제공 방법은 어플리케이션으로 구현될 수 있다. 어플리케이션은 프로세서에 의해 실행되는 프로그램 언어로 구현되어 있다. 어플리케이션은 컴퓨팅부(110)에 설치되며, 프로세서에 의해 실행될 수 있다. 어플리케이션은 프로그램 기록매체에 저장될 수 있다.The
통신부(120)는 외부 통신 장치와 통신하는 통신 모듈을 포함한다. 통신 모듈은 와이파이나 블루투스와 같은 근거리 통신 모듈, 이동통신 모듈 등 다양할 수 있다. 통신부(120)는 외부 서버(미도시)와 통신한다. 통신부(120)는 수신한 정보를 컴퓨팅부(110)로 전달하고, 컴퓨팅부(110)로부터 전달된 정보를 지정된 서버로 전송할 수 있다.The
디스플레이(130)는 컴퓨팅부(110)에서 출력한 정보를 출력한다. 디스플레이(130)는 사용자가 사용자 단말(100)을 착용했을 때, 사용자의 눈 앞이나 눈 근처에 위치한다.The
눈동자 추적용 카메라(140)는 사용자가 사용자 단말(100)을 착용했을 때, 눈동자의 움직임을 촬영할 수 있도록, 사용자 단말(100)에 설치된다. 눈동자 추적용 카메라(140)에서 촬영된 영상은 컴퓨팅부(110)로 전달되고, 눈동자의 움직임 추적(eye tracking)에 이용된다.The
전방 카메라(150)는 사용자가 사용자 단말(100)을 착용했을 때, 전방을 촬영할 수 있도록, 사용자 단말(100)에 설치된다. 전방 카메라(150)에서 촬영된 영상은 컴퓨팅부(110)로 전달된다. 전방 카메라(150)에서 촬영된 영상은 주시 영역과 비주시 영역으로 구분된다. 여기서 주시 영역은 눈이 응시(gaze)하는 지점을 포함하는 영역이고, 비주시 영역은 주시 영역 이외의 영역이다. 구체적으로, 주시 영역은 사람의 눈에 의해 초점이 맺히는 지점을 포함하는 영역이다. 비주시 영역은 실제 눈으로 이미지의 빛은 들어오나, 초점이 형성되는 영역에서 벗어나 있어 지각하지 못하는 영역이다.The
위치 측정부(160)는 사용자 단말(100)의 위치를 측정한다. 위치 측정부(160)는 GPS 장치 등 다양한 위치 측정 장치와 연동하여 위치를 측정한다.The
도 3은 본 발명의 한 실시예에 따른 영상 제공 시스템을 설명하는 도면이고, 도 4는 본 발명의 한 실시예에 따른 주시 영역과 비주시 영역을 설명하는 도면이다.FIG. 3 is a view for explaining an image providing system according to an embodiment of the present invention, and FIG. 4 is a view for explaining a viewing area and a non-focusing area according to an embodiment of the present invention.
도 3을 참고하면, 영상 제공 시스템(10)은 사용자 단말(100)과 서버(200)를 포함한다. 서버(200)는 사용자 단말(100)로 경기 정보를 제공한다.Referring to FIG. 3, the
사용자 단말(100)은 눈동자 추적용 카메라(140)의 영상을 분석하여, 눈동자가 주시/응시하는 지점을 추출한다. 사용자 단말(100)은 눈동자가 주시/응시하는 지점을 기초로 전방 카메라(150)의 영상을 주시 영역과 비주시 영역으로 분할한다. 눈동자 추적용 카메라(140)의 영상을 눈동자 추적용 영상이라고 하고, 전방 카메라(150)의 영상을 기본 영상이라고 한다. The
사용자 단말(100)은 기본 영상에서, 눈동자가 응시하는 지점을 포함하는 일정 크기의 영역을 주시 영역으로 결정할 수 있다. 주시 영역의 모양은 원, 정사각형, 직사각형 등 정해진 모양으로 구분될 수 있다. 비주시 영역은 기본 영상에서 주시 영역을 제외한 영역이다. 주시 영역의 크기는 서비스 제공 장소에 따라 다양하게 설정될 수 있다.The
도 4를 참고하면, 전방 카메라(150)는 기본 영상(300)을 제공한다. 사용자 단말(100)은 눈동자 추적용 영상을 기초로 눈동자가 응시하는 지점을 기본 영상(300)에 매핑한다. Referring to FIG. 4, the
사용자 단말(100)은 눈동자가 응시하는 지점을 포함하는 일정 크기의 영역을 주시 영역(310)으로 결정하고, 나머지 영역을 비주시 영역(320)으로 결정한다. 예를 들어, 야구 경기장에서, 사용자가 내야쪽 어느 지점을 바라보는 경우, 사용자 단말(100)은 바라보는 지점을 포함하는 영역을 주시 영역(310)으로 구분할 수 있다. The
사용자 단말(100)은 영상 분석을 통해, 비주시 영역(320)에서 일정 기준 이상의 동적 움직임이 발생하는지 모니터링한다. 예를 들어, 선수들이 일정 기준 이상의 속도로 움직이거나, 일정 기준 이상으로 위치가 변경되는 경우, 사용자 단말(100)은 비주시 영역(320)에 동적 움직임이 있다고 판단한다. The
사용자 단말(100)은 비주시 영역에서 동적 움직임이 있으면, 비주시 영역의 영상을 저장한다. 사용자 단말(100)은 기본 영상에서 비주시 영역만을 저장하거나, 기본 영상 전체를 저장할 수 있다. 사용자 단말(100)은 영상을 저장한 시간 정보를 기록한다.The
사용자 단말(100)은 저장한 영상을 사용자에게 제공한다. 사용자 단말(100)이 사용자에게 저장한 영상을 제공하는 방법은 다양하게 구현될 수 있다.The
사용자 단말(100)은 서버(200)로부터 각종 경기 정보를 수신할 수 있다. 경기 정보는 경기장에서 기록되는 정보를 포함하고, 각 경기 정보는 경기 상황이 발생한 시간 정보를 포함한다. 사용자 단말(100)은 경기 정보를 기초로 사용자에게 영상을 제공할 수 있다. The
사용자 단말(100)은 경기 정보로부터 현재 경기가 진행 중인지 쉬는 시간인지 판단할 수 있다. 그리고 사용자 단말(100)은 쉬는 시간인 경우, 저장한 영상을 사용자에게 제공할 수 있다.The
사용자 단말(100)은 경기 정보로부터 중요 이벤트를 추출하고, 중요 이벤트가 발생한 시점에 저장된 영상을 검색할 수 있다. 여기서 저장된 영상은 비주시 영역에 동적 움직임이 포함된 영상이다. 즉, 중요 이벤트가 발생한 시점에 저장된 영상이 있다면, 중요 이벤트가 발생한 시점에 사용자가 중요 이벤트를 주시하지 않았을 가능성이 높다. 따라서, 사용자 단말(100)은 저장된 영상 중에서, 중요 이벤트에 관계된 영상을 추출할 수 있다.The
사용자 단말(100)은 이러한 영상 제공 방법을 구현한 어플리케이션을 컴퓨팅부(110)에 설치하고, 프로세서에 의해 실행될 수 있다.The
예를 들어, 야구 경기를 관람하는 사용자는 우익수 쪽으로 떨어지는 공을 주시하고 있을 경우, 2루 주자가 움직이고 있다. 이때, 사용자는 2루 주자의 움직임을 인지하기 어렵지만, 전방 카메라(150)는 2루 주자의 주루 영상을 촬영할 수 있다. 다른 예로, 축구 경기를 관람하는 사용자는 공을 따라 시선을 움직이므로, 경기장의 다른 장소에서 일어나는 선수들의 움직임을 인지하기 어렵다. 그러나, 전방 카메라(150)는 사용자 전방을 모두 촬영할 수 있다. 따라서, 사용자 단말(100)은 사용자가 보지 못한 영역에서 동적 움직임이 발생하면, 해당 영상을 저장하고, 저장한 영상을 사용자에게 제공할 수 있다.For example, if a user watching a baseball game is watching a ball falling toward the right fielder, the second runner is moving. At this time, it is difficult for the user to recognize the movement of the second runner, but the
도 5는 본 발명의 한 실시예에 따른 영상 제공 방법의 흐름도이다.5 is a flowchart of an image providing method according to an embodiment of the present invention.
도 5를 참고하면, 사용자 단말(100)은 눈동자 추적용 카메라(140)로부터 눈동자 추적용 영상을 수신한다(S110).Referring to FIG. 5, the
사용자 단말(100)은 전방 카메라(150)로부터 사용자의 전방을 촬영한 기본 영상을 수신한다(S120).The
사용자 단말(100)은 눈동자 추적용 영상을 기초로 눈동자가 바라보는 주시 지점을 추적한다(S130). The
사용자 단말(100)은 기본 영상과 주시 지점을 매핑한다(S140).The
사용자 단말(100)은 주시 지점을 기초로 기본 영상을 주시 영역과 비주시 영역으로 구분한다(S140). 사용자 단말(100)은 기본 영상에서 주시 지점을 포함하는 일정 크기의 영역을 주시 영역으로 설정할 수 있다. 주시 지점은 시간에 따라 자주 바뀔 수 있으므로, 사용자 단말(100)은 사용자가 기준 시간 이상 동일한 지점을 주시하는 경우, 기본 영상을 주시 영역과 비주시 영역으로 분할할 수 있다.The
사용자 단말(100)은 비주시 영역에 해당하는 영상에서 동적 움직임이 발생하는지 모니터링한다(S150). The
동적 움직임이 발생하면, 사용자 단말(100)은 비주시 영역을 포함하는 영상을 저장한다(S160). 이때, 사용자 단말(100)은 영상을 저장하는 시간 정보를 함께 기록한다.When the dynamic motion occurs, the
사용자 단말(100)은 저장한 영상을 사용자에게 제공한다(S170). 사용자 단말(100)은 디스플레이(130)에서 영상을 출력할 수 있다. 또는 사용자 단말(100)은 다른 단말로 전송할 수 있다.The
도 6은 본 발명의 다른 실시예에 따른 영상 제공 방법의 흐름도이다.6 is a flowchart of an image providing method according to another embodiment of the present invention.
도 6을 참고하면, 사용자 단말(100)은 비주시 영역에서 동적 움직임이 발생하면, 전방 카메라(150)로부터 수신한 기본 영상을 저장한다(S210). 사용자 단말(100)은 비주시 영역에서 동적 움직임이 발생하면, 기본 영상 저장을 시작할 수 있다. 이때, 사용자 단말(100)은 영상이 저장된 시간 정보(time stamp)를 함께 기록한다.Referring to FIG. 6, the
사용자 단말(100)은 서버(200)로부터 각종 경기 정보를 수신한다(S220). 경기 정보는 경기장에서 기록되는 정보를 포함하고, 각 경기 정보는 경기 상황이 발생한 시간 정보를 포함한다. The
사용자 단말(100)은 경기 정보로부터 중요 이벤트를 추출한다(S230).The
사용자 단말(100)은 중요 이벤트가 발생한 시점에 저장된 영상을 검색한다(S240).The
사용자 단말(100)은 검색한 영상을 사용자에게 제공한다(S250).The
이와 같이, 본 발명의 실시예에 따르면 사용자의 행동을 모니터링할 수 있고, 사용자의 행동에 관련된 다양한 정보를 제공할 수 있다. 특히, 본 발명의 실시예에 따르면 비주시 영역에서 중요 이벤트가 발생하는 경우, 사용자는 비주시 영역의 영상을 제공받을 수 있다. 이를 통해, 본 발명의 실시예에 따르면 사용자에게 향상된 경기 관람 경험을 제공할 수 있다.As described above, according to the embodiment of the present invention, the user's behavior can be monitored and various information related to the user's behavior can be provided. Particularly, according to the embodiment of the present invention, when a significant event occurs in the non-region, the user can receive the image of the non-region. Thus, according to the embodiment of the present invention, it is possible to provide an improved game viewing experience to the user.
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.
Claims (9)
상기 사용자의 전방을 촬영한 제1 영상을 상기 사용자가 주시하는 주시 영역과 비주시 영역으로 구분하는 단계,
상기 비주시 영역에서 일정 기준 이상의 동적 움직임이 발생하는지 판단하는 단계, 그리고
상기 동적 움직임이 발생하는 경우, 상기 비주시 영역을 포함하는 영상을 저장하는 단계
를 포함하는 영상 제공 방법.A method of providing a video to a user terminal of a head mounted display type,
Dividing a first image photographed forward of the user into a viewing area and a non-viewing area, the viewing area being viewed by the user;
Determining whether a dynamic motion of a predetermined reference or more occurs in the non-homing region, and
When the dynamic motion occurs, storing an image including the non-consecutive region
The method comprising the steps of:
상기 주시 영역과 비주시 영역으로 구분하는 단계는
상기 사용자의 눈동자 움직임을 촬영한 제2 영상을 분석하여 상기 제1 영상에서 상기 주시 영역을 설정하는 영상 제공 방법.The method of claim 1,
The step of distinguishing the viewing area into the non-focusing area
And analyzing a second image of the user's eye movement to set the viewing area in the first image.
상기 주시 영역과 비주시 영역으로 구분하는 단계는
상기 제2 영상을 기초로 상기 사용자가 바라보는 주시 지점을 추적하는 단계,
상기 제1 영상과 상기 주시 지점을 매핑하는 단계,
상기 제1 영상에서 상기 주시 지점을 포함하는 일정 크기의 영역을 상기 주시 영역으로 설정하는 단계, 그리고
상기 제1 영상에서 상기 주시 영역을 제외한 영역을 비주시 영역으로 설정하는 단계
를 포함하는 영상 제공 방법.3. The method of claim 2,
The step of distinguishing the viewing area into the non-focusing area
Tracking an eye point viewed by the user based on the second image,
Mapping the first image and the viewpoint,
Setting an area of a predetermined size including the view point in the first image as the viewing area; and
Setting an area excluding the viewing area in the first image as a non-rendering area
The method comprising the steps of:
저장한 영상을 디스플레이하는 단계를 더 포함하는 영상 제공 방법.The method of claim 1,
And displaying the stored image.
서버로부터 이벤트를 포함하는 경기 정보를 수신하는 단계,
저장한 영상 중에서, 상기 이벤트가 발생한 시점에 저장된 영상을 검색하는 단계, 그리고
검색한 영상을 디스플레이하는 단계
를 더 포함하는 영상 제공 방법.The method of claim 1,
Receiving competition information including an event from a server,
Searching an image stored at the time of the event among the stored images, and
Displaying the searched image
Further comprising the steps of:
프로세서와 메모리를 통해 영상 제공 어플리케이션을 실행하고 상기 영상 제공 어플리케이션에 프로그램된 동작을 처리하는 컴퓨팅부,
상기 사용자의 눈동자의 움직임을 촬영하는 눈동자 추적용 카메라, 그리고
상기 사용자의 전방을 촬영하는 전방 카메라를 포함하고,
상기 컴퓨팅부는 상기 영상 제공 어플리케이션에 따라 상기 전방 카메라로부터 전달받은 제1 영상과 상기 눈동자 추적용 카메라로부터 전달받은 제2 영상을 분석하여, 상기 제1 영상을 상기 사용자가 주시하는 주시 영역과 비주시 영역으로 구분하는 사용자 단말.As a user terminal in the form of a head mounted display,
A computing unit for executing an image providing application through a processor and a memory and processing an operation programmed into the image providing application,
A pupil tracking camera for photographing the movement of the pupil of the user, and
And a front camera for photographing the front of the user,
The computing unit analyzes the first image received from the forward camera and the second image received from the eyeball tracking camera in accordance with the image providing application and transmits the first image to a viewing area and a non- .
상기 컴퓨팅부는
상기 비주시 영역에서 일정 기준 이상의 동적 움직임이 발생하는지 판단하며, 상기 동적 움직임이 발생하는 경우, 상기 비주시 영역을 포함하는 영상을 저장하는 사용자 단말.The method of claim 6,
The computing unit
Wherein the user terminal determines whether a dynamic motion of a predetermined reference or more occurs in the non-homing region, and stores the image including the non-homing region when the dynamic motion occurs.
상기 컴퓨팅부는
상기 제2 영상을 기초로 상기 사용자가 바라보는 주시 지점을 추출하여, 상기 제1 영상과 상기 주시 지점을 매핑하고,
상기 제1 영상에서 상기 주시 지점을 포함하는 일정 크기의 영역을 상기 주시 영역으로 설정하고, 상기 제1 영상에서 상기 주시 영역을 제외한 영역을 비주시 영역으로 설정하는 사용자 단말.The method of claim 6,
The computing unit
Extracting a viewing point viewed by the user based on the second image, mapping the first image and the viewing point,
Sets an area having a predetermined size including the viewpoint in the first image as the viewing area and sets the area excluding the viewing area in the first image as a non-rendering area.
서버로부터 이벤트를 포함하는 경기 정보를 수신하는 통신부를 더 포함하고,
상기 컴퓨팅부는
저장한 영상 중에서, 상기 이벤트가 발생한 시점에 저장된 영상을 검색하고, 검색한 영상을 디스플레이하는 사용자 단말.The method of claim 6,
Further comprising a communication unit for receiving competition information including an event from a server,
The computing unit
A user terminal for searching an image stored at a time when the event occurs, and displaying the retrieved image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130145669A KR20150061476A (en) | 2013-11-27 | 2013-11-27 | Method for providing video of non-gazing region |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130145669A KR20150061476A (en) | 2013-11-27 | 2013-11-27 | Method for providing video of non-gazing region |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150061476A true KR20150061476A (en) | 2015-06-04 |
Family
ID=53499444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130145669A KR20150061476A (en) | 2013-11-27 | 2013-11-27 | Method for providing video of non-gazing region |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20150061476A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705504A (en) * | 2019-10-14 | 2020-01-17 | 京东方科技集团股份有限公司 | Sight line positioning method, display device, electronic device, and storage medium |
-
2013
- 2013-11-27 KR KR1020130145669A patent/KR20150061476A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705504A (en) * | 2019-10-14 | 2020-01-17 | 京东方科技集团股份有限公司 | Sight line positioning method, display device, electronic device, and storage medium |
CN110705504B (en) * | 2019-10-14 | 2022-07-08 | 京东方科技集团股份有限公司 | Sight line positioning method, display device, electronic device, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108605166B (en) | Method and equipment for presenting alternative image in augmented reality | |
US8736692B1 (en) | Using involuntary orbital movements to stabilize a video | |
KR102246310B1 (en) | Systems and methods for gaze-based media selection and editing | |
US10534428B2 (en) | Image processing device and image processing method, display device and display method, and image display system | |
JP5475893B2 (en) | Apparatus and method for measuring visual fatigue level | |
TWI669635B (en) | Method and device for displaying barrage and non-volatile computer readable storage medium | |
JP2020042807A (en) | Foveated rendering system and method | |
CN109002164B (en) | Display method and device of head-mounted display equipment and head-mounted display equipment | |
JP2021103303A (en) | Information processing device and image display method | |
EP2706906A1 (en) | Gaze tracking system | |
CN102934458A (en) | Interest estimation device and interest estimation method | |
EP3671408B1 (en) | Virtual reality device and content adjusting method therefor | |
KR20200106547A (en) | Positioning system for head-worn displays including sensor integrated circuits | |
CN112666705A (en) | Eye movement tracking device and eye movement tracking method | |
JP5096643B1 (en) | Congestion capability determination device and method | |
US20210058609A1 (en) | Information processor, information processing method, and program | |
CN107105215B (en) | Method and display system for presenting image | |
GB2597917A (en) | Gaze tracking method and apparatus | |
KR20150061476A (en) | Method for providing video of non-gazing region | |
JP2021018575A (en) | Image processing device, image distribution system, and image processing method | |
US20230393653A1 (en) | Calibration for gaze detection | |
JP2023014990A (en) | Video recording and playback system and method | |
KR101574771B1 (en) | Video providing system, and method thereof | |
US11688168B1 (en) | Method and device for visual augmentation of sporting events | |
US11222394B2 (en) | Devices and headsets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |