KR102174465B1 - Method for rendering virtual reality contents based on focus angle - Google Patents

Method for rendering virtual reality contents based on focus angle Download PDF

Info

Publication number
KR102174465B1
KR102174465B1 KR1020160101853A KR20160101853A KR102174465B1 KR 102174465 B1 KR102174465 B1 KR 102174465B1 KR 1020160101853 A KR1020160101853 A KR 1020160101853A KR 20160101853 A KR20160101853 A KR 20160101853A KR 102174465 B1 KR102174465 B1 KR 102174465B1
Authority
KR
South Korea
Prior art keywords
virtual camera
image
focal angle
angle
measurement
Prior art date
Application number
KR1020160101853A
Other languages
Korean (ko)
Other versions
KR20180017668A (en
Inventor
김강태
강찬휘
김이길
소영준
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020160101853A priority Critical patent/KR102174465B1/en
Publication of KR20180017668A publication Critical patent/KR20180017668A/en
Application granted granted Critical
Publication of KR102174465B1 publication Critical patent/KR102174465B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법은 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 단계; 초점 각도를 측정하기 위한 영상을 생성하는 단계; 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 단계; 제 1 측정 값에 기초하여 제 1 가상 카메라 및 제 2 가상 카메라의 배치를 변경하는 단계; 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계; 제 2 측정 값에 기초하여 초점 각도를 결정하는 단계; 및 초점 각도에 기초하여 제 1 가상 카메라 및 제 2 가상 카메라의 각도를 변경하는 단계를 포함할 수 있다. A method of rendering content for virtual reality based on a focal angle includes: disposing a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on a distance between reference binoculars; Generating an image for measuring a focal angle; Receiving a user input including a first measurement value of a focal angle; Changing the arrangement of the first virtual camera and the second virtual camera based on the first measured value; Receiving a user input including a second measurement value of the focal angle; Determining a focal angle based on the second measured value; And changing angles of the first virtual camera and the second virtual camera based on the focal angle.

Description

초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법 및 장치{METHOD FOR RENDERING VIRTUAL REALITY CONTENTS BASED ON FOCUS ANGLE}A method and apparatus for rendering content for virtual reality based on a focal angle. TECHNICAL FIELD [Method FOR RENDERING VIRTUAL REALITY CONTENTS BASED ON FOCUS ANGLE}

본 발명은 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for rendering content for virtual reality based on a focal angle.

가상 현실(VR; Virtual Reality) 기술은 3차원 그래픽을 활용하여 사용자에게 현실감 있는 가상의 세계를 체험하게 하는 기술이다. 최근에는 컴퓨터가 만든 가상 세계에서 사용자가 현실과 유사한 체험을 할 수 있도록 하기 위한 연구가 활발히 진행되고 있다. Virtual Reality (VR) technology is a technology that allows users to experience a realistic virtual world by using 3D graphics. Recently, research has been actively conducted to enable users to experience similar to reality in a virtual world created by a computer.

가상 현실 컨텐츠는 다양한 분야(예컨대, 여행, 주행, 비행 시뮬레이션 등)에서 제작되고 있고, 사용자들은 HMD(Head Mounted Display) 장치 등을 통해 가상 현실 서비스를 이용할 수 있다. 여기서, HMD 장치는 안경과 같이 착용하여 사용자의 눈 앞에 직접 영상을 제공하는 디스플레이 장치이다. Virtual reality contents are produced in various fields (eg, travel, driving, flight simulation, etc.), and users can use virtual reality services through a head mounted display (HMD) device. Here, the HMD device is a display device that provides an image directly in front of the user's eyes by wearing it with glasses.

HMD 장치를 통해 가상 현실 서비스를 제공받는 사용자는 가상 환경 멀미를 경험하게 되는데 이러한 멀미감이 발생하는 원인 중 하나는 사람의 인체 평행 감각을 반영한 신호와 가상 현실 컨텐츠와의 신호가 부조화를 이루기 때문이다. Users who receive virtual reality services through an HMD device experience motion sickness in a virtual environment. One of the reasons for such motion sickness is that the signal reflecting the human body parallel sense and the signal between the virtual reality content are inconsistent. .

도 1은 종래의 좌시점 및 우시점에 대한 영상을 렌더링 방법을 설명하기 위한 도면이다.1 is a diagram for describing a conventional method of rendering an image for a left view and a right view.

도 1을 참조하면, 종래의 가상현실의 렌더링 방법은 양안의 초점 각도가 동일함을 가정하여 좌시점에 대한 영상과 우시점에 대한 영상을 투사(projection)하고 렌더링하였다. 예를 들면, 좌시점에 대한 가상 카메라와 우시점에 대한 가상 카메라를 초점의 위치로부터 동일한 거리에 배치하여 각 가상 카메라와 초점과 이루를 각도가 동일하였다. 그러나, 사람의 양안은 특정 객체에 초점을 둘 때, 한 쪽 눈이 주 시각 역할을 담당하고 나머지 한쪽 눈은 보조 역할을 수행하게 된다. 즉, 양안의 초점 각도는 서로 상이하다.Referring to FIG. 1, in the conventional virtual reality rendering method, an image for a left view and an image for a right view are projected and rendered assuming that both eyes have the same focal angle. For example, the virtual camera for the left view point and the virtual camera for the right view point are arranged at the same distance from the position of the focal point, so that each virtual camera and the focal angle are the same. However, when both eyes of a person focus on a specific object, one eye plays a main visual role and the other eye plays a secondary role. That is, the focal angles of both eyes are different from each other.

종래의 렌더링 방법처럼 양안의 초점 각도가 동일함을 가정하여 생성된 컨텐츠 영상을을 시청할 때, 실제 시청자의 시각과 괴리가 발생하고, 이에 따라 심한 멀미감을 유발하는 문제점이 있다. When viewing a content image generated by assuming that both eyes have the same focal angle as in a conventional rendering method, there is a problem that a disparity occurs with the actual viewer's view, thereby causing severe motion sickness.

한편, 한국공개특허 제2013-0000231호에는 측정된 우안 및 좌안의 거리와 삼각함수를 이용하여 좌안과 우안 각각에 대한 초점 각도를 계산하고, 사용자의 우안 및 좌안 각각에 서로 다른 영상을 전달하는 구성이 개시되어 있다. On the other hand, in Korean Patent Publication No. 2013-0000231, the focal angle for each of the left and right eyes is calculated using the measured distances of the right and left eyes and a trigonometric function, and different images are transmitted to each of the user's right and left eyes. Is disclosed.

본 발명은 상술한 종래의 렌더링 방법의 문제점을 해결하고자 하는 것으로, 초점 각도 측정 영상을 통해 측정된 초점 각도의 측정 값에 기초하여 좌시점 영상에 해당하는 제 1 가상 카메라와 우시점의 영상에 해당하는 제 2 가상 카메라의 배치를 변경하고자 한다. 또한, 초점 각도 측정 영상을 통해 측정된 초점 각도의 제 2 측정 값에 기초하여 제 1 가상 카메라 및 제 1 가상 카메라의 각도를 변경하여 영상을 투사하고 렌더링하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. The present invention aims to solve the problem of the conventional rendering method described above, and corresponds to the first virtual camera corresponding to the left view image and the right view image based on the measured value of the focal angle measured through the focus angle measurement image. You want to change the arrangement of the second virtual camera. In addition, an image is projected and rendered by changing the angles of the first virtual camera and the first virtual camera based on the second measured value of the focal angle measured through the focal angle measurement image. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법은 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 단계; 초점 각도를 측정하기 위한 영상을 생성하는 단계; 상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 단계; 상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계; 상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계; 상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계; 및 상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계를 포함할 수 있다. As a technical means for achieving the above-described technical problem, a method for rendering contents for virtual reality based on a focal angle according to the first aspect of the present invention is a method corresponding to an image of a left-view point based on a reference distance between binoculars. Arranging a first virtual camera and a second virtual camera corresponding to an image of a right view point; Generating an image for measuring a focal angle; Receiving a user input including a first measurement value of the focal angle; Changing the arrangement of the first virtual camera and the second virtual camera based on the first measured value; Receiving a user input including a second measurement value of the focal angle; Determining the focal angle based on the second measured value; And changing angles of the first virtual camera and the second virtual camera based on the focal angle.

일예에 있어서, 상기 초점 각도를 측정하기 위한 영상을 생성하는 단계는 복수의 측정 지표를 포함하는 기준 객체를 출력하는 단계; 및 상기 기준 객체의 전면에 상기 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 배치하는 단계를 포함할 수 있다. In one example, generating the image for measuring the focal angle comprises: outputting a reference object including a plurality of measurement indices; And disposing a hole layer through which a part of the reference object is transparent on the front surface of the reference object.

일예에 있어서, 상기 제 1 측정 값 및 상기 제 2 측정 값 각각은 상기 복수의 측정 지표 중 상기 좌시점에 해당하는 제 1 측정 지표 및 상기 우시점에 해당하는 제 2 측정 지표를 포함할 수 있다. In an example, each of the first measurement value and the second measurement value may include a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point among the plurality of measurement indicators.

일예에 있어서, 상기 초점 각도는 상기 좌시점에 해당하는 제 1 초점 각도 및 상기 우시점에 해당하는 제 2 초점 각도를 포함할 수 있다. In one example, the focal angle may include a first focal angle corresponding to the left view point and a second focal angle corresponding to the right view point.

일예에 있어서, 상기 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계는 상기 복수의 측정 지표 중 상기 제 1 가상 카메라와 상기 제 2 가상 카메라의 중심에 대응하는 기준 지표와 상기 제 1 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 상기 제 1 가상 카메라의 배치를 변경하는 단계; 및 상기 기준 지표와 상기 제 2 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 상기 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 상기 제 2 가상 카메라의 배치를 변경하는 단계를 포함할 수 있다. In one example, the step of changing the arrangement of the first virtual camera and the second virtual camera comprises a reference index corresponding to the center of the first virtual camera and the second virtual camera among the plurality of measurement indices and the second 1 Changing the arrangement of the first virtual camera based on the distance to the measurement index, the position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and the depth value of the area corresponding to the projection area in the virtual reality. step; And a distance between the reference index and the second measurement index, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of a region corresponding to a projection area in the virtual reality. 2 It may include the step of changing the arrangement of the virtual camera.

일예에 있어서, 상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계는 상기 배치가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하는 단계; 및 상기 렌더링된 초점 각도를 측정하기 위한 영상을 출력하는 단계를 포함할 수 있다. In one example, receiving a user input including a second measurement value of the focal angle comprises: rendering an image for measuring a focal angle projected to the first virtual camera and the second virtual camera whose arrangement is changed; And outputting an image for measuring the rendered focal angle.

일예에 있어서, 상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계는 상기 제 2 측정 값에 대한 제 1 측정 지표의 위치 값 및 상기 배치가 변경된 제 1 가상 카메라의 위치 값에 기초하여 상기 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산하는 단계; 및 상기 제 2 측정 지표의 위치 값 및 상기 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 상기 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산하는 단계를 포함할 수 있다. In an example, the determining of the focal angle based on the second measurement value comprises the location value of the first measurement index with respect to the second measurement value and the location value of the first virtual camera in which the arrangement has been changed. Calculating a first direction vector corresponding to a first focal angle; And calculating a second direction vector corresponding to the second focal angle based on the position value of the second measurement index and the position value of the second virtual camera whose arrangement is changed.

일예에 있어서, 상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계는 상기 제 1 방향 벡터에 기초하여 상기 제 1 가상 카메라의 방향을 변경하는 단계; 및 상기 제 2 방향 벡터에 기초하여 상기 제 2 가상 카메라의 방향을 변경하는 단계를 포함할 수 있다. In one example, changing the angles of the first virtual camera and the second virtual camera based on the focal angle comprises: changing a direction of the first virtual camera based on the first direction vector; And changing the direction of the second virtual camera based on the second direction vector.

일예에 있어서, 상기 각도가 변경된 제 1 가상 카메라에 투사되는 상기 좌시점의 영상을 렌더링하는 단계; 및 상기 각도가 변경된 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 단계를 더 포함할 수 있다. In one example, rendering the left-view image projected on the first virtual camera whose angle is changed; And rendering the right view image projected on the second virtual camera whose angle is changed.

일예에 있어서, 상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 단계를 더 포함할 수 있다. In one example, the method may further include outputting the rendered image of the left view and the image of the right view.

본 발명의 제 2 측면에 따른 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 장치는 기준 양안 간 거리에 기초하여 제 1 위치에 배치되는 좌시점의 영상에 해당하는 제 1 가상 카메라; 상기 기준 양안 간 거리에 기초하여 제 2 위치에 배치되는 우시점의 영상에 해당하는 제 2 가상 카메라; 상기 좌시점 및 상기 우시점에 해당하는 초점 각도를 조절하는 초점 각도 조절부; 상기 제 1 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 렌더링부; 및 상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 출력부를 포함할 수 있다. An apparatus for rendering content for virtual reality based on a focal angle according to a second aspect of the present invention includes: a first virtual camera corresponding to an image of a left view disposed at a first position based on a distance between reference binoculars; A second virtual camera corresponding to an image of a right view point disposed at a second position based on the distance between the reference binoculars; A focal angle adjusting unit that adjusts a focal angle corresponding to the left view point and the right view point; A rendering unit for rendering the image of the left view projected to the first virtual camera and the image of the right view projected to the second virtual camera; And an output unit that outputs the rendered image of the left view and the image of the right view.

일예에 있어서, 상기 초점 각도 조절부는 상기 초점 각도를 측정하기 위한 영상을 생성하는 초점 각도 측정용 영상 생성부; 상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 제 1 사용자 입력 수신부; 및 상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 제 2 사용자 입력 수신부를 포함할 수 있다. In one example, the focal angle adjusting unit comprises: an image generating unit for measuring a focal angle to generate an image for measuring the focal angle; A first user input receiver configured to receive a user input including a first measurement value of the focal angle; And a second user input receiver configured to receive a user input including a second measurement value of the focal angle.

일예에 있어서, 상기 초점 각도 조절부는 상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하고, 상기 제제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 초점 각도 결정부를 더 포함할 수 있다. In one example, the focal angle adjusting unit changes the arrangement of the first virtual camera and the second virtual camera based on the first measured value, and determines the focal angle based on the measured value of the formulation 2 It may further include a determination unit.

일예에 있어서, 상기 초점 각도를 측정하기 위한 영상은 복수의 측정 지표를 포함하는 기준 객체와 상기 기준 객체의 전면에 배치되어 상기 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 포함할 수 있다. In one example, the image for measuring the focal angle may include a reference object including a plurality of measurement indices, and a hole layer disposed on the front surface of the reference object to allow a part of the reference object to be transmitted. .

일예에 있어서, 상기 제 1 측정 값 및 상기 제 2 측정 값 각각은 상기 복수의 측정 지표 중 상기 좌시점에 해당하는 제 1 측정 지표 및 상기 우시점에 해당하는 제 2 측정 지표를 포함할 수 있다. In an example, each of the first measurement value and the second measurement value may include a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point among the plurality of measurement indicators.

일예에 있어서, 상기 초점 각도는 상기 좌시점에 해당하는 제 1 초점 각도 및 상기 우시점에 해당하는 제 2 초점 각도를 포함할 수 있다. In one example, the focal angle may include a first focal angle corresponding to the left view point and a second focal angle corresponding to the right view point.

일예에 있어서, 상기 제 1 가상 카메라는 상기 복수의 측정 지표 중 상기 제 1 가상 카메라와 상기 제 2 가상 카메라의 중심에 대응하는 기준 지표와 상기 제 1 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 3 위치에 재배치되고, 상기 제 2 가상 카메라는 상기 기준 지표와 상기 제 2 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 상기 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 4 위치에 재배치될 수 있다. In one example, the first virtual camera comprises a reference index corresponding to a center of the first virtual camera and the second virtual camera among the plurality of measurement indices, a distance to the first measurement index, and a coordinate system of the virtual reality. The second virtual camera is relocated to the third position based on the position value converted to the coordinate system of the virtual camera and the depth value of the area corresponding to the projection area in the virtual reality, and the second virtual camera reaches the reference index and the second measurement index. May be relocated to the fourth position based on a distance of, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of an area corresponding to the projection area in the virtual reality.

일예에 있어서, 상기 렌더링부는 상기 배치가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하고, 상기 출력부는 렌더링된 초점 각도를 측정하기 위한 영상을 출력할 수 있다. In one example, the rendering unit renders an image for measuring a focal angle projected to the first virtual camera and the second virtual camera whose arrangement is changed, and the output unit outputs an image for measuring the rendered focal angle. have.

일예에 있어서, 상기 초점 각도 결정부는 상기 제 1 측정 지표의 위치 값 및 상기 배치가 변경된 제 1 가상 카메라의 위치 값에 기초하여 상기 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산하고, 상기 제 2 측정 지표의 위치 값 및 상기 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 상기 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산할 수 있다. In one example, the focal angle determining unit calculates a first direction vector corresponding to the first focal angle based on the position value of the first measurement index and the position value of the first virtual camera whose arrangement is changed, and the first 2 A second direction vector corresponding to the second focal angle may be calculated based on the position value of the measurement index and the position value of the second virtual camera whose arrangement is changed.

일예에 있어서, 상기 배치가 변경된 제 1 가상 카메라는 상기 제 1 방향 벡터에 기초하여 바라보는 방향을 변경하고, 상기 배치가 변경된 제 2 가상 카메라는 상기 제 2 방향 벡터에 기초하여 바라보는 방향을 변경할 수 있다. In one example, the first virtual camera whose arrangement is changed changes the viewing direction based on the first direction vector, and the second virtual camera whose arrangement is changed changes the viewing direction based on the second direction vector. I can.

일예에 있어서, 상기 렌더링부는 상기 각도가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 우시점의 영상을 렌더링하고, 상기 출력부는 렌더링된 좌시점의 영상 및 우시점의 영상을 출력할 수 있다. In one example, the rendering unit renders the image of the left view and the image of the right view projected to the first and second virtual cameras whose angles are changed, and the output unit renders the rendered image of the left view and the right view You can output the video.

본 발명의 제 3 측면에 따른 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 장치는 양안 간 거리(IPD; interpupillary distance)를 조절하기 위한 제 1 영상을 생성하는 제 1 영상 생성부; 상기 양안 간 거리의 측정 값을 포함하는 제 1 사용자 입력을 수신하는 제 1 사용자 입력 수신부; 상기 제 1 사용자 입력에 기초하여 기준 양안 간 거리를 결정하는 기준 양안 간 거리 결정부; 상기 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 가상 카메라 배치부; 초점 각도를 측정하기 위한 제 2 영상을 생성하는 제 2 영상 생성부; 상기 초점 각도의 측정 값을 포함하는 사용자 입력을 수신하는 제 2 사용자 입력 수신부; 및 상기 사용자 입력에 기초하여 상기 초점 각도를 결정하는 초점 각도 결정부를 포함하고, 상기 가상 카메라 배치부는 상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경할 수 있다. An apparatus for rendering content for virtual reality based on a focal angle according to a third aspect of the present invention includes: a first image generator configured to generate a first image for adjusting an interpupillary distance (IPD); A first user input receiving unit for receiving a first user input including a measured value of the distance between the both eyes; A distance determining unit between reference binoculars that determines a distance between reference binoculars based on the first user input; A virtual camera arranging unit for disposing a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on the distance between the reference binoculars; A second image generator that generates a second image for measuring a focal angle; A second user input receiving unit for receiving a user input including a measurement value of the focal angle; And a focal angle determining unit configured to determine the focal angle based on the user input, and the virtual camera arranging unit may change the arrangement of the first virtual camera and the second virtual camera based on the focal angle.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 양안의 시점 각각에서 측정된 초점 각도에 기초하여 각 가상 카메라를 다르게 배치하여 영상을 투사하여 렌더링하기 때문에 가상 현실의 컨텐츠 시청시의 몰입감을 높이고, 멀미감을 최소화할 수 있다. According to any one of the above-described problem solving means of the present invention, since each virtual camera is arranged differently based on the focal angle measured at each of the viewpoints of both eyes to project and render an image, it is possible to increase the sense of immersion when viewing contents in virtual reality. , You can minimize motion sickness.

또한, 기존의 양안 간의 거리(IPD)를 조절하기 위한 HMD 장치나 카드보드(Cardbord) 하드웨어를 이용한 방식이 아닌 소프트웨어적으로 양안의 초점 각도를 조절하여 영상을 제공하기 때문에 초기 조작의 편리성을 제공할 수 있다. In addition, since the image is provided by adjusting the focal angle of both eyes through software rather than using a conventional HMD device or cardbord hardware to control the distance (IPD) between both eyes, it provides convenience of initial operation. can do.

도 1은 종래의 컨텐츠 렌더링 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른, 초점 각도를 이용한 가상 현실에 대한 컨텐츠의 렌더링 장치의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 도 2에 도시된 렌터링 장치의 블록도이다.
도 4a 내지 4d는 본 발명의 일 실시예에 따른, 초점 각도를 측정하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 다른 실시예에 따른, 도 2에 도시된 렌터링 장치의 블록도이다.
도 6은 본 발명의 일 실시예에 따른, 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법을 나타낸 동작 흐름도이다.
1 is a diagram illustrating a conventional content rendering method.
2 is a block diagram of a content rendering apparatus for virtual reality using a focal angle according to an embodiment of the present invention.
3 is a block diagram of the rental apparatus shown in FIG. 2 according to an embodiment of the present invention.
4A to 4D are diagrams for explaining a method of measuring a focal angle according to an embodiment of the present invention.
5 is a block diagram of the rental apparatus shown in FIG. 2 according to another embodiment of the present invention.
6 is an operation flowchart illustrating a method of rendering contents for virtual reality based on a focal angle according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, or two or more units may be realized using one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. In the present specification, some of the operations or functions described as being performed by the terminal or device may be performed instead by a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. Hereinafter, with reference to the accompanying configuration diagram or processing flow chart, specific details for the implementation of the present invention will be described.

도 2는 본 발명의 일 실시예에 따른, 초점 각도를 이용한 가상 현실에 대한 컨텐츠의 렌더링 장치(200)의 구성도이다. 2 is a configuration diagram of a content rendering apparatus 200 for virtual reality using a focal angle according to an embodiment of the present invention.

도 2를 참조하면, 렌더링 장치(200)는 기준 양안 간 거리(IPD; interpupillary distance)(210)에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라(300) 및 우시점의 영상에 해당하는 제 2 가상 카메라(310)를 배치할 수 있다. 여기서, 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)는 기제작된 3차원 가상 현실의 일부를 2D 평면으로 투사(projection)시키는 가상 객체일 수 있다. 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)는 각 가상 카메라의 위치, 방향, 회전량, 최소거리, 최대거리 값에 기초하여 3차원 가상 현실의 일부를 2D 평면으로 투사(projection)시킬 수 있다.Referring to FIG. 2, the rendering apparatus 200 includes a first virtual camera 300 corresponding to an image of a left view and an image of a right view based on a reference interpupillary distance (IPD) 210. A second virtual camera 310 may be disposed. Here, the first virtual camera 300 and the second virtual camera 310 may be virtual objects that project a part of the previously produced 3D virtual reality onto a 2D plane. The first virtual camera 300 and the second virtual camera 310 project a part of the 3D virtual reality onto a 2D plane based on the position, direction, rotation amount, minimum distance, and maximum distance value of each virtual camera. I can make it.

렌더링 장치(200)는 초점 각도를 측정하기 위한 영상으로서 복수의 측정 지표(예를 들면, 도 2에서 0 내지 9)를 포함하는 기준 객체(220)를 출력할 수 있다. 예를 들면, 기준 객체(220)는 X 축 방향으로 기설정된 간격으로 떨어진 복수의 객체를 포함할 수 있다. 복수의 객체 각각은 서로 다른 측정 지표를 가지고 있을 수 있다. 또한, 렌더링 장치(200)는 기준 객체(220)의 전면에 홀 레이어(hole layer)(230)를 출력시킬 수 있다. 여기서, 홀 레이어(230)는 기준 객체(220)의 일부를 투과할 수 있는 홀(240)을 가지고 있다. The rendering apparatus 200 may output a reference object 220 including a plurality of measurement indices (eg, 0 to 9 in FIG. 2) as an image for measuring a focal angle. For example, the reference object 220 may include a plurality of objects spaced at predetermined intervals in the X-axis direction. Each of the plurality of objects may have different metrics. Also, the rendering apparatus 200 may output a hole layer 230 on the front surface of the reference object 220. Here, the hole layer 230 has a hole 240 through which a part of the reference object 220 can be transmitted.

렌더링 장치(200)는 제 1 가상 카메라(300) 및 제 2 가상 카메라(310) 각각으로 홀 레이어(230)의 홀(240)을 통해 투과된 기준 객체의 측정 지표를 사용자로부터 입력받을 수 있다. The rendering apparatus 200 may receive a measurement index of a reference object transmitted through the hole 240 of the hole layer 230 through the first virtual camera 300 and the second virtual camera 310 from a user, respectively.

렌더링 장치(200)는 사용자 입력(양안 각각에 대한 기준 객체의 측정 지표)에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 배치를 변경할 수 있다. The rendering apparatus 200 may change the arrangement of the first virtual camera 300 and the second virtual camera 310 based on a user input (a measurement index of a reference object for each of both eyes).

렌더링 장치(200)는 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310) 각각으로 홀 레이어(230)의 홀(240)을 통해 투과된 기준 객체의 측정 지표를 사용자로부터 입력받고, 입력받은 각 측정 지표에 기초하여 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310) 각각에 대한 초점 각도를 결정할 수 있다. The rendering apparatus 200 receives a measurement index of a reference object transmitted through the hole 240 of the hole layer 230 through the first virtual camera 300 and the second virtual camera 310, respectively, in which the arrangement is changed, from the user. , It is possible to determine a focal angle for each of the first virtual camera 300 and the second virtual camera 310 whose arrangement is changed based on each input measurement index.

렌더링 장치(200)는 결정된 초점 각도에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 각도를 변경할 수 있다. 이 때, 배치가 변경된 제 1 가상 카메라(300)가 가상 현실의 특정 지점을 바라보는 각도와 배치가 변경된 제 2 가상 카메라(310)가 특정 지점을 바라보는 각도는 서로 상이할 수 있다. The rendering apparatus 200 may change the angles of the first virtual camera 300 and the second virtual camera 310 based on the determined focal angle. In this case, the angle at which the first virtual camera 300 having the changed arrangement looks at a specific point in the virtual reality and the angle at which the second virtual camera 310 having the changed arrangement looks at the specific point may be different from each other.

렌더링 장치(200)는 각도가 변경된 제 1 가상 카메라(300)에 투사되는 좌시점의 영상을 렌더링하여 출력하고, 각도가 변경된 제 2 가상 카메라(310)에 투사되는 우시점의 영상을 렌더링하여 출력할 수 있다. The rendering device 200 renders and outputs the image of the left view projected to the first virtual camera 300 whose angle is changed, and renders and outputs the image of the right view projected to the second virtual camera 310 whose angle is changed. can do.

이하에서는 도 2의 렌더링 장치(200)의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다. Hereinafter, the operation of each component of the rendering apparatus 200 of FIG. 2 will be described in more detail.

도 3은 본 발명의 일 실시예에 따른, 도 2에 도시된 렌터링 장치(200)의 블록도이다. 도 3을 참조하면, 렌터링 장치(200)는 제 1 가상 카메라(300), 제 2 가상 카메라(310), 초점 각도 조절부(320), 렌더링부(330) 및 출력부(340)를 포함할 수 있다. 여기서, 초점 각도 조절부(320)는 초점 각도 측정용 영상 생성부(322), 제 1 사용자 입력 수신부(324), 제 2 사용자 입력 수신부(326) 및 초점 각도 결정부(328)를 포함할 수 있다. 다만, 도 3에 도시된 렌터링 장치(200)는 본 발명의 하나의 구현 예에 불과하며, 도 3에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 3 is a block diagram of the rental device 200 shown in FIG. 2 according to an embodiment of the present invention. Referring to FIG. 3, the rental device 200 includes a first virtual camera 300, a second virtual camera 310, a focal angle adjustment unit 320, a rendering unit 330, and an output unit 340. can do. Here, the focus angle adjusting unit 320 may include an image generating unit 322 for measuring a focus angle, a first user input receiving unit 324, a second user input receiving unit 326, and a focal angle determining unit 328. have. However, the rental apparatus 200 shown in FIG. 3 is only an example of implementation of the present invention, and various modifications are possible based on the components shown in FIG. 3.

제 1 가상 카메라(300)는 좌시점의 영상에 해당하는 소프트웨어 객체로서 기준 양안 간 거리에 기초하여 제 1 위치에 배치될 수 있다. 제 2 가상 카메라(310)는 우시점의 영상에 해당하는 소프트웨어 객체로서 기준 양안 간 거리에 기초하여 제 2 위치에 배치될 수 있다. 여기서, 기준 양안 간 거리는 기결정되어 있을 수도 있고(예를 들면, 65mm), 사용자 단말(예를 들어, HMD)로부터 기준 양안 간 거리가 측정될 수도 있다. 예를 들면, 렌터링 장치(200)는 기준 양안 간 거리의 측정을 위한 영상을 생성하여, 사용자 단말로 기준 양안 간 거리의 측정을 위한 영상을 전송할 수 있다. 사용자는 사용자 단말에 출력된 기준 양안 간 거리의 측정을 위한 영상을 보며 기준 양안 간 거리를 결정할 수 있다. 사용자 단말은 기준 양안 간 거리를 렌터링 장치(200)로 전송할 수 있다.The first virtual camera 300 is a software object corresponding to an image of a left-view point and may be disposed at a first position based on a distance between the reference binoculars. The second virtual camera 310 is a software object corresponding to an image of a right view point and may be disposed at a second position based on a distance between the reference binoculars. Here, the distance between the reference binoculars may be predetermined (eg, 65 mm), or the distance between the reference binoculars may be measured from the user terminal (eg, HMD). For example, the rental apparatus 200 may generate an image for measuring the distance between the reference binoculars, and transmit an image for measuring the distance between the reference binoculars to the user terminal. The user can determine the distance between the reference eyes by viewing an image for measuring the distance between the reference eyes output to the user terminal. The user terminal may transmit the reference distance between both eyes to the rental device 200.

예를 들면, 기준 양안 간 거리가 65mm인 경우, 좌시점의 영상에 해당하는 제 1 가상 카메라(300)는 중심으로부터 좌측으로 32.5mm 떨어진 영역에 배치될 수 있고, 우시점 영상에 해당하는 제 2 가상 카메라(310)는 중심으로부터 우측으로 32.5mm 떨어진 영역에 배치될 수 있다. 이 때, 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)는 중심으로부터 동일한 거리만큼 떨어져 있으므로, 제 1 가상 카메라(300)가 가상 현실의 특정 지점을 바라보는 각도와 제 2 가상 카메라(310)가 가상 현실의 특정 지점을 바라보는 각도는 동일하다.For example, when the reference distance between both eyes is 65 mm, the first virtual camera 300 corresponding to the image of the left view may be disposed in an area 32.5 mm away from the center, and the second corresponding to the image of the right view The virtual camera 310 may be disposed in an area 32.5mm to the right from the center. At this time, since the first virtual camera 300 and the second virtual camera 310 are separated by the same distance from the center, the angle at which the first virtual camera 300 looks at a specific point in the virtual reality and the second virtual camera ( 310) looks at a specific point in virtual reality at the same angle.

초점 각도 조절부(320)는 사용자의 좌시점 및 우시점에 해당하는 초점 각도를 조절할 수 있다. The focus angle adjustment unit 320 may adjust a focus angle corresponding to the user's left and right viewpoints.

초점 각도 측정용 영상 생성부(322)는 초점 각도를 측정하기 위한 영상을 생성할 수 있다. 초점 각도 측정용 영상 생성부(322)는 초점 각도를 측정하기 위한 지표로서 복수의 측정 지표를 포함하는 기준 객체를 포함하는 영상을 생성할 수 있다. 또한, 초점 각도 측정용 영상 생성부(322)는 기준 객체의 전면에 배치되어 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 포함하는 영상을 생성할 수 있다. The image generator 322 for measuring the focal angle may generate an image for measuring the focal angle. The image generator 322 for measuring a focal angle may generate an image including a reference object including a plurality of measurement indices as an index for measuring a focal angle. In addition, the image generator 322 for measuring the focal angle may be disposed on the front surface of the reference object to generate an image including a hole layer through which a part of the reference object can be transmitted.

제 1 사용자 입력 수신부(324)는 홀 레이어를 통해 측정된 초점 각도의 제 1 측정 값(즉, 기준 객체의 복수의 측정 지표 중 하나의 측정 지표)을 포함하는 사용자 입력을 수신할 수 있다. The first user input receiving unit 324 may receive a user input including a first measurement value of a focal angle measured through the hall layer (ie, one measurement index among a plurality of measurement indexes of the reference object).

제 1 사용자 입력 수신부(324)는 복수의 측정 지표 중 좌시점에 해당하는 제 1 측정 지표 및 우시점에 해당하는 제 2 측정 지표를 포함하는 제 1 측정 값을 사용자 단말로부터 입력받을 수 있다. The first user input receiving unit 324 may receive a first measurement value including a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point from the user terminal among the plurality of measurement indicators.

예를 들면, 사용자는 좌안만 뜬 상태에서 홀 레이어의 홀(240) 중점에 위치한 측정 지표를 사용자 단말에 입력하고, 우안만 뜬 상태에서 홀레이어 홀(240) 중점에 위치한 측정 지표를 사용자 단말에 입력할 수 있다. 이 경우, 사용자 단말은 제 1 측정 지표 및 제 2 측정 지표를 포함하는 제 1 측정 값을 제 1 사용자 입력 수신부(324)로 전송할 수 있다.For example, the user inputs a measurement index located at the center of the hole 240 of the hole layer in a state where only the left eye is open, and the measurement index located at the center of the hole layer hole 240 when only the right eye is open to the user terminal. You can enter. In this case, the user terminal may transmit the first measurement value including the first measurement index and the second measurement index to the first user input receiving unit 324.

초점 각도 조절부(320)는 제 1 측정 값에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 배치를 변경할 수 있다. The focus angle adjusting unit 320 may change the arrangement of the first virtual camera 300 and the second virtual camera 310 based on the first measured value.

초점 각도 조절부(320)는 복수의 측정 지표 중 제 1 가상 카메라(300)와 제 2 가상 카메라(310)의 중심에 대응하는 기준 지표와 제 1 측정 값에 대한 제 1 측정 지표까지의 거리, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 1 가상 카메라(300)를 제 3 위치에 재배치할 수 있다. The focal angle adjustment unit 320 includes a reference index corresponding to the center of the first virtual camera 300 and the second virtual camera 310 among the plurality of measurement indices, and a distance between the first measurement index and the first measurement value, The first virtual camera 300 may be relocated to the third position based on a position value converted from the coordinate system of the virtual reality to the coordinate system of the virtual camera and a depth value of an area corresponding to the projection area in the virtual reality.

예를 들면, 초점 각도 조절부(320)는 좌시점의 제 1 측정 값에 대한 제 1 측정 지표에 기초하여 좌시점에 대하여 중심으로부터 제 1 가상 카메라(300)까지의 거리를 계산할 수 있고, 우시점의 제 1 측정 값에 대한 제 2 측정 지표에 기초하여 우시점에 대하여 중심으로부터 제 2 가상 카메라(310)까지의 거리를 계산할 수 있다. 이 때, 계산된 중심으로부터의 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)까지의 거리는 가상 현실에서 컨텐츠를 렌더링할 때, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환하는데 이용될 수 있다. For example, the focal angle adjustment unit 320 may calculate a distance from the center to the first virtual camera 300 for the left view based on the first measurement index for the first measurement value of the left view, and A distance from the center to the second virtual camera 310 with respect to the right view point may be calculated based on the second measurement index for the first measurement value of the viewpoint. At this time, the calculated distance from the center to the first virtual camera 300 and the second virtual camera 310 may be used to convert the coordinate system of the virtual reality into the coordinate system of the virtual camera when rendering content in virtual reality. have.

제 1 가상 카메라(300)의 제 3 위치는 [수학식 1]에 의해 계산될 수 있다. The third position of the first virtual camera 300 may be calculated by [Equation 1].

[수학식 1][Equation 1]

Figure 112016077720475-pat00001
Figure 112016077720475-pat00001

여기서,

Figure 112016077720475-pat00002
는 가상 카메라의 좌표계로 변환된 양안의 위치에 따른 가상 현실을 구성하는 점들(vertices)의 이동값이고,
Figure 112016077720475-pat00003
는 좌시점에 해당하는 제 1 측정 값에 대한 제 1 측정 지표에 따른 제 1 가상 카메라(300)가 재배치될 중심으로부터의 거리이고,
Figure 112016077720475-pat00004
는 가상 현실을 구성하는 점들에 대한 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 중 깊이값이고,
Figure 112016077720475-pat00005
는 가상 카메라의 파라미터 중 하나로 컨텐츠에 따라 가변적이며, 가상 현실에서의 투사 영역에 해당하는 영역의 최대 깊이값이다. here,
Figure 112016077720475-pat00002
Is the moving value of the vertices constituting the virtual reality according to the position of both eyes converted to the coordinate system of the virtual camera,
Figure 112016077720475-pat00003
Is a distance from the center at which the first virtual camera 300 is to be relocated according to the first measurement index for the first measurement value corresponding to the left view point,
Figure 112016077720475-pat00004
Is the depth value among the position values obtained by converting the coordinate system of the virtual reality to the coordinate system of the virtual camera with respect to the points constituting the virtual reality,
Figure 112016077720475-pat00005
Is one of the parameters of the virtual camera, which is variable according to the content, and is the maximum depth value of the area corresponding to the projection area in virtual reality.

제 1 측정 지표가 기준 지표보다 오른쪽에 위치하는 경우,

Figure 112016077720475-pat00006
는 양수 값이 되며, 제 1 측정 지표가 기준 지표보다 왼쪽에 위치하는 경우,
Figure 112016077720475-pat00007
는 음수 값이 될 수 있다. 위와 같이 기술된 내용은
Figure 112016077720475-pat00008
에도 적용될 수 있다. If the first metric is located to the right of the reference metric,
Figure 112016077720475-pat00006
Becomes a positive value, and if the first measurement indicator is located to the left of the reference indicator,
Figure 112016077720475-pat00007
Can be a negative value. The contents described above are
Figure 112016077720475-pat00008
It can also be applied to

초점 각도 조절부(320)는 기준 지표와 제 1 측정 값에 대한 제 2 측정 지표까지의 거리, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 2 가상 카메라(310)를 제 4 위치에 재배치할 수 있다. The focal angle adjusting unit 320 includes a distance between a reference index and a second measurement index with respect to the first measurement value, a position value obtained by converting a coordinate system of virtual reality into a coordinate system of a virtual camera, and an area corresponding to a projection area in virtual reality. The second virtual camera 310 may be relocated to the fourth position based on the depth value of.

제 2 가상 카메라(310)의 제 4 위치는 [수학식 2]에 의해 계산될 수 있다. The fourth position of the second virtual camera 310 may be calculated by [Equation 2].

[수학식 2][Equation 2]

Figure 112016077720475-pat00009
Figure 112016077720475-pat00009

여기서,

Figure 112016077720475-pat00010
는 가상 카메라의 좌표계로 변환된 양안의 위치에 따른 가상 현실을 구성하는 점들의 이동값이고,
Figure 112016077720475-pat00011
는 우시점에 해당하는 제 1 측정 값에 대한 제 2 측정 지표에 따른 제 2 가상 카메라(310)가 재배치될 중심으로부터의 거리이고,
Figure 112016077720475-pat00012
는 가상 현실을 구성하는 점들에 대한 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 중 깊이값이고,
Figure 112016077720475-pat00013
는 가상 카메라의 파라미터 중 하나로 컨텐츠에 따라 가변적이며, 가상 현실에서의 투사 영역에 해당하는 영역의 최대 깊이값이다. 여기서, 양안 간의 거리(IPD)는
Figure 112016077720475-pat00014
Figure 112016077720475-pat00015
의 합으로 계산될 수 있다. here,
Figure 112016077720475-pat00010
Is the moving value of the points constituting the virtual reality according to the position of both eyes converted to the coordinate system of the virtual camera,
Figure 112016077720475-pat00011
Is a distance from the center to which the second virtual camera 310 is to be relocated according to the second measurement index for the first measurement value corresponding to the right view point,
Figure 112016077720475-pat00012
Is the depth value among the position values obtained by converting the coordinate system of the virtual reality to the coordinate system of the virtual camera with respect to the points constituting the virtual reality,
Figure 112016077720475-pat00013
Is one of the parameters of the virtual camera, which is variable according to the content, and is the maximum depth value of the area corresponding to the projection area in virtual reality. Here, the distance between both eyes (IPD) is
Figure 112016077720475-pat00014
Wow
Figure 112016077720475-pat00015
It can be calculated as the sum of

도 4a를 참조하면, 제 1 사용자 입력 수신부(324)는 사용자가 우안은 감고 좌안만 떠 있는 상태에서 제 1 가상 카메라(300)로 홀 레이어(230)의 홀(240) 중심에 위치한 좌시점에 해당하는 제 1 측정 값에 대한 제 1 측정 지표(420)를 사용자 단말로부터 입력받을 수 있다.Referring to FIG. 4A, the first user input receiving unit 324 uses the first virtual camera 300 in a state in which the user closes the right eye and only the left eye is floating at the left view point located at the center of the hole 240 of the hole layer 230. The first measurement index 420 for the corresponding first measurement value may be input from the user terminal.

이후, 초점 각도 조절부(320)는 사용자가 홀 레이어(230)의 홀(240)을 바라보았을 때, 기준 지표(410)가 보여지도록 제 1 가상 카메라(300)를 기준 지표(410)와 제 1 측정 지표(420) 간의 거리만큼 이동시킬 수 있다(도 4a에 따르면 왼쪽 방향으로 이동). 이 때, 수학식 1이 이용될 수 있다. 제 1 가상 카메라(300)는 수학식 1을 통해 계산된 Dx값에 기초하여 좌 또는 우로 이동될 수 있다.Thereafter, when the user looks at the hole 240 of the hole layer 230, the focal angle adjustment unit 320 sets the first virtual camera 300 to the reference index 410 so that the reference index 410 is displayed. 1 It can be moved as much as the distance between the measurement indices 420 (as shown in FIG. 4A, it moves in the left direction). In this case, Equation 1 may be used. The first virtual camera 300 may be moved to the left or right based on the Dx value calculated through Equation 1.

이어서, 도 4b와 같이, 제 1 사용자 입력 수신부(324)는 사용자가 좌안은 감고 우안만 뜬 상태에서 제 2 가상 카메라(310)로 홀 레이어(230)의 홀(240) 중심에 위치한 우시점에 해당하는 제 1 측정 값에 대한 제 2 측정 지표(430)를 사용자 단말로부터 입력받을 수 있다. Subsequently, as shown in FIG. 4B, the first user input receiving unit 324 uses the second virtual camera 310 in a state in which the user closes the left eye and only the right eye is opened, at the right view point located at the center of the hole 240 of the hole layer 230. The second measurement index 430 for the corresponding first measurement value may be input from the user terminal.

이후, 초점 각도 조절부(320)는 사용자가 홀 레이어(230)의 홀(240)을 바라보았을 때, 기준 지표(410)가 보여지도록 제 2 가상 카메라(310)를 기준 지표(410)와 제 2 측정 지표(430) 간의 거리만큼 이동시킬 수 있다(도 4b에 따르면 왼쪽 방향으로 이동). 이 때, 수학식 2가 이용될 수 있다. 제 2 가상 카메라(310)는 수학식 2를 통해 계산된 Dx값에 기초하여 좌 또는 우로 이동될 수 있다.Thereafter, when the user looks at the hole 240 of the hole layer 230, the focal angle adjustment unit 320 sets the second virtual camera 310 to the reference index 410 so that the reference index 410 is displayed. 2 It can be moved by the distance between the measurement indices 430 (moving to the left according to FIG. 4B). In this case, Equation 2 may be used. The second virtual camera 310 may be moved left or right based on the D x value calculated through Equation 2.

다시 도 3을 참조하면, 렌더링부(330)는 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하고, 출력부(340)는 렌더링된 초점 각도를 측정하기 위한 영상을 출력할 수 있다. Referring back to FIG. 3, the rendering unit 330 renders an image for measuring a focal angle projected to the first virtual camera 300 and the second virtual camera 310 whose arrangement is changed, and the output unit 340 May output an image for measuring the rendered focal angle.

제 2 사용자 입력 수신부(326)는 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신할 수 있다. The second user input receiving unit 326 may receive a user input including a second measurement value of the focal angle.

제 2 사용자 입력 수신부(326)는 복수의 측정 지표 중 좌시점에 해당하는 제 1 측정 지표 및 우시점에 해당하는 제 2 측정 지표를 포함하는 제 2 측정 값을 사용자 단말로부터 입력받을 수 있다.The second user input receiver 326 may receive a second measurement value including a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point from the user terminal among the plurality of measurement indicators.

초점 각도 결정부(328)는 제 2 측정 값에 기초하여 초점 각도를 결정할 수 있다. 초점 각도 결정부(328)는 제 2 측정 값에 기초하여 좌시점에 해당하는 제 1 초점 각도 및 우시점에 해당하는 제 2 초점 각도를 결정할 수 있다. The focus angle determiner 328 may determine a focus angle based on the second measured value. The focal angle determiner 328 may determine a first focal angle corresponding to the left viewpoint and a second focal angle corresponding to the right viewpoint based on the second measured value.

초점 각도 결정부(328)는 제 2 측정 값에 대한 제 1 측정 지표의 위치 값 및 배치가 변경된 제 1 가상 카메라(300)의 위치 값에 기초하여 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산할 수 있다. 초점 각도 결정부(328)는 제 1 방향 벡터에 기초하여 배치가 변경된 제 1 가상 카메라(300)가 바라보는 방향을 변경할 수 있다. The focal angle determination unit 328 calculates a first direction vector corresponding to the first focal angle based on the position value of the first measurement index with respect to the second measurement value and the position value of the first virtual camera 300 whose arrangement has been changed. Can be calculated. The focal angle determiner 328 may change a direction in which the first virtual camera 300 whose arrangement is changed is viewed based on the first direction vector.

도 4c를 참조하면, 제 2 사용자 입력 수신부(326)는 사용자가 우안은 감고 좌안만 떠 있는 상태에서, 배치가 변경된 제 1 가상 카메라(300)로 홀 레이어(230)의 홀(240) 중심에 위치한 좌시점에 해당하는 제 2 측정 값에 대한 제 1 측정 지표(420)를 사용자 단말로부터 입력받을 수 있다.Referring to FIG. 4C, the second user input receiving unit 326 is a first virtual camera 300 having a changed arrangement while the user has the right eye closed and only the left eye floating, and is positioned at the center of the hole 240 of the hole layer 230. The first measurement index 420 for the second measurement value corresponding to the located left view point may be input from the user terminal.

이후, 렌터링 장치(200)는 제 2 측정 값에 대한 제 1 측정 지표(420)의 위치 값 및 배치가 변경된 제 1 가상 카메라(300)의 위치 값에 기초하여 제 1 측정 지표(420)를 제 1 가상 카메라(300)가 바라보도록 제 1 가상 카메라(300)의 방향을 변경할 수 있다. Thereafter, the rental device 200 calculates the first measurement index 420 based on the position value of the first measurement index 420 with respect to the second measurement value and the position value of the first virtual camera 300 whose arrangement has been changed. The direction of the first virtual camera 300 may be changed so that the first virtual camera 300 looks.

다시 도 3을 참조하면, 초점 각도 결정부(328)는 제 2 측정 값에 대한 제 2 측정 지표의 위치 값 및 배치가 변경된 제 2 가상 카메라(310)의 위치 값에 기초하여 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산할 수 있다. 초점 각도 결정부(328)는 제 2 방향 벡터에 기초하여 배치가 변경된 제 2 가상 카메라(310)가 바라보는 방향을 변경할 수 있다. Referring to FIG. 3 again, the focal angle determination unit 328 determines the second focal angle based on the position value of the second measurement index with respect to the second measurement value and the position value of the second virtual camera 310 whose arrangement is changed. The corresponding second direction vector can be calculated. The focal angle determiner 328 may change the direction in which the second virtual camera 310 whose arrangement has been changed is viewed based on the second direction vector.

도 4d를 참조하면, 제 2 사용자 입력 수신부(326)는 사용자가 좌안은 감고 우안만 떠 있는 상태에서, 배치가 변경된 제 2 가상 카메라(310)로 홀 레이어(230)의 홀(240) 중심에 위치한 우시점에 해당하는 제 2 측정 값에 대한 제 2 측정 지표(410)를 사용자 단말로부터 입력받을 수 있다.Referring to FIG. 4D, the second user input receiving unit 326 is a second virtual camera 310 having a changed arrangement while the user has the left eye closed and only the right eye floating, and is positioned at the center of the hole 240 of the hole layer 230. The second measurement index 410 for the second measurement value corresponding to the located dominant view point may be input from the user terminal.

이후, 렌터링 장치(200)는 제 2 측정 값에 대한 제 2 측정 지표(410)의 위치 값 및 배치가 변경된 제 2 가상 카메라(310)의 위치 값에 기초하여 제 2 측정 지표(410)를 제 2 가상 카메라(310)가 바라보도록 제 2 가상 카메라(310)의 방향을 변경할 수 있다. Thereafter, the rental device 200 calculates the second measurement index 410 based on the position value of the second measurement index 410 with respect to the second measurement value and the position value of the second virtual camera 310 whose arrangement has been changed. The direction of the second virtual camera 310 may be changed so that the second virtual camera 310 looks.

다시 도 3을 참조하면, 렌더링부(330)는 배치 및 각도가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)에 투사되는 좌시점의 영상 및 우시점의 영상을 렌더링할 수 있다. Referring back to FIG. 3, the rendering unit 330 may render the left-view image and the right-view image projected to the first virtual camera 300 and the second virtual camera 310 whose arrangement and angle are changed. .

출력부(340)는 렌더링된 좌시점의 영상 및 우시점의 영상을 출력할 수 있다. The output unit 340 may output the rendered image of the left view and the image of the right view.

한편, 당업자라면, 제 1 가상 카메라(300), 제 2 가상 카메라(310), 초점 각도 조절부(320), 초점 각도 측정용 영상 생성부(322), 제 1 사용자 입력 수신부(324), 제 2 사용자 입력 수신부(326), 초점 각도 결정부(328), 렌더링부(330) 및 출력부(340) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. On the other hand, those skilled in the art, the first virtual camera 300, the second virtual camera 310, the focal angle adjustment unit 320, the focal angle measurement image generator 322, the first user input receiving unit 324, the first 2 It will be fully understood that the user input receiving unit 326, the focal angle determining unit 328, the rendering unit 330, and the output unit 340 may each be implemented separately, or one or more of them may be integrated and implemented.

도 5는 본 발명의 다른 실시예에 따른, 도 2에 도시된 렌터링 장치(200)의 블록도이다. 5 is a block diagram of the rental apparatus 200 shown in FIG. 2 according to another embodiment of the present invention.

도 5를 참조하면, 렌터링 장치(200)는 제 1 영상 생성부(500), 제 2 영상 생성부(510), 제 1 사용자 입력 수신부(520), 제 2 사용자 입력 수신부(530), 기준 양안 간 거리 결정부(540), 초점 각도 결정부(550) 및 가상 카메라 배치부(560)를 포함할 수 있다. 다만, 도 5에 도시된 렌터링 장치(200)는 본 발명의 하나의 구현 예에 불과하며, 도 5에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. Referring to FIG. 5, the rental device 200 includes a first image generating unit 500, a second image generating unit 510, a first user input receiving unit 520, a second user input receiving unit 530, and A distance determining unit 540 between both eyes, a focal angle determining unit 550, and a virtual camera arranging unit 560 may be included. However, the rental device 200 shown in FIG. 5 is only an example of implementation of the present invention, and various modifications may be made based on the components shown in FIG. 5.

제 1 영상 생성부(500)는 사용자의 양안 간 거리(IPD; interpupillary distance)를 조절하기 위한 제 1 영상을 생성할 수 있다. 제 1 영상은 초점 각도를 측정하기 위한 복수의 측정 지표를 포함하는 기준 객체(220)와 기준 객체(220)의 전면에 배치되어 기준 객체(220)의 일부가 투과 가능한 홀 레이어(230)를 포함할 수 있다.The first image generator 500 may generate a first image for adjusting an interpupillary distance (IPD) of the user. The first image includes a reference object 220 including a plurality of measurement indices for measuring a focal angle, and a hole layer 230 disposed on the front surface of the reference object 220 to allow a part of the reference object 220 to be transmitted can do.

제 1 사용자 입력 수신부(520)는 양안 간 거리의 측정 값을 포함하는 제 1 사용자 입력을 수신할 수 있다. 여기서, 제 1 사용자 입력은 홀 레이어(230)의 홀(240)을 통해 측정된 사용자의 좌시점에 해당하는 제 1 측정 지표 및 사용자의 우시점에 해당하는 제 2 측정 지표를 포함할 수 있다. The first user input receiver 520 may receive a first user input including a measurement value of a distance between both eyes. Here, the first user input may include a first measurement index corresponding to the user's left viewpoint and a second measurement index corresponding to the user's right viewpoint measured through the hole 240 of the hole layer 230.

기준 양안 간 거리 결정부(540)는 제 1 사용자 입력에 기초하여 기준 양안 간 거리를 결정할 수 있다. The reference binocular distance determiner 540 may determine the reference binocular distance based on a first user input.

가상 카메라 배치부(560)는 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라(300) 및 우시점의 영상에 해당하는 제 2 가상 카메라(310)를 배치할 수 있다. The virtual camera arranging unit 560 may arrange a first virtual camera 300 corresponding to an image of a left view and a second virtual camera 310 corresponding to an image of a right view based on the distance between the reference binoculars.

제 2 영상 생성부(510)는 초점 각도를 측정하기 위한 제 2 영상을 생성할 수 있다. 여기서, 제 2 영상은 초점 각도를 측정하기 위한 복수의 측정 지표를 포함하는 기준 객체(220)와 기준 객체(220)의 전면에 배치되어 기준 객체(220)의 일부가 투과 가능한 홀 레이어(230)를 포함할 수 있다.The second image generator 510 may generate a second image for measuring a focal angle. Here, the second image includes a reference object 220 including a plurality of measurement indices for measuring a focal angle, and a hole layer 230 that is disposed on the front surface of the reference object 220 so that a part of the reference object 220 can be transmitted. It may include.

제 2 사용자 입력 수신부(530)는 초점 각도의 측정 값을 포함하는 제 2 사용자 입력을 수신할 수 있다. 여기서 제 2 사용자 입력은 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)에서 홀 레이어(230)의 홀(240)을 통해 측정된 사용자의 좌시점에 해당하는 제 1 측정 지표 및 사용자의 우시점에 해당하는 제 2 측정 지표를 포함할 수 있다. The second user input receiving unit 530 may receive a second user input including a measurement value of a focus angle. Here, the second user input is a first measurement index corresponding to the user's left viewpoint measured through the hole 240 of the hole layer 230 in the first virtual camera 300 and the second virtual camera 310 whose arrangement has been changed. And a second measurement index corresponding to the user's dominant point of view.

초점 각도 결정부(550)는 제 2 사용자 입력에 기초하여 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310) 각각에 대한 초점 각도를 결정할 수 있다. The focal angle determiner 550 may determine a focal angle for each of the first virtual camera 300 and the second virtual camera 310 whose arrangement is changed based on a second user input.

가상 카메라 배치부(560)는 초점 각도에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 각도를 변경할 수 있다. The virtual camera arranging unit 560 may change the angles of the first virtual camera 300 and the second virtual camera 310 based on the focal angle.

한편, 당업자라면, 제 1 영상 생성부(500), 제 2 영상 생성부(510), 제 1 사용자 입력 수신부(520), 제 2 사용자 입력 수신부(530), 기준 양안 간 거리 결정부(540), 초점 각도 결정부(550) 및 가상 카메라 배치부(560) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Meanwhile, for those skilled in the art, the first image generating unit 500, the second image generating unit 510, the first user input receiving unit 520, the second user input receiving unit 530, the reference distance determining unit 540 , It will be fully understood that each of the focal angle determination unit 550 and the virtual camera arrangement unit 560 may be implemented separately, or one or more of them may be integrated and implemented.

도 6은 본 발명의 일 실시예에 따른, 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법을 나타낸 동작 흐름도이다. 6 is an operation flowchart illustrating a method of rendering contents for virtual reality based on a focal angle according to an embodiment of the present invention.

도 6에 도시된 실시예에 따른 컨텐츠 렌더링 방법은 도 1 내지 도 5에 도시된 실시예에 따른 렌더링 장치(200)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 5의 렌더링 장치(200)에 관하여 기술된 내용은 도 6에 도시된 실시예에 따른 컨텐츠 렌더링 방법에도 적용될 수 있다. The content rendering method according to the embodiment shown in FIG. 6 includes steps processed in a time series by the rendering apparatus 200 according to the embodiment shown in FIGS. 1 to 5. Accordingly, even if omitted below, the contents described with respect to the rendering apparatus 200 of FIGS. 1 to 5 may also be applied to the content rendering method according to the embodiment illustrated in FIG. 6.

도 6을 참조하면, 단계 S601에서 렌더링 장치(200)는 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라(300) 및 우시점의 영상에 해당하는 제 2 가상 카메라(310)를 배치할 수 있다. Referring to FIG. 6, in step S601, the rendering apparatus 200 includes a first virtual camera 300 corresponding to an image of a left view and a second virtual camera 310 corresponding to an image of a right view based on a distance between the reference binoculars. ) Can be placed.

단계 S603에서 렌더링 장치(200)는 초점 각도를 측정하기 위한 영상(230)을 생성할 수 있다. In operation S603, the rendering apparatus 200 may generate an image 230 for measuring a focal angle.

단계 S605에서 렌더링 장치(200)는 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신할 수 있다. In operation S605, the rendering apparatus 200 may receive a user input including a first measurement value of the focal angle.

단계 S607에서 렌더링 장치(200)는 제 1 측정 값에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 배치를 변경할 수 있다. In operation S607, the rendering apparatus 200 may change the arrangement of the first virtual camera 300 and the second virtual camera 310 based on the first measured value.

단계 S609에서 렌더링 장치(200)는 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신할 수 있다. In operation S609, the rendering apparatus 200 may receive a user input including a second measurement value of the focal angle.

단계 S611에서 렌더링 장치(200)는 제 2 측정 값에 기초하여 초점 각도를 결정할 수 있다. 여기서, 초점 각도는 좌시점에 해당하는 제 1 초점 각도 및 우시점에 해당하는 제 2 초점 각도를 포함할 수 있다.In operation S611, the rendering apparatus 200 may determine a focal angle based on the second measured value. Here, the focal angle may include a first focal angle corresponding to the left view and a second focal angle corresponding to the right view.

단계 S613에서 렌더링 장치(200)는 초점 각도에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 각도를 변경할 수 있다. In operation S613, the rendering apparatus 200 may change the angles of the first virtual camera 300 and the second virtual camera 310 based on the focal angle.

도 6에는 도시되지 않았으나, 단계 S603에서 렌더링 장치(200)는 복수의 측정 지표를 포함하는 기준 객체를 출력하고, 기준 객체(220)의 전면에 기준 객체의 일부가 투과 가능한 홀 레이어(240)를 배치할 수 있다. Although not shown in FIG. 6, in step S603, the rendering apparatus 200 outputs a reference object including a plurality of measurement indices, and a hole layer 240 through which a part of the reference object can be transmitted is placed on the front surface of the reference object 220. Can be placed.

도 6에는 도시되지 않았으나, 단계 S607에서 렌더링 장치(200)는 복수의 측정 지표 중 제 1 가상 카메라(300)와 제 2 가상 카메라(310)의 중심에 대응하는 기준 지표와 제 1 측정 지표까지의 거리, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 1 가상 카메라(300)의 배치를 변경할 수 있다. Although not shown in FIG. 6, in step S607, the rendering device 200 includes a reference index corresponding to the center of the first virtual camera 300 and the second virtual camera 310 and the first measurement index. The arrangement of the first virtual camera 300 may be changed based on a distance, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of an area corresponding to the projection area in the virtual reality.

도 6에는 도시되지 않았으나, 단계 S607에서 렌더링 장치(200)는 기준 지표와 제 2 측정 지표까지의 거리, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 2 가상 카메라(310)의 배치를 변경할 수 있다. Although not shown in FIG. 6, in step S607, the rendering device 200 corresponds to the distance between the reference index and the second measurement index, the position value obtained by converting the coordinate system of virtual reality into the coordinate system of the virtual camera, and the projection area in virtual reality. The arrangement of the second virtual camera 310 may be changed based on the depth value of the region.

도 6에는 도시되지 않았으나, 단계 S609에서 렌더링 장치(200)는 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하고, 렌더링된 초점 각도를 측정하기 위한 영상을 출력할 수 있다. Although not shown in FIG. 6, in step S609, the rendering device 200 renders an image for measuring a focal angle projected to the first virtual camera 300 and the second virtual camera 310 whose arrangement is changed, and the rendered image An image for measuring the focal angle can be output.

도 6에는 도시되지 않았으나, 단계 S611에서 렌더링 장치(200)는 제 2 측정 값에 대한 제 1 측정 지표의 위치 값 및 배치가 변경된 제 1 가상 카메라(300)의 위치 값에 기초하여 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산할 수 있다.Although not shown in FIG. 6, in step S611, the rendering device 200 determines the first focal angle based on the position value of the first measurement index with respect to the second measurement value and the position value of the first virtual camera 300 whose arrangement is changed. It is possible to calculate a first direction vector corresponding to.

도 6에는 도시되지 않았으나, 단계 S611에서 렌더링 장치(200)는 제 2 측정 지표의 위치 값 및 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산할 수 있다. Although not shown in FIG. 6, in step S611, the rendering device 200 calculates a second direction vector corresponding to the second focal angle based on the position value of the second measurement index and the position value of the second virtual camera whose arrangement is changed. I can.

도 6에는 도시되지 않았으나, 단계 S613에서 렌더링 장치(200)는 제 1 방향 벡터에 기초하여 제 1 가상 카메라의 방향을 변경하고, 제 2 방향 벡터에 기초하여 제 2 가상 카메라의 방향을 변경할 수 있다. Although not shown in FIG. 6, in step S613, the rendering apparatus 200 may change the direction of the first virtual camera based on the first direction vector and may change the direction of the second virtual camera based on the second direction vector. .

도 6에는 도시되지 않았으나, 단계 S613이후에 렌더링 장치(200)는 각도가 변경된 제 1 가상 카메라(300)에 투사되는 좌시점의 영상을 렌더링하고, 각도가 변경된 제 2 가상 카메라(310)에 투사되는 우시점의 영상을 렌더링할 수 있다. 렌더링 장치(200)는 렌더링된 좌시점의 영상 및 우시점의 영상을 출력할 수 있다. Although not shown in FIG. 6, after step S613, the rendering device 200 renders an image of the left-view point projected to the first virtual camera 300 whose angle is changed, and projects it to the second virtual camera 310 whose angle is changed. It is possible to render the image of the dominant point of view. The rendering apparatus 200 may output the rendered image of the left view and the image of the right view.

상술한 설명에서, 단계 S601 내지 S613은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S601 to S613 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. .

200: 렌더링 장치
300: 제 1 가상 카메라
310: 제 2 가상 카메라
320: 초점 각도 조절부
322: 초점 각도 측정용 영상 생성부
324: 제 1 사용자 입력 수신부
326: 제 2 사용자 입력 수신부
328: 초점 각도 결정부
330: 렌더링부
340: 출력부
200: rendering device
300: first virtual camera
310: second virtual camera
320: focus angle adjustment unit
322: image generator for measuring the focal angle
324: first user input receiving unit
326: second user input receiving unit
328: focal angle determination unit
330: rendering unit
340: output

Claims (22)

초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법에 있어서,
기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 단계;
초점 각도를 측정하기 위한 영상을 생성하는 단계;
상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 단계;
상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계;
상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계;
상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계; 및
상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계
를 포함하되,
상기 제 1 가상 카메라 및 상기 제 2 가상 카메라는 기제작된 3차원 가상 현실에 대한 컨텐츠의 일부를 상기 변경된 각도에 기초하여 2차원 평면으로 투사시키는 것인, 가상 현실 컨텐츠 렌더링 방법.
In the method of rendering content for virtual reality based on a focal angle,
Arranging a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on a distance between the reference binoculars;
Generating an image for measuring a focal angle;
Receiving a user input including a first measurement value of the focal angle;
Changing the arrangement of the first virtual camera and the second virtual camera based on the first measured value;
Receiving a user input including a second measurement value of the focal angle;
Determining the focal angle based on the second measured value; And
Changing angles of the first virtual camera and the second virtual camera based on the focal angle
Including,
The first virtual camera and the second virtual camera project a part of the previously produced 3D virtual reality content onto a 2D plane based on the changed angle.
삭제delete 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법에 있어서,
기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 단계;
초점 각도를 측정하기 위한 영상을 생성하는 단계;
상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 단계;
상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계;
상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계;
상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계; 및
상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계
를 포함하되,
상기 초점 각도를 측정하기 위한 영상을 생성하는 단계는
복수의 측정 지표를 포함하는 기준 객체를 출력하는 단계; 및
상기 기준 객체의 전면에 상기 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 배치하는 단계
를 포함하고,
상기 제 1 측정 값 및 상기 제 2 측정 값 각각은 상기 복수의 측정 지표 중 상기 좌시점에 해당하는 제 1 측정 지표 및 상기 우시점에 해당하는 제 2 측정 지표를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
In the method of rendering content for virtual reality based on a focal angle,
Arranging a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on a distance between the reference binoculars;
Generating an image for measuring a focal angle;
Receiving a user input including a first measurement value of the focal angle;
Changing the arrangement of the first virtual camera and the second virtual camera based on the first measured value;
Receiving a user input including a second measurement value of the focal angle;
Determining the focal angle based on the second measured value; And
Changing angles of the first virtual camera and the second virtual camera based on the focal angle
Including,
Generating an image for measuring the focal angle
Outputting a reference object including a plurality of measurement indices; And
Arranging a hole layer through which a part of the reference object is transparent on the front surface of the reference object
Including,
Each of the first measurement value and the second measurement value includes a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point among the plurality of measurement indicators, virtual reality content rendering Way.
제 3 항에 있어서,
상기 초점 각도는 상기 좌시점에 해당하는 제 1 초점 각도 및 상기 우시점에 해당하는 제 2 초점 각도를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 3,
The focal angle includes a first focal angle corresponding to the left view point and a second focal angle corresponding to the right view point.
제 3 항에 있어서,
상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계는
상기 복수의 측정 지표 중 상기 제 1 가상 카메라와 상기 제 2 가상 카메라의 중심에 대응하는 기준 지표와 상기 제 1 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 상기 제 1 가상 카메라의 배치를 변경하는 단계; 및
상기 기준 지표와 상기 제 2 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 상기 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 상기 제 2 가상 카메라의 배치를 변경하는 단계
를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 3,
Changing the arrangement of the first virtual camera and the second virtual camera
Among the plurality of measurement indices, a reference index corresponding to the center of the first virtual camera and the second virtual camera and a distance to the first measurement index, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and Changing the arrangement of the first virtual camera based on a depth value of an area corresponding to the projection area in the virtual reality; And
The second based on the distance between the reference index and the second measurement index, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of an area corresponding to the projection area in the virtual reality Steps to change the placement of the virtual camera
That includes, virtual reality content rendering method.
제 4 항에 있어서,
상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계는
상기 배치가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하는 단계; 및
상기 렌더링된 초점 각도를 측정하기 위한 영상을 출력하는 단계
를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 4,
Receiving a user input including a second measurement value of the focal angle
Rendering an image for measuring a focal angle projected onto the first virtual camera and the second virtual camera whose arrangement is changed; And
Outputting an image for measuring the rendered focal angle
That includes, virtual reality content rendering method.
제 6 항에 있어서,
상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계는
상기 제 2 측정 값에 대한 상기 제 1 측정 지표의 위치 값 및 상기 배치가 변경된 제 1 가상 카메라의 위치 값에 기초하여 상기 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산하는 단계; 및
상기 제 2 측정 지표의 위치 값 및 상기 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 상기 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산하는 단계
를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 6,
The step of determining the focal angle based on the second measurement value
Calculating a first direction vector corresponding to the first focal angle based on the position value of the first measurement index with respect to the second measurement value and the position value of the first virtual camera whose arrangement is changed; And
Calculating a second direction vector corresponding to the second focal angle based on the position value of the second measurement index and the position value of the second virtual camera whose arrangement is changed
That includes, virtual reality content rendering method.
제 7 항에 있어서,
상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계는
상기 제 1 방향 벡터에 기초하여 상기 제 1 가상 카메라의 방향을 변경하는 단계; 및
상기 제 2 방향 벡터에 기초하여 상기 제 2 가상 카메라의 방향을 변경하는 단계
를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 7,
Changing the angles of the first virtual camera and the second virtual camera based on the focal angle
Changing a direction of the first virtual camera based on the first direction vector; And
Changing the direction of the second virtual camera based on the second direction vector
That includes, virtual reality content rendering method.
제 1 항에 있어서,
상기 각도가 변경된 제 1 가상 카메라에 투사되는 상기 좌시점의 영상을 렌더링하는 단계; 및
상기 각도가 변경된 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 단계
를 더 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 1,
Rendering the left view image projected on the first virtual camera whose angle is changed; And
Rendering the image of the right view point projected on the second virtual camera whose angle is changed
That further comprises, virtual reality content rendering method.
제 9 항에 있어서,
상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 단계
를 더 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 9,
Outputting the rendered image of the left view and the image of the right view
That further comprises, virtual reality content rendering method.
초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 장치에 있어서,
기준 양안 간 거리에 기초하여 제 1 위치에 배치되는 좌시점의 영상에 해당하는 제 1 가상 카메라;
상기 기준 양안 간 거리에 기초하여 제 2 위치에 배치되는 우시점의 영상에 해당하는 제 2 가상 카메라;
상기 좌시점 및 상기 우시점에 해당하는 초점 각도를 조절하는 초점 각도 조절부;
상기 제 1 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 렌더링부; 및
상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 출력부
를 포함하되,
상기 제 1 가상 카메라 및 상기 제 2 가상 카메라는 기제작된 3차원 가상 현실에 대한 컨텐츠의 일부를 상기 초점 각도에 기초하여 변경된 각도에 기초하여 2차원 평면으로 투사시키는 것인, 렌더링 장치.
In the apparatus for rendering content for virtual reality based on a focal angle,
A first virtual camera corresponding to an image of a left-view point disposed at a first position based on a distance between the reference binoculars;
A second virtual camera corresponding to an image of a right view point disposed at a second position based on the distance between the reference binoculars;
A focal angle adjusting unit that adjusts a focal angle corresponding to the left view point and the right view point;
A rendering unit for rendering the image of the left view projected to the first virtual camera and the image of the right view projected to the second virtual camera; And
An output unit that outputs the rendered image of the left view and the image of the right view
Including,
The first virtual camera and the second virtual camera project a part of the content for the 3D virtual reality previously produced on a 2D plane based on an angle changed based on the focal angle.
초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 장치에 있어서,
기준 양안 간 거리에 기초하여 제 1 위치에 배치되는 좌시점의 영상에 해당하는 제 1 가상 카메라;
상기 기준 양안 간 거리에 기초하여 제 2 위치에 배치되는 우시점의 영상에 해당하는 제 2 가상 카메라;
상기 좌시점 및 상기 우시점에 해당하는 초점 각도를 조절하는 초점 각도 조절부;
상기 제 1 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 렌더링부; 및
상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 출력부
를 포함하되,
상기 초점 각도 조절부는,
상기 초점 각도를 측정하기 위한 영상을 생성하는 초점 각도 측정용 영상 생성부;
상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 제 1 사용자 입력 수신부; 및
상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 제 2 사용자 입력 수신부
를 포함하는 것인, 렌더링 장치.
In the apparatus for rendering content for virtual reality based on a focal angle,
A first virtual camera corresponding to an image of a left-view point disposed at a first position based on a distance between the reference binoculars;
A second virtual camera corresponding to an image of a right view point disposed at a second position based on the distance between the reference binoculars;
A focal angle adjusting unit that adjusts a focal angle corresponding to the left view point and the right view point;
A rendering unit for rendering the image of the left view projected on the first virtual camera and the image of the right view projected on the second virtual camera; And
An output unit that outputs the rendered image of the left view and the image of the right view
Including,
The focus angle adjustment unit,
An image generator for measuring a focal angle to generate an image for measuring the focal angle;
A first user input receiver configured to receive a user input including a first measurement value of the focal angle; And
A second user input receiving unit that receives a user input including a second measurement value of the focal angle
Including a rendering device.
제 12 항에 있어서,
상기 초점 각도 조절부는 상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하고,
상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 초점 각도 결정부
를 더 포함하는 것인, 렌더링 장치.
The method of claim 12,
The focal angle adjusting unit changes the arrangement of the first virtual camera and the second virtual camera based on the first measured value,
A focal angle determination unit that determines the focal angle based on the second measured value
The rendering device further comprising a.
제 12 항에 있어서,
상기 초점 각도를 측정하기 위한 영상은 복수의 측정 지표를 포함하는 기준 객체와 상기 기준 객체의 전면에 배치되어 상기 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 포함하는 것인, 렌더링 장치.
The method of claim 12,
The image for measuring the focal angle includes a reference object including a plurality of measurement indices, and a hole layer disposed on the front surface of the reference object so that a part of the reference object is transparent.
제 14 항에 있어서,
상기 제 1 측정 값 및 상기 제 2 측정 값 각각은 상기 복수의 측정 지표 중 상기 좌시점에 해당하는 제 1 측정 지표 및 상기 우시점에 해당하는 제 2 측정 지표를 포함하는 것인, 렌더링 장치.
The method of claim 14,
Each of the first measurement value and the second measurement value includes a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point among the plurality of measurement indicators.
제 15 항에 있어서,
상기 초점 각도는 상기 좌시점에 해당하는 제 1 초점 각도 및 상기 우시점에 해당하는 제 2 초점 각도를 포함하는 것인, 렌더링 장치.
The method of claim 15,
Wherein the focal angle includes a first focal angle corresponding to the left view point and a second focal angle corresponding to the right view point.
제 16 항에 있어서,
상기 제 1 가상 카메라는 상기 복수의 측정 지표 중 상기 제 1 가상 카메라와 상기 제 2 가상 카메라의 중심에 대응하는 기준 지표와 상기 제 1 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 3 위치에 재배치되고,
상기 제 2 가상 카메라는 상기 기준 지표와 상기 제 2 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 상기 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 4 위치에 재배치되는 것인, 렌더링 장치.
The method of claim 16,
The first virtual camera includes a reference index corresponding to the center of the first virtual camera and the second virtual camera among the plurality of measurement indices, a distance to the first measurement index, and a coordinate system of the virtual reality. Relocated to the third position based on the position value converted to and the depth value of the area corresponding to the projection area in the virtual reality,
The second virtual camera includes a distance between the reference index and the second measurement index, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of an area corresponding to a projection area in the virtual reality To the fourth position based on the rendering device.
제 12 항에 있어서,
상기 렌더링부는 상기 배치가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하고,
상기 출력부는 렌더링된 초점 각도를 측정하기 위한 영상을 출력하는 것인, 렌더링 장치.
The method of claim 12,
The rendering unit renders an image for measuring a focal angle projected onto the first virtual camera and the second virtual camera whose arrangement is changed,
The output unit outputs an image for measuring the rendered focal angle.
제 18 항에 있어서,
상기 초점 각도 결정부는 상기 제 1 측정 지표의 위치 값 및 상기 배치가 변경된 제 1 가상 카메라의 위치 값에 기초하여 상기 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산하고,
상기 제 2 측정 지표의 위치 값 및 상기 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 상기 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산하는 것인, 렌더링 장치.
The method of claim 18,
The focal angle determining unit calculates a first direction vector corresponding to the first focal angle based on the position value of the first measurement index and the position value of the first virtual camera whose arrangement is changed,
And calculating a second direction vector corresponding to the second focal angle based on the position value of the second measurement index and the position value of the second virtual camera whose arrangement is changed.
제 19 항에 있어서,
상기 배치가 변경된 제 1 가상 카메라는 상기 제 1 방향 벡터에 기초하여 바라보는 방향을 변경하고,
상기 배치가 변경된 제 2 가상 카메라는 상기 제 2 방향 벡터에 기초하여 바라보는 방향을 변경하는 것인, 렌더링 장치.
The method of claim 19,
The first virtual camera whose arrangement is changed changes the viewing direction based on the first direction vector,
The rendering apparatus, wherein the second virtual camera whose arrangement is changed changes the viewing direction based on the second direction vector.
제 20 항에 있어서,
상기 렌더링부는 상기 각도가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 우시점의 영상을 렌더링하고,
상기 출력부는 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 것인, 렌더링 장치.
The method of claim 20,
The rendering unit renders the image of the left view and the image of the right view projected to the first virtual camera and the second virtual camera whose angles are changed,
The output unit outputs the rendered image of the left view and the image of the right view.
초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 장치에 있어서,
양안 간 거리(IPD; interpupillary distance)를 조절하기 위한 제 1 영상을 생성하는 제 1 영상 생성부;
상기 양안 간 거리의 측정 값을 포함하는 제 1 사용자 입력을 수신하는 제 1 사용자 입력 수신부;
상기 제 1 사용자 입력에 기초하여 기준 양안 간 거리를 결정하는 기준 양안 간 거리 결정부;
상기 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 가상 카메라 배치부;
초점 각도를 측정하기 위한 제 2 영상을 생성하는 제 2 영상 생성부;
상기 초점 각도의 측정 값을 포함하는 사용자 입력을 수신하는 제 2 사용자 입력 수신부; 및
상기 사용자 입력에 기초하여 상기 초점 각도를 결정하는 초점 각도 결정부
를 포함하고,
상기 가상 카메라 배치부는 상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 것인, 렌더링 장치.
In the apparatus for rendering content for virtual reality based on a focal angle,
A first image generator for generating a first image for adjusting an interpupillary distance (IPD);
A first user input receiving unit for receiving a first user input including a measured value of the distance between the both eyes;
A distance determining unit between reference binoculars that determines a distance between reference binoculars based on the first user input;
A virtual camera arranging unit for disposing a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on the distance between the reference binoculars;
A second image generator that generates a second image for measuring a focal angle;
A second user input receiving unit for receiving a user input including a measurement value of the focal angle; And
A focal angle determination unit that determines the focal angle based on the user input
Including,
The virtual camera arrangement unit to change the arrangement of the first virtual camera and the second virtual camera based on the focal angle.
KR1020160101853A 2016-08-10 2016-08-10 Method for rendering virtual reality contents based on focus angle KR102174465B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160101853A KR102174465B1 (en) 2016-08-10 2016-08-10 Method for rendering virtual reality contents based on focus angle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160101853A KR102174465B1 (en) 2016-08-10 2016-08-10 Method for rendering virtual reality contents based on focus angle

Publications (2)

Publication Number Publication Date
KR20180017668A KR20180017668A (en) 2018-02-21
KR102174465B1 true KR102174465B1 (en) 2020-11-04

Family

ID=61525274

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160101853A KR102174465B1 (en) 2016-08-10 2016-08-10 Method for rendering virtual reality contents based on focus angle

Country Status (1)

Country Link
KR (1) KR102174465B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101926577B1 (en) * 2012-02-23 2018-12-11 한국전자통신연구원 Expanded 3D stereoscopic display system
JP6499154B2 (en) * 2013-03-11 2019-04-10 マジック リープ, インコーポレイテッドMagic Leap,Inc. Systems and methods for augmented and virtual reality

Also Published As

Publication number Publication date
KR20180017668A (en) 2018-02-21

Similar Documents

Publication Publication Date Title
JP7094266B2 (en) Single-depth tracking-accommodation-binocular accommodation solution
EP1704730B1 (en) Method and apparatus for generating a stereoscopic image
EP2357841B1 (en) Method and apparatus for processing three-dimensional images
US10546429B2 (en) Augmented reality mirror system
WO2010084716A1 (en) Image processing device, program, image processing method, recording method, and recording medium
CN110447224B (en) Method for controlling virtual images in a display
US8208013B2 (en) User-adjustable three-dimensional display system and method
CN114945853A (en) Compensation for distortion in head mounted display systems
KR102564479B1 (en) Method and apparatus of 3d rendering user' eyes
TW201019708A (en) A method of processing parallax information comprised in a signal
KR20120030005A (en) Image processing device and method, and stereoscopic image display device
JP2016024273A (en) Stereoscopic image presentation device, stereoscopic image presentation method, and head-mounted display
KR20120051287A (en) Image providing apparatus and image providng method based on user's location
JP4270347B2 (en) Distance calculator
JP2011205195A (en) Image processing device, program, image processing method, chair, and appreciation system
CN107209949A (en) Method and system for producing amplification 3D rendering
CN111751988A (en) Depth of field adjusting method and device and binocular near-to-eye display equipment
US11582441B2 (en) Head mounted display apparatus
US20130286164A1 (en) Glassless 3d image display apparatus and method thereof
CN103609104A (en) Interactive user interface for stereoscopic effect adjustment
CN104216126A (en) Zooming 3D (third-dimensional) display technique
KR102174465B1 (en) Method for rendering virtual reality contents based on focus angle
CN102447929B (en) Display control chip and three-dimensional display equipment
JP6683218B2 (en) Head-mounted display device and control method for head-mounted display device
JP2005091508A (en) Stereoscopic image display device and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant