KR102174465B1 - Method for rendering virtual reality contents based on focus angle - Google Patents
Method for rendering virtual reality contents based on focus angle Download PDFInfo
- Publication number
- KR102174465B1 KR102174465B1 KR1020160101853A KR20160101853A KR102174465B1 KR 102174465 B1 KR102174465 B1 KR 102174465B1 KR 1020160101853 A KR1020160101853 A KR 1020160101853A KR 20160101853 A KR20160101853 A KR 20160101853A KR 102174465 B1 KR102174465 B1 KR 102174465B1
- Authority
- KR
- South Korea
- Prior art keywords
- virtual camera
- image
- focal angle
- angle
- measurement
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법은 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 단계; 초점 각도를 측정하기 위한 영상을 생성하는 단계; 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 단계; 제 1 측정 값에 기초하여 제 1 가상 카메라 및 제 2 가상 카메라의 배치를 변경하는 단계; 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계; 제 2 측정 값에 기초하여 초점 각도를 결정하는 단계; 및 초점 각도에 기초하여 제 1 가상 카메라 및 제 2 가상 카메라의 각도를 변경하는 단계를 포함할 수 있다. A method of rendering content for virtual reality based on a focal angle includes: disposing a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on a distance between reference binoculars; Generating an image for measuring a focal angle; Receiving a user input including a first measurement value of a focal angle; Changing the arrangement of the first virtual camera and the second virtual camera based on the first measured value; Receiving a user input including a second measurement value of the focal angle; Determining a focal angle based on the second measured value; And changing angles of the first virtual camera and the second virtual camera based on the focal angle.
Description
본 발명은 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for rendering content for virtual reality based on a focal angle.
가상 현실(VR; Virtual Reality) 기술은 3차원 그래픽을 활용하여 사용자에게 현실감 있는 가상의 세계를 체험하게 하는 기술이다. 최근에는 컴퓨터가 만든 가상 세계에서 사용자가 현실과 유사한 체험을 할 수 있도록 하기 위한 연구가 활발히 진행되고 있다. Virtual Reality (VR) technology is a technology that allows users to experience a realistic virtual world by using 3D graphics. Recently, research has been actively conducted to enable users to experience similar to reality in a virtual world created by a computer.
가상 현실 컨텐츠는 다양한 분야(예컨대, 여행, 주행, 비행 시뮬레이션 등)에서 제작되고 있고, 사용자들은 HMD(Head Mounted Display) 장치 등을 통해 가상 현실 서비스를 이용할 수 있다. 여기서, HMD 장치는 안경과 같이 착용하여 사용자의 눈 앞에 직접 영상을 제공하는 디스플레이 장치이다. Virtual reality contents are produced in various fields (eg, travel, driving, flight simulation, etc.), and users can use virtual reality services through a head mounted display (HMD) device. Here, the HMD device is a display device that provides an image directly in front of the user's eyes by wearing it with glasses.
HMD 장치를 통해 가상 현실 서비스를 제공받는 사용자는 가상 환경 멀미를 경험하게 되는데 이러한 멀미감이 발생하는 원인 중 하나는 사람의 인체 평행 감각을 반영한 신호와 가상 현실 컨텐츠와의 신호가 부조화를 이루기 때문이다. Users who receive virtual reality services through an HMD device experience motion sickness in a virtual environment. One of the reasons for such motion sickness is that the signal reflecting the human body parallel sense and the signal between the virtual reality content are inconsistent. .
도 1은 종래의 좌시점 및 우시점에 대한 영상을 렌더링 방법을 설명하기 위한 도면이다.1 is a diagram for describing a conventional method of rendering an image for a left view and a right view.
도 1을 참조하면, 종래의 가상현실의 렌더링 방법은 양안의 초점 각도가 동일함을 가정하여 좌시점에 대한 영상과 우시점에 대한 영상을 투사(projection)하고 렌더링하였다. 예를 들면, 좌시점에 대한 가상 카메라와 우시점에 대한 가상 카메라를 초점의 위치로부터 동일한 거리에 배치하여 각 가상 카메라와 초점과 이루를 각도가 동일하였다. 그러나, 사람의 양안은 특정 객체에 초점을 둘 때, 한 쪽 눈이 주 시각 역할을 담당하고 나머지 한쪽 눈은 보조 역할을 수행하게 된다. 즉, 양안의 초점 각도는 서로 상이하다.Referring to FIG. 1, in the conventional virtual reality rendering method, an image for a left view and an image for a right view are projected and rendered assuming that both eyes have the same focal angle. For example, the virtual camera for the left view point and the virtual camera for the right view point are arranged at the same distance from the position of the focal point, so that each virtual camera and the focal angle are the same. However, when both eyes of a person focus on a specific object, one eye plays a main visual role and the other eye plays a secondary role. That is, the focal angles of both eyes are different from each other.
종래의 렌더링 방법처럼 양안의 초점 각도가 동일함을 가정하여 생성된 컨텐츠 영상을을 시청할 때, 실제 시청자의 시각과 괴리가 발생하고, 이에 따라 심한 멀미감을 유발하는 문제점이 있다. When viewing a content image generated by assuming that both eyes have the same focal angle as in a conventional rendering method, there is a problem that a disparity occurs with the actual viewer's view, thereby causing severe motion sickness.
한편, 한국공개특허 제2013-0000231호에는 측정된 우안 및 좌안의 거리와 삼각함수를 이용하여 좌안과 우안 각각에 대한 초점 각도를 계산하고, 사용자의 우안 및 좌안 각각에 서로 다른 영상을 전달하는 구성이 개시되어 있다. On the other hand, in Korean Patent Publication No. 2013-0000231, the focal angle for each of the left and right eyes is calculated using the measured distances of the right and left eyes and a trigonometric function, and different images are transmitted to each of the user's right and left eyes. Is disclosed.
본 발명은 상술한 종래의 렌더링 방법의 문제점을 해결하고자 하는 것으로, 초점 각도 측정 영상을 통해 측정된 초점 각도의 측정 값에 기초하여 좌시점 영상에 해당하는 제 1 가상 카메라와 우시점의 영상에 해당하는 제 2 가상 카메라의 배치를 변경하고자 한다. 또한, 초점 각도 측정 영상을 통해 측정된 초점 각도의 제 2 측정 값에 기초하여 제 1 가상 카메라 및 제 1 가상 카메라의 각도를 변경하여 영상을 투사하고 렌더링하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. The present invention aims to solve the problem of the conventional rendering method described above, and corresponds to the first virtual camera corresponding to the left view image and the right view image based on the measured value of the focal angle measured through the focus angle measurement image. You want to change the arrangement of the second virtual camera. In addition, an image is projected and rendered by changing the angles of the first virtual camera and the first virtual camera based on the second measured value of the focal angle measured through the focal angle measurement image. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법은 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 단계; 초점 각도를 측정하기 위한 영상을 생성하는 단계; 상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 단계; 상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계; 상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계; 상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계; 및 상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계를 포함할 수 있다. As a technical means for achieving the above-described technical problem, a method for rendering contents for virtual reality based on a focal angle according to the first aspect of the present invention is a method corresponding to an image of a left-view point based on a reference distance between binoculars. Arranging a first virtual camera and a second virtual camera corresponding to an image of a right view point; Generating an image for measuring a focal angle; Receiving a user input including a first measurement value of the focal angle; Changing the arrangement of the first virtual camera and the second virtual camera based on the first measured value; Receiving a user input including a second measurement value of the focal angle; Determining the focal angle based on the second measured value; And changing angles of the first virtual camera and the second virtual camera based on the focal angle.
일예에 있어서, 상기 초점 각도를 측정하기 위한 영상을 생성하는 단계는 복수의 측정 지표를 포함하는 기준 객체를 출력하는 단계; 및 상기 기준 객체의 전면에 상기 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 배치하는 단계를 포함할 수 있다. In one example, generating the image for measuring the focal angle comprises: outputting a reference object including a plurality of measurement indices; And disposing a hole layer through which a part of the reference object is transparent on the front surface of the reference object.
일예에 있어서, 상기 제 1 측정 값 및 상기 제 2 측정 값 각각은 상기 복수의 측정 지표 중 상기 좌시점에 해당하는 제 1 측정 지표 및 상기 우시점에 해당하는 제 2 측정 지표를 포함할 수 있다. In an example, each of the first measurement value and the second measurement value may include a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point among the plurality of measurement indicators.
일예에 있어서, 상기 초점 각도는 상기 좌시점에 해당하는 제 1 초점 각도 및 상기 우시점에 해당하는 제 2 초점 각도를 포함할 수 있다. In one example, the focal angle may include a first focal angle corresponding to the left view point and a second focal angle corresponding to the right view point.
일예에 있어서, 상기 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계는 상기 복수의 측정 지표 중 상기 제 1 가상 카메라와 상기 제 2 가상 카메라의 중심에 대응하는 기준 지표와 상기 제 1 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 상기 제 1 가상 카메라의 배치를 변경하는 단계; 및 상기 기준 지표와 상기 제 2 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 상기 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 상기 제 2 가상 카메라의 배치를 변경하는 단계를 포함할 수 있다. In one example, the step of changing the arrangement of the first virtual camera and the second virtual camera comprises a reference index corresponding to the center of the first virtual camera and the second virtual camera among the plurality of measurement indices and the second 1 Changing the arrangement of the first virtual camera based on the distance to the measurement index, the position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and the depth value of the area corresponding to the projection area in the virtual reality. step; And a distance between the reference index and the second measurement index, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of a region corresponding to a projection area in the virtual reality. 2 It may include the step of changing the arrangement of the virtual camera.
일예에 있어서, 상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계는 상기 배치가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하는 단계; 및 상기 렌더링된 초점 각도를 측정하기 위한 영상을 출력하는 단계를 포함할 수 있다. In one example, receiving a user input including a second measurement value of the focal angle comprises: rendering an image for measuring a focal angle projected to the first virtual camera and the second virtual camera whose arrangement is changed; And outputting an image for measuring the rendered focal angle.
일예에 있어서, 상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계는 상기 제 2 측정 값에 대한 제 1 측정 지표의 위치 값 및 상기 배치가 변경된 제 1 가상 카메라의 위치 값에 기초하여 상기 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산하는 단계; 및 상기 제 2 측정 지표의 위치 값 및 상기 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 상기 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산하는 단계를 포함할 수 있다. In an example, the determining of the focal angle based on the second measurement value comprises the location value of the first measurement index with respect to the second measurement value and the location value of the first virtual camera in which the arrangement has been changed. Calculating a first direction vector corresponding to a first focal angle; And calculating a second direction vector corresponding to the second focal angle based on the position value of the second measurement index and the position value of the second virtual camera whose arrangement is changed.
일예에 있어서, 상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계는 상기 제 1 방향 벡터에 기초하여 상기 제 1 가상 카메라의 방향을 변경하는 단계; 및 상기 제 2 방향 벡터에 기초하여 상기 제 2 가상 카메라의 방향을 변경하는 단계를 포함할 수 있다. In one example, changing the angles of the first virtual camera and the second virtual camera based on the focal angle comprises: changing a direction of the first virtual camera based on the first direction vector; And changing the direction of the second virtual camera based on the second direction vector.
일예에 있어서, 상기 각도가 변경된 제 1 가상 카메라에 투사되는 상기 좌시점의 영상을 렌더링하는 단계; 및 상기 각도가 변경된 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 단계를 더 포함할 수 있다. In one example, rendering the left-view image projected on the first virtual camera whose angle is changed; And rendering the right view image projected on the second virtual camera whose angle is changed.
일예에 있어서, 상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 단계를 더 포함할 수 있다. In one example, the method may further include outputting the rendered image of the left view and the image of the right view.
본 발명의 제 2 측면에 따른 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 장치는 기준 양안 간 거리에 기초하여 제 1 위치에 배치되는 좌시점의 영상에 해당하는 제 1 가상 카메라; 상기 기준 양안 간 거리에 기초하여 제 2 위치에 배치되는 우시점의 영상에 해당하는 제 2 가상 카메라; 상기 좌시점 및 상기 우시점에 해당하는 초점 각도를 조절하는 초점 각도 조절부; 상기 제 1 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 렌더링부; 및 상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 출력부를 포함할 수 있다. An apparatus for rendering content for virtual reality based on a focal angle according to a second aspect of the present invention includes: a first virtual camera corresponding to an image of a left view disposed at a first position based on a distance between reference binoculars; A second virtual camera corresponding to an image of a right view point disposed at a second position based on the distance between the reference binoculars; A focal angle adjusting unit that adjusts a focal angle corresponding to the left view point and the right view point; A rendering unit for rendering the image of the left view projected to the first virtual camera and the image of the right view projected to the second virtual camera; And an output unit that outputs the rendered image of the left view and the image of the right view.
일예에 있어서, 상기 초점 각도 조절부는 상기 초점 각도를 측정하기 위한 영상을 생성하는 초점 각도 측정용 영상 생성부; 상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 제 1 사용자 입력 수신부; 및 상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 제 2 사용자 입력 수신부를 포함할 수 있다. In one example, the focal angle adjusting unit comprises: an image generating unit for measuring a focal angle to generate an image for measuring the focal angle; A first user input receiver configured to receive a user input including a first measurement value of the focal angle; And a second user input receiver configured to receive a user input including a second measurement value of the focal angle.
일예에 있어서, 상기 초점 각도 조절부는 상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하고, 상기 제제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 초점 각도 결정부를 더 포함할 수 있다. In one example, the focal angle adjusting unit changes the arrangement of the first virtual camera and the second virtual camera based on the first measured value, and determines the focal angle based on the measured value of the
일예에 있어서, 상기 초점 각도를 측정하기 위한 영상은 복수의 측정 지표를 포함하는 기준 객체와 상기 기준 객체의 전면에 배치되어 상기 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 포함할 수 있다. In one example, the image for measuring the focal angle may include a reference object including a plurality of measurement indices, and a hole layer disposed on the front surface of the reference object to allow a part of the reference object to be transmitted. .
일예에 있어서, 상기 제 1 측정 값 및 상기 제 2 측정 값 각각은 상기 복수의 측정 지표 중 상기 좌시점에 해당하는 제 1 측정 지표 및 상기 우시점에 해당하는 제 2 측정 지표를 포함할 수 있다. In an example, each of the first measurement value and the second measurement value may include a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point among the plurality of measurement indicators.
일예에 있어서, 상기 초점 각도는 상기 좌시점에 해당하는 제 1 초점 각도 및 상기 우시점에 해당하는 제 2 초점 각도를 포함할 수 있다. In one example, the focal angle may include a first focal angle corresponding to the left view point and a second focal angle corresponding to the right view point.
일예에 있어서, 상기 제 1 가상 카메라는 상기 복수의 측정 지표 중 상기 제 1 가상 카메라와 상기 제 2 가상 카메라의 중심에 대응하는 기준 지표와 상기 제 1 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 3 위치에 재배치되고, 상기 제 2 가상 카메라는 상기 기준 지표와 상기 제 2 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 상기 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 4 위치에 재배치될 수 있다. In one example, the first virtual camera comprises a reference index corresponding to a center of the first virtual camera and the second virtual camera among the plurality of measurement indices, a distance to the first measurement index, and a coordinate system of the virtual reality. The second virtual camera is relocated to the third position based on the position value converted to the coordinate system of the virtual camera and the depth value of the area corresponding to the projection area in the virtual reality, and the second virtual camera reaches the reference index and the second measurement index. May be relocated to the fourth position based on a distance of, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of an area corresponding to the projection area in the virtual reality.
일예에 있어서, 상기 렌더링부는 상기 배치가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하고, 상기 출력부는 렌더링된 초점 각도를 측정하기 위한 영상을 출력할 수 있다. In one example, the rendering unit renders an image for measuring a focal angle projected to the first virtual camera and the second virtual camera whose arrangement is changed, and the output unit outputs an image for measuring the rendered focal angle. have.
일예에 있어서, 상기 초점 각도 결정부는 상기 제 1 측정 지표의 위치 값 및 상기 배치가 변경된 제 1 가상 카메라의 위치 값에 기초하여 상기 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산하고, 상기 제 2 측정 지표의 위치 값 및 상기 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 상기 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산할 수 있다. In one example, the focal angle determining unit calculates a first direction vector corresponding to the first focal angle based on the position value of the first measurement index and the position value of the first virtual camera whose arrangement is changed, and the first 2 A second direction vector corresponding to the second focal angle may be calculated based on the position value of the measurement index and the position value of the second virtual camera whose arrangement is changed.
일예에 있어서, 상기 배치가 변경된 제 1 가상 카메라는 상기 제 1 방향 벡터에 기초하여 바라보는 방향을 변경하고, 상기 배치가 변경된 제 2 가상 카메라는 상기 제 2 방향 벡터에 기초하여 바라보는 방향을 변경할 수 있다. In one example, the first virtual camera whose arrangement is changed changes the viewing direction based on the first direction vector, and the second virtual camera whose arrangement is changed changes the viewing direction based on the second direction vector. I can.
일예에 있어서, 상기 렌더링부는 상기 각도가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 우시점의 영상을 렌더링하고, 상기 출력부는 렌더링된 좌시점의 영상 및 우시점의 영상을 출력할 수 있다. In one example, the rendering unit renders the image of the left view and the image of the right view projected to the first and second virtual cameras whose angles are changed, and the output unit renders the rendered image of the left view and the right view You can output the video.
본 발명의 제 3 측면에 따른 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 장치는 양안 간 거리(IPD; interpupillary distance)를 조절하기 위한 제 1 영상을 생성하는 제 1 영상 생성부; 상기 양안 간 거리의 측정 값을 포함하는 제 1 사용자 입력을 수신하는 제 1 사용자 입력 수신부; 상기 제 1 사용자 입력에 기초하여 기준 양안 간 거리를 결정하는 기준 양안 간 거리 결정부; 상기 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 가상 카메라 배치부; 초점 각도를 측정하기 위한 제 2 영상을 생성하는 제 2 영상 생성부; 상기 초점 각도의 측정 값을 포함하는 사용자 입력을 수신하는 제 2 사용자 입력 수신부; 및 상기 사용자 입력에 기초하여 상기 초점 각도를 결정하는 초점 각도 결정부를 포함하고, 상기 가상 카메라 배치부는 상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경할 수 있다. An apparatus for rendering content for virtual reality based on a focal angle according to a third aspect of the present invention includes: a first image generator configured to generate a first image for adjusting an interpupillary distance (IPD); A first user input receiving unit for receiving a first user input including a measured value of the distance between the both eyes; A distance determining unit between reference binoculars that determines a distance between reference binoculars based on the first user input; A virtual camera arranging unit for disposing a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on the distance between the reference binoculars; A second image generator that generates a second image for measuring a focal angle; A second user input receiving unit for receiving a user input including a measurement value of the focal angle; And a focal angle determining unit configured to determine the focal angle based on the user input, and the virtual camera arranging unit may change the arrangement of the first virtual camera and the second virtual camera based on the focal angle.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 양안의 시점 각각에서 측정된 초점 각도에 기초하여 각 가상 카메라를 다르게 배치하여 영상을 투사하여 렌더링하기 때문에 가상 현실의 컨텐츠 시청시의 몰입감을 높이고, 멀미감을 최소화할 수 있다. According to any one of the above-described problem solving means of the present invention, since each virtual camera is arranged differently based on the focal angle measured at each of the viewpoints of both eyes to project and render an image, it is possible to increase the sense of immersion when viewing contents in virtual reality. , You can minimize motion sickness.
또한, 기존의 양안 간의 거리(IPD)를 조절하기 위한 HMD 장치나 카드보드(Cardbord) 하드웨어를 이용한 방식이 아닌 소프트웨어적으로 양안의 초점 각도를 조절하여 영상을 제공하기 때문에 초기 조작의 편리성을 제공할 수 있다. In addition, since the image is provided by adjusting the focal angle of both eyes through software rather than using a conventional HMD device or cardbord hardware to control the distance (IPD) between both eyes, it provides convenience of initial operation. can do.
도 1은 종래의 컨텐츠 렌더링 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른, 초점 각도를 이용한 가상 현실에 대한 컨텐츠의 렌더링 장치의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 도 2에 도시된 렌터링 장치의 블록도이다.
도 4a 내지 4d는 본 발명의 일 실시예에 따른, 초점 각도를 측정하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 다른 실시예에 따른, 도 2에 도시된 렌터링 장치의 블록도이다.
도 6은 본 발명의 일 실시예에 따른, 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법을 나타낸 동작 흐름도이다. 1 is a diagram illustrating a conventional content rendering method.
2 is a block diagram of a content rendering apparatus for virtual reality using a focal angle according to an embodiment of the present invention.
3 is a block diagram of the rental apparatus shown in FIG. 2 according to an embodiment of the present invention.
4A to 4D are diagrams for explaining a method of measuring a focal angle according to an embodiment of the present invention.
5 is a block diagram of the rental apparatus shown in FIG. 2 according to another embodiment of the present invention.
6 is an operation flowchart illustrating a method of rendering contents for virtual reality based on a focal angle according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, or two or more units may be realized using one hardware.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. In the present specification, some of the operations or functions described as being performed by the terminal or device may be performed instead by a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. Hereinafter, with reference to the accompanying configuration diagram or processing flow chart, specific details for the implementation of the present invention will be described.
도 2는 본 발명의 일 실시예에 따른, 초점 각도를 이용한 가상 현실에 대한 컨텐츠의 렌더링 장치(200)의 구성도이다. 2 is a configuration diagram of a
도 2를 참조하면, 렌더링 장치(200)는 기준 양안 간 거리(IPD; interpupillary distance)(210)에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라(300) 및 우시점의 영상에 해당하는 제 2 가상 카메라(310)를 배치할 수 있다. 여기서, 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)는 기제작된 3차원 가상 현실의 일부를 2D 평면으로 투사(projection)시키는 가상 객체일 수 있다. 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)는 각 가상 카메라의 위치, 방향, 회전량, 최소거리, 최대거리 값에 기초하여 3차원 가상 현실의 일부를 2D 평면으로 투사(projection)시킬 수 있다.Referring to FIG. 2, the
렌더링 장치(200)는 초점 각도를 측정하기 위한 영상으로서 복수의 측정 지표(예를 들면, 도 2에서 0 내지 9)를 포함하는 기준 객체(220)를 출력할 수 있다. 예를 들면, 기준 객체(220)는 X 축 방향으로 기설정된 간격으로 떨어진 복수의 객체를 포함할 수 있다. 복수의 객체 각각은 서로 다른 측정 지표를 가지고 있을 수 있다. 또한, 렌더링 장치(200)는 기준 객체(220)의 전면에 홀 레이어(hole layer)(230)를 출력시킬 수 있다. 여기서, 홀 레이어(230)는 기준 객체(220)의 일부를 투과할 수 있는 홀(240)을 가지고 있다. The
렌더링 장치(200)는 제 1 가상 카메라(300) 및 제 2 가상 카메라(310) 각각으로 홀 레이어(230)의 홀(240)을 통해 투과된 기준 객체의 측정 지표를 사용자로부터 입력받을 수 있다. The
렌더링 장치(200)는 사용자 입력(양안 각각에 대한 기준 객체의 측정 지표)에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 배치를 변경할 수 있다. The
렌더링 장치(200)는 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310) 각각으로 홀 레이어(230)의 홀(240)을 통해 투과된 기준 객체의 측정 지표를 사용자로부터 입력받고, 입력받은 각 측정 지표에 기초하여 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310) 각각에 대한 초점 각도를 결정할 수 있다. The
렌더링 장치(200)는 결정된 초점 각도에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 각도를 변경할 수 있다. 이 때, 배치가 변경된 제 1 가상 카메라(300)가 가상 현실의 특정 지점을 바라보는 각도와 배치가 변경된 제 2 가상 카메라(310)가 특정 지점을 바라보는 각도는 서로 상이할 수 있다. The
렌더링 장치(200)는 각도가 변경된 제 1 가상 카메라(300)에 투사되는 좌시점의 영상을 렌더링하여 출력하고, 각도가 변경된 제 2 가상 카메라(310)에 투사되는 우시점의 영상을 렌더링하여 출력할 수 있다. The
이하에서는 도 2의 렌더링 장치(200)의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다. Hereinafter, the operation of each component of the
도 3은 본 발명의 일 실시예에 따른, 도 2에 도시된 렌터링 장치(200)의 블록도이다. 도 3을 참조하면, 렌터링 장치(200)는 제 1 가상 카메라(300), 제 2 가상 카메라(310), 초점 각도 조절부(320), 렌더링부(330) 및 출력부(340)를 포함할 수 있다. 여기서, 초점 각도 조절부(320)는 초점 각도 측정용 영상 생성부(322), 제 1 사용자 입력 수신부(324), 제 2 사용자 입력 수신부(326) 및 초점 각도 결정부(328)를 포함할 수 있다. 다만, 도 3에 도시된 렌터링 장치(200)는 본 발명의 하나의 구현 예에 불과하며, 도 3에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 3 is a block diagram of the
제 1 가상 카메라(300)는 좌시점의 영상에 해당하는 소프트웨어 객체로서 기준 양안 간 거리에 기초하여 제 1 위치에 배치될 수 있다. 제 2 가상 카메라(310)는 우시점의 영상에 해당하는 소프트웨어 객체로서 기준 양안 간 거리에 기초하여 제 2 위치에 배치될 수 있다. 여기서, 기준 양안 간 거리는 기결정되어 있을 수도 있고(예를 들면, 65mm), 사용자 단말(예를 들어, HMD)로부터 기준 양안 간 거리가 측정될 수도 있다. 예를 들면, 렌터링 장치(200)는 기준 양안 간 거리의 측정을 위한 영상을 생성하여, 사용자 단말로 기준 양안 간 거리의 측정을 위한 영상을 전송할 수 있다. 사용자는 사용자 단말에 출력된 기준 양안 간 거리의 측정을 위한 영상을 보며 기준 양안 간 거리를 결정할 수 있다. 사용자 단말은 기준 양안 간 거리를 렌터링 장치(200)로 전송할 수 있다.The first
예를 들면, 기준 양안 간 거리가 65mm인 경우, 좌시점의 영상에 해당하는 제 1 가상 카메라(300)는 중심으로부터 좌측으로 32.5mm 떨어진 영역에 배치될 수 있고, 우시점 영상에 해당하는 제 2 가상 카메라(310)는 중심으로부터 우측으로 32.5mm 떨어진 영역에 배치될 수 있다. 이 때, 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)는 중심으로부터 동일한 거리만큼 떨어져 있으므로, 제 1 가상 카메라(300)가 가상 현실의 특정 지점을 바라보는 각도와 제 2 가상 카메라(310)가 가상 현실의 특정 지점을 바라보는 각도는 동일하다.For example, when the reference distance between both eyes is 65 mm, the first
초점 각도 조절부(320)는 사용자의 좌시점 및 우시점에 해당하는 초점 각도를 조절할 수 있다. The focus
초점 각도 측정용 영상 생성부(322)는 초점 각도를 측정하기 위한 영상을 생성할 수 있다. 초점 각도 측정용 영상 생성부(322)는 초점 각도를 측정하기 위한 지표로서 복수의 측정 지표를 포함하는 기준 객체를 포함하는 영상을 생성할 수 있다. 또한, 초점 각도 측정용 영상 생성부(322)는 기준 객체의 전면에 배치되어 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 포함하는 영상을 생성할 수 있다. The
제 1 사용자 입력 수신부(324)는 홀 레이어를 통해 측정된 초점 각도의 제 1 측정 값(즉, 기준 객체의 복수의 측정 지표 중 하나의 측정 지표)을 포함하는 사용자 입력을 수신할 수 있다. The first user
제 1 사용자 입력 수신부(324)는 복수의 측정 지표 중 좌시점에 해당하는 제 1 측정 지표 및 우시점에 해당하는 제 2 측정 지표를 포함하는 제 1 측정 값을 사용자 단말로부터 입력받을 수 있다. The first user
예를 들면, 사용자는 좌안만 뜬 상태에서 홀 레이어의 홀(240) 중점에 위치한 측정 지표를 사용자 단말에 입력하고, 우안만 뜬 상태에서 홀레이어 홀(240) 중점에 위치한 측정 지표를 사용자 단말에 입력할 수 있다. 이 경우, 사용자 단말은 제 1 측정 지표 및 제 2 측정 지표를 포함하는 제 1 측정 값을 제 1 사용자 입력 수신부(324)로 전송할 수 있다.For example, the user inputs a measurement index located at the center of the
초점 각도 조절부(320)는 제 1 측정 값에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 배치를 변경할 수 있다. The focus
초점 각도 조절부(320)는 복수의 측정 지표 중 제 1 가상 카메라(300)와 제 2 가상 카메라(310)의 중심에 대응하는 기준 지표와 제 1 측정 값에 대한 제 1 측정 지표까지의 거리, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 1 가상 카메라(300)를 제 3 위치에 재배치할 수 있다. The focal
예를 들면, 초점 각도 조절부(320)는 좌시점의 제 1 측정 값에 대한 제 1 측정 지표에 기초하여 좌시점에 대하여 중심으로부터 제 1 가상 카메라(300)까지의 거리를 계산할 수 있고, 우시점의 제 1 측정 값에 대한 제 2 측정 지표에 기초하여 우시점에 대하여 중심으로부터 제 2 가상 카메라(310)까지의 거리를 계산할 수 있다. 이 때, 계산된 중심으로부터의 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)까지의 거리는 가상 현실에서 컨텐츠를 렌더링할 때, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환하는데 이용될 수 있다. For example, the focal
제 1 가상 카메라(300)의 제 3 위치는 [수학식 1]에 의해 계산될 수 있다. The third position of the first
[수학식 1][Equation 1]
여기서, 는 가상 카메라의 좌표계로 변환된 양안의 위치에 따른 가상 현실을 구성하는 점들(vertices)의 이동값이고, 는 좌시점에 해당하는 제 1 측정 값에 대한 제 1 측정 지표에 따른 제 1 가상 카메라(300)가 재배치될 중심으로부터의 거리이고, 는 가상 현실을 구성하는 점들에 대한 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 중 깊이값이고, 는 가상 카메라의 파라미터 중 하나로 컨텐츠에 따라 가변적이며, 가상 현실에서의 투사 영역에 해당하는 영역의 최대 깊이값이다. here, Is the moving value of the vertices constituting the virtual reality according to the position of both eyes converted to the coordinate system of the virtual camera, Is a distance from the center at which the first
제 1 측정 지표가 기준 지표보다 오른쪽에 위치하는 경우, 는 양수 값이 되며, 제 1 측정 지표가 기준 지표보다 왼쪽에 위치하는 경우, 는 음수 값이 될 수 있다. 위와 같이 기술된 내용은 에도 적용될 수 있다. If the first metric is located to the right of the reference metric, Becomes a positive value, and if the first measurement indicator is located to the left of the reference indicator, Can be a negative value. The contents described above are It can also be applied to
초점 각도 조절부(320)는 기준 지표와 제 1 측정 값에 대한 제 2 측정 지표까지의 거리, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 2 가상 카메라(310)를 제 4 위치에 재배치할 수 있다. The focal
제 2 가상 카메라(310)의 제 4 위치는 [수학식 2]에 의해 계산될 수 있다. The fourth position of the second
[수학식 2][Equation 2]
여기서, 는 가상 카메라의 좌표계로 변환된 양안의 위치에 따른 가상 현실을 구성하는 점들의 이동값이고, 는 우시점에 해당하는 제 1 측정 값에 대한 제 2 측정 지표에 따른 제 2 가상 카메라(310)가 재배치될 중심으로부터의 거리이고, 는 가상 현실을 구성하는 점들에 대한 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 중 깊이값이고, 는 가상 카메라의 파라미터 중 하나로 컨텐츠에 따라 가변적이며, 가상 현실에서의 투사 영역에 해당하는 영역의 최대 깊이값이다. 여기서, 양안 간의 거리(IPD)는 와 의 합으로 계산될 수 있다. here, Is the moving value of the points constituting the virtual reality according to the position of both eyes converted to the coordinate system of the virtual camera, Is a distance from the center to which the second
도 4a를 참조하면, 제 1 사용자 입력 수신부(324)는 사용자가 우안은 감고 좌안만 떠 있는 상태에서 제 1 가상 카메라(300)로 홀 레이어(230)의 홀(240) 중심에 위치한 좌시점에 해당하는 제 1 측정 값에 대한 제 1 측정 지표(420)를 사용자 단말로부터 입력받을 수 있다.Referring to FIG. 4A, the first user
이후, 초점 각도 조절부(320)는 사용자가 홀 레이어(230)의 홀(240)을 바라보았을 때, 기준 지표(410)가 보여지도록 제 1 가상 카메라(300)를 기준 지표(410)와 제 1 측정 지표(420) 간의 거리만큼 이동시킬 수 있다(도 4a에 따르면 왼쪽 방향으로 이동). 이 때, 수학식 1이 이용될 수 있다. 제 1 가상 카메라(300)는 수학식 1을 통해 계산된 Dx값에 기초하여 좌 또는 우로 이동될 수 있다.Thereafter, when the user looks at the
이어서, 도 4b와 같이, 제 1 사용자 입력 수신부(324)는 사용자가 좌안은 감고 우안만 뜬 상태에서 제 2 가상 카메라(310)로 홀 레이어(230)의 홀(240) 중심에 위치한 우시점에 해당하는 제 1 측정 값에 대한 제 2 측정 지표(430)를 사용자 단말로부터 입력받을 수 있다. Subsequently, as shown in FIG. 4B, the first user
이후, 초점 각도 조절부(320)는 사용자가 홀 레이어(230)의 홀(240)을 바라보았을 때, 기준 지표(410)가 보여지도록 제 2 가상 카메라(310)를 기준 지표(410)와 제 2 측정 지표(430) 간의 거리만큼 이동시킬 수 있다(도 4b에 따르면 왼쪽 방향으로 이동). 이 때, 수학식 2가 이용될 수 있다. 제 2 가상 카메라(310)는 수학식 2를 통해 계산된 Dx값에 기초하여 좌 또는 우로 이동될 수 있다.Thereafter, when the user looks at the
다시 도 3을 참조하면, 렌더링부(330)는 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하고, 출력부(340)는 렌더링된 초점 각도를 측정하기 위한 영상을 출력할 수 있다. Referring back to FIG. 3, the
제 2 사용자 입력 수신부(326)는 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신할 수 있다. The second user
제 2 사용자 입력 수신부(326)는 복수의 측정 지표 중 좌시점에 해당하는 제 1 측정 지표 및 우시점에 해당하는 제 2 측정 지표를 포함하는 제 2 측정 값을 사용자 단말로부터 입력받을 수 있다.The second
초점 각도 결정부(328)는 제 2 측정 값에 기초하여 초점 각도를 결정할 수 있다. 초점 각도 결정부(328)는 제 2 측정 값에 기초하여 좌시점에 해당하는 제 1 초점 각도 및 우시점에 해당하는 제 2 초점 각도를 결정할 수 있다. The focus angle determiner 328 may determine a focus angle based on the second measured value. The focal angle determiner 328 may determine a first focal angle corresponding to the left viewpoint and a second focal angle corresponding to the right viewpoint based on the second measured value.
초점 각도 결정부(328)는 제 2 측정 값에 대한 제 1 측정 지표의 위치 값 및 배치가 변경된 제 1 가상 카메라(300)의 위치 값에 기초하여 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산할 수 있다. 초점 각도 결정부(328)는 제 1 방향 벡터에 기초하여 배치가 변경된 제 1 가상 카메라(300)가 바라보는 방향을 변경할 수 있다. The focal angle determination unit 328 calculates a first direction vector corresponding to the first focal angle based on the position value of the first measurement index with respect to the second measurement value and the position value of the first
도 4c를 참조하면, 제 2 사용자 입력 수신부(326)는 사용자가 우안은 감고 좌안만 떠 있는 상태에서, 배치가 변경된 제 1 가상 카메라(300)로 홀 레이어(230)의 홀(240) 중심에 위치한 좌시점에 해당하는 제 2 측정 값에 대한 제 1 측정 지표(420)를 사용자 단말로부터 입력받을 수 있다.Referring to FIG. 4C, the second user
이후, 렌터링 장치(200)는 제 2 측정 값에 대한 제 1 측정 지표(420)의 위치 값 및 배치가 변경된 제 1 가상 카메라(300)의 위치 값에 기초하여 제 1 측정 지표(420)를 제 1 가상 카메라(300)가 바라보도록 제 1 가상 카메라(300)의 방향을 변경할 수 있다. Thereafter, the
다시 도 3을 참조하면, 초점 각도 결정부(328)는 제 2 측정 값에 대한 제 2 측정 지표의 위치 값 및 배치가 변경된 제 2 가상 카메라(310)의 위치 값에 기초하여 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산할 수 있다. 초점 각도 결정부(328)는 제 2 방향 벡터에 기초하여 배치가 변경된 제 2 가상 카메라(310)가 바라보는 방향을 변경할 수 있다. Referring to FIG. 3 again, the focal angle determination unit 328 determines the second focal angle based on the position value of the second measurement index with respect to the second measurement value and the position value of the second
도 4d를 참조하면, 제 2 사용자 입력 수신부(326)는 사용자가 좌안은 감고 우안만 떠 있는 상태에서, 배치가 변경된 제 2 가상 카메라(310)로 홀 레이어(230)의 홀(240) 중심에 위치한 우시점에 해당하는 제 2 측정 값에 대한 제 2 측정 지표(410)를 사용자 단말로부터 입력받을 수 있다.Referring to FIG. 4D, the second user
이후, 렌터링 장치(200)는 제 2 측정 값에 대한 제 2 측정 지표(410)의 위치 값 및 배치가 변경된 제 2 가상 카메라(310)의 위치 값에 기초하여 제 2 측정 지표(410)를 제 2 가상 카메라(310)가 바라보도록 제 2 가상 카메라(310)의 방향을 변경할 수 있다. Thereafter, the
다시 도 3을 참조하면, 렌더링부(330)는 배치 및 각도가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)에 투사되는 좌시점의 영상 및 우시점의 영상을 렌더링할 수 있다. Referring back to FIG. 3, the
출력부(340)는 렌더링된 좌시점의 영상 및 우시점의 영상을 출력할 수 있다. The
한편, 당업자라면, 제 1 가상 카메라(300), 제 2 가상 카메라(310), 초점 각도 조절부(320), 초점 각도 측정용 영상 생성부(322), 제 1 사용자 입력 수신부(324), 제 2 사용자 입력 수신부(326), 초점 각도 결정부(328), 렌더링부(330) 및 출력부(340) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. On the other hand, those skilled in the art, the first
도 5는 본 발명의 다른 실시예에 따른, 도 2에 도시된 렌터링 장치(200)의 블록도이다. 5 is a block diagram of the
도 5를 참조하면, 렌터링 장치(200)는 제 1 영상 생성부(500), 제 2 영상 생성부(510), 제 1 사용자 입력 수신부(520), 제 2 사용자 입력 수신부(530), 기준 양안 간 거리 결정부(540), 초점 각도 결정부(550) 및 가상 카메라 배치부(560)를 포함할 수 있다. 다만, 도 5에 도시된 렌터링 장치(200)는 본 발명의 하나의 구현 예에 불과하며, 도 5에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. Referring to FIG. 5, the
제 1 영상 생성부(500)는 사용자의 양안 간 거리(IPD; interpupillary distance)를 조절하기 위한 제 1 영상을 생성할 수 있다. 제 1 영상은 초점 각도를 측정하기 위한 복수의 측정 지표를 포함하는 기준 객체(220)와 기준 객체(220)의 전면에 배치되어 기준 객체(220)의 일부가 투과 가능한 홀 레이어(230)를 포함할 수 있다.The
제 1 사용자 입력 수신부(520)는 양안 간 거리의 측정 값을 포함하는 제 1 사용자 입력을 수신할 수 있다. 여기서, 제 1 사용자 입력은 홀 레이어(230)의 홀(240)을 통해 측정된 사용자의 좌시점에 해당하는 제 1 측정 지표 및 사용자의 우시점에 해당하는 제 2 측정 지표를 포함할 수 있다. The first
기준 양안 간 거리 결정부(540)는 제 1 사용자 입력에 기초하여 기준 양안 간 거리를 결정할 수 있다. The reference
가상 카메라 배치부(560)는 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라(300) 및 우시점의 영상에 해당하는 제 2 가상 카메라(310)를 배치할 수 있다. The virtual
제 2 영상 생성부(510)는 초점 각도를 측정하기 위한 제 2 영상을 생성할 수 있다. 여기서, 제 2 영상은 초점 각도를 측정하기 위한 복수의 측정 지표를 포함하는 기준 객체(220)와 기준 객체(220)의 전면에 배치되어 기준 객체(220)의 일부가 투과 가능한 홀 레이어(230)를 포함할 수 있다.The
제 2 사용자 입력 수신부(530)는 초점 각도의 측정 값을 포함하는 제 2 사용자 입력을 수신할 수 있다. 여기서 제 2 사용자 입력은 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)에서 홀 레이어(230)의 홀(240)을 통해 측정된 사용자의 좌시점에 해당하는 제 1 측정 지표 및 사용자의 우시점에 해당하는 제 2 측정 지표를 포함할 수 있다. The second user
초점 각도 결정부(550)는 제 2 사용자 입력에 기초하여 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310) 각각에 대한 초점 각도를 결정할 수 있다. The
가상 카메라 배치부(560)는 초점 각도에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 각도를 변경할 수 있다. The virtual
한편, 당업자라면, 제 1 영상 생성부(500), 제 2 영상 생성부(510), 제 1 사용자 입력 수신부(520), 제 2 사용자 입력 수신부(530), 기준 양안 간 거리 결정부(540), 초점 각도 결정부(550) 및 가상 카메라 배치부(560) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Meanwhile, for those skilled in the art, the first
도 6은 본 발명의 일 실시예에 따른, 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법을 나타낸 동작 흐름도이다. 6 is an operation flowchart illustrating a method of rendering contents for virtual reality based on a focal angle according to an embodiment of the present invention.
도 6에 도시된 실시예에 따른 컨텐츠 렌더링 방법은 도 1 내지 도 5에 도시된 실시예에 따른 렌더링 장치(200)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 5의 렌더링 장치(200)에 관하여 기술된 내용은 도 6에 도시된 실시예에 따른 컨텐츠 렌더링 방법에도 적용될 수 있다. The content rendering method according to the embodiment shown in FIG. 6 includes steps processed in a time series by the
도 6을 참조하면, 단계 S601에서 렌더링 장치(200)는 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라(300) 및 우시점의 영상에 해당하는 제 2 가상 카메라(310)를 배치할 수 있다. Referring to FIG. 6, in step S601, the
단계 S603에서 렌더링 장치(200)는 초점 각도를 측정하기 위한 영상(230)을 생성할 수 있다. In operation S603, the
단계 S605에서 렌더링 장치(200)는 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신할 수 있다. In operation S605, the
단계 S607에서 렌더링 장치(200)는 제 1 측정 값에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 배치를 변경할 수 있다. In operation S607, the
단계 S609에서 렌더링 장치(200)는 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신할 수 있다. In operation S609, the
단계 S611에서 렌더링 장치(200)는 제 2 측정 값에 기초하여 초점 각도를 결정할 수 있다. 여기서, 초점 각도는 좌시점에 해당하는 제 1 초점 각도 및 우시점에 해당하는 제 2 초점 각도를 포함할 수 있다.In operation S611, the
단계 S613에서 렌더링 장치(200)는 초점 각도에 기초하여 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)의 각도를 변경할 수 있다. In operation S613, the
도 6에는 도시되지 않았으나, 단계 S603에서 렌더링 장치(200)는 복수의 측정 지표를 포함하는 기준 객체를 출력하고, 기준 객체(220)의 전면에 기준 객체의 일부가 투과 가능한 홀 레이어(240)를 배치할 수 있다. Although not shown in FIG. 6, in step S603, the
도 6에는 도시되지 않았으나, 단계 S607에서 렌더링 장치(200)는 복수의 측정 지표 중 제 1 가상 카메라(300)와 제 2 가상 카메라(310)의 중심에 대응하는 기준 지표와 제 1 측정 지표까지의 거리, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 1 가상 카메라(300)의 배치를 변경할 수 있다. Although not shown in FIG. 6, in step S607, the
도 6에는 도시되지 않았으나, 단계 S607에서 렌더링 장치(200)는 기준 지표와 제 2 측정 지표까지의 거리, 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 2 가상 카메라(310)의 배치를 변경할 수 있다. Although not shown in FIG. 6, in step S607, the
도 6에는 도시되지 않았으나, 단계 S609에서 렌더링 장치(200)는 배치가 변경된 제 1 가상 카메라(300) 및 제 2 가상 카메라(310)에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하고, 렌더링된 초점 각도를 측정하기 위한 영상을 출력할 수 있다. Although not shown in FIG. 6, in step S609, the
도 6에는 도시되지 않았으나, 단계 S611에서 렌더링 장치(200)는 제 2 측정 값에 대한 제 1 측정 지표의 위치 값 및 배치가 변경된 제 1 가상 카메라(300)의 위치 값에 기초하여 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산할 수 있다.Although not shown in FIG. 6, in step S611, the
도 6에는 도시되지 않았으나, 단계 S611에서 렌더링 장치(200)는 제 2 측정 지표의 위치 값 및 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산할 수 있다. Although not shown in FIG. 6, in step S611, the
도 6에는 도시되지 않았으나, 단계 S613에서 렌더링 장치(200)는 제 1 방향 벡터에 기초하여 제 1 가상 카메라의 방향을 변경하고, 제 2 방향 벡터에 기초하여 제 2 가상 카메라의 방향을 변경할 수 있다. Although not shown in FIG. 6, in step S613, the
도 6에는 도시되지 않았으나, 단계 S613이후에 렌더링 장치(200)는 각도가 변경된 제 1 가상 카메라(300)에 투사되는 좌시점의 영상을 렌더링하고, 각도가 변경된 제 2 가상 카메라(310)에 투사되는 우시점의 영상을 렌더링할 수 있다. 렌더링 장치(200)는 렌더링된 좌시점의 영상 및 우시점의 영상을 출력할 수 있다. Although not shown in FIG. 6, after step S613, the
상술한 설명에서, 단계 S601 내지 S613은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S601 to S613 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery medium.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. .
200: 렌더링 장치
300: 제 1 가상 카메라
310: 제 2 가상 카메라
320: 초점 각도 조절부
322: 초점 각도 측정용 영상 생성부
324: 제 1 사용자 입력 수신부
326: 제 2 사용자 입력 수신부
328: 초점 각도 결정부
330: 렌더링부
340: 출력부200: rendering device
300: first virtual camera
310: second virtual camera
320: focus angle adjustment unit
322: image generator for measuring the focal angle
324: first user input receiving unit
326: second user input receiving unit
328: focal angle determination unit
330: rendering unit
340: output
Claims (22)
기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 단계;
초점 각도를 측정하기 위한 영상을 생성하는 단계;
상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 단계;
상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계;
상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계;
상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계; 및
상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계
를 포함하되,
상기 제 1 가상 카메라 및 상기 제 2 가상 카메라는 기제작된 3차원 가상 현실에 대한 컨텐츠의 일부를 상기 변경된 각도에 기초하여 2차원 평면으로 투사시키는 것인, 가상 현실 컨텐츠 렌더링 방법.
In the method of rendering content for virtual reality based on a focal angle,
Arranging a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on a distance between the reference binoculars;
Generating an image for measuring a focal angle;
Receiving a user input including a first measurement value of the focal angle;
Changing the arrangement of the first virtual camera and the second virtual camera based on the first measured value;
Receiving a user input including a second measurement value of the focal angle;
Determining the focal angle based on the second measured value; And
Changing angles of the first virtual camera and the second virtual camera based on the focal angle
Including,
The first virtual camera and the second virtual camera project a part of the previously produced 3D virtual reality content onto a 2D plane based on the changed angle.
기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 단계;
초점 각도를 측정하기 위한 영상을 생성하는 단계;
상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 단계;
상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계;
상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계;
상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계; 및
상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계
를 포함하되,
상기 초점 각도를 측정하기 위한 영상을 생성하는 단계는
복수의 측정 지표를 포함하는 기준 객체를 출력하는 단계; 및
상기 기준 객체의 전면에 상기 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 배치하는 단계
를 포함하고,
상기 제 1 측정 값 및 상기 제 2 측정 값 각각은 상기 복수의 측정 지표 중 상기 좌시점에 해당하는 제 1 측정 지표 및 상기 우시점에 해당하는 제 2 측정 지표를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
In the method of rendering content for virtual reality based on a focal angle,
Arranging a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on a distance between the reference binoculars;
Generating an image for measuring a focal angle;
Receiving a user input including a first measurement value of the focal angle;
Changing the arrangement of the first virtual camera and the second virtual camera based on the first measured value;
Receiving a user input including a second measurement value of the focal angle;
Determining the focal angle based on the second measured value; And
Changing angles of the first virtual camera and the second virtual camera based on the focal angle
Including,
Generating an image for measuring the focal angle
Outputting a reference object including a plurality of measurement indices; And
Arranging a hole layer through which a part of the reference object is transparent on the front surface of the reference object
Including,
Each of the first measurement value and the second measurement value includes a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point among the plurality of measurement indicators, virtual reality content rendering Way.
상기 초점 각도는 상기 좌시점에 해당하는 제 1 초점 각도 및 상기 우시점에 해당하는 제 2 초점 각도를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 3,
The focal angle includes a first focal angle corresponding to the left view point and a second focal angle corresponding to the right view point.
상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 단계는
상기 복수의 측정 지표 중 상기 제 1 가상 카메라와 상기 제 2 가상 카메라의 중심에 대응하는 기준 지표와 상기 제 1 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 상기 제 1 가상 카메라의 배치를 변경하는 단계; 및
상기 기준 지표와 상기 제 2 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 상기 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 상기 제 2 가상 카메라의 배치를 변경하는 단계
를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 3,
Changing the arrangement of the first virtual camera and the second virtual camera
Among the plurality of measurement indices, a reference index corresponding to the center of the first virtual camera and the second virtual camera and a distance to the first measurement index, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and Changing the arrangement of the first virtual camera based on a depth value of an area corresponding to the projection area in the virtual reality; And
The second based on the distance between the reference index and the second measurement index, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of an area corresponding to the projection area in the virtual reality Steps to change the placement of the virtual camera
That includes, virtual reality content rendering method.
상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 단계는
상기 배치가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하는 단계; 및
상기 렌더링된 초점 각도를 측정하기 위한 영상을 출력하는 단계
를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 4,
Receiving a user input including a second measurement value of the focal angle
Rendering an image for measuring a focal angle projected onto the first virtual camera and the second virtual camera whose arrangement is changed; And
Outputting an image for measuring the rendered focal angle
That includes, virtual reality content rendering method.
상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 단계는
상기 제 2 측정 값에 대한 상기 제 1 측정 지표의 위치 값 및 상기 배치가 변경된 제 1 가상 카메라의 위치 값에 기초하여 상기 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산하는 단계; 및
상기 제 2 측정 지표의 위치 값 및 상기 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 상기 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산하는 단계
를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 6,
The step of determining the focal angle based on the second measurement value
Calculating a first direction vector corresponding to the first focal angle based on the position value of the first measurement index with respect to the second measurement value and the position value of the first virtual camera whose arrangement is changed; And
Calculating a second direction vector corresponding to the second focal angle based on the position value of the second measurement index and the position value of the second virtual camera whose arrangement is changed
That includes, virtual reality content rendering method.
상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 각도를 변경하는 단계는
상기 제 1 방향 벡터에 기초하여 상기 제 1 가상 카메라의 방향을 변경하는 단계; 및
상기 제 2 방향 벡터에 기초하여 상기 제 2 가상 카메라의 방향을 변경하는 단계
를 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 7,
Changing the angles of the first virtual camera and the second virtual camera based on the focal angle
Changing a direction of the first virtual camera based on the first direction vector; And
Changing the direction of the second virtual camera based on the second direction vector
That includes, virtual reality content rendering method.
상기 각도가 변경된 제 1 가상 카메라에 투사되는 상기 좌시점의 영상을 렌더링하는 단계; 및
상기 각도가 변경된 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 단계
를 더 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 1,
Rendering the left view image projected on the first virtual camera whose angle is changed; And
Rendering the image of the right view point projected on the second virtual camera whose angle is changed
That further comprises, virtual reality content rendering method.
상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 단계
를 더 포함하는 것인, 가상 현실 컨텐츠 렌더링 방법.
The method of claim 9,
Outputting the rendered image of the left view and the image of the right view
That further comprises, virtual reality content rendering method.
기준 양안 간 거리에 기초하여 제 1 위치에 배치되는 좌시점의 영상에 해당하는 제 1 가상 카메라;
상기 기준 양안 간 거리에 기초하여 제 2 위치에 배치되는 우시점의 영상에 해당하는 제 2 가상 카메라;
상기 좌시점 및 상기 우시점에 해당하는 초점 각도를 조절하는 초점 각도 조절부;
상기 제 1 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 렌더링부; 및
상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 출력부
를 포함하되,
상기 제 1 가상 카메라 및 상기 제 2 가상 카메라는 기제작된 3차원 가상 현실에 대한 컨텐츠의 일부를 상기 초점 각도에 기초하여 변경된 각도에 기초하여 2차원 평면으로 투사시키는 것인, 렌더링 장치.
In the apparatus for rendering content for virtual reality based on a focal angle,
A first virtual camera corresponding to an image of a left-view point disposed at a first position based on a distance between the reference binoculars;
A second virtual camera corresponding to an image of a right view point disposed at a second position based on the distance between the reference binoculars;
A focal angle adjusting unit that adjusts a focal angle corresponding to the left view point and the right view point;
A rendering unit for rendering the image of the left view projected to the first virtual camera and the image of the right view projected to the second virtual camera; And
An output unit that outputs the rendered image of the left view and the image of the right view
Including,
The first virtual camera and the second virtual camera project a part of the content for the 3D virtual reality previously produced on a 2D plane based on an angle changed based on the focal angle.
기준 양안 간 거리에 기초하여 제 1 위치에 배치되는 좌시점의 영상에 해당하는 제 1 가상 카메라;
상기 기준 양안 간 거리에 기초하여 제 2 위치에 배치되는 우시점의 영상에 해당하는 제 2 가상 카메라;
상기 좌시점 및 상기 우시점에 해당하는 초점 각도를 조절하는 초점 각도 조절부;
상기 제 1 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 제 2 가상 카메라에 투사되는 상기 우시점의 영상을 렌더링하는 렌더링부; 및
상기 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 출력부
를 포함하되,
상기 초점 각도 조절부는,
상기 초점 각도를 측정하기 위한 영상을 생성하는 초점 각도 측정용 영상 생성부;
상기 초점 각도의 제 1 측정 값을 포함하는 사용자 입력을 수신하는 제 1 사용자 입력 수신부; 및
상기 초점 각도의 제 2 측정 값을 포함하는 사용자 입력을 수신하는 제 2 사용자 입력 수신부
를 포함하는 것인, 렌더링 장치.
In the apparatus for rendering content for virtual reality based on a focal angle,
A first virtual camera corresponding to an image of a left-view point disposed at a first position based on a distance between the reference binoculars;
A second virtual camera corresponding to an image of a right view point disposed at a second position based on the distance between the reference binoculars;
A focal angle adjusting unit that adjusts a focal angle corresponding to the left view point and the right view point;
A rendering unit for rendering the image of the left view projected on the first virtual camera and the image of the right view projected on the second virtual camera; And
An output unit that outputs the rendered image of the left view and the image of the right view
Including,
The focus angle adjustment unit,
An image generator for measuring a focal angle to generate an image for measuring the focal angle;
A first user input receiver configured to receive a user input including a first measurement value of the focal angle; And
A second user input receiving unit that receives a user input including a second measurement value of the focal angle
Including a rendering device.
상기 초점 각도 조절부는 상기 제 1 측정 값에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하고,
상기 제 2 측정 값에 기초하여 상기 초점 각도를 결정하는 초점 각도 결정부
를 더 포함하는 것인, 렌더링 장치.
The method of claim 12,
The focal angle adjusting unit changes the arrangement of the first virtual camera and the second virtual camera based on the first measured value,
A focal angle determination unit that determines the focal angle based on the second measured value
The rendering device further comprising a.
상기 초점 각도를 측정하기 위한 영상은 복수의 측정 지표를 포함하는 기준 객체와 상기 기준 객체의 전면에 배치되어 상기 기준 객체의 일부가 투과 가능한 홀 레이어(hole layer)를 포함하는 것인, 렌더링 장치.
The method of claim 12,
The image for measuring the focal angle includes a reference object including a plurality of measurement indices, and a hole layer disposed on the front surface of the reference object so that a part of the reference object is transparent.
상기 제 1 측정 값 및 상기 제 2 측정 값 각각은 상기 복수의 측정 지표 중 상기 좌시점에 해당하는 제 1 측정 지표 및 상기 우시점에 해당하는 제 2 측정 지표를 포함하는 것인, 렌더링 장치.
The method of claim 14,
Each of the first measurement value and the second measurement value includes a first measurement index corresponding to the left view point and a second measurement index corresponding to the right view point among the plurality of measurement indicators.
상기 초점 각도는 상기 좌시점에 해당하는 제 1 초점 각도 및 상기 우시점에 해당하는 제 2 초점 각도를 포함하는 것인, 렌더링 장치.
The method of claim 15,
Wherein the focal angle includes a first focal angle corresponding to the left view point and a second focal angle corresponding to the right view point.
상기 제 1 가상 카메라는 상기 복수의 측정 지표 중 상기 제 1 가상 카메라와 상기 제 2 가상 카메라의 중심에 대응하는 기준 지표와 상기 제 1 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 3 위치에 재배치되고,
상기 제 2 가상 카메라는 상기 기준 지표와 상기 제 2 측정 지표까지의 거리, 상기 가상 현실의 좌표계를 상기 가상 카메라의 좌표계로 변환한 위치값 및 상기 가상 현실에서의 투사 영역에 해당하는 영역의 깊이값에 기초하여 제 4 위치에 재배치되는 것인, 렌더링 장치.
The method of claim 16,
The first virtual camera includes a reference index corresponding to the center of the first virtual camera and the second virtual camera among the plurality of measurement indices, a distance to the first measurement index, and a coordinate system of the virtual reality. Relocated to the third position based on the position value converted to and the depth value of the area corresponding to the projection area in the virtual reality,
The second virtual camera includes a distance between the reference index and the second measurement index, a position value obtained by converting the coordinate system of the virtual reality into the coordinate system of the virtual camera, and a depth value of an area corresponding to a projection area in the virtual reality To the fourth position based on the rendering device.
상기 렌더링부는 상기 배치가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 초점 각도를 측정하기 위한 영상을 렌더링하고,
상기 출력부는 렌더링된 초점 각도를 측정하기 위한 영상을 출력하는 것인, 렌더링 장치.
The method of claim 12,
The rendering unit renders an image for measuring a focal angle projected onto the first virtual camera and the second virtual camera whose arrangement is changed,
The output unit outputs an image for measuring the rendered focal angle.
상기 초점 각도 결정부는 상기 제 1 측정 지표의 위치 값 및 상기 배치가 변경된 제 1 가상 카메라의 위치 값에 기초하여 상기 제 1 초점 각도에 해당하는 제 1 방향 벡터를 계산하고,
상기 제 2 측정 지표의 위치 값 및 상기 배치가 변경된 제 2 가상 카메라의 위치 값에 기초하여 상기 제 2 초점 각도에 해당하는 제 2 방향 벡터를 계산하는 것인, 렌더링 장치.
The method of claim 18,
The focal angle determining unit calculates a first direction vector corresponding to the first focal angle based on the position value of the first measurement index and the position value of the first virtual camera whose arrangement is changed,
And calculating a second direction vector corresponding to the second focal angle based on the position value of the second measurement index and the position value of the second virtual camera whose arrangement is changed.
상기 배치가 변경된 제 1 가상 카메라는 상기 제 1 방향 벡터에 기초하여 바라보는 방향을 변경하고,
상기 배치가 변경된 제 2 가상 카메라는 상기 제 2 방향 벡터에 기초하여 바라보는 방향을 변경하는 것인, 렌더링 장치.
The method of claim 19,
The first virtual camera whose arrangement is changed changes the viewing direction based on the first direction vector,
The rendering apparatus, wherein the second virtual camera whose arrangement is changed changes the viewing direction based on the second direction vector.
상기 렌더링부는 상기 각도가 변경된 제 1 가상 카메라 및 제 2 가상 카메라에 투사되는 상기 좌시점의 영상 및 상기 우시점의 영상을 렌더링하고,
상기 출력부는 렌더링된 좌시점의 영상 및 우시점의 영상을 출력하는 것인, 렌더링 장치.
The method of claim 20,
The rendering unit renders the image of the left view and the image of the right view projected to the first virtual camera and the second virtual camera whose angles are changed,
The output unit outputs the rendered image of the left view and the image of the right view.
양안 간 거리(IPD; interpupillary distance)를 조절하기 위한 제 1 영상을 생성하는 제 1 영상 생성부;
상기 양안 간 거리의 측정 값을 포함하는 제 1 사용자 입력을 수신하는 제 1 사용자 입력 수신부;
상기 제 1 사용자 입력에 기초하여 기준 양안 간 거리를 결정하는 기준 양안 간 거리 결정부;
상기 기준 양안 간 거리에 기초하여 좌시점의 영상에 해당하는 제 1 가상 카메라 및 우시점의 영상에 해당하는 제 2 가상 카메라를 배치하는 가상 카메라 배치부;
초점 각도를 측정하기 위한 제 2 영상을 생성하는 제 2 영상 생성부;
상기 초점 각도의 측정 값을 포함하는 사용자 입력을 수신하는 제 2 사용자 입력 수신부; 및
상기 사용자 입력에 기초하여 상기 초점 각도를 결정하는 초점 각도 결정부
를 포함하고,
상기 가상 카메라 배치부는 상기 초점 각도에 기초하여 상기 제 1 가상 카메라 및 상기 제 2 가상 카메라의 배치를 변경하는 것인, 렌더링 장치.In the apparatus for rendering content for virtual reality based on a focal angle,
A first image generator for generating a first image for adjusting an interpupillary distance (IPD);
A first user input receiving unit for receiving a first user input including a measured value of the distance between the both eyes;
A distance determining unit between reference binoculars that determines a distance between reference binoculars based on the first user input;
A virtual camera arranging unit for disposing a first virtual camera corresponding to an image of a left view and a second virtual camera corresponding to an image of a right view based on the distance between the reference binoculars;
A second image generator that generates a second image for measuring a focal angle;
A second user input receiving unit for receiving a user input including a measurement value of the focal angle; And
A focal angle determination unit that determines the focal angle based on the user input
Including,
The virtual camera arrangement unit to change the arrangement of the first virtual camera and the second virtual camera based on the focal angle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160101853A KR102174465B1 (en) | 2016-08-10 | 2016-08-10 | Method for rendering virtual reality contents based on focus angle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160101853A KR102174465B1 (en) | 2016-08-10 | 2016-08-10 | Method for rendering virtual reality contents based on focus angle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180017668A KR20180017668A (en) | 2018-02-21 |
KR102174465B1 true KR102174465B1 (en) | 2020-11-04 |
Family
ID=61525274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160101853A KR102174465B1 (en) | 2016-08-10 | 2016-08-10 | Method for rendering virtual reality contents based on focus angle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102174465B1 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101926577B1 (en) * | 2012-02-23 | 2018-12-11 | 한국전자통신연구원 | Expanded 3D stereoscopic display system |
JP6499154B2 (en) * | 2013-03-11 | 2019-04-10 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Systems and methods for augmented and virtual reality |
-
2016
- 2016-08-10 KR KR1020160101853A patent/KR102174465B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20180017668A (en) | 2018-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094266B2 (en) | Single-depth tracking-accommodation-binocular accommodation solution | |
EP1704730B1 (en) | Method and apparatus for generating a stereoscopic image | |
EP2357841B1 (en) | Method and apparatus for processing three-dimensional images | |
US10546429B2 (en) | Augmented reality mirror system | |
WO2010084716A1 (en) | Image processing device, program, image processing method, recording method, and recording medium | |
CN110447224B (en) | Method for controlling virtual images in a display | |
US8208013B2 (en) | User-adjustable three-dimensional display system and method | |
CN114945853A (en) | Compensation for distortion in head mounted display systems | |
KR102564479B1 (en) | Method and apparatus of 3d rendering user' eyes | |
TW201019708A (en) | A method of processing parallax information comprised in a signal | |
KR20120030005A (en) | Image processing device and method, and stereoscopic image display device | |
JP2016024273A (en) | Stereoscopic image presentation device, stereoscopic image presentation method, and head-mounted display | |
KR20120051287A (en) | Image providing apparatus and image providng method based on user's location | |
JP4270347B2 (en) | Distance calculator | |
JP2011205195A (en) | Image processing device, program, image processing method, chair, and appreciation system | |
CN107209949A (en) | Method and system for producing amplification 3D rendering | |
CN111751988A (en) | Depth of field adjusting method and device and binocular near-to-eye display equipment | |
US11582441B2 (en) | Head mounted display apparatus | |
US20130286164A1 (en) | Glassless 3d image display apparatus and method thereof | |
CN103609104A (en) | Interactive user interface for stereoscopic effect adjustment | |
CN104216126A (en) | Zooming 3D (third-dimensional) display technique | |
KR102174465B1 (en) | Method for rendering virtual reality contents based on focus angle | |
CN102447929B (en) | Display control chip and three-dimensional display equipment | |
JP6683218B2 (en) | Head-mounted display device and control method for head-mounted display device | |
JP2005091508A (en) | Stereoscopic image display device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |