KR20180042419A - A method of generating virtual reality of a head mount display and a head mount display - Google Patents

A method of generating virtual reality of a head mount display and a head mount display Download PDF

Info

Publication number
KR20180042419A
KR20180042419A KR1020187008833A KR20187008833A KR20180042419A KR 20180042419 A KR20180042419 A KR 20180042419A KR 1020187008833 A KR1020187008833 A KR 1020187008833A KR 20187008833 A KR20187008833 A KR 20187008833A KR 20180042419 A KR20180042419 A KR 20180042419A
Authority
KR
South Korea
Prior art keywords
image
ray tracing
sub
reference image
eye
Prior art date
Application number
KR1020187008833A
Other languages
Korean (ko)
Other versions
KR102101217B1 (en
Inventor
정우남
Original Assignee
주식회사 실리콘아츠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 실리콘아츠 filed Critical 주식회사 실리콘아츠
Publication of KR20180042419A publication Critical patent/KR20180042419A/en
Application granted granted Critical
Publication of KR102101217B1 publication Critical patent/KR102101217B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 가상현실 구현 기술에 관한 것으로, 헤드 마운트 디스플레이의 가상현실 생성방법은 (a) 레이 트레이싱을 통해 제1 아이(eye)와 연관된 기준영상을 생성하는 단계, (b) 제2 아이와 연관되고 상기 기준영상을 변형한 임시영상을 생성하는 단계 및 (c) 상기 임시영상에 있는 픽셀들 중 임계치 이하의 픽셀에 관해 레이 트레이싱을 수행하여 가상영상을 생성하는 단계를 포함한다.A method for generating a virtual reality of a head mounted display includes the steps of: (a) generating a reference image associated with a first eye through ray tracing; (b) Generating a provisional image by modifying the reference image; and (c) generating a virtual image by performing ray tracing on pixels below a threshold value among the pixels in the provisional image.

Description

헤드 마운트 디스플레이의 가상현실 생성방법 및 이를 수행하는 헤드 마운트 디스플레이A method of generating virtual reality of a head mount display and a head mount display

본 발명은 가상현실 기술에 관한 것으로, 보다 상세하게는 레이 트레이싱을 이용하여 헤드 마운트 디스플레이(HMD, Head Mounted Display)에서 가상현실을 구현할 수 있는 헤드 마운트 디스플레이 상에서 가상 현실을 생성하는 방법 및 헤드 마운트 디스플레이에 에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual reality technology, and more particularly, to a method of creating a virtual reality on a head-mounted display capable of realizing a virtual reality in a head-mounted display (HMD) .

몰입형 멀티미디어 또는 컴퓨터로 시뮬레이션된 생활로서 언급될 수 있는 가상현실(Virtual Reality)은 현실 세계 또는 가상 세계에 존재하는 물리적 현실을 시뮬레이션하는 환경을 복제하고 그러한 세계에서 사용자 상호작용을 허용한다. 가상현실은 시각, 청각, 촉각, 냄새, 맛을 포함할 수 있는 감각적인 경험을 인위적으로 창조한다. 가장 최근의 가상현실 환경들은 컴퓨터 화면이나 특정 입체 디스플레이에 디스플레이되고 어떤 시뮬레이션들은 추가적인 감각 정보를 포함하고 VR 사용자들을 대상으로 타깃된 스피커들 또는 헤드폰들을 통해 실제 사운드에 중점을 둔다. 현재 어떤 첨단 햅틱(haptic)시스템은 메디컬, 게임, 군사 어플리케이션에서 포스 피드백(force feedback)으로 알려진 촉각 정보를 포함한다. 또한 가상현실은 키보드 및 마우스와 같은 표준 입력 장치의 사용 또는 유선 장갑 또는 전방향의 러닝머신과 같은 멀티 모달장치를 통해 사용자의 가상 실제를 텔레프레즌스 및 텔레익지스턴스의 개념들 또는 가상 인공물로 제공하는 원격통신 환경을 커버한다.Virtual Reality, which can be referred to as immersive multimedia or computer simulated life, replicates an environment that simulates the physical reality that exists in the real world or virtual world and allows user interaction in such a world. Virtual reality artificially creates a sensory experience that can include vision, hearing, touch, smell, and taste. Most recent virtual reality environments are displayed on a computer screen or a specific stereoscopic display, and some simulations include additional sensory information and focus on real sound through targeted speakers or headphones for VR users. Currently, some advanced haptic systems include tactile information known as force feedback in medical, game, and military applications. Virtual reality can also be achieved by the use of standard input devices such as keyboards and mice, or via remote devices that provide the virtual reality of a user as concepts of telepresence and telemetricity, or virtual artifacts, through multimodal devices such as wired gloves or omnidirectional treadmills. It covers the communication environment.

시뮬레이션 환경은 파일럿 또는 전투교육등의 생생한 경험을 하기 위해 생성된 실제 세상과 유사하거나 또는 VR 게임과 같이 현실과 크게 다를 수 있다.The simulation environment can be very similar to the real world created for vivid experiences such as pilot or combat training, or very much like reality, like VR games.

대한민국 특허등록번호 제10-0453225호는 3차원 가상 현실 구현을 위한 클라이언트 시스템과 이를 이용한 가상 현실 구현 방법에 관한 것이다 클라이언트 시스템은 애플릿, 통신 모듈, 브라우저 및 ASP 지원 모듈을 포함한다. 애플릿은 클라이언트 시스템이 X3D 데이터를 서버와 통신할 수 있게 한다. 애플릿에 연결된 통신 모듈은 클라이언트 시스템과 서버 간의 통신을 가능하게 한다. 브라우저는 서버에 의해 통신 모듈을 통해 전송된 X3D 데이터를 분석하고, 장면 그래프를 만들고. 미리 설정된 유형에 따라 장면 그래프를 렌더링하고, 렌더링 된 장면 그래프를 디스플레이에 표시한다. ASP지원 모듈은 브라우저에 의해 구현된 VR에서 생성된 사용자 이벤트에 따라 서버가 전송 한 데이터를 외부창에서 처리한다.Korean Patent Registration No. 10-0453225 relates to a client system for implementing a 3D virtual reality and a virtual reality implementation method using the same. The client system includes an applet, a communication module, a browser, and an ASP support module. The applet allows the client system to communicate X3D data with the server. The communication module connected to the applet enables communication between the client system and the server. The browser analyzes the X3D data sent by the server through the communication module, creates a scene graph, The scene graph is rendered according to the preset type, and the rendered scene graph is displayed on the display. The ASP support module processes the data transmitted by the server in the external window according to the user event generated in the VR implemented by the browser.

한국등록특허 제10-0453225호 (2004.10.06)Korean Patent No. 10-0453225 (October 2006)

본 발명의 일 실시예는 레이 트레이싱(ray tracing)을 통해 헤드 마운트 디스플레이에서 정밀한 가상현실을 생성할 수 있는 헤드 마운트 디스플레이 기술을 제공하고자 한다.One embodiment of the present invention seeks to provide a head-mounted display technology capable of generating precise virtual reality in a head-mounted display through ray tracing.

본 발명의 일 실시예에 따르면, 제1 시선 영상을 레이 트레이싱으로 사용하여 또 다른 시선 영상을 생성하여 동작의 복잡성을 감소시킬 수 있는 헤드 마운트 디스플레이 기술을 제안한다. 여기에서, 제1 시선 영상(하나의 시선 영상)은 한쪽 눈(예를 들어 왼쪽 눈)으로 표시되는 영상일 수 있고, 다른 시선 영상은 다른쪽 눈(예를 들어 오른쪽 눈)으로 표시되는 영상일 수 있다.According to an embodiment of the present invention, a head mount display technology capable of reducing the complexity of operation by generating another gaze image using the first gaze image as ray tracing is proposed. Here, the first line-of-sight image (one line-of-sight image) may be an image displayed with one eye (for example, the left eye), and the other eye image may be a video image displayed with the other eye .

본 발명의 일 실시예는 실시간 인터페이스가 가능하여 눈의 피로감을 줄여줄 수 있는 헤드 마운트 디스플레이 기술을 제공하고자 한다.An embodiment of the present invention is to provide a head mount display technology capable of real-time interface and reducing eye fatigue.

실시예들 중에서, 헤드 마운트 디스플레이의 가상현실 생성방법은 (a) 레이 트레이싱을 통해 제1 아이(eye)와 연관된 기준영상을 생성하는 단계, (b) 제2 아이와 연관되고 상기 기준영상을 변형한 임시영상을 생성하는 단계 및 (c) 상기 임시영상에 있는 픽셀들 중 임계치 이하의 픽셀에 관해 레이 트레이싱을 수행하여 가상영상을 생성하는 단계를 포함한다.Among the embodiments, a method for generating a virtual reality of a head-mounted display includes the steps of (a) generating a reference image associated with a first eye through ray tracing, (b) generating a reference image associated with the second eye, Generating a temporary image; and (c) performing ray tracing on pixels below a threshold value among the pixels in the temporary image to generate a virtual image.

일 실시예에서, 상기 (a) 단계 이전에 양안에 의하여 형성되고 제1 및 제2 시선들(eyelines)과 시차(parallax)를 포함하는 시점(viewpoint)을 획득하는 단계를 더 포함할 수 있다.In one embodiment, the method may further comprise obtaining a viewpoint formed by the binocular and comprising first and second eyelines and a parallax prior to step (a).

일 실시예에서, 상기 (a) 단계는 제1 시선을 레이 트레이싱(ray tracing)을 사용한 아이 레이와 연관시켜 상기 기준영상을 생성하는 단계를 포함할 수 있다.In one embodiment, the step (a) may include generating the reference image by associating the first line of sight with the ray ray using ray tracing.

상기 (b) 단계는 상기 기준영상에 양안에 의해 형성된 시차를 반영하여 상기 기준영상을 와프(warp)하는 단계를 포함할 수 있다. The step (b) may include warping the reference image by reflecting a parallax formed by binocularity on the reference image.

상기 (c) 단계는 제2 시선을 레이 트레이싱(ray tracing)을 사용한 아이 레이와 연관시켜 상기 기준영상에서 발생되고 상기 기준영상에서 입체적으로 보여질 때 제1 시선에 의해 나타나지 않는 반-입체영역에 해당하는 공백공간에 관해 레이 트레이싱을 수행하는 단계를 포함할 수 있다. In the step (c), the second line of sight is generated in the reference image in association with the eye ray using ray tracing. When the second line of sight is viewed in three dimensions in the reference image, And performing ray tracing on the corresponding blank space.

일 실시예에서, 상기 (b) 단계는 (b1) 상기 기준영상을 복수의 서브 기준영상들로 분할하는 단계 및 (b2) 상기 복수의 서브 기준영상들 각각에 양안에 의해 형성된 시차를 반영하여 상기 기준영상을 와프(warp)하는 단계를 포함할 수 있다.In one embodiment, the step (b) includes the steps of (b1) dividing the reference image into a plurality of sub reference images, and (b2) And warp the reference image.

일 실시예에서, 상기 (b1) 단계는 기준 윈도우를 분할하는 복수의 서브 윈도우들을 통해 가변적으로 복수의 서브 기준영상들로 분할하는 단계를 더 포함할 수 있다.In one embodiment, the step (b1) may further include the step of variably dividing the reference window into a plurality of sub reference images through a plurality of sub windows dividing the reference window.

일 실시예에서, 상기 (c) 단계는 (c1) 제2 시선을 레이 트레이싱(ray tracing)을 사용한 아이 레이와 연관시켜 상기 와프된 복수의 서브 기준영상들 중 반-입체영역에 해당하는 공백공간을 포함하는 적어도 하나의 서브 기준영상에 관해 레이 트레이싱을 수행하는 단계를 포함할 수 있다.In one embodiment, the step (c) includes the steps of: (c1) associating the second line of sight with the eye ray using ray tracing to generate a blank space corresponding to the semi-solid area of the plurality of sub- And performing ray tracing on at least one sub reference image including the at least one reference reference image.

일 실시예에서, 상기 (c1) 단계는 상기 와프된 복수의 서브 기준영상들에 관한 레이 트레이싱을 병렬적으로 수행하는 단계를 더 포함할 수 있다.In one embodiment, the step (c1) may further comprise performing parallel ray tracing on the plurality of warped reference images.

일 실시예에서, 상기 (b) 단계는 (b1) 상기 기준영상을 복수의 서브 기준영상들로 분할하면서 또는 분할한 후에, 반-입체영역을 포함하는 복수의 제1 서브 기준영상들과 그렇지 않은 복수의 제2 서브 기준영상들을 구분하는 단계 및 (b2) 상기 복수의 제2 서브 기준영상들 각각에 양안에 의해 형성된 시차를 반영하여 상기 복수의 제2 서브 기준영상들을 와프하는 단계를 포함할 수 있다.In one embodiment, the step (b) includes the steps of: (b1) dividing the reference image into a plurality of sub reference images or dividing the reference image into a plurality of first sub reference images including an anti- (B2) warping the plurality of second sub reference images to reflect the parallax formed by both sides of each of the plurality of second sub reference images have.

상기 (c) 단계는 (c1) 제2 시선을 레이 트레이싱(ray tracing)을 사용한 아이 레이와 연관시켜 상기 복수의 제1 서브 기준영상들에 관해 레이 트레이싱을 수행하는 단계를 포함할 수 있다. The step (c) may include (c1) performing ray tracing on the plurality of first sub reference images by associating the second line with the ray tracing ray tracing.

일 실시예에서, 상기 (c) 단계는 (c2) 상기 레이 트레이싱을 통해 생성된 복수의 제1 서브 기준영상들과 상기 와프된 복수의 제2 서브 기준영상들을 합성하여 상기 가상영상을 생성하는 단계를 더 포함할 수 있다.In one embodiment, the step (c) includes: (c2) generating the virtual image by synthesizing the plurality of first sub reference images generated through the ray tracing and the plurality of wired second sub reference images, As shown in FIG.

실시예들 중에서, 헤드 마운트 디스플레이는 양안에 의하여 형성되고 제1 및 제2 시선들(eyelines)과 시차(parallax)를 포함하는 시점(viewpoint)을 획득하는 시점 획득부, 레이 트레이싱을 통해 제1 아이(eye)와 연관된 기준영상을 생성하는 기준영상 생성부, 제2 아이와 연관되고 상기 기준영상을 변형한 임시영상을 생성하는 임시영상 생성부 및 상기 임시영상에 있는 픽셀들 중 임계치 이하의 픽셀에 관해 레이 트레이싱을 수행하는 레이 트레이싱부를 포함한다.Among the embodiments, the head-mounted display includes a point acquiring unit formed by binocular and acquiring a viewpoint including parallax with first and second eyelines, a temporary image generating unit for generating a temporary image associated with the second eye and modifying the reference image and a temporary image generating unit for generating a temporary image related to the pixel below the threshold in the temporary image, And a ray tracing unit for performing ray tracing.

본 발명의 일 실시예에 따른 헤드 마운트 디스플레이의 가상현실 생성방법 및 이를 수행하는 헤드 마운트 디스플레이는 레이 트레이싱을 통해 헤드 마운트 디스플레이에서 정밀한 가상현실을 생성할 수 있다.The virtual reality generation method of the head mount display and the head mount display performing the same according to an embodiment of the present invention can generate precise virtual reality in the head mount display through ray tracing.

본 발명의 일 실시예에 따른 헤드 마운트 디스플레이의 가상현실 생성방법 및 이를 수행하는 헤드 마운트 디스플레이는 하나의 시선 영상을 광선으로 사용하여 또 다른 시선 영상을 생성함으로써 동작의 복잡성을 감소시킬 수 있다. 여기서, 하나의 시선 영상은 한쪽 눈(예를 들어, 왼쪽 눈)으로 나타낸 영상일 수 있고, 다른 시선 영상은 다른쪽 눈(예를 들어, 오른쪽 눈)으로 나타낸 영상일 수 있다.The method of generating a virtual reality of a head mount display and the head mount display performing the same according to an embodiment of the present invention can reduce the complexity of operation by generating another visual image using one visual image as a light ray. Here, one gaze image may be an image represented by one eye (for example, the left eye), and another eye image may be an image represented by the other eye (for example, the right eye).

본 발명의 일 실시예에 따른 헤드 마운트 디스플레이의 가상현실 생성방법 및 이를 수행하는 헤드 마운트 디스플레이는 실시간 인터페이스가 가능하여 눈의 피로감을 줄여줄 수 있다.The method of generating a virtual reality of a head mount display according to an embodiment of the present invention and the head mount display performing the same can provide a real-time interface to reduce eye fatigue.

도 1은 본 발명의 일 실시예에 따른 가상현실 생성방법을 수행하는 헤드 마운트 디스플레이의 구성을 나타내는 개념도이다.
도 2는 도 1에 있는 헤드 마운트 디스플레이 내의 하나의 제어부를 나타내는 블록도 이다.
도 3은 도 1에 있는 헤드 마운트 디스플레이 내의 다른 제어부을 나타내는 블록도이다.
도 4는 도 1에 있는 헤드 마운트 디스플레이의 가상현실 생성방법을 설명하는 흐름도이다.
도5 는 입체 영역과 반-입체 영역을 설명하는 개념도 이다.
FIG. 1 is a conceptual diagram illustrating a configuration of a head-mounted display for performing a method of generating a virtual reality according to an embodiment of the present invention.
Figure 2 is a block diagram illustrating one control in the head-mounted display of Figure 1;
3 is a block diagram illustrating another control in the head-mounted display of Fig.
4 is a flowchart illustrating a virtual reality generation method of the head mount display shown in FIG.
5 is a conceptual diagram for explaining a stereoscopic region and a semi-stereoscopic region.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The description of the present invention is merely an example for structural or functional explanation, and the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the present invention should be understood to include equivalents capable of realizing technical ideas. Also, the purpose or effect of the present invention should not be construed as limiting the scope of the present invention, since it does not mean that a specific embodiment should include all or only such effect.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms "first "," second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected to the other element, but there may be other elements in between. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that there are no other elements in between. On the other hand, other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It is to be understood that the singular " include " or "have" are to be construed as including the stated feature, number, step, operation, It is to be understood that the combination is intended to specify that it does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (e.g., a, b, c, etc.) is used for convenience of explanation, the identification code does not describe the order of each step, Unless otherwise stated, it may occur differently from the stated order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer-readable code on a computer-readable recording medium, and the computer-readable recording medium includes all kinds of recording devices for storing data that can be read by a computer system . Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used predefined terms should be interpreted to be consistent with the meanings in the context of the related art and can not be interpreted as having ideal or overly formal meaning unless explicitly defined in the present application.

본 발명은 서울 산업 진흥원에서 '특허 기술 상용화 기술 개발 지원 사업'으로 지원되며, 2013년 9월 1일부터 2014년 8월 31일까지 SILICONARTS,INC.에 의한 '광선 추적 렌더링 콘텐츠 개발을 위한 소프트웨어 키트 개발' 프로젝트의 결과물이다. The present invention is supported by the Seoul Industrial Promotion Agency as a 'patent technology commercialization technology development support project'. From September 1, 2013 to August 31, 2014, a software kit for development of ray tracing rendering content by SILICONARTS, INC. Development 'project.

[본 발명을 지원하는 국가 연구 개발 과제][National R & D Tasks Supporting the Present Invention]

[프로젝트 일련 번호] PA130017[Project Serial Number] PA130017

[부서] 서울특별시[Department] Seoul Metropolitan Government

[연구 관리기구] 서울산업진흥원[Research Management Organization] Seoul Industrial Promotion Agency

[연구 과제명] 서울산학협력사업(2013년 특허기술 상용화 기술개발 지원 사업)[Research Project] Seoul Industry-Academia Collaboration Project (2013 Patent Technology Commercialization Technology Development Support Project)

[연구 주제명] 레이 트레이싱 렌더링 컨텐츠 개발을 위한 소프트웨어 킷 개발[Research Subject] Development of a software kit for developing ray tracing rendering contents

[기여 비율] 1/1[Contribution rate] 1/1

[주요 기관] 주식회사 실리콘아츠[Main Organization] Silicon Arts Co., Ltd.

[연구 기간] 2013 년 9 월 1 일 ~ 2014 년 8 월 31 일[Research period] September 1, 2013 to August 31, 2014

도 1은 본 발명의 일 실시예에 따른 가상현실 생성방법을 수행하는 헤드 마운트 디스플레이의 시스템을 나타내는 개념도이다.1 is a conceptual diagram showing a system of a head-mounted display for performing a method of generating a virtual reality according to an embodiment of the present invention.

도 1을 참조하면, 헤드 마운트 디스플레이(10) 시스템은 가상 객체(50)와 헤드 마운트 디스플레이(HMD, Head Mount Display)(100)를 포함한다.Referring to FIG. 1, a head-mounted display 10 system includes a virtual object 50 and a head-mounted display (HMD) 100.

가상 객체(50)는 HMD(100)에 의해 형성된 가상의 포커싱 영역에 대응할 수 있다. 즉, 가상 객체(50)는 실제는 아니지만 입체적으로 표현되는 3D 물체일 수 있다. 일 실시예에서, 가상 객체(50)는 HMD(100)에 의해 완전히 생성될 수 있다. 다른 일 실시예에서, 가상 객체(50)는 HMD(100)의 정면에 위치된 실제 객체와 HMD(100)에 의해 부분적으로 생성된 객체를 결합하여 생성될 수 있다. The virtual object 50 may correspond to a virtual focusing area formed by the HMD 100. [ That is, the virtual object 50 may be a 3D object that is not actually, but three-dimensionally expressed. In one embodiment, the virtual object 50 may be generated entirely by the HMD 100. In another embodiment, the virtual object 50 may be created by combining an actual object located in front of the HMD 100 with an object partially generated by the HMD 100. [

HMD(100)는 좌측 디스플레이부(110), 우측 디스플레이부(120), 네트워크 인터페이스부(130) 및 제어부(140)를 포함한다. HMD(100)는 머리에 착용하거나 헬맷의 일부로 착용할 수 있으며, 각 눈(양안 HMD) 앞에 작은 디스플레이 광학 장치가 있다.The HMD 100 includes a left display unit 110, a right display unit 120, a network interface unit 130, and a control unit 140. The HMD 100 can be worn on the head or as part of a helmet, and there is a small display optic in front of each eye (binocular HMD).

좌측 및 우측 디스플레이부(110 및 120)는 눈 앞의 디스플레이 광학 장치에 상응할 수 있다. 일 실시예에서, 좌측 디스플레이부(110)는 좌안용 좌측 영상을 생성하고 우측 디스플레이부(120)는 우안용 우측 영상을 생성할 수 있으며 이에 따라 좌측 및 우측 디스플레이부(110 및 120)는 가상적인 입체영상을 생성한다.The left and right display portions 110 and 120 may correspond to a display optics in front of the eye. In one embodiment, the left display unit 110 generates a left eye image and the right display unit 120 generates a right eye image. Accordingly, the left and right display units 110 and 120 are virtual And generates a stereoscopic image.

네트워크 인터페이스부(130)는 좌측 및 우측 영상을 외부장치로 전송할 수 있으며, 외부 장치로부터 입체 영상 또는 좌측 및 우측 영상을 수신할 수 있다. 일 실시예에서, 네트워크 인터페이스부(130)는 블루투스(Bluetooth), 와이파이(WiFi) 등으로 구현될 수 있다.The network interface unit 130 can transmit left and right images to an external device and can receive stereoscopic images or left and right images from an external device. In one embodiment, the network interface unit 130 may be implemented as Bluetooth, WiFi, or the like.

제어부(140)는 레이 트레이싱을 통해 한쪽 눈의 일측 영상을 제1 아이와 관련된 기준영상으로 생성할 수 있다. 제어부(140)는 기준영상을 변형하여 제2 아이와 관련된 임시영상을 생성하고, 임시영상에서 에러픽셀(즉, 임계픽셀 이하)를 레이 트레이싱하여 다른쪽 눈을 위한 다른 측면의 영상을 완성할 수 있다. 마지막으로, 제어부(140)는 한쪽 측면 영상과 다른쪽 측면 영상을 결합하여 가상 영상을 생성할 수 있다. 제어부(140)는 도2 및 도3을 참조하여 설명된다.The control unit 140 may generate a reference image associated with the first eye through ray tracing. The control unit 140 may transform the reference image to generate a temporary image related to the second eye and perform ray tracing on the error pixel (i.e., below the threshold pixel) in the temporary image to complete the other side image for the other eye . Finally, the control unit 140 may combine the side image and the side image to generate a virtual image. The control unit 140 will be described with reference to Figs. 2 and 3. Fig.

도 2는 도 1에 있는 헤드 마운트 디스플레이의 하나의 제어부를 설명하는 블록도이다. 2 is a block diagram illustrating one control of the head-mounted display of Fig.

도 2을 참조하면, 헤드 마운트 디스플레이(HMD, Head Mounted Display)(100)는 시점 획득부(210), 기준영상 생성부(220), 임시영상 생성부(230), 레이 트레이싱부(240) 및 HMD 디스플레이부(250)를 포함한다.Referring to FIG. 2, a head mounted display (HMD) 100 includes a view obtaining unit 210, a reference image generating unit 220, a temporary image generating unit 230, a ray tracing unit 240, And an HMD display unit 250.

시점 획득부(210)는 양안에 의하여 형성되고 제1 및 제2 시선들(eyelines)과 시차(parallax)를 포함하는 시점(viewpoint)을 획득한다. 예를 들어, 제1 시선은 좌안에 의한 시선에 해당하고, 제2 시선은 우안에 의한 시선에 해당한다. 시차는 좌안과 우안이 공간적으로 다른 위치에서 가상객체(50)를 바라봄에 의해 발생하는 양안 시차에 해당할 수 있다. 기준영상 생성부(220)는 레이 트레이싱(ray tracing)을 통해 제1 아이(eye)와 연관된 기준영상을 생성한다. 일 실시예에서, 기준영상 생성부(220)는 제1 시선을 레이 트레이싱(ray tracing)을 사용한 아이 레이와 연관시켜 상기 기준영상을 생성한다. 예를 들어, 기준영상 생성부(220)는 제1 아이(예를 들어, 좌안)에 의한 시선, 즉 제1 시선을 기초로 레이 트레이싱을 수행하여 가상현실 생성 시 제1 아이에 의해 보여질 수 있는 영상(기준영상)을 생성한다. 레이 트레이싱은 렌더링할 객체와 광원 및 시선을 설정하고, 광원에서 나온 광선이 가상객체(50)에서 반사하는 모습을 시뮬레이션하여 각 화소에서의 색을 산출함으로써, 설정된 시선에서 보여질 수 있는 영상을 렌더링하는 기법이다.The viewpoint acquiring unit 210 acquires a viewpoint formed by the binocular and including first and second eyelines and a parallax. For example, the first line of sight corresponds to the line of sight of the left eye, and the second line of sight corresponds to the line of sight of the right eye. The parallax may correspond to a binocular parallax caused by looking at the virtual object 50 at a position spatially different from the left eye and the right eye. The reference image generator 220 generates a reference image associated with a first eye through ray tracing. In one embodiment, the reference image generator 220 generates the reference image by associating the first line of sight with the eye ray using ray tracing. For example, the reference image generating unit 220 may perform ray tracing based on a line of sight of the first eye (e.g., the left eye), i.e., the first line of sight, (Reference image). Ray tracing sets an object to be rendered, a light source, and a line of sight, and simulates a ray reflected from a light source from a virtual object 50 to calculate a color in each pixel, thereby rendering an image .

임시영상 생성부(230)는 기준영상을 변형하여 제2 아이의 임시영상을 생성한다. 예를 들어, 임시영상 생성부(230)는 임시영상을 생성하기 위해 기준영상에 대한 시점을 제1 아이에서 제2 아이로 변경할 수 있다. 임시영상은 제1 아이(즉, 제2 아이에서 보이지 않는)에서만 보이는 일부 영역으로 인해 제2 아이에 대해 불완전할 수 있다.The temporary image generating unit 230 generates a temporary image of the second eye by modifying the reference image. For example, the temporary image generating unit 230 may change the viewpoint of the reference image from the first eye to the second eye to generate the temporary image. The temporary image may be incomplete for the second child due to some area visible only in the first child (i.e., not visible in the second child).

일 실시예에서, 임시영상 생성부(230)는 기준영상에 양안에 의해 형성된 시차를 반영하여 기준영상을 와프(warp)하여 임시영상을 생성할 수 있다. 임시영상 생성부(230)는 기준영상을 임시영상으로 왜곡시킬 수 있으며, 제1 아이에서 제2 아이로 시점변경을 위해 시차를 사용할 수 있다. 이는 가상 객체(50)에 대한 입체방향 및 조명 효과를 계산할 수 있다. 즉, 임시영상 생성부(230)는 기준영상에 이미지 와핑(warping)을 수행함으로써, 양안의 시차로 인해 발생할 수 있는 왜곡을 기준영상에 반영하여 임시영상을 생성할 수 있다.In one embodiment, the temporary image generator 230 may generate a temporary image by warping the reference image by reflecting the parallax formed by the binocular on the reference image. The temporary image generating unit 230 may distort the reference image into a temporary image, and may use a time difference for changing the viewpoint from the first eye to the second eye. This can calculate the stereoscopic direction and the lighting effect for the virtual object 50. [ That is, the temporary image generating unit 230 may generate a temporary image by performing image warping on the reference image, thereby reflecting the distortion that may occur due to the parallax difference in the reference image.

레이 트레이싱부(240)는 임시영상에 있는 에러픽셀(즉, 임계치 이하의 픽셀)에 관해 제2 시선을 아이 레이와 연관시켜 레이 트레이싱을 수행한다. 여기에서, 에러픽셀은 색상 값을 부적절하게 반영한 픽셀 또는 입체 방향을 부적절하게 반영한 픽셀을 포함할 수 있다. The ray tracing unit 240 performs ray tracing by relating a second line of sight to an error pixel (i.e., a sub-threshold pixel) in the temporary image with the ray. Here, the error pixel may include a pixel that improperly reflects the color value or a pixel that improperly reflects the stereoscopic direction.

기준영상을 왜곡시켜 임시영상을 생성할 경우, 시차로 인해 에러픽셀이 생성될 수 있다. 그러면, 레이 트레이싱부(240)는 픽셀 값을 얻기 위해 임시영상의 픽셀들 중 임계 값 이하의 픽셀에 대해 레이 트레이싱을 수행하여 에러픽셀을 보정할 수 있다. 일 실시예에서, 시차에 의한 에러픽셀은 복수의 영역으로 그룹화될 수 있다. 일부 영역 중 하나는 워핑 된 기준영상(즉, 임시영상)이 생성 될 때 제1 시선을 통해 시각적으로 보이지 않는 반-입체적인 영역을 나타내는 공백 영역에 해당한다. When a temporary image is generated by distorting the reference image, an error pixel may be generated due to the parallax. Then, the ray tracing unit 240 may perform ray tracing for pixels below the threshold value among the pixels of the temporary image to obtain pixel values to correct the error pixels. In one embodiment, error pixels due to parallax may be grouped into a plurality of regions. One of the areas corresponds to a blank area indicating an semi-stereoscopic area that is not visually seen through the first line when the warped reference image (i.e., temporary image) is generated.

HMD 디스플레이부(250)는 제1 아이에 대해 기준영상 생성부(220)에서 생성된 기준영상과 레이 트레이싱부(240)를 통해 생성된 광선 추적되어 워프된 기준영상을 합성하여 사용자에게 가상현실 영상을 제공할 수 있다.The HMD display unit 250 combines the reference image generated by the reference image generating unit 220 and the reference image generated by the ray tracing unit 240 and warped to the first eye, Can be provided.

도 3은, 도 1에 있는 헤드 마운트 디스플레이의 다른 제어부를 나타내는 블록도이다. 도 3은 기준영상을 복수의 서브 영상들로 분할하고, 분할된 서브 영상들 각각을 와프(warp)하여 레이 트레이싱을 통해 보정하여 가상영상을 생성하는 경우의 예이다.3 is a block diagram illustrating another control portion of the head-mounted display of Fig. 3 shows an example of dividing a reference image into a plurality of sub-images, warping each of the divided sub-images, and correcting the divided sub-images through ray tracing to generate a virtual image.

도 3을 참조하면, 헤드 마운트 디스플레이(100)는 시점(viewpoint) 획득부(310), 기준영상 생성부(320), 영상 분할부(332)및 분할 임시영상 생성부(332)를 포함하는 임시영상 생성부(330), 레이 트레이싱부(340) 및 HMD 디스플레이부(350)를 포함한다.3, the head mount display 100 includes a viewpoint acquisition unit 310, a reference image generation unit 320, a video segmentation unit 332, and a temporary temporal image generation unit 332, An image generating unit 330, a ray tracing unit 340, and an HMD display unit 350.

시점(viewpoint) 획득부(310), 기준영상 생성부(320), 레이 트레이싱부(340) 및 HMD 디스플레이부(350)의 기능은 도 2의 대응되는 구성의 기능과 동일하다. 이하에서는 설명의 편의를 위해, 주요 차이점을 중심으로 설명하기로 한다.The functions of the viewpoint acquisition unit 310, the reference image generation unit 320, the ray tracing unit 340, and the HMD display unit 350 are the same as those of the corresponding configuration of FIG. Hereinafter, for convenience of explanation, the main difference will be mainly described.

도 3에서, 임시영상 생성부(330)는 영상 분할부(332) 및 분할 임시영상 생성부(334)를 포함할 수 있다. 영상 분할부(332)는 기준영상을 복수의 서브 기준영상들(예를 들어, 좌측 영상)로 분할한다. 일 실시예에서, 영상 분할부(332)는 기준 윈도우를 분할하는 복수의 서브 윈도우들을 통해 기준영상을 가변적으로 복수의 서브 기준영상들로 분할할 수 있고, 이들의 조합은 기준 윈도우를 완료할 수 있다. 예를 들어, 기준 윈도우의 사이즈가 16*16(픽셀*픽셀)이라면, 복수의 서브 윈도우들의 사이즈는 4*4, 8*8 및 16*16을 포함할 수 있다. 3, the temporary image generating unit 330 may include an image dividing unit 332 and a divided temporary image generating unit 334. The image divider 332 divides the reference image into a plurality of sub reference images (for example, a left image). In one embodiment, the image divider 332 may variably divide the reference image into a plurality of sub-reference images through a plurality of sub-windows dividing the reference window, have. For example, if the size of the reference window is 16 * 16 (pixels * pixels), the size of the plurality of subwindows may include 4 * 4, 8 * 8 and 16 * 16.

일 실시예에서, 영상 분할부(332)는 한 종류의 복수의 서브 윈도우를 이용하여 기준영상을 분할할 수 있다. 예를 들어, 영상 분할부(332)는 8*8 사이즈의 서브 윈도우를 이용하여 기준영상을 4개의 서브 기준영상들로 분할할 수 있다. 다른 실시예에서, 영상 분할부(332)는 여러 종류의 복수의 서브 윈도우를 이용하여 기준영상을 분할할 수 있다. 예를 들어, 영상 분할부(332)는 8*8 사이즈의 서브 윈도우와 4*4 사이즈의 서브 윈도우를 사용하여, 기준영상을 3개의 8*8 사이즈의 서브 기준영상들과, 4개의 4*4 사이즈의 서브 기준영상들로 분할할 수도 있다.In one embodiment, the image divider 332 may divide the reference image using a plurality of sub-windows of one kind. For example, the image divider 332 may divide the reference image into four sub-reference images using an 8 * 8 sub-window. In another embodiment, the image divider 332 may divide the reference image using a plurality of sub-windows of various kinds. For example, the image dividing unit 332 divides the reference image into three 8 * 8 size sub reference images and four 4 * 4 sub-reference images using a sub-window of 8 * 8 size and a sub- It may be divided into sub-reference images of four sizes.

분할 임시영상 생성부(334)는 복수의 서브 기준영상들에 대해 양안(330)에 의해 형성된 시차를 반영하여 와프(warp)함으로써 임시영상을 생성한다. 분할 임시영상 생성부(240)는 복수의 서브 기준영상들 각각에 이미지 와핑(warping)을 수행하여 임시영상을 생성할 수 있다. 즉, 분할 임시영상 생성부(334)는 복수의 서브 기준영상들 각각에 대해 영상 와핑(warping)을 수행하여 임시영상을 생성할 수 있다.The split temporal image generating unit 334 generates a temporary image by warping the parallax formed by the binaural eye 330 with respect to a plurality of sub reference images. The divided temporal image generating unit 240 may generate a temporal image by performing image warping on each of the plurality of sub reference images. That is, the divided temporal image generating unit 334 may perform a video image warping on each of the plurality of sub-reference images to generate a temporary image.

레이 트레이싱부(340)는 와프된 복수의 서브 기준영상들 중 하나의 에러픽셀(즉, 임계치 이하의 픽셀) 또는 에러픽셀을 갖는 와프된 서브 기준영상에 대해 제2 시선을 아이 레이와 연관시켜 레이 트레이싱을 수행한다. 일 실시예에서, 레이 트레이싱부(340)는 레이 트레이싱을 병렬적으로 수행할 수 있다. 에러픽셀에 대한 레이 트레이싱 과정이 레이 트레이싱부(240)에 설명되어 있으므로, 에러픽셀을 갖는 와프된 서브 기준영상에 대한 레이 트레이싱 과정이 설명 된다.The ray tracing unit 340 associates a second line of sight with a wired sub reference image having one error pixel (i.e., a sub-threshold pixel) or error pixel among a plurality of warped sub reference images, Perform tracing. In one embodiment, the ray tracing unit 340 may perform ray tracing in parallel. Since a ray tracing process for an error pixel is described in the ray tracing unit 240, a ray tracing process for a wafed sub reference image having an error pixel is described.

일 실시예에서, 레이 트레이싱부(340)는 레이 트레이싱된 와프영상을 생성하기 위해 에러픽셀 또는 공백영역(예를 들어, 임계픽셀 이하의 영역)을 포함하는 서브 기준영상들 중 적어도 하나에 대해 제2 시선을 아이 레이와 연관시켜 레이 트레이싱을 수행할 수도 있다. 여기서, 공백영역은 상기 기준영상에서 한쪽 눈에서 보았을 때 다른쪽 눈에서 보이지 않는 영역을 나타내는 복수의 와프된 서브 기준영상들에 대한 반-입체적인 영역을 나타낼 수 있다.In one embodiment, the ray tracing unit 340 generates a ray traced image for at least one of sub-reference images including an error pixel or a blank region (e.g., an area below a threshold pixel) Ray tracing may be performed by associating the two eyes with the eye ray. Here, the blank region may represent an anti-stereoscopic region for a plurality of wafed sub reference images representing an area that is not visible from the other eye when viewed from one eye in the reference image.

다른 실시예에서, 영상 분할부(332)는 기준영상을 복수의 서브 기준영상들로 분할하면서 또는 분할한 후에, 반-입체영역을 포함하는 복수의 제1 서브 기준영상들과 그렇지 않은 복수의 제2 서브 기준영상들을 구분할 수 있다. 분할 임시영상 생성부(334)는 양안에 의해 형성된 시차를 반영하여 복수의 제2 서브 기준영상들을 와프(warp)함으로써 임시영상을 생성할 수 있다.In another embodiment, the image divider 332 divides the reference image into a plurality of sub reference images or divides the reference image into a plurality of first sub reference images including a semi-solid area and a plurality of non- Two sub reference images can be distinguished. The divided temporal image generating unit 334 may generate a temporal image by warping a plurality of second sub-reference images by reflecting the parallax formed by the binocular.

이러한 경우, 레이 트레이싱부(340)는 복수의 제1 서브 기준영상들에 관해 제2 시선을 레이 트레이싱에 사용된 아이 레이와 연관시켜 레이 트레이싱을 수행하고, 복수의 제1 서브 기준영상들과 와프된 복수의 제2 서브 기준영상들을 합성하여 레이 트레이싱된 와프영상을 생성할 수 있다.In this case, the ray tracing unit 340 performs ray tracing by associating the second line of sight with respect to the plurality of first sub reference images with the eye ray used for ray tracing, And generate a ray traced waffer image by combining the plurality of second sub reference images.

도 4는, 도 1에있는 헤드 마운트 디스플레이 시스템의 가상현실 생성방법을 설명하는 흐름도이고 도 5는 입체적 및 반-입체적 영역을 도시한 개념도이다.Fig. 4 is a flowchart illustrating a virtual reality generation method of the head-mounted display system shown in Fig. 1, and Fig. 5 is a conceptual diagram showing a stereoscopic and semi-stereoscopic region.

도 4를 참조하면, 시점 획득부(210 또는 310)가 양안에 의하여 형성 된 제1 및 제2 시선들과 시차를 포함하는 시점을 획득 한 후, 기준영상 생성부(220 또는 320)는 레이 트레이싱을 통해 제1 아이와 연관된 기준영상을 생성한다(단계 S410). 4, after the viewpoint acquiring unit 210 or 310 acquires the viewpoint including the first and second eyes and the parallax formed by binocular vision, the reference image generator 220 or 320 generates the viewpoint To generate a reference image associated with the first child (step S410).

임시영상 생성부(230 또는 330)는 제2 아이와 연관되고 기준영상을 변형한 임시영상을 생성한다(단계 S320). 일 실시예에서, 임시영상 생성부(230 또는 330)는 기준영상에 양안에 의해 형성된 시차를 반영할 수 있고 기준영상을 와프(warp)하여 임시영상을 생성할 수 있다. 임시영상 생성부(230 또는 330)는 전체적으로 또는 부분적으로 기준영상을 변형할 수 있다.The temporary image generation unit 230 or 330 generates a temporary image associated with the second child and modifying the reference image (step S320). In one embodiment, the temporary image generator 230 or 330 may reflect the parallax formed by binocularity in the reference image and warp the reference image to generate a temporary image. The temporary image generating unit 230 or 330 may transform the reference image in whole or in part.

레이 트레이싱부(240 또는 340)는 임시영상에 있는 에러픽셀(즉, 임계치 이하의 픽셀)에 관해 아이레이로 제2 시선을 사용하여 레이 트레이싱을 수행한다(단계 S430).The ray tracing unit 240 or 340 performs ray tracing using the second eye line with respect to the error pixel (i.e., the sub-threshold pixel) in the temporary image (step S430).

일 실시예에서, 레이 트레이싱부(240 또는 340)는 임시영상에 있는 각각의 에러픽셀들 또는 그 내부에 있는 각각의 에러 서브블록들에 대해 레이 트레이싱을 수행하며, 각각은 에러픽셀을 갖는 분할되고 변환 된 기준영상을 나타낸다. 마지막으로, 레이 트레이싱부(240 또는 340)는 레이 트레이싱되고 변환된 기준영상을 생성한다.In one embodiment, the ray tracing unit 240 or 340 performs ray tracing for each error pixel in the temporal image or for each of the error subblocks therein, each of which is segmented with error pixels And shows the converted reference image. Finally, the ray tracing unit 240 or 340 generates ray-traced and transformed reference images.

도 5에서, 기준영상이 좌안에서 본 좌측 영상 인 것으로 가정하면, 임시영상 생성부(230 또는 330)는 기준영상을 변환하여 우안 용 임시영상을 생성한다. 입체영역(510)은 양 안에서 보아 적절하게 변형 된 영역을 포함할 수 있다. 반-입체영역(250)은 우안에서 보았을 때 좌안에서 보이지 않고 부적절하게 변형 된 영역을 포함할 수 있다. 레이 트레이싱부(240 또는 340)는 반-입체영역(520)에 포함되고, 그 안에서 레이 트레이싱을 수행하는 임시영상에서 에러픽셀을 탐색한다. 일 실시예에서, 에러픽셀은 에러픽셀을 포함하는 서브블록으로 사용될 수 있다.5, if the reference image is a left image viewed from the left eye, the temporary image generating unit 230 or 330 transforms the reference image to generate a right eye temporary image. The steric region 510 may include an appropriately modified region as viewed in an amount. The semi-solid area 250 may include invisible and inappropriately deformed areas in the left eye when viewed in the right eye. The ray tracing unit 240 or 340 is included in the semi-solid area 520 and searches for an error pixel in a temporary image in which ray tracing is performed. In one embodiment, the error pixel may be used as a sub-block containing an error pixel.

HMD 디스플레이부(250 또는 350)는 양 안에 가상영상을 생성한다. 즉, HMD 디스플레이부(250 또는 350)는 기준영상을 하나의 디스플레이부(예를 들어, 좌측 디스플레이부(110))에 제공하고, 레이 트레이싱되어 변형된 기준영상을 다른 디스플레이부(예를 들어, 우측 디스플레이부(120))에 제공한다. The HMD display unit 250 or 350 generates a virtual image in an amount. That is, the HMD display unit 250 or 350 provides the reference image to one display unit (e.g., the left display unit 110), and outputs the ray-traced reference image to another display unit (e.g., The right display unit 120).

상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the present invention as defined by the following claims It can be understood that

100: 헤드 마운트 디스플레이(HMD, Head Mounted Display)
110: 좌측 디스플레이부
120: 우측 디스플레이부
130: 네트워크 인터페이스부
140: 제어부
210: 시점 획득부
220: 기준영상 생성부
230: 임시영상 생성부
240: 레이 트레이싱부
250: HMD 디스플레이부
100: Head Mounted Display (HMD)
110:
120: right display unit
130: Network interface unit
140:
210:
220: Reference image generating section
230: temporary image generating unit
240: ray tracing unit
250: HMD display unit

Claims (13)

(a) 레이 트레이싱을 통해 제1 아이(eye)와 연관된 기준영상을 생성하는 단계;
(b) 제2 아이와 연관되고 상기 기준영상을 변환함으로써 생성된 임시영상을 생성하는 단계; 및
(c) 상기 임시영상에 있는 픽셀들 중에서 임계치 이하의 픽셀에 관해 레이 트레이싱을 수행하여 가상영상을 생성하는 단계를 포함하는 HMD(Head-Mounted Display)의 가상현실 생성방법.
(a) generating a reference image associated with a first eye through ray tracing;
(b) generating a temporary image associated with the second child and generated by transforming the reference image; And
(c) generating a virtual image by performing ray tracing on a pixel below a threshold value among pixels in the temporary image to generate a virtual image of the HMD (Head-Mounted Display).
제1항의 방법에 있어서,
상기 (a) 단계 이전에 양안에 의하여 형성되고 제1 및 제2 시선들(eyelines)과 시차(parallax)를 포함하는 시점(viewpoint)을 획득하는 단계를 더 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
The method of claim 1,
Further comprising the step of acquiring a viewpoint formed by both eyes and including a parallax with first and second eyelines prior to step (a) Generation method.
제1항에 있어서, 상기 (a) 단계는
레이 트레이싱에 사용된 아이 레이와 제1 시선 (eyeline)을 연관시켜 상기 기준영상을 생성하는 단계를 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
The method of claim 1, wherein step (a)
And generating the reference image by associating an eye ray used for ray tracing with a first eyeline.
제1항에 있어서, 상기 (b) 단계는
상기 기준영상에서 양안에 의해 형성된 시차를 반영하여 상기 기준영상을 와프(warp)하는 단계를 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
2. The method of claim 1, wherein step (b)
And warp the reference image by reflecting a parallax formed by binocular vision in the reference image.
제4항에 있어서, 상기 (c) 단계는,
레이 트레이싱에 사용된 아이 레이(eye ray)와 제2 시선(eyeline)을 연관시켜 공백영역에 대한 레이 트레이싱을 수행하는 단계를 포함하고,
상기 공백영역은 상기 기준영상이 입체적으로 표시될 때 상기 제1 시선(eyeline)을 통해 시각적으로 표시되지 않은 비-입체 영역에 해당하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
5. The method of claim 4, wherein step (c)
Performing ray tracing for a blank area by associating an eye ray and a second eyeline used for ray tracing,
Wherein the blank region corresponds to a non-stereoscopic region that is not visually displayed through the first eyeline when the reference image is stereoscopically displayed.
제1항에 있어서, 상기 (b) 단계는
(b1) 상기 기준영상을 복수의 서브 기준영상들로 분할하는 단계; 및
(b2) 상기 복수의 서브 기준영상들 각각에 양안에 의해 생성된 시차를 반영하여 상기 기준영상을 와프(warp)하는 단계를 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
2. The method of claim 1, wherein step (b)
(b1) dividing the reference image into a plurality of sub reference images; And
(b2) warping the reference image by reflecting parallax generated by binocularity on each of the plurality of sub reference images.
제6항에 있어서, 상기 (b1) 단계는
복수의 서브 윈도우들의 조합을 통해 상기 복수의 서브 기준영상들로 가변적으로 분할하는 단계를 더 포함하고,
상기 조합은 기준 윈도우를 완성하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
7. The method of claim 6, wherein the step (b1)
Further comprising the step of variably dividing the plurality of sub reference images into a plurality of sub reference images through a combination of a plurality of sub windows,
Wherein the combination completes a reference window.
제6항에 있어서, 상기 (c) 단계는
(c1) 레이 트레이싱에서 사용된 아이 레이(eye ray)와 제2 시선(eye line)을 연관시켜서 적어도 하나의 서브 기준영상에 관한 레이 트레이싱을 수행하는 단계를 포함하고,
상기 적어도 하나의 서브 기준영상은 상기 복수의 와프(wraped)된 서브 기준영상들 중 비-입체 영역에 해당하는 공백영역을 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
7. The method of claim 6, wherein step (c)
(c1) performing ray tracing on at least one sub reference image by associating an eye ray and a second eye line used in ray tracing,
Wherein the at least one sub reference image includes a blank area corresponding to a non-stereoscopic area among the plurality of wafted sub reference images.
제8항에 있어서, 상기 (c1) 단계는
상기 복수의 와프(warped)된 서브 기준영상들에 관한 레이 트레이싱을 병렬적으로 수행하는 단계를 더 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
9. The method of claim 8, wherein step (c1)
Further comprising performing parallel ray tracing on the plurality of warped sub reference images. ≪ RTI ID = 0.0 > 8. < / RTI >
제1항에 있어서, 상기 (b) 단계는
(b1) 상기 기준영상을 복수의 서브 기준영상들로 분할하기전 또는 분할한 후에, 분할 영역을 갖는 복수의 제1 서브 기준영상들과 그렇지 않은 복수의 제2 서브 기준영상들을 반-차원영역으로 구분하는 단계; 및
(b2) 상기 복수의 제2 서브 기준영상들 각각에 양안에 의해 형성된 시차를 반영하여 상기 복수의 제2 서브 기준영상들을 와프(warped)하는 단계를 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
2. The method of claim 1, wherein step (b)
(b1) before or after dividing the reference image into a plurality of sub reference images, a plurality of first sub reference images having a divided region and a plurality of second sub reference images having no divided region are divided into a semi-dimensional region A step of discriminating; And
(b2) warping the plurality of second sub reference images reflecting the parallax formed by both eyes on each of the plurality of second sub reference images .
제10항에 있어서, 상기 (c) 단계는
(c1) 제2 시선(eyeline)과 레이 트레이싱(ray tracing)에 사용된 아이 레이(eye ray)를 연관시켜 상기 복수의 제1 서브 기준영상에 레이 트레이싱(ray tracing)을 수행하는 단계를 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
11. The method of claim 10, wherein step (c)
(c1) performing ray tracing on the plurality of first sub reference images by associating a second eyeline with an eye ray used for ray tracing; and Wherein the HMD is a virtual reality.
제11항에 있어서, 상기 (c) 단계는
(c2) 상기 레이 트레이싱을 통해 생성된 복수의 제1 서브 기준영상들과 상기 와프(warped)된 복수의 제2 서브 기준영상들을 합성하여 상기 가상영상을 생성하는 단계를 더 포함하는 것을 특징으로 하는 HMD의 가상현실 생성방법.
12. The method of claim 11, wherein step (c)
(c2) combining the plurality of first sub reference images generated through the ray tracing and the plurality of warped second sub reference images to generate the virtual image How to create virtual reality in HMD.
양안에 의하여 형성되고 제1 및 제2 시선들(eyelines)과 시차(parallax)를 포함하는 시점(viewpoint)을 획득하는 시점 획득부;
레이 트레이싱(ray tracing))을 통해 제1 아이(eye)와 연관된 기준영상을 생성하도록 구성되는 기준영상 생성부;
제2 아이와 연관되고 상기 기준영상을 변형한 임시영상을 생성하는 임시영상 생성부; 및
상기 임시영상에 있는 픽셀들 중 임계치 이하의 픽셀에 관해 레이 트레이싱(ray tracing))을 수행하는 레이 트레이싱부를 포함하는 헤드 마운트 디스플레이.

A point obtaining unit for obtaining a viewpoint formed by both eyes and including a first and second eyelines and a parallax;
A reference image generator configured to generate a reference image associated with a first eye through ray tracing;
A temporary image generation unit associated with the second child and generating a temporary image obtained by modifying the reference image; And
And a ray tracing section for performing ray tracing on pixels below the threshold among the pixels in the temporary image.

KR1020187008833A 2015-08-31 2015-08-31 Method for creating virtual reality of head mounted display and head mounted display performing the same KR102101217B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/009162 WO2017039026A1 (en) 2015-08-31 2015-08-31 Method of generating virtual reality on head mounted display and head mounted display performing the same

Publications (2)

Publication Number Publication Date
KR20180042419A true KR20180042419A (en) 2018-04-25
KR102101217B1 KR102101217B1 (en) 2020-04-17

Family

ID=58187702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187008833A KR102101217B1 (en) 2015-08-31 2015-08-31 Method for creating virtual reality of head mounted display and head mounted display performing the same

Country Status (2)

Country Link
KR (1) KR102101217B1 (en)
WO (1) WO2017039026A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100453225B1 (en) 2001-12-26 2004-10-15 한국전자통신연구원 Client system for embodying 3-dimension virtual reality and method for embodying virtual reality using same
KR20100119559A (en) * 2008-01-29 2010-11-09 톰슨 라이센싱 Method and system for converting 2d image data to stereoscopic image data
KR20130012504A (en) * 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus and method for rendering

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US9082213B2 (en) * 2007-11-07 2015-07-14 Canon Kabushiki Kaisha Image processing apparatus for combining real object and virtual object and processing method therefor
US20140191927A1 (en) * 2013-01-09 2014-07-10 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
JP6221732B2 (en) * 2013-09-03 2017-11-01 セイコーエプソン株式会社 Virtual image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100453225B1 (en) 2001-12-26 2004-10-15 한국전자통신연구원 Client system for embodying 3-dimension virtual reality and method for embodying virtual reality using same
KR20100119559A (en) * 2008-01-29 2010-11-09 톰슨 라이센싱 Method and system for converting 2d image data to stereoscopic image data
KR20130012504A (en) * 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus and method for rendering

Also Published As

Publication number Publication date
WO2017039026A1 (en) 2017-03-09
KR102101217B1 (en) 2020-04-17

Similar Documents

Publication Publication Date Title
US8520024B2 (en) Virtual interactive presence systems and methods
JP6364022B2 (en) System and method for role switching in a multiple reality environment
US9886552B2 (en) System and method for image registration of multiple video streams
US20160284132A1 (en) Apparatus and method for providing augmented reality-based realistic experience
US10235808B2 (en) Communication system
US10235806B2 (en) Depth and chroma information based coalescence of real world and virtual world images
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
CN105282536A (en) Naked-eye 3D picture-text interaction method based on Unity3D engine
JP2020532797A (en) Generating a new frame with rendered and unrendered content from the previous perspective
US20180364488A1 (en) Display device
US20180359463A1 (en) Information processing device, information processing method, and program
Li et al. Enhancing 3d applications using stereoscopic 3d and motion parallax
JP2010259017A (en) Display device, display method and display program
US10931938B2 (en) Method and system for stereoscopic simulation of a performance of a head-up display (HUD)
US11386529B2 (en) Virtual, augmented, and mixed reality systems and methods
JP2017098596A (en) Image generating method and image generating apparatus
US11818325B2 (en) Blended mode three dimensional display systems and methods
KR102101217B1 (en) Method for creating virtual reality of head mounted display and head mounted display performing the same
US20140285484A1 (en) System of providing stereoscopic image to multiple users and method thereof
Orlosky et al. The role of focus in advanced visual interfaces
He Virtual reality for budget smartphones
US11422670B2 (en) Generating a three-dimensional visualization of a split input device
Mohd et al. Virtual reality application: A review
CN116760961A (en) Real view display method, video through system and computer readable storage medium
KR101540110B1 (en) System, method and computer-readable recording media for eye contact among users

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right