KR20220033223A - Eye-based personalized head-mounted display device and control method thereof - Google Patents

Eye-based personalized head-mounted display device and control method thereof Download PDF

Info

Publication number
KR20220033223A
KR20220033223A KR1020200115362A KR20200115362A KR20220033223A KR 20220033223 A KR20220033223 A KR 20220033223A KR 1020200115362 A KR1020200115362 A KR 1020200115362A KR 20200115362 A KR20200115362 A KR 20200115362A KR 20220033223 A KR20220033223 A KR 20220033223A
Authority
KR
South Korea
Prior art keywords
area
region
image quality
user
viewing angle
Prior art date
Application number
KR1020200115362A
Other languages
Korean (ko)
Other versions
KR102524097B1 (en
Inventor
김광욱
박건희
김창섭
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020200115362A priority Critical patent/KR102524097B1/en
Publication of KR20220033223A publication Critical patent/KR20220033223A/en
Application granted granted Critical
Publication of KR102524097B1 publication Critical patent/KR102524097B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image

Abstract

The present invention relates to a method for controlling an eye-based personalized head-mounted display device, which includes the following steps of: outputting a measurement screen for customization; partitioning a first area in the measurement screen and a second area lower in image quality than the first area; reducing the first area; measuring a first perception time point at which a user perceives a boundary between the first area and the second area as the first area is reduced and setting the boundary at the first perception time point as the user's viewing angle; and setting the area inside the viewing angle as the user's center vision area, setting the area outside the viewing angle as the user's peripheral vision area, and rendering the peripheral vision area to be relatively lower in image quality than the center vision area.

Description

안구 기반 개인화 헤드 마운티드 디스플레이 장치 및 그 제어 방법{Eye-based personalized head-mounted display device and control method thereof}TECHNICAL FIELD [0002] Eye-based personalized head-mounted display device and control method thereof

본 발명은 안구 기반 개인화 헤드 마운티드 디스플레이 장치 및 그 제어 방법에 관한 발명으로서, 보다 상세하게는 헤드 마운티드 디스플레이 장치 장치를 사용하는 사용자마다 최적회된 시야각 및 이미지 품질의 정도를 계산한 후, 이를 기초로 렌더링을 수행하는 헤드 마운티드 디스플레이 장치 및 그 제어방법에 관한 발명이다.The present invention relates to an eye-based personalized head-mounted display device and a control method therefor, and more particularly, after calculating the optimal viewing angle and image quality for each user who uses the head-mounted display device, based on this The present invention relates to a head-mounted display device for performing rendering and a method for controlling the same.

헤드 마운티드 디스플레이 장치(Head Mounted Display) 장치는 사용자의 머리에 착용하는 디스플레이 장치를 말하며, 헤드 마운티드 디스플레이 장치 장치는 주로 가상현실(Virtual Reality) 또는 증강현실(Augmented Reality)의 구현을 위한 디스플레이 장치로 사용되며, 3D 디스플레이 기술과 접목되기도 한다.A head mounted display device refers to a display device worn on a user's head, and the head mounted display device is mainly used as a display device for realization of virtual reality or augmented reality. It can also be combined with 3D display technology.

헤드 마운티드 디스플레이 장치는 그 특성상 다른 디스플레이 장치와 비교할 수 없을 정도의 몰입감을 사용자에 제공하는 것이 특징이며, 사용자에게 보이는 디스플레이 크기에 비해 공간적인 제약이 거의 없다는 장점도 있다. 또한, 헤드 마운티드 디스플레이 장치는 헤드 트래킹과 같은 사용자 움직임을 인식하고, 인식에 따라 표시되는 영상을 조절할 수 있어서, 매우 직관적인 입력 방식을 제공하는 이점도 있다.The head-mounted display device is characterized by providing a user with a sense of immersion that cannot be compared with other display devices due to its characteristics, and has the advantage that there are few spatial restrictions compared to the size of the display shown to the user. In addition, the head mounted display apparatus recognizes user movement such as head tracking, and can adjust a displayed image according to the recognition, thereby providing a very intuitive input method.

다만, 헤드 마운티드 디스플레이 장치는 사용자가 직접 착용을 해야 한다는 점에서, 헤드 마운티드 디스플레이 장치의 무게에 따른 불편함이 발생하며, 눈앞에서 표시되는 대형 화면으로 인해 멀미가 발생하는 경우도 존재한다.However, since the head mounted display device has to be worn by the user, inconvenience occurs due to the weight of the head mounted display device, and motion sickness may occur due to the large screen displayed in front of the eyes.

또한, 헤드 마운티드 디스플레이 장치의 경우 사용자에게 제공해주는 이미지의 화면이 큰 특성상 이미지의 품질을 고품질로 유지하기 위해서는 그래픽 카드의 많이 리소스가 필요해서 다른 디스플레이 장치에 비해 고품질의 이미지를 제공해주지 못하는 단점이 존재한다.In addition, in the case of a head mounted display device, due to the nature of the large screen of the image provided to the user, it requires a lot of resources for the graphics card to maintain the high quality of the image, so there is a disadvantage in that it cannot provide a high-quality image compared to other display devices. do.

따라서, 이러한 문제점을 해결하기 위해 근래에는 사용자의 시야각을 고려한 포비티트 렌더링 기법이 헤드 마운티드 디스플레이 장치에 적용되고 있다.Accordingly, in order to solve this problem, in recent years, a forward rendering technique in consideration of a user's viewing angle has been applied to a head mounted display apparatus.

그러나, 사람마다 망막의 구조가 다르기 때문에 이러한 시야각의 범위는 개개인마다 서로 다른 범위를 가지고 있는데 종래 기술에 의한 경우 시야각을 설정함에 있어서 사람의 평균적인 시야각을 기준으로 설정하였기 때문에, 개개인의 시야각에 맞춘 최적화된 영상을 제공하지 못하고 있는 실정이며, 사용자마다의 시야각을 고려하지 않고 일률적으로 적용된 시야각에 기초하여 영상을 제공하였기 때문에, 앞서 설명한 멀미 저감의 효과가 반감되는 문제점이 또한 존재한다.However, since the structure of the retina is different for each person, the range of such a viewing angle has a different range for each individual. It is a situation in which an optimized image cannot be provided, and since the image is provided based on the uniformly applied viewing angle without considering the viewing angle for each user, there is also a problem in that the effect of reducing motion sickness described above is halved.

대한민국 공개 특허 제10-2017-0013653호Republic of Korea Patent Publication No. 10-2017-0013653

따라서, 일 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치 및 그 제어 방법은 앞서 설명한 문제점을 개선하기 위하여 제안된 발명으로서, 개인 별 특성을 고려하여 최적의 영상을 제공할 수 있는 안구 기반 개인화 헤드 마운티드 디스플레이 장치 및 그 제어 방법을 제공하는 데 목적이 있다.Accordingly, an eye-based personalized head-mounted display device and a method for controlling the same according to an embodiment are inventions proposed to improve the above-described problems, and the eye-based personalized head-mounted display device capable of providing an optimal image in consideration of individual characteristics is provided. An object of the present invention is to provide a display device and a method for controlling the same.

구체적으로, 사용자에게 영상을 출력함에 앞서 사용자의 시야각을 측정한 후, 측정된 시야각에 기초하여 렌더링을 수행한 영상을 제공함으로써, 보다 사용자에게 최적화된 영상을 제공하는데 그 목적이 존재한다.Specifically, an object is to provide a more optimized image to the user by measuring the user's viewing angle before outputting the image to the user, and then providing an image rendered based on the measured viewing angle.

본 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은, (a) 커스터마이징(customizing)을 위한 측정 화면이 출력되는 단계, (b) 상기 측정 화면 내 제1영역과, 상기 제1영역 보다 낮은 이미지 품질을 가지는 제2영역이 구획되는 단계, 상기 제1영역이 축소되는 단계, 상기 제1영역이 축소됨에 따라 사용자가 상기 제1영역과 상기 제2영역의 경계를 인지하는 제1인지 시점을 측정하고, 상기 제1인지 시점에서의 상기 경계를 상기 사용자의 시야각으로 설정하는 단계 및 상기 시야각 내부 영역을 상기 사용자의 중심시 영역으로 설정하고 상기 시야각 외부 영역을 상기 사용자의 주변시 영역으로 설정하고, 상기 주변시 영역의 이미지 품질은 상기 중심시 영역의 이미지 품질보다 상대적으로 낮은 이미지 품질로 렌더링하는 단계를 포함할 수 잇다.The control method of the eyeball-based personalized head mounted display device according to the present embodiment comprises the steps of: (a) outputting a measurement screen for customizing, (b) a first area within the measurement screen, and more than the first area A step of partitioning a second area having a low image quality, a step of reducing the first area, a first recognition time point at which a user recognizes a boundary between the first area and the second area as the first area is reduced measuring , and setting the boundary at the first recognition time point as the user's viewing angle, setting the area inside the viewing angle as the central vision area of the user, and setting the area outside the viewing angle as the peripheral vision area of the user and rendering the image quality of the peripheral vision region with a relatively lower image quality than the image quality of the central vision region.

상기 주변시 영역의 이미지 품질은 상기 시야각에서 상기 주변시 영역 으로 멀어질수록 단계적으로 저하될 수 있다.The image quality of the peripheral vision region may be degraded in stages as the distance from the viewing angle to the peripheral vision region increases.

상기 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은, 상기 (c) 단계 및 상기 (d) 단계가 복수 회 반복되는 단계를 더 포함하고, 상기 시야각으로 설정하는 단계는, 상기 복수 회 반복된 데이터의 평균으로 설정하는 단계를 포함할 수 있다.The method for controlling the eye-based personalized head-mounted display device further includes the step of repeating steps (c) and (d) a plurality of times, and the setting of the viewing angle includes: It may include the step of setting the average.

상기 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은, 상기 (c) 단계 및 상기 (d) 단계가 복수 회 반복되는 단계를 더 포함하고, 상기 시야각을 설정하는 단계는, 상기 복수 회 반복된 데이터의 평균에 표준편차를 빼거나 더한 값으로 설정할 수 있다.The method for controlling the eyeball-based personalized head-mounted display device further includes repeating steps (c) and (d) a plurality of times, and setting the viewing angle includes: It can be set as the mean plus or minus the standard deviation.

상기 시야각으로 설정하는 단계는, 상기 복수 회 반복된 데이터의 평균에 표준편차를 뺀 값과 더한 값을 각각 제1시야각 및 제2시야각으로 설정하는 단계를 포함할 수 있다.The setting of the viewing angles may include setting values obtained by subtracting and adding a standard deviation to the average of the data repeated a plurality of times as the first viewing angles and the second viewing angles, respectively.

상기 중심시 영역의 이미지 품질은, 상기 제1시야각에서 상기 제2시야각으로 접근할수록 단계적으로 저하될 수 있다.The image quality of the central viewing area may be gradually deteriorated as the first viewing angle approaches the second viewing angle.

상기 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은 상기 (b) 단계 전 상기 사용자 신체의 움직임 또는 사용자의 눈(eye)을 트래킹하는 단계를 더 포함할 수 있다.The method of controlling the eye-based personalized head-mounted display apparatus may further include tracking the movement of the user's body or the user's eye before the step (b).

상기 제1영역의 이미지 품질을 서로 다르게 하여 상기 (b) 단계 내지 상기 (f) 단계를 복수 회 반복되는 단계를 더 포함하고, 상기 주변시 영역의 이미지 품질은 상기 이미지 품질마다 측정된 서로 다른 시야각을 기초로 상기 시야각에서 상기 주변시 영역으로 멀어질수록 단계적으로 저하될 수 있다.The method further includes repeating steps (b) to (f) a plurality of times by varying the image quality of the first region, wherein the image quality of the peripheral vision region is different from each of the different viewing angles measured for each image quality. It may be gradually decreased as the distance from the viewing angle to the peripheral vision region is increased based on .

본 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은 (a) 커스터마이징(customizing)을 위한 측정 화면이 출력되는 단계, (b) 상기 측정 화면 내 제1영역과, 상기 제1영역 보다 낮은 이미지 품질을 가지는 제2영역이 구획되는 단계, (c) 상기 제1영역이 축소되는 단계, (d) 상기 제1영역이 축소됨에 따라 사용자가 상기 제1영역과 상기 제2영역의 경계를 인지하는 제1인지 시점을 측정하고, 상기 제1인지 시점에서의 상기 경계를 상기 사용자의 시야각으로 설정하는 단계, (e) 상기 시야각의 내부 영역을 상기 사용자의 중심시 영역으로 설정하고 상기 시야각의 외부 영역을 상기 사용자의 주변시 영역으로 설정하고, 상기 중심시 영역과 상기 주변시 영역의 이미지 품질을 동일하게 설정하는 단계, (f) 상기 주변시 영역의 이미지 품질이 저하되는 단계, (g) 상기 주변시 영역의 이미지 품질이 저하됨에 따라 상기 사용자가 상기 중심시 영역과 상기 주변시 영역의 경계를 인지하는 제2인지 시점을 측정하고, 상기 제2인지 시점에서의 상기 주변시 영역의 이미지 품질 값을 측정하는 단계 및 (h) 상기 측정된 주변시 영역의 이미지 품질 값을 기초로, 상기 주변시 영역의 이미지를 렌더링하는 단계를 포함할 수 있다.The control method of the eyeball-based personalized head mounted display device according to the present embodiment comprises the steps of (a) outputting a measurement screen for customizing, (b) a first area within the measurement screen, and lower than the first area partitioning a second region having image quality, (c) reducing the first region, and (d) reducing the first region so that the user recognizes the boundary between the first region and the second region measuring a first recognition time point, and setting the boundary at the first recognition time point as the user's viewing angle, (e) setting the inner area of the viewing angle as the central viewing area of the user, and setting the boundary outside the viewing angle setting a region as the peripheral vision region of the user, and setting the image quality of the central vision region and the peripheral vision region to be the same, (f) reducing the image quality of the peripheral vision region, (g) the As the image quality of the peripheral vision region deteriorates, a second perception time point at which the user recognizes the boundary between the central vision area and the peripheral vision area is measured, and the image quality value of the peripheral vision area at the second perception time point and (h) rendering an image of the peripheral vision region based on the measured image quality value of the peripheral vision region.

상기 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은 상기 (f) 단계 및 상기 (g) 단계가 복수 회 반복되는 단계를 더 포함하고, 상기 주변시 영역의 이미지 품질 값은 상기 복수 회 반복된 데이터의 평균으로 설정될 수 있다.The method for controlling the eyeball-based personalized head-mounted display device further includes repeating steps (f) and (g) a plurality of times, wherein the image quality value of the peripheral vision region is the value of the data repeated a plurality of times. can be set to average.

상기 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은 상기 (f) 단계 및 상기 (g) 단계가 복수 회 반복되는 단계를 더 포함하고, 상기 주변시 영역의 이미지 품질 값은 상기 복수 회 반복된 데이터의 평균에 표준편차를 더하거나 뺀 값으로 설정될 수 있다.The method for controlling the eyeball-based personalized head-mounted display device further includes repeating steps (f) and (g) a plurality of times, wherein the image quality value of the peripheral vision region is the value of the data repeated a plurality of times. It can be set as a value by adding or subtracting the standard deviation from the mean.

본 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은, (a) 커스터마이징(customizing)을 위한 화면이 출력되는 단계, (b) 상기 화면 내 동일한 이미지 품질을 가지는 제3영역과 제4영역이 구획되는 단계, (c) 상기 제4영역의 이미지 품질이 저하되는 단계, (d) 상기 제4영역의 이미지 품질이 저하됨에 따라 사용자가 상기 제3영역과 상기 제4영역의 경계를 인지하는 제2인지 시점을 측정하고, 상기 제2인지 시점에서의 상기 제4영역의 이미지 품질 값을 측정하는 단계 및 (e) 상기 (d) 단계에 의해 측정된 제4영역의 이미지 품질 값을 상기 주변시 영역의 이미지 품질 값으로 설정한 후, 상기 주변시 영역에 대해 렌더링을 수행하는 단계를 포함할 수 있다.The control method of the eyeball-based personalized head-mounted display apparatus according to the present embodiment includes (a) outputting a screen for customizing, (b) a third area and a fourth area having the same image quality in the screen In this partitioning step, (c) the image quality of the fourth region is lowered, (d) as the image quality of the fourth region is lowered, the user recognizes the boundary between the third region and the fourth region. measuring the second recognition time point, measuring the image quality value of the fourth area at the second recognition time point, and (e) measuring the image quality value of the fourth area measured by the step (d) to the surroundings After setting the image quality value of the viewing region, the method may include performing rendering on the peripheral vision region.

상기 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은, 상기 (c) 단계 및 상기 (d) 단계가 복수 회 반복되는 단계를 더 포함하고, 상기 주변시 영역의 이미지 품질 값은 상기 복수 회 반복된 데이터의 평균으로 설정될 수 있다.The method for controlling the eyeball-based personalized head-mounted display device further includes repeating steps (c) and (d) a plurality of times, wherein the image quality value of the peripheral vision region is the data repeated a plurality of times. can be set as the average of

상기 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법은, 상기 (c) 단계 및 상기 (d) 단계가 복수 회 반복되는 단계를 더 포함하고, 상기 주변시 영역의 이미지 품질 값은 상기 복수 회 반복된 데이터의 평균에 표준편차를 더하거나 뺀 값으로 설정될 수 있다.The method for controlling the eyeball-based personalized head-mounted display device further includes repeating steps (c) and (d) a plurality of times, wherein the image quality value of the peripheral vision region is the data repeated a plurality of times. It can be set as a value by adding or subtracting the standard deviation from the mean of .

본 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치는 디스플레이, 상기 디스플레이 내 제1영역과, 상기 제1영역 보다 낮은 이미지 품질을 가지는 제2영역을 구획하는 영역 조절부, 상기 제1영역 내 크기가 축소됨에 따라 입력되는 사용자 입력에 기초하여 상기 제1영역의 크기를 측정하는 측정부 및 상기 측정부에서 측정된 제1영역을 중심시 영역으로 설정하고, 상기 중심시 영역의 외측 영역을 주변시 영역으로 설정한 후, 상기 주변시 영역의 이미지의 품질 값은 상기 중심시 영역의 이미지 품질 값보다 상대적으로 낮은 값으로 설정하여 상기 중심시 영역과 상기 주변시 영역의 이미지에 대해 렌더링을 수행하는 제어부를 포함할 수 있다.The eye-based personalized head-mounted display device according to the present embodiment includes a display, a region control unit dividing a first region in the display, and a second region having lower image quality than the first region, and the size of the first region is A measurement unit measuring the size of the first area based on a user input as the size is reduced and the first area measured by the measurement unit are set as a central vision area, and an outer area of the central vision area is set as a peripheral vision area After setting the image quality value of the peripheral vision region to a value relatively lower than the image quality value of the central vision region, a controller configured to perform rendering on the images of the central vision region and the peripheral vision region. may include

상기 안구 기반 개인화 헤드 마운티드 디스플레이 장치는 사용자의 눈의 움직임과 상기 사용자의 머리의 움직임을 트래킹하는 트래킹 모듈을 더 포함하고, 상기 영역 조절부는 상기 트래킹 모듈로부터 취득한 상기 사용자의 눈이 바라보고 있는 정방향을 상기 제1영역와 상기 제2영역의 중심으로 하여 상기 제1영역과 상기 제2영역을 결정할 수 있다.The eye-based personalized head-mounted display device further includes a tracking module for tracking the movement of the user's eyes and the movement of the user's head, and the area control unit determines the forward direction in which the user's eyes are looking, obtained from the tracking module. The first region and the second region may be determined by using the first region and the second region as centers.

본 발명의 다양한 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치는 포비티트 렌더링을 수행함에 있어서 일률적으로 시야각을 정하지 않고 개인의 시야각을 측정한 후, 측정된 시야각에 기초하여 포비티드 영상을 수행하므로 보다 개인에게 최적화된 맞춤형 영상을 제공할 수 있는 장점이 있다.The eye-based personalized head-mounted display device according to various embodiments of the present invention measures an individual's viewing angle without uniformly determining the viewing angle in performing foveit rendering, and then performs a foveated image based on the measured viewing angle. It has the advantage of being able to provide customized images optimized for individuals.

또한, 개인 별 맞춤 영상 제공에 따라 헤드 마운티드 디스플레이 장치 사용 시 발생되는 가상 멀미를 줄일 수 있는 장점이 있으며, 사용자가 인지하지 못한 수준에서 주변시에 가장 낮은 이미지 품질의 영상을 구현함으로써, 렌더링에 요구되는 그래픽 카드의 리소스를 저감할 수 있는 장점이 있다.In addition, there is an advantage in that virtual motion sickness that occurs when using a head mounted display device can be reduced by providing customized images for each individual. There is an advantage of reducing the resources of the graphics card being used.

도 1은 본 발명의 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어에 대한 개념도이다.
도 2는 본 발명의 다양한 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 3은 본 발명의 다양한 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법에 대한 흐름도이다.
도 4는 본 발명의 다양한 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 다른 구성을 나타내는 블럭도이다.
도 5는 본 발명의 다양한 실시예에 따른 사용자 별 시야각 설정을 위한 제어 방법의 흐름도이다.
도 6은 본 발명의 다양한 실시예에 따른 시야각 설정 과정을 설명하기 위한 예시 도면이다.
도 7은 본 발명의 다양한 실시예에 따른 사용자 별 이미지 품질 설정을 위한 제어 방법의 흐름도이다.
도 8은 본 발명의 다양한 실시예에 따른 이미지 품질 설정 과정을 설명하기 위한 예시 도면이다.
도 9는 본 발명의 다양한 실시예에 따른 시야각 및 이미지 품질을 커스터마이징한 과정을 설명하기 위한 도면이다.
1 is a conceptual diagram for controlling an eyeball-based personalized head-mounted display device according to an embodiment of the present invention.
2 is a block diagram illustrating the configuration of an eyeball-based personalized head mounted display device according to various embodiments of the present disclosure.
3 is a flowchart illustrating a method of controlling an eyeball-based personalized head mounted display apparatus according to various embodiments of the present disclosure.
4 is a block diagram illustrating another configuration of an eye-based personalized head-mounted display apparatus according to various embodiments of the present disclosure.
5 is a flowchart of a control method for setting a viewing angle for each user according to various embodiments of the present invention.
6 is an exemplary view for explaining a viewing angle setting process according to various embodiments of the present disclosure.
7 is a flowchart of a control method for setting image quality for each user according to various embodiments of the present invention.
8 is an exemplary view for explaining an image quality setting process according to various embodiments of the present disclosure.
9 is a view for explaining a process of customizing a viewing angle and image quality according to various embodiments of the present disclosure;

이하, 본 발명에 따른 실시 예들은 첨부된 도면들을 참조하여 설명한다. 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 실시 예들을 설명할 것이나, 본 발명의 기술적 사상은 이에 한정되거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있다.Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted. In addition, although embodiments of the present invention will be described below, the technical spirit of the present invention is not limited thereto and may be modified by those skilled in the art and variously implemented.

또한, 본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In addition, the terms used herein are used to describe the embodiments, and are not intended to limit and/or limit the disclosed invention. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 명세서에서, "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.In this specification, terms such as "comprises", "comprises" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, but one It does not preclude in advance the possibility of the presence or addition of other features or numbers, steps, operations, components, parts, or combinations thereof, or other features.

또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함하며, 본 명세서에서 사용한 "제 1", "제 2" 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되지는 않는다.In addition, throughout the specification, when a certain part is "connected" with another part, it is not only "directly connected" but also "indirectly connected" with another element interposed therebetween. Including, terms including an ordinal number, such as "first", "second", etc. used herein may be used to describe various elements, but the elements are not limited by the terms.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다. 또한, 설명의 편의를 위해 안구 기반 개인화 헤드 마운티드 디스플레이 장치는 헤드 마운티드 디스플레이 장치로 표현하여 설명한다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description will be omitted. In addition, for convenience of description, the eye-based personalized head mounted display device will be described as a head mounted display device.

도 1은 본 발명의 실시예에 따른 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어에 대한 개념도이다.1 is a conceptual diagram for controlling an eyeball-based personalized head-mounted display device according to an embodiment of the present invention.

도 1을 참조하면, 헤드 마운티드 디스플레이 장치(100)는 영상(200)을 출력하고, 출력되는 영상(200)은 헤드 마운티드 디스플레이 장치(100)를 착용한 사용자에게 제공할 수 있다.Referring to FIG. 1 , the head mounted display apparatus 100 may output an image 200 , and the output image 200 may be provided to a user wearing the head mounted display apparatus 100 .

시야각은 화면 표시 장치에서 정상적인 화면을 볼 수 있는 최대한의 측면 각도를 의미하며, 헤드 마운티드 디스플레이 장치(100)는 출력되는 영상(200)의 시야각(Field of View)을 조절할 수 있다. 여기서 시야각은 화각이라고 표현할 수도 있다.The viewing angle means the maximum side angle at which a normal screen can be viewed in the screen display device, and the head mounted display device 100 may adjust the field of view of the output image 200 . Here, the viewing angle may be expressed as an angle of view.

구체적으로, 헤드 마운티드 디스플레이 장치(100)는 출력되는 영상(200)의 시야각을 조절하기 위한 리스트릭터(250, restrictor)를 이용하여, 표시되는 영상(200)의 시야각을 조절할 수 있다.Specifically, the head mounted display apparatus 100 may adjust the viewing angle of the displayed image 200 by using a restrictor 250 for adjusting the viewing angle of the output image 200 .

일 실시예로, 헤드 마운티드 디스플레이 장치(100)는 출력되는 영상(200)에 리스트릭터(250)를 적용하여 시야각이 조절된 영상(200)을 출력하거나, 출력되는 영상(200) 위에 리스트릭터(250)를 함께 출력하여, 시야각이 조절된 영상(200)을 출력할 수 있다. 또 다른 실시예로, 헤드 마운티드 디스플레이 장치(100)는 물리적인 구성의 리스트릭터(250)를 이용하여, 출력되는 영상(200)의 시야각을 조절할 수 있다.In one embodiment, the head mounted display apparatus 100 applies the restrictor 250 to the output image 200 to output the image 200 whose viewing angle is adjusted, or the restrictor ( 250) together, the image 200 with the viewing angle adjusted may be output. As another embodiment, the head mounted display apparatus 100 may adjust the viewing angle of the output image 200 by using the restrictor 250 having a physical configuration.

또한, 헤드 마운티드 디스플레이 장치(100)는 리스트릭터(250)의 중심을 출력되는 영상(200)의 중심에 위치하도록 출력할 수 있고, 리스트릭터(250)의 중심을 사용자의 시선의 중심에 위치하도록 출력할 수도 있다.In addition, the head mounted display apparatus 100 may output the center of the restrictor 250 to be located at the center of the output image 200 , and to position the center of the restrictor 250 at the center of the user's gaze. You can also print

헤드 마운티드 디스플레이 장치(100)는 헤드 마운티드 디스플레이 장치(100)를 착용한 사용자의 움직임, 예를 들면 머리 움직임 및/또는 눈 움직임을 트래킹하고, 트래킹된 움직임을 기초로 시야각을 조절할 수 있다. 이와 같이, 헤드 마운티드 디스플레이 장치(100)는 사용자의 움직임에 따라 시야각을 조절해서, 사용자가 느끼는 멀미감을 줄일 수 있다.The head mounted display apparatus 100 may track a movement of a user wearing the head mounted display apparatus 100 , for example, a head movement and/or an eye movement, and adjust a viewing angle based on the tracked movement. In this way, the head mounted display apparatus 100 may reduce the user's sense of motion sickness by adjusting the viewing angle according to the user's movement.

사람 눈의 기본적인 시야각은 자신의 정면 방향에서 왼쪽 눈(상대방 기준으로 오른쪽 눈)의 법선을 기준으로 코 방향 60도, 바깥 방향 90도, 윗 방향 60, 아랫 방향 60도이며, 양안을 합친 시야각은 각각 수평 180도, 수직 120도가 된다. 다만, 사람마다 망막의 구조가 다르기 때문에 이러한 시야각의 범위는 개개인마다 서로 다른 범위를 가지고 있다. 그러나, 종래 기술에 의한 경우 시야각을 설정함에 있어서, 공지되어 있는 사람의 평균적인 시야각을 기준으로 설정하였기 때문에, 개개인의 시야각에 맞춘 최적화된 영상을 제공하지 못하고 있다. 특히, 헤드 마운티드 디스플레이 장치는 사용자가 인지할 수 있는 영상의 범위가 넓은데도 헤드 마운티드 디스플레이 장치를 착용하고 있는 사용자마다의 시야각을 고려하지 않고 일률적으로 적용된 시야각에 기초하여 영상을 제공하였기 때문에, 앞서 설명한 멀미 저감의 효과가 효율적으로 발생하지 않는 문제점이 존재하였다.The basic viewing angle of the human eye is 60 degrees in the nose direction, 90 degrees outward, 60 degrees upward, and 60 degrees downward from the normal of the left eye (the right eye in relation to the other person) from the frontal direction. 180 degrees horizontally and 120 degrees vertically, respectively. However, since the structure of the retina is different for each person, the range of such a viewing angle has a different range for each individual. However, in the case of the prior art, in setting the viewing angle, since an average viewing angle of a known person is set as a reference, an image optimized for an individual viewing angle cannot be provided. In particular, since the head mounted display device provides an image based on a uniformly applied viewing angle without considering the viewing angle for each user wearing the head mounted display device even though the range of images recognizable by the user is wide, the image is provided as described above. There was a problem that the effect of reducing motion sickness did not occur efficiently.

또한, 사용자가의 시야각을 고려하여 랜더링을 수행하면 보다 효율적으로 랜더링을 수행할 수 있음에도, 종래 기술에 의한 경우 일률적인 시야각을 기준으로 랜더링을 수행하다보니 그래픽 카드의 리소스 부하가 과다하기 걸리는 문제점이 존재하였다. 따라서, 일 실시예에 따른 헤드 마운티드 디스플레이 장치(100)는 이러한 문제점을 해결하기 위하 고안된 발명으로서, 영상을 출력함에 앞서 개개인의 시야각을 측정한 후, 측정된 시야각에 기초하여 렌더링을 수행함으로써, 보다 개개인하게 최적화된 영상을 제공하는데 그 목적이 존재한다. 이하 도면을 통해 본 발명에 대해 자세히 알아보도록 한다.In addition, although rendering can be performed more efficiently when rendering is performed in consideration of the user's viewing angle, in the case of the prior art, since rendering is performed based on a uniform viewing angle, there is a problem that the resource load of the graphics card is excessive existed. Therefore, the head mounted display apparatus 100 according to an embodiment is an invention devised to solve this problem. Before outputting an image, an individual's viewing angle is measured, and then rendering is performed based on the measured viewing angle. The purpose of providing an individually optimized image exists. Hereinafter, the present invention will be described in detail with reference to the drawings.

도 2는 본 발명의 다양한 실시예에 따른 헤드 마운티드 디스플레이 장치의 구성을 나타내는 블럭도이다.2 is a block diagram illustrating a configuration of a head mounted display apparatus according to various embodiments of the present disclosure.

도 2를 참조하면, 헤드 마운티드 디스플레이 장치(100)는 디스플레이(110), 메모리(120), 컨트롤러(130) 및 트래킹 모듈(140)을 포함할 수 있다.Referring to FIG. 2 , the head mounted display apparatus 100 may include a display 110 , a memory 120 , a controller 130 , and a tracking module 140 .

디스플레이(110)는 헤드 마운티드 디스플레이 장치(100)에서 처리된 영상 또는 헤드 마운티드 디스플레이 장치(100)에 전송된 영상을 출력할 수 있다.The display 110 may output an image processed by the head mounted display apparatus 100 or an image transmitted to the head mounted display apparatus 100 .

예를 들면, 디스플레이(110)는 가상현실(VR), 증강현실(AR), 3D 영상 등을 출력할 수 있으며, 디스플레이(110)는 출력되는 영상의 시야각이 조절된 영상을 출력할 수 있다.For example, the display 110 may output a virtual reality (VR), augmented reality (AR), 3D image, etc., and the display 110 may output an image in which the viewing angle of the output image is adjusted.

메모리(120)는 헤드 마운티드 디스플레이 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들면, 메모리(120)는 헤드 마운티드 디스플레이 장치(100)에서 구동되는 다양한 응용 프로그램(application program), 제어를 위한 데이터들, 명령어들을 저장할 수 있다.The memory 120 may store data supporting various functions of the head mounted display apparatus 100 . For example, the memory 120 may store various application programs driven in the head mounted display apparatus 100 , data for control, and commands.

컨트롤러(130)는 헤드 마운티드 디스플레이 장치(100)의 전반적인 제어를 제어할 수 있다.The controller 130 may control overall control of the head mounted display apparatus 100 .

예를 들면, 컨트롤러(130)는 헤드 마운티드 디스플레이 장치(100)가 영상을 출력하도록 제어할 수 있고, 트래킹 모듈(140)이 사용자의 움직임을 트래킹하도록 제어할 수 있다. 또한 컨트롤러(130)는 트래킹된 사용자 움직임을 기초로, 출력될 영상의 시야각을 계산할 수 있고, 계산된 시야각이 적용된 영상을 디스플레이(110)에 출력할 수 있다.For example, the controller 130 may control the head mounted display apparatus 100 to output an image, and may control the tracking module 140 to track the user's movement. Also, the controller 130 may calculate a viewing angle of an image to be output based on the tracked user movement, and may output an image to which the calculated viewing angle is applied to the display 110 .

따라서, 컨트롤러(130)는 적어도 하나의 프로세서(processor)를 포함할 수 있다. 그리고 컨트롤러(130)의 제어는 프로세서가 메모리에 저장된 실행어들을 실행하여 수행할 수도 있다.Accordingly, the controller 130 may include at least one processor. In addition, the control of the controller 130 may be performed by the processor executing the execution words stored in the memory.

트래킹 모듈(140)은 아이 트래킹 모듈(142), 헤드 트래킹 모듈(144)을 포함할 수 있으며, 트래킹 모듈(140)은 헤드 마운티드 디스플레이 장치(100)를 착용한 사용자의 움직임을 감지하고 측정할 수 있다.The tracking module 140 may include an eye tracking module 142 and a head tracking module 144 , and the tracking module 140 may detect and measure the movement of a user wearing the head mounted display device 100 . there is.

아이 트래킹 모듈(142)은 헤드 마운티드 디스플레이 장치(100)를 착용한 사용자의 눈의 움직임을 트래킹할 수 있다. 이에 따라, 아이 트래킹 모듈(142)은 사용자의 눈의 움직임뿐만 아니라 시선 이동도 트래킹할 수 있다.The eye tracking module 142 may track the eye movement of a user wearing the head mounted display apparatus 100 . Accordingly, the eye tracking module 142 may track not only the user's eye movement but also the eye movement.

헤드 트래킹 모듈(144)은 헤드 마운티드 디스플레이 장치(100)를 착용한 사용자의 머리 움직임을 트래킹할 수 있다. 예를 들면, 헤드 트래킹 모듈(144)는 헤드 마운티드 디스플레이 장치(100)를 착용한 사용자의 머리 중심을 기준으로, 피치(pitch), 요(yaw), 롤(roll) 각각을 센싱할 수 있다.The head tracking module 144 may track the head movement of the user wearing the head mounted display apparatus 100 . For example, the head tracking module 144 may sense each of a pitch, a yaw, and a roll based on the center of the head of the user wearing the head mounted display apparatus 100 .

트래킹 모듈(140)은 상술한 사용자의 움직임을 트래킹하기 위해 다양한 센서를 포함할 수 있다. 예를 들면, 트래킹 모듈(140)은 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰(microphone) 중 적어도 하나를 포함할 수 있다.The tracking module 140 may include various sensors to track the above-described user's movement. For example, the tracking module 140 is a proximity sensor (proximity sensor), an illumination sensor (illumination sensor), a touch sensor (touch sensor), an acceleration sensor (acceleration sensor), a magnetic sensor (magnetic sensor), a gravity sensor (G- sensor), a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), an ultrasonic sensor, an optical sensor (eg, a camera) , may include at least one of a microphone (microphone).

헤드 마운티드 디스플레이 장치(100)는 상술한 구성 이외에도 다양한 구성을 포함할 수 있다. 예를 들면, 헤드 마운티드 디스플레이 장치(100)는 유선/무선 통신을 위한 통신 모듈, 데이터를 입력/출력할 수 있는 입출력 포트, 사용자 입력을 수신할 수 있는 입력 모듈 등을 포함할 수 있다. 헤드 마운티드 디스플레이 장치(100)의 다른 구성에 있어서는 후술하기로 한다.The head mounted display apparatus 100 may include various configurations in addition to the aforementioned configuration. For example, the head mounted display apparatus 100 may include a communication module for wired/wireless communication, an input/output port for inputting/outputting data, an input module for receiving a user input, and the like. Another configuration of the head mounted display apparatus 100 will be described later.

도 3을 참조하여, 헤드 마운티드 디스플레이 장치(100)의 제어 방법에 대해 설명한다. 도 3은 본 발명의 다양한 실시예에 따른 헤드 마운티드 디스플레이 장치의 제어 방법에 대한 흐름도이다.A method of controlling the head mounted display apparatus 100 will be described with reference to FIG. 3 . 3 is a flowchart illustrating a method of controlling a head mounted display apparatus according to various embodiments of the present disclosure.

도 3을 참조하면, 헤드 마운티드 디스플레이 장치(100)는 헤드 마운티드 디스플레이 장치(100)를 착용한 사용자의 눈, 머리 중 적어도 하나의 움직임을 트래킹할 수 있다(S10).Referring to FIG. 3 , the head mounted display apparatus 100 may track the movement of at least one of the eyes and the head of the user wearing the head mounted display apparatus 100 ( S10 ).

예를 들면, 헤드 마운티드 디스플레이 장치(100)의 트래킹 모듈(140)은 헤드 마운티드 디스플레이 장치(100)를 착용한 사용자의 눈, 머리 중 적어도 하나의 움직임을 센싱할 수 있다.For example, the tracking module 140 of the head mounted display apparatus 100 may sense the movement of at least one of the eyes and the head of the user wearing the head mounted display apparatus 100 .

일 실시예로, 아이 트래킹 모듈(142)은 사용자의 눈의 이동, 시선 이동을 트래킹할 수 있으며, 헤드 트래킹 모듈(144)은 사용자의 머리 움직임을 트래킹할 수 있다.In one embodiment, the eye tracking module 142 may track the movement of the user's eyes and gaze, and the head tracking module 144 may track the movement of the user's head.

또 다른 실시예로, 아이 트래킹 모듈(142) 및 헤드 트래킹 모듈(144) 각각은 사용자의 눈의 이동, 시선 이동 및 머리 움직임에 대해 각각 트래킹할 수 있다.In another embodiment, each of the eye tracking module 142 and the head tracking module 144 may track the user's eye movement, gaze movement, and head movement, respectively.

이에 따라, 헤드 마운티드 디스플레이 장치(100)는 센싱된 사용자의 눈, 머리 중 적어도 하나의 움직임을 기초로, 사용자의 움직임을 트래킹할 수 있을 뿐만 아니라 출력되는 영상에서 사용자가 바라보는 위치도 판단할 수 있다.Accordingly, the head mounted display apparatus 100 may not only track the movement of the user based on the sensed movement of at least one of the user's eyes and the head, but also determine the position the user is looking at in the output image. there is.

사용자의 눈 또는 머리의 움직임을 트래킹 하였으면, 헤드 마운티드 디스플레이 장치(100)는 트래킹된 움직임을 기초로, 출력될 영상의 시야각을 계산할 수 있다(S20).When the user's eye or head movement is tracked, the head mounted display apparatus 100 may calculate a viewing angle of an image to be output based on the tracked movement ( S20 ).

구체적으로, 헤드 마운티드 디스플레이 장치(100)의 컨트롤러(130)는 트래킹 모듈(140)이 트래킹한 사용자 움직임을 기초로, 디스플레이(110)에 출력될 영상의 시야각(Field of View)를 계산할 수 있다.Specifically, the controller 130 of the head mounted display apparatus 100 may calculate a field of view of an image to be output to the display 110 based on the user movement tracked by the tracking module 140 .

예를 들면, 컨트롤러(130)는 트래킹된 움직임에 비례하여 시야각을 조절하도록 출력될 영상의 시야각을 계산할 수 있다. 구체적으로, 컨트롤러(130)는 트래킹된 사용자의 눈, 머리 중 적어도 하나의 움직임에 비례하여, 출력될 영상의 시야각을 조절하도록, 출력될 영상의 시야각을 계산할 수 있다.For example, the controller 130 may calculate the viewing angle of the image to be output to adjust the viewing angle in proportion to the tracked movement. Specifically, the controller 130 may calculate the viewing angle of the image to be output to adjust the viewing angle of the image to be output in proportion to the tracked movement of at least one of the user's eyes and head.

출력될 영상의 시야각이 계산되면, 헤드 마운티드 디스플레이 장치(100)는 계산된 시야각을 기초로 영상을 출력할 수 있다.(S30)When the viewing angle of the image to be output is calculated, the head mounted display apparatus 100 may output the image based on the calculated viewing angle. (S30)

도 4는 본 발명의 다양한 실시예에 따른 헤드 마운티드 디스플레이 장치의 다른 구성을 나타내는 블럭도이다.4 is a block diagram illustrating another configuration of a head mounted display apparatus according to various embodiments of the present disclosure.

도 4는 본 발명의 다양한 실시예에 따른 헤드 마운티드 디스플레이 장치(100)의 다른 구성을 나타내는 블럭도로서, 도 4의 구성은 도 2의 헤드 마운티드 디스플레이 장치(100)의 구성에 추가될 수 있다.4 is a block diagram illustrating another configuration of the head mounted display apparatus 100 according to various embodiments of the present disclosure. The configuration of FIG. 4 may be added to the configuration of the head mounted display apparatus 100 of FIG. 2 .

도 4를 참조하면, 헤드 마운티드 디스플레이 장치는 제어부(310), 영역 조절부(320), 화질 조절부(330), 측정부(340) 및 사용자 조작부(350)를 포함할 수 있다.Referring to FIG. 4 , the head mounted display apparatus may include a control unit 310 , a region control unit 320 , an image quality control unit 330 , a measurement unit 340 , and a user manipulation unit 350 .

제어부(310)는 헤드 마운티드 디스플레이 장치의 전반적인 제어를 제어한다.제어부(310)는 상술한 헤드 마운티드 디스플레이 장치의 구성들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 구동함으로써, 헤드 마운티드 디스플레이 장치의 구동을 위한 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The controller 310 controls overall control of the head-mounted display apparatus. The controller 310 processes or drives signals, data, information, etc. input or output through the components of the above-described head-mounted display apparatus, thereby processing or driving the head-mounted display apparatus. It may provide or process appropriate information or functions for the operation of the device.

영역 조절부(320)는, 출력되는 영상 내 제1영역과 제2영역을 구획할 수 있다.The region control unit 320 may divide the first region and the second region in the output image.

구체적으로 영역 조절부(320)는 사용자의 시야각에 기초하여 제1영역과 제2영역을 구획할 수 있으며, 상술한 트래킹 모듈(140)로부터 수신한 정보에 기초하여 제1영역과 제2영역을 조절할 수 있다. 영역 조절부(320)는 사용자가 응시하는 영역의 중심을 제1영역으로 정의하고, 제1영역의 외측의 영역을 제2영역으로 정의할 수 있다. 이에 따라 제1영역을 중심시 영역이라 칭할 수 있고, 제2영역을 주변시 영역이라 칭할 수 있다.Specifically, the area control unit 320 may divide the first area and the second area based on the user's viewing angle, and set the first area and the second area based on the information received from the above-described tracking module 140 . can be adjusted The region control unit 320 may define a center of the region that the user gazes at as the first region, and may define a region outside the first region as the second region. Accordingly, the first region may be referred to as a central vision region, and the second region may be referred to as a peripheral vision region.

사용자의 시야각을 측정하는 과정에서, 영역 조절부(320)는 제1영역의 크기를 축소하거나 확장할 수 있다. 일 예로, 영상 내 영역을 가상의 원을 기준으로, 가상의 원의 내측에 배치되는 영역을 제1영역, 가상의 원의 외측에 배치되는 영역을 제2영역이라 할 때, 영역 조절부(320)는 가상의 원의 직경을 축소 또는 확장하는 방법으로, 제1영역의 크기와 제2영역의 크기를 가변시킬 수 있다.In the process of measuring the user's viewing angle, the area adjusting unit 320 may reduce or expand the size of the first area. For example, when the region within the image is referred to as a virtual circle, an area disposed inside the virtual circle is referred to as a first area, and an area disposed outside the virtual circle is referred to as a second area, the area adjusting unit 320 ) is a method of reducing or expanding the diameter of the virtual circle, and the size of the first region and the size of the second region can be varied.

사용자 별 맞춤 이미지 품질을 정의하는 과정에서, 영역 조절부(320)는 트래킹 모듈(140) 또는 사용자 별 정의된 시야각을 기준으로 제1영역과 제2영역을 정의할 수 있다. 헤드 마운트 디스플레이 내 트래킹 모듈(140)이 존재하는 경우, 사용자의 눈이 바라보는 지점을 제1영역과 제2영역의 중심점으로 지정할 수 있으나, 헤드 마운트 디스플레이 내 트래킹 모듈(140)이 존재하지 않을 경우, 출력되는 영상의 중앙부를 제1영역으로 정의하고, 제1영역의 외측을 제2영역으로 정의할 수 있다.In the process of defining the customized image quality for each user, the region adjusting unit 320 may define the first region and the second region based on the tracking module 140 or the viewing angle defined for each user. When the tracking module 140 in the head mounted display is present, the point the user's eyes look at can be designated as the center point of the first area and the second area, but when the tracking module 140 in the head mounted display does not exist , a central portion of the output image may be defined as a first area, and an outside of the first area may be defined as a second area.

화질 조절부(330)는 출력되는 영상의 이미지 품질을 조절할 수 있다. 이미지 품질을 조절한다는 것은 출력되는 영상의 해상도 또는 화질의 품질을 조절하는 것을 의미한다.The quality control unit 330 may adjust the image quality of the output image. Adjusting the image quality means adjusting the quality of the resolution or picture quality of an output image.

화질 조절부(330)를 통해 출력되는 영상은 이미지 품질이 서로 상이한 복수의 영역을 가질 수 있다. 일 예로, 화질 조절부(330)는 제1영역에서 출력되는 영상은 높은 이미지 품질을 가지는 영상이 출력되도록 하고, 제2영역에서 출력되는 영상은 상대적으로 낮은 이미지 품질을 가지는 영상이 출력되도록 할 수 있다. 화질 조절부(330)는 제1영역에서 제2영역으로 갈수록 순차적으로 낮은 이미지 품질의 영상이 출력되도록 조절할 수 있다. 화질 조절부(330)는 제1영역에서 헤드 마운티드 디스플레이 장치가 출력할 수 있는 최고 품질의 영상을 렌더링할 수 있다.An image output through the image quality control unit 330 may have a plurality of regions having different image qualities. For example, the image quality adjusting unit 330 may output an image having a high image quality for the image output from the first region, and output an image with a relatively low image quality for the image output from the second region. there is. The image quality control unit 330 may adjust the image to be sequentially outputted from the first region to the second region. The image quality control unit 330 may render an image of the highest quality that can be output by the head mounted display device in the first area.

상기 설명한 방법과 같이 제1영역과 제2영역으로 나누어 사용자의 시야각에 속하는 제1영역은 최고의 품질로 랜더링을 하고, 사용자의 주변시 영역에 해당하는 제2영역에 대해서는 상대적으로 낮은 품질로 랜더링을 하는 경우, 사용자가 정확히 인지할 수 는 없는 영역에서는 높은 품질로 랜더링을 할 필요가 없어, 사용자의 몰입감을 해지지 않으면서 그래픽 카드의 리소스 부하를 낮출 수 있는 장점이 존재한다.As in the above-described method, the first area belonging to the user's viewing angle is divided into a first area and a second area, and rendering is performed with the highest quality, and the second area corresponding to the user's peripheral vision area is rendered with relatively low quality. In this case, there is no need to perform high-quality rendering in an area that cannot be accurately recognized by the user, thereby reducing the resource load of the graphics card without compromising the user's immersion.

측정부(340)는 사용자 별 영상의 커스터마이즈 과정에서 제공되는 시야각 및 이미지 품질을 측정할 수 있다. The measurement unit 340 may measure the viewing angle and image quality provided in the process of customizing an image for each user.

구체적으로, 측정부(340)는 영역 조절부(320) 및 화질 조절부(330)를 통해 변화되는 시야각 및 이미지 품질 중 사용자가 인지하는 시점에서의 시야각 및 이미지 품질 값을 측정할 수 있다. 여기서, 사용자가 인지하는 시점은 사용자의 사용자 조작부(350)를 통한 입력으로 결정될 수 있다. 측정부(340)를 통해 측정된 사용자 별 시야각 및 이미지 품질 값은 메모리(120)에 저장될 수 있고, 제어부(310)는 메모리(120)에 입력된 단일 사용자의 복수 데이터를 통하여 평균 및 표준 편차를 계산할 수 있다.Specifically, the measurement unit 340 may measure the viewing angle and image quality value at a point in time recognized by the user among the viewing angles and image qualities that are changed through the area control unit 320 and the image quality control unit 330 . Here, the time point recognized by the user may be determined by the user's input through the user manipulation unit 350 . The viewing angle and image quality values for each user measured by the measurement unit 340 may be stored in the memory 120 , and the control unit 310 may use a plurality of data of a single user input to the memory 120 to obtain an average and standard deviation. can be calculated.

사용자 조작부(350)는 영역 조절부(320) 또는 화질 조절부(330)의 구동을 통한 제1영역과 제2영역의 인지 시점을 입력하기 위한 것으로, 사용자에 의해 조작될 수 있다. 사용자 조작부(350)는 헤드 마운트 디스플레이 장치의 외면 상에 배치될 수 있다. 일 예로, 사용자 조작부(350)는 사용자에 의해 가압되는 버튼(미도시)을 포함할 수 있다.The user manipulation unit 350 is for inputting the recognition timing of the first region and the second region through the driving of the region adjusting unit 320 or the image quality adjusting unit 330 , and may be manipulated by the user. The user manipulation unit 350 may be disposed on the outer surface of the head mounted display device. As an example, the user manipulation unit 350 may include a button (not shown) pressed by the user.

이하에서는, 사용자 별 맞춤화된 헤드 마운티드 디스플레이 장치(100)의 구동에 대해 설명하기로 한다.Hereinafter, driving of the head mounted display apparatus 100 customized for each user will be described.

사용자는 헤드 마운티드 디스플레이 장치(100)의 최초 착용 시, 자신에게 최적화된 영상 출력을 위한 커스터마이징 단계를 거칠 수 있다.When the user first wears the head mounted display apparatus 100 , the user may go through a customizing step for outputting an image optimized for him/her.

구체적으로, 커스터마이징(customizing) 단계에서는 사용자가 응시하는 정면에 커스터마이징 화면이 출력될 수 있다. 또한, 메모리(120)에는 서로 다른 사용자 별 시야각 및 이미지 품질에 관한 데이터가 저장되어, 사용자는 자신이 커스터마이징한 데이터 값으로 영상이 출력되도록 제어할 수 있다.Specifically, in the customizing step, the customizing screen may be output to the front that the user stares at. In addition, the memory 120 stores data related to different viewing angles and image quality for each user, so that the user can control an image to be output with a data value customized by the user.

도 5는 본 발명의 다양한 실시예에 따른 사용자 별 시야각 설정을 위한 제어 방법의 흐름도 이고, 도 6은 본 발명의 다양한 실시예에 따른 시야각 설정 과정을 설명하기 위한 예시 도면이다.5 is a flowchart of a control method for setting a viewing angle for each user according to various embodiments of the present invention, and FIG. 6 is an exemplary view for explaining a viewing angle setting process according to various embodiments of the present invention.

도 6의 왼쪽에 도시되어 있는 테스트 화면을 기준으로 구획되는 영역 중 제1영역은 원의 내측에 배치되는 영역으로 정의되고, 제2영역은 원의 외측에 배치되는 영역으로 정의될 수 있다. 상기 노란색 원은 헤드 마운티드 디스플레이 장치(100)의 제어 과정을 설명하기 위한 가상의 원으로서, 실제 커스터마이징 화면에서는 표시되지 않을 수도 있다.Among the regions partitioned based on the test screen shown in the left of FIG. 6 , the first region may be defined as an area disposed inside the circle, and the second area may be defined as an area disposed outside the circle. The yellow circle is a virtual circle for explaining the control process of the head mounted display apparatus 100 and may not be displayed on the actual customizing screen.

도 5 및 6을 참조하면, 사용자의 헤드 마운티드 디스플레이 장치(100)의 착용에 따라 커스터마이징을 위한 화면이 출력될 수 있다. 사용자가 응시하는 영역을 기준으로 커스터마이징 화면은 제1영역과 제2영역으로 구획될 수 있다. 상기 제1영역에는 상대적으로 높은 이미지 품질의 영상이 출력되고, 상기 제2영역에는 상대적으로 낮은 이미지 품질의 영상이 출력될 수 있다.Referring to FIGS. 5 and 6 , a screen for customization may be output according to the user's wearing of the head mounted display apparatus 100 . The customized screen may be divided into a first area and a second area based on the area the user gazes at. An image having a relatively high image quality may be output to the first region, and an image having a relatively low image quality may be output to the second region.

최초에는 영상 내 최대 크기의 제1영역이 형성될 수 있다. 일 예로, 도 6의 테스트 화면에 도시된 바와 같이, 상기 노란색 원은 가장 큰 직경인10의 직경 값을 가질 수 있다. 다음으로, 테스트 화면의 노란색 원은 영역 조절부(320)를 통해 제1영역이 사용자 시선의 주변부에서 중심을 향해 직경 값이 낮아지도록 축소될 수 있다(S110). 이에 따라 상대적으로 낮은 품질 값을 가지는 제2영역이 증가하게 되며, 상대적으로 높은 품질 값을 가지는 제1영역이 감소하게 된다.Initially, a first region having the maximum size in the image may be formed. For example, as shown in the test screen of FIG. 6 , the yellow circle may have a diameter value of 10, which is the largest diameter. Next, the yellow circle of the test screen may be reduced so that the diameter value of the first area decreases from the periphery of the user's gaze toward the center through the area control unit 320 ( S110 ). Accordingly, the second region having a relatively low quality value increases, and the first region having a relatively high quality value decreases.

전술한 바와 같이, 커스터마이징 화면에는 가상의 원이 표시되지 않으므로, 제1영역의 축소에 따라 상대적으로 낮은 품질의 제2영역이 증가하게 되고, 이미지 품질이 서로 상이한 제1영역과 제2영역의 경계를 사용자가 인지할 때까지 제1영역은 축소될 수 있다.As described above, since the virtual circle is not displayed on the customizing screen, the second region of relatively low quality increases as the first region is reduced, and the boundary between the first region and the second region having different image quality. The first area may be reduced until the user recognizes .

영역 조절부(320)에 의해 제1영역이 계속 축소하게 되면 사용자는 제1영역과 제2영역의 경계를 인지할 수 있다. 이 때, 사용자는 사용자 조작부(350)의 조작을 통해 제1영역과 제2영역의 구분에 따른 인지 시점을 입력할 수 있다. 측정부(340)는 사용자의 입력을 기초로 사용자 인지 시점에서의 제1영역의 크기를 측정할 수 있다(S120).When the first region continues to be reduced by the region adjusting unit 320 , the user may recognize the boundary between the first region and the second region. In this case, the user may input a recognition time according to the division of the first area and the second area through the manipulation of the user manipulation unit 350 . The measurement unit 340 may measure the size of the first area at the time of user recognition based on the user's input (S120).

일 예로, 도 6의 테스트 화면에서 제1테스트의 경우 사용자가 최초 제1영역의 크기가 5.5의 직경을 가지는 시점에서 제1영역과 제2영역의 구분을 인지한 것을 예로 들고 있으며, 제2테스트의 경우 사용자가 최초 제1영역의 크기가 5.4의 직경을 가지는 시점에서 제1영역과 제2영역의 구분을 인지한 것을 예로 들고 있다.For example, in the test screen of FIG. 6 , in the case of the first test, the user recognizes the distinction between the first region and the second region when the size of the first region has a diameter of 5.5 as an example, and the second test In the case of , it is exemplified that the user recognizes the distinction between the first area and the second area when the size of the first area has a diameter of 5.4.

상술한 제어 과정은 복수회 수행될 수 있다. 일 예로, 상기 제1영역과 제2영역의 구분에 관한 사용자 인지 과정은 5회 이상 수행될 수 있다. 이에 따라 메모리(120)에는 각 과정 별 사용자 인지 시점에서의 제1영역 크기에 관한 데이터 값이 저장될 수 있다. 도 6에서는 2번째 테스트 과정에서 제1영역이 5.4의 직경을 가지는 시점에서 사용자에 의해 인지 시점이 입력되고, 최종 테스트인 N번째 테스트 과정에서 제1영역이 5.3의 직경을 가지는 시점에서 사용자에 의해 인지 시점이 입력되는 것을 예로 하고 있다.The above-described control process may be performed a plurality of times. For example, the user recognition process related to the division of the first area and the second area may be performed five or more times. Accordingly, the memory 120 may store a data value related to the size of the first area at the time of user recognition for each process. In FIG. 6 , the recognition time is input by the user when the first region has a diameter of 5.4 in the second test process, and in the Nth test process, which is the final test, the recognition time is input by the user when the first region has a diameter of 5.3. As an example, a recognition time point is input.

다음으로, 제어부(310)는 상기 제1영역 크기에 관한 복수의 데이터 값을 통하여, 측정 데이터의 평균 및 표준편차를 도출할 수 있다(S130).Next, the controller 310 may derive the average and standard deviation of the measured data through a plurality of data values related to the size of the first region ( S130 ).

일 예로, 상술한 과정에서 입력된 제1영역 크기에 관한 다수의 데이터를 통해 제1영역 크기의 평균값과 표준편차가 도출될 수 있다. 도 6에서는 사용자가 인지한 시점에서의 제1영역의 크기가 5.44의 평균 값을 가지고, 0.11의 표준편차를 가지는 것을 예로 들고 있다.For example, the average value and standard deviation of the size of the first region may be derived from the plurality of data related to the size of the first region input in the above-described process. In FIG. 6 , the size of the first region at the point in time recognized by the user has an average value of 5.44 and a standard deviation of 0.11 as an example.

만약, 1회 테스트를 기준으로 특정 개인의 시야각을 측정하게 되면 이미지 내에 존재하는 객체의 특성으로 인해 사용자의 시야각이 정확하게 측정이 되지 않을 수 있다. 그러나 본 발명처럼 복수 회의 테스트를 통해 평균 값을 통해 시야각을 측정하면 실제 시야각에 비해 상대적으로 오차가 적은 시야각을 측정할 수 있는 장점이 존재한다. 도 6에서는 하나의 이미지를 기초로 n번 테스트를 실시하는 것으로 도시하였지만, 본 발명의 실시예가 이에 한정되는 것은 아니고 서로 다른 이미지를 활용하여 n 번 테스트를 실시할 수 도 있다.If the viewing angle of a specific individual is measured based on one test, the user's viewing angle may not be accurately measured due to the characteristics of objects existing in the image. However, as in the present invention, when the viewing angle is measured through an average value through a plurality of tests, there is an advantage in that the viewing angle can be measured with a relatively small error compared to the actual viewing angle. Although FIG. 6 illustrates that the test is performed n times based on one image, the embodiment of the present invention is not limited thereto, and the test n times may be performed using different images.

상술한 평균 값을 구하는 과정에 의해 사용자 별 시야각이 정의될 수 있다. 즉, 복수 번의 시야각 측정 과정을 통한 데이터로 계산된 평균값에 의해, 특정 사용자의 시야각이 정의될 수 있다. 이에 따라 특정 사용자의 시야각에 기초한 영상이 렌더링될 수 있다(S140). 즉, 정의된 제1영역의 크기로 중심시 영역이 설정되고, 중심시 영역의 외측에 상대적으로 낮은 이미지 품질의 주변시 영역이 설정되어 렌더링될 수 있다.A viewing angle for each user may be defined by the process of obtaining the above-described average value. That is, the viewing angle of a specific user may be defined by an average value calculated from data through a plurality of viewing angle measurement processes. Accordingly, an image based on the viewing angle of a specific user may be rendered ( S140 ). That is, the central vision region may be set as the size of the defined first region, and the peripheral vision region having a relatively low image quality may be set and rendered outside the central vision region.

도 6을 기준으로, 특정 사용자는 제1영역의 크기가 5.4인 영역만큼의 시야각을 가지므로, 헤드 마운티드 디스플레이 장치(100)는 특정 사용자가 바라보는 영역의 중심을 기준으로 직경이 5.4의 영역만큼은 제1영역으로 설정하고, 이 외의 영역은 제2영역으로 설정할 수 있다. 또한, 설정된 특성 사용자의 시야각에 기초하여, 헤드 마운티드 디스플레이 장치(100)는 제1영역은 상대적으로 높은 이미지 품질의 영상을 출력하고, 제2영역은 상대적으로 낮은 이미지 품질의 영상을 출력한 포비티드 렌더링(Foveated Rendering)이 구현될 수 있다. 본 발명처럼 포비티드 렌더링이 수행되는 경우 일률적인 시야각이 아닌 사용자의 실제 시야각에 맞추어 포비티트 렌더링이 수행되므로 사용자에게 보다 영상의 몰입을 제공해 줄 수 있으며, 멀미 또한 저감 될 수 있는 효과가 존재한다. 또한, 사용자가 인지하기 어려운 불필요한 부분에 대해서는 상대적으로 낮은 품질로 랜더링을 수행하므로 그래픽 카드의 리소스 부하를 감소시킬 수 있는 효과 또한 존재한다.Referring to FIG. 6 , since a specific user has a viewing angle corresponding to an area in which the size of the first area is 5.4, the head mounted display apparatus 100 has a diameter of 5.4 with respect to the center of the area viewed by the specific user. The first area may be set, and the other areas may be set as the second area. In addition, based on the set characteristic user's viewing angle, the head mounted display apparatus 100 outputs an image of relatively high image quality to the first region and foveated to output an image of relatively low image quality to the second region. Rendering (Foved Rendering) may be implemented. When foveated rendering is performed as in the present invention, since foveated rendering is performed according to the user's actual viewing angle rather than a uniform viewing angle, it is possible to provide a more immersive image to the user, and motion sickness can also be reduced. In addition, since rendering is performed at a relatively low quality for an unnecessary part that is difficult for a user to recognize, there is also an effect of reducing the resource load of the graphic card.

한편, 특정 사용자 별 제1영역이 크기는 측정된 다수의 데이터의 평균값에 표준 편차를 더하거나 뺀 값으로 정의될 수 있다. 예를 들어, 사용자가 영상 내 높은 이미지 품질의 제1영역이 상대적으로 크게 형성될 것을 원할 경우, 헤드 마운티드 디스플레이 장치(100)는 다수의 데이터의 평균값에 표준 편차를 더한 값으로 제1영역의 크기를 형성할 수 있다. 즉, 도 6의 렌더링 화면에서의 주황색 원(R2)의 직경처럼 원의 직경을 평균에서 표준편차를 더한 값(5.55=5.44+0.11)으로 설정하여 제1영역의 크기를 정할 수 있다.Meanwhile, the size of the first area for each specific user may be defined as a value obtained by adding or subtracting a standard deviation from an average value of a plurality of measured data. For example, when the user desires that the first region of high image quality in the image be formed to be relatively large, the head mounted display apparatus 100 sets the size of the first region as a value obtained by adding a standard deviation to an average value of a plurality of data. can form. That is, like the diameter of the orange circle R2 in the rendering screen of FIG. 6 , the size of the first region may be determined by setting the diameter of the circle to a value obtained by adding the standard deviation to the average (5.55=5.44+0.11).

또 다른 예로, 그래픽 카드 또는 배터리의 용량을 고려하여 제1영역이 상대적으로 작게 형성될 것을 원할 경우, 헤드 마운티드 디스플레이 장치(100)는 도 6의 렌더링 화면에서의 노란색 원(R1)의 직경처럼 원의 직경을 평균에서 표준편차를 차감한 값(5.33=5.44-0.11)으로 설정하여 제1영역의 크기를 정할 수 있다.As another example, if it is desired that the first area be formed relatively small in consideration of the capacity of the graphic card or battery, the head mounted display apparatus 100 may display a circle like the diameter of the yellow circle R1 in the rendering screen of FIG. 6 . The size of the first region can be determined by setting the diameter of the ?

제2영역 내 이미지 품질은 제1영역으로부터 멀어질수록 낮아지게 설정될 수 있다. 이에 따라 헤드 마운티드 디스플레이 장치(100)에서 출력되는 영상은 사용자 중심시 영역의 외측으로 갈수록 낮아지는 이미지 품질의 그라데이션 효과를 가질 수 있다. 특정 경계선을 기점으로 이미지 품질을 급격하게 낮추는 경우 경계선에서 오는 차이로 인해 영상의 몰입감을 감소시킬 수 있다. 그러나 본 발명처럼 중심시 영역의 외측에서부터 주변시 영역으로 갈수록 이미지의 품질을 단계적으로 저하시키면 영역 들간의 급격한 품질 저하로 인한 괴리감이 사라져, 사용자의 몰입감을 증가시킬 수 있는 장점이 존재한다.The image quality in the second region may be set to be lower as the distance from the first region increases. Accordingly, the image output from the head mounted display apparatus 100 may have a gradation effect of image quality that decreases toward the outside of the user-centered viewing area. If the image quality is sharply lowered from a specific boundary line, the immersion of the image may be reduced due to the difference from the boundary line. However, as in the present invention, if the image quality is gradually lowered from the outside of the central vision region to the peripheral vision region, the sense of disparity due to the rapid quality deterioration between regions disappears, thereby increasing the user's immersion feeling.

다음으로, 사용자 별 이미지 품질의 커스터마이징 과정에 대해 설명하기로 한다. 이미지 품질의 커스터마이징 과정은 시야각 커스터마이징 과정 이후에 진행될 수 있다. 그러나, 이를 한정하는 것은 아니며, 이미지 품질 커스터마이징 과정은 시야각 커스터마이징 과정 이전에 진행될 수 도 있다.Next, a process of customizing image quality for each user will be described. The image quality customization process may be performed after the viewing angle customization process. However, the present invention is not limited thereto, and the image quality customizing process may be performed before the viewing angle customizing process.

도 7은 본 발명의 다양한 실시예에 따른 사용자 별 이미지 품질 설정을 위한 제어 방법의 흐름도 이고, 도 8은 본 발명의 다양한 실시예에 따른 이미지 품질 설정 과정을 설명하기 위한 예시 도면이다.7 is a flowchart of a control method for setting image quality for each user according to various embodiments of the present invention, and FIG. 8 is an exemplary view for explaining an image quality setting process according to various embodiments of the present invention.

도 7 및 8을 참조하면, 전술한 시야각 커스터마이징 과정으로 설정된 값에 의해, 커스터마이징 화면은 제3영역과 제4영역으로 구획될 수 있다. 여기서, 제3영역과 제4영역은 전술한 시야각 커스터마이징 과정으로 설정된 시야각에 의해 구획된 영역일 수 있다. 즉, 사용자 시야각 내 영역은 제3영역, 제3영역의 외측에 제4영역이 배치될 수 있다.7 and 8 , the custom screen may be divided into a third area and a fourth area according to a value set in the above-described viewing angle customizing process. Here, the third area and the fourth area may be areas partitioned by the viewing angle set in the above-described viewing angle customizing process. That is, the area within the user's viewing angle may be a third area, and a fourth area may be disposed outside the third area.

최초 이미지 품질 커스터마이징 화면에는 제3영역과 제4영역이 상호 동일한 값의 이미지 품질을 가지도록 영상이 출력될 수 있다. 도 8의 최초 이미지 품질 커스터마이징 화면은 제3영역과 제4영역의 이미지 품질 값이 가장 높은 값(I=0)으 설정되어 있는 것으로 도시하였지만 항상 이미지 품질 값이 가장 높은 값으로 출력되는 것은 아니고 설정에 따라 다양한 값부터 테스트가 시작될 수 있다.An image may be output on the initial image quality customizing screen so that the third region and the fourth region have the same image quality. The initial image quality customization screen of FIG. 8 shows that the image quality values of the third and fourth regions are set to the highest values (I=0), but the image quality values are not always output as the highest values. The test can be started from various values according to

다음으로, 화질 조절부(330)를 통해 제4영역의 이미지 품질이 점차 낮아질 수 있다(S210). 즉, 제3영역 대비 제4영역은 서서히 낮은 이미지 값의 화면이 출력될 수 있다.Next, the image quality of the fourth region may be gradually lowered through the image quality adjusting unit 330 ( S210 ). That is, in the fourth region compared to the third region, a screen having a lower image value may be gradually output.

제4영역의 이미지 품질 저하에 따라, 사용자는 제3영역과 제4영역의 경계를 인지할 수 있다. 이 때, 사용자는 사용자 조작부(350)의 조작을 통해 제3영역과 제4영역의 구분에 따른 인지 시점을 입력할 수 있다.According to the deterioration of the image quality of the fourth region, the user may recognize the boundary between the third region and the fourth region. In this case, the user may input a recognition time according to the division of the third region and the fourth region through the manipulation of the user manipulation unit 350 .

측정부(340)는 사용자 인지 시점에서의 사용장 입력을 기초로 제4영역의 이미지 품질 값을 측정할 수 있다(S220). 일 예로, 도 8에서는 사용자의 최초 테스트인 제1테스트에서는 제4영역의 이미지 품질이 30인 값을 가지는 시점에서 제3영역과 제4영역의 구분을 인지할 것을 예로 들고 있으며 제2테스트에서는 제4영역의 이미지 품질이 31인 값을 가지는 시점에서 제3영역과 제4영역의 구분을 인지할 것을 예로 들고 있다.The measurement unit 340 may measure the image quality value of the fourth region based on the usage field input at the time of user recognition ( S220 ). For example, in FIG. 8 , in the first test, which is the user's first test, the distinction between the third region and the fourth region is recognized when the image quality of the fourth region has a value of 30 as an example, and in the second test, the second test An example of recognizing the distinction between the third area and the fourth area when the image quality of area 4 has a value of 31 is exemplified.

상술한 제어 과정은 복수회 수행될 수 있다. 일 예로, 제3영역과 제4영역의 이미지 품질 차이에 따른 사용자 인지 과정은 5회 이상 수행될 수 있다. 이에 따라, 메모리(120)에는 각 과정 별 사용자 인지 시점에서의 제2영역 이미지 품질 값에 관한 데이터가 저장될 수 있다. 도 8에서는, 2회차 테스트 과정에서는 제4영역의 이미지 품질이 31인 값을 가지는 시점에서 사용자에 의한 인지 시점이 입력되고, 최종 n차 테스트 과정에서는 이미지 품질이 29인 값을 가지는 시점에서 사용자에 의한 인지 시점이 입력되는 것을 예로 도시하였다.The above-described control process may be performed a plurality of times. For example, the user recognition process according to the difference in image quality between the third region and the fourth region may be performed five or more times. Accordingly, the memory 120 may store data regarding the image quality value of the second area at the time of user recognition for each process. In FIG. 8 , in the second test process, the recognition time by the user is input when the image quality of the fourth region has a value of 31, and in the final n-th test process, the recognition time by the user is inputted to the user at the time when the image quality has a value of 29 An example in which a recognition time point is input by

다음으로, 제어부(310)는 제4영역의 이미지 품질 값에 관한 복수의 데이터를 통하여, 측정 데이터의 평균 및 표준편차를 도출할 수 있다(S230). 일 예로, 상술한 과정에서 입력된 제4영역의 이미지 품질 값에 관한 다수의 데이터를 통해 제4영역 이미지 품질의 평균값과 표준편차가 도출될 수 있다. 도 8에서는 사용자가 인지한 시점에서의 제4영역의 이미지 품질 값이 30의 평균 값을 가지는 것을 예로 들고 있다.Next, the controller 310 may derive the average and standard deviation of the measured data through a plurality of data related to the image quality value of the fourth region ( S230 ). For example, the average value and standard deviation of the image quality of the fourth region may be derived through a plurality of data regarding the image quality value of the fourth region input in the above-described process. In FIG. 8 , it is exemplified that the image quality value of the fourth region at a point in time recognized by the user has an average value of 30. As shown in FIG.

또한, 상술한 과정에 의해 사용자 별 제4영역의 이미지 품질 값이 정의될 수 있다. 즉, 복수 번의 측정 과정을 통한 데이터로 계산된 평균값에 의해, 사용자 시야각에 기초한 제4영역의 이미지 품질 값이 설정될 수 있다. 이에 따라, 특정 사용자의 시야각 및 이미지 품질에 기초한 영상이 렌더링될 수 있다(S240).In addition, the image quality value of the fourth region for each user may be defined by the above-described process. That is, the image quality value of the fourth region based on the user's viewing angle may be set by the average value calculated from data through a plurality of measurement processes. Accordingly, an image based on the viewing angle and image quality of a specific user may be rendered ( S240 ).

만약, 1회의 테스트에 대한 결과 값을 기준으로 제4영역에 대한 이미지 품질 값을 측정하게 되면 이미지 내에 존재하는 객체의 특성으로 인해 사용자의 인지 범위가 정확하게 측정이 되지 않을 수 있다. 그러나 본 발명처럼 복수 회의 테스트를 통해 평균 값을 통해 이미지 품질에 대한 인지 범위를 측정하면 보다 정확한 인지 범위를 측정할 수 있는 장점이 존재한다.If the image quality value of the fourth region is measured based on the result value of one test, the recognition range of the user may not be accurately measured due to the characteristics of objects existing in the image. However, as in the present invention, if the recognition range for image quality is measured through an average value through a plurality of tests, there is an advantage in that a more accurate recognition range can be measured.

한편, 시야각 설정 과정과 마찬가지로, 이미지 품질 값을 설정하는 과정은 다양한 환경을 고려하여 상술한 이미지 품질의 평균 값에 표준편차를 더하거나 뺀 값으로 제4영역의 이미지 품질 값이 설정될 수 있음은 물론이다.Meanwhile, in the process of setting the image quality value, similar to the viewing angle setting process, the image quality value of the fourth region may be set by adding or subtracting the standard deviation from the average value of the image quality described above in consideration of various environments. am.

예를 들어, 사용자가 전반적으로 영상의 높은 이미지 품질을 요한다면 제4영역의 이미지 품질 값을 다수의 데이터의 평균값에 표준 편차를 더한 값으로 이미지 품질 값을 정할 수 있고, 또 다른 예로, 그래픽 카드 또는 배터리의 용량을 고려하여 영상에 대해 높은 이미지 품질을 요하지 않는다면, 제4영역의 이미지 품질 값을 다수의 데이터의 평균값에 표준 편차를 차감한 값으로 이미지 품질 값을 정할 수 있다.For example, if the user requires overall high image quality of the image, the image quality value of the fourth region may be determined by adding the standard deviation to the average value of a plurality of data. As another example, the graphic card Alternatively, if high image quality is not required for an image in consideration of the battery capacity, the image quality value of the fourth region may be determined by subtracting a standard deviation from an average value of a plurality of data.

또한, 본 발명의 경우 앞서 설명한 바와 같이 이미지 품질의 커스터마이징 과정은 시야각 커스터마이징 과정 이후에 진행될 수 있다. 따라서, 이미지 품질의 커스터마이징 과정이 시야각 커스터마이징 과정 이후에 진행된다며, 앞서 설명한 제3영역은 중심시 영역으로, 제4영역은 주변시 영역으로 호칭될 수 있다.Also, in the case of the present invention, as described above, the image quality customizing process may be performed after the viewing angle customizing process. Accordingly, it is said that the image quality customizing process is performed after the viewing angle customizing process, and the above-described third region may be referred to as a central vision region and the fourth region may be referred to as a peripheral vision region.

도 9는 본 발명의 다양한 실시예에 따른 시야각 및 이미지 품질을 커스터마이징한 과정을 설명하기 위한 도면이다.9 is a view for explaining a process of customizing a viewing angle and image quality according to various embodiments of the present disclosure;

도 9를 참조하면, 특정 사용자 별 시야각 커스터마이징 단계와, 이미지 품질 커스터마이징 단계를 반복하여, 헤드 마운티드 디스플레이 장치(100)는 포비티드 렌더링(Foveated Rendering)을 구현할 수 있다.Referring to FIG. 9 , the head mounted display apparatus 100 may implement foveated rendering by repeating the step of customizing the viewing angle for each specific user and the step of customizing the image quality.

구체적으로, 도9의 상부에 도시된 바와 같이 테스트를 실시함에 있어서, 특정 이미지 값마다 사용자가 경계의 변화를 인지할 수 있는 시야각을 측정한 후, 측정된 각각의 시야각을 기초로 포비티트 렌덩링을 수행할 수 있다. 따라서, 도 9의 하부에 도시된 바와 같이 시야각이 50도 내에서는 이미지 품질 값을 10으로, 시야각이 50도 내지 60 도 사이에서는 이미지 품질 값을 20으로, 시야각이 60도 내지 70도 사이에서는 이미지 품질 값을 30으로 하여 포비티트 렌더링을 수행할 수 있다. 본 발명과 같이 포비티트 렌더링을 수행하는 경우 경계선을 기점으로 단계적으로 포비티트 렌더링을 수행하더라도 개별적인 시야각까지 고려하여 렌더링을 수행하므로 보다 더 개인에게 최적화된 영상을 제공해 줄 수 있는 효과가 존재한다.Specifically, in carrying out the test as shown in the upper part of FIG. 9, after measuring the viewing angle at which the user can recognize the change of the boundary for each specific image value, forward rendering is performed based on each of the measured viewing angles. can be performed. Therefore, as shown in the lower part of Fig. 9, the image quality value is set to 10 within the viewing angle of 50 degrees, the image quality value is set to 20 when the viewing angle is between 50 and 60 degrees, and the image quality value is set to 20 when the viewing angle is between 60 and 70 degrees. By setting the quality value to 30, four-bit rendering can be performed. In the case of performing forward rendering as in the present invention, even if the forward rendering is performed step by step starting from the boundary line, the rendering is performed in consideration of individual viewing angles, thereby providing an image more optimized for individuals.

지금까지 도면을 통해 본 발명의 실시예에 따른 헤드 마운티드 디스플레이 장치(100)의 구성 요소 및 제어 방법에 대해 알아보았다.Up to now, the components and control method of the head mounted display apparatus 100 according to the embodiment of the present invention have been studied through the drawings.

본 발명의 다양한 실시예에 따른 헤드 마운티드 디스플레이 장치(100)는 일률적으로 시야각을 정하지 않고 개인의 시야각을 측정한 후, 측정된 시야각에 기초하여 포비티드 영상을 수행하므로 보다 개인에게 최적화된 맞춤형 영상을 제공할 수 있는 장점이 있다.The head mounted display apparatus 100 according to various embodiments of the present invention measures an individual's viewing angle without uniformly setting the viewing angle, and then performs a foveated image based on the measured viewing angle. There are advantages to being offered.

또한, 개인 별 맞춤 영상 제공에 따라 헤드 마운티드 디스플레이 장치 사용 시 발생되는 가상 멀미를 줄일 수 있는 장점이 있으며, 사용자가 인지하지 못한 수준에서 주변시에 가장 낮은 이미지 품질의 영상을 구현함으로써, 렌더링에 요구되는 그래픽 카드의 리소스를 저감할 수 있는 장점이 있다.In addition, there is an advantage in that virtual motion sickness that occurs when using a head mounted display device can be reduced by providing customized images for each individual. There is an advantage of reducing the resources of the graphics card being used.

한편, 본 명세서에 기재된 "~부"로 기재된 구성요소들, 유닛들, 모듈들, 컴포넌트들 등은 함께 또는 개별적이지만 상호 운용 가능한 로직 디바이스들로서 개별적으로 구현될 수 있다. 모듈들, 유닛들 등에 대한 서로 다른 특징들의 묘사는 서로 다른 기능적 실시예들을 강조하기 위해 의도된 것이며, 이들이 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 실현되어야만 함을 필수적으로 의미하지 않는다. 오히려, 하나 이상의 모듈들 또는 유닛들과 관련된 기능은 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 수행되거나 또는 공통의 또는 개별의 하드웨어 또는 소프트웨어 컴포넌트들 내에 통합될 수 있다.On the other hand, components, units, modules, components, etc. described as "~" described in this specification may be implemented together or individually as interoperable logic devices. Depictions of different features of modules, units, etc. are intended to emphasize different functional embodiments, and do not necessarily imply that they must be realized by separate hardware or software components. Rather, functionality associated with one or more modules or units may be performed by separate hardware or software components or integrated within common or separate hardware or software components.

부가적으로, 본 특허문헌에서 기술하는 논리 흐름과 구조적인 블럭도는 개시된 구조적인 수단의 지원을 받는 대응하는 기능과 단계의 지원을 받는 대응하는 행위 및/또는 특정한 방법을 기술하는 것으로, 대응하는 소프트웨어 구조와 알고리즘과 그 등가물을 구축하는 데에도 사용 가능하다.Additionally, the logic flows and structural block diagrams described in this patent document describe corresponding acts and/or specific methods supported by corresponding functions and steps supported by the disclosed structural means, and corresponding It can also be used to build software structures and algorithms and their equivalents.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다.The present description sets forth the best mode of the invention, and provides examples to illustrate the invention, and to enable any person skilled in the art to make or use the invention. The specification thus prepared does not limit the present invention to the specific terms presented.

이상에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술 분야에 통상의 지식을 갖는 자라면, 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정해져야 할 것이다.Although the above has been described with reference to the preferred embodiment of the present invention, those skilled in the art or those having ordinary knowledge in the technical field will not depart from the spirit and technical scope of the present invention described in the claims to be described later. It will be understood that various modifications and variations of the present invention can be made without departing from the scope of the present invention. Accordingly, the technical scope of the present invention should be defined by the claims rather than being limited to the contents described in the detailed description of the specification.

100: 헤드 마운티드 디스플레이 장치
110: 디스플레이
130: 메모리
150: 컨트롤러
170: 트래킹 모듈
310: 제어부
320: 영역 조절부
330: 화질 조절부
340: 측정부
350: 사용자 조작부
100: head mounted display device
110: display
130: memory
150: controller
170: tracking module
310: control unit
320: area control unit
330: quality control unit
340: measurement unit
350: user control panel

Claims (15)

(a) 커스터마이징(customizing)을 위한 측정 화면이 출력되는 단계;
(b) 상기 측정 화면 내 제1영역과, 상기 제1영역 보다 낮은 이미지 품질을 가지는 제2영역이 구획되는 단계;
(c) 상기 제1영역이 축소되는 단계;
(d) 상기 제1영역이 축소됨에 따라 사용자가 상기 제1영역과 상기 제2영역의 경계를 인지하는 제1인지 시점을 측정하고, 상기 제1인지 시점에서의 상기 경계를 상기 사용자의 시야각으로 설정하는 단계; 및
(e) 상기 시야각 내부 영역을 상기 사용자의 중심시 영역으로 설정하고 상기 시야각 외부 영역을 상기 사용자의 주변시 영역으로 설정하고, 상기 주변시 영역의 이미지 품질은 상기 중심시 영역의 이미지 품질보다 상대적으로 낮은 이미지 품질로 렌더링하는 단계;를 포함하는 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
(a) outputting a measurement screen for customizing;
(b) partitioning a first area in the measurement screen and a second area having a lower image quality than the first area;
(c) reducing the first region;
(d) as the first area is reduced, a first recognition time point at which the user recognizes the boundary between the first area and the second area is measured, and the boundary at the first recognition time point is used as the user's viewing angle setting up; and
(e) setting the region inside the viewing angle as the central vision region of the user and setting the region outside the viewing angle as the peripheral vision region of the user, wherein the image quality of the peripheral vision region is relatively higher than the image quality of the central vision region Rendering with low image quality; Control method of an eye-based personalized head-mounted display device comprising a.
제1항에 있어서,
상기 주변시 영역의 이미지 품질은 상기 시야각에서 상기 주변시 영역 으로 멀어질수록 단계적으로 저하되는, 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
According to claim 1,
and the image quality of the peripheral vision region is progressively degraded as the distance from the viewing angle to the peripheral vision region increases.
제1항에 있어서,
상기 (c) 단계 및 상기 (d) 단계가 복수 회 반복되는 단계를 더 포함하고,
상기 시야각으로 설정하는 단계는, 상기 복수 회 반복된 데이터의 평균으로 설정하는 단계를 포함하는, 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
According to claim 1,
Further comprising the step of repeating the steps (c) and (d) a plurality of times,
The setting of the viewing angle includes setting an average of the data repeated a plurality of times.
제1항에 있어서,
상기 (c) 단계 및 상기 (d) 단계가 복수 회 반복되는 단계를 더 포함하고,
상기 시야각을 설정하는 단계는, 상기 복수 회 반복된 데이터의 평균에 표준편차를 빼거나 더한 값으로 설정하는 단계를 포함하는, 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
According to claim 1,
Further comprising the step of repeating the steps (c) and (d) a plurality of times,
The setting of the viewing angle includes setting a value obtained by subtracting or adding a standard deviation to the average of the data repeated a plurality of times.
제4항에 있어서,
상기 시야각으로 설정하는 단계는,
상기 복수 회 반복된 데이터의 평균에 표준편차를 뺀 값과 더한 값을 각각 제1시야각 및 제2시야각으로 설정하는 단계를 포함하고,
상기 중심시 영역의 이미지 품질은, 상기 제1시야각에서 상기 제2시야각으로 접근할수록 단계적으로 저하되는 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
5. The method of claim 4,
The step of setting the viewing angle is
setting a value obtained by subtracting and adding a standard deviation to the average of the data repeated a plurality of times as a first viewing angle and a second viewing angle, respectively;
The image quality of the central vision region is gradually decreased as the first viewing angle approaches the second viewing angle.
제1항에 있어서,
상기 (b) 단계 전 상기 사용자 신체의 움직임 또는 사용자의 눈(eye)을 트래킹하는 단계;를 더 포함하는 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
According to claim 1,
Before the step (b), the step of tracking the user's body movement or user's eye;
제1항에 있어서,
상기 제1영역의 이미지 품질을 서로 다르게 하여 상기 (b) 단계 내지 상기 (f) 단계를 복수 회 반복되는 단계를 더 포함하고,
상기 주변시 영역의 이미지 품질은 상기 이미지 품질마다 측정된 서로 다른 시야각을 기초로 상기 시야각에서 상기 주변시 영역으로 멀어질수록 단계적으로 저하되는, 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
According to claim 1,
The method further comprising repeating steps (b) to (f) a plurality of times with different image quality of the first region,
The image quality of the peripheral vision region is progressively lowered as the distance from the viewing angle to the peripheral vision region is increased based on different viewing angles measured for each image quality.
(a) 커스터마이징(customizing)을 위한 측정 화면이 출력되는 단계;
(b) 상기 측정 화면 내 제1영역과, 상기 제1영역 보다 낮은 이미지 품질을 가지는 제2영역이 구획되는 단계;
(c) 상기 제1영역이 축소되는 단계;
(d) 상기 제1영역이 축소됨에 따라 사용자가 상기 제1영역과 상기 제2영역의 경계를 인지하는 제1인지 시점을 측정하고, 상기 제1인지 시점에서의 상기 경계를 상기 사용자의 시야각으로 설정하는 단계;
(e) 상기 시야각의 내부 영역을 상기 사용자의 중심시 영역으로 설정하고 상기 시야각의 외부 영역을 상기 사용자의 주변시 영역으로 설정하고, 상기 중심시 영역과 상기 주변시 영역의 이미지 품질을 동일하게 설정하는 단계;
(f) 상기 주변시 영역의 이미지 품질이 저하되는 단계;
(g) 상기 주변시 영역의 이미지 품질이 저하됨에 따라 상기 사용자가 상기 중심시 영역과 상기 주변시 영역의 경계를 인지하는 제2인지 시점을 측정하고, 상기 제2인지 시점에서의 상기 주변시 영역의 이미지 품질 값을 측정하는 단계; 및
(h) 상기 측정된 주변시 영역의 이미지 품질 값을 기초로, 상기 주변시 영역의 이미지를 렌더링하는 단계;를 포함하는 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
(a) outputting a measurement screen for customizing;
(b) partitioning a first area in the measurement screen and a second area having a lower image quality than the first area;
(c) reducing the first region;
(d) as the first area is reduced, a first recognition time point at which the user recognizes the boundary between the first area and the second area is measured, and the boundary at the first recognition time point is used as the user's viewing angle setting up;
(e) setting the inner region of the viewing angle as the central vision region of the user, setting the outer region of the viewing angle as the peripheral vision region of the user, and setting the image quality of the central vision region and the peripheral vision region to be the same to do;
(f) degrading the image quality of the peripheral vision region;
(g) as the image quality of the peripheral vision region deteriorates, a second perception time point at which the user recognizes a boundary between the central vision area and the peripheral vision area is measured, and the peripheral vision area at the second perception time point measuring the image quality value of ; and
(h) rendering an image of the peripheral vision region based on the measured image quality value of the peripheral vision region;
제8항에 있어서,
상기 (f) 단계 및 상기 (g) 단계가 복수 회 반복되는 단계를 더 포함하고,
상기 주변시 영역의 이미지 품질 값은 상기 복수 회 반복된 데이터의 평균으로 설정되는 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
9. The method of claim 8,
Further comprising the step of repeating the steps (f) and (g) a plurality of times,
The image quality value of the peripheral vision region is set as an average of the data repeated a plurality of times.
제8항에 있어서,
상기 (f) 단계 및 상기 (g) 단계가 복수 회 반복되는 단계를 더 포함하고,
상기 주변시 영역의 이미지 품질 값은 상기 복수 회 반복된 데이터의 평균에 표준편차를 더하거나 뺀 값으로 설정되는 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
9. The method of claim 8,
Further comprising the step of repeating the steps (f) and (g) a plurality of times,
The image quality value of the peripheral vision region is set as a value obtained by adding or subtracting a standard deviation to an average of the data repeated a plurality of times.
(a) 커스터마이징(customizing)을 위한 화면이 출력되는 단계;
(b) 상기 화면 내 동일한 이미지 품질을 가지는 제3영역과 제4영역이 구획되는 단계;
(c) 상기 제4영역의 이미지 품질이 저하되는 단계;
(d) 상기 제4영역의 이미지 품질이 저하됨에 따라 사용자가 상기 제3영역과 상기 제4영역의 경계를 인지하는 제2인지 시점을 측정하고, 상기 제2인지 시점에서의 상기 제4영역의 이미지 품질 값을 측정하는 단계; 및
(e) 상기 (d) 단계에 의해 측정된 제4영역의 이미지 품질 값을 상기 주변시 영역의 이미지 품질 값으로 설정한 후, 상기 주변시 영역에 대해 렌더링을 수행하는 단계;를 포함하는 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
(a) outputting a screen for customizing;
(b) partitioning a third area and a fourth area having the same image quality in the screen;
(c) degrading the image quality of the fourth region;
(d) as the image quality of the fourth region is deteriorated, a second recognition time point is measured at which the user recognizes the boundary between the third area and the fourth area, and the fourth area at the second recognition time point is measured measuring an image quality value; and
(e) setting the image quality value of the fourth region measured in step (d) as the image quality value of the peripheral vision region, and then performing rendering on the peripheral vision region; A method of controlling a personalized head mounted display device.
제11항에 있어서,
상기 (c) 단계 및 상기 (d) 단계가 복수 회 반복되는 단계를 더 포함하고,
상기 주변시 영역의 이미지 품질 값은 상기 복수 회 반복된 데이터의 평균으로 설정되는 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
12. The method of claim 11,
Further comprising the step of repeating the steps (c) and (d) a plurality of times,
The image quality value of the peripheral vision region is set as an average of the data repeated a plurality of times.
제11항에 있어서,
상기 (c) 단계 및 상기 (d) 단계가 복수 회 반복되는 단계를 더 포함하고,
상기 주변시 영역의 이미지 품질 값은 상기 복수 회 반복된 데이터의 평균에 표준편차를 더하거나 뺀 값으로 설정되는, 안구 기반 개인화 헤드 마운티드 디스플레이 장치의 제어 방법.
12. The method of claim 11,
Further comprising the step of repeating the steps (c) and (d) a plurality of times,
The image quality value of the peripheral vision region is set as a value obtained by adding or subtracting a standard deviation to an average of the data repeated a plurality of times.
디스플레이;
상기 디스플레이 내 제1영역과, 상기 제1영역 보다 낮은 이미지 품질을 가지는 제2영역을 구획하는 영역 조절부;
상기 제1영역 내 크기가 축소됨에 따라 입력되는 사용자 입력에 기초하여 상기 제1영역의 크기를 측정하는 측정부; 및
상기 측정부에서 측정된 제1영역을 중심시 영역으로 설정하고, 상기 중심시 영역의 외측 영역을 주변시 영역으로 설정한 후, 상기 주변시 영역의 이미지의 품질 값은 상기 중심시 영역의 이미지 품질 값보다 상대적으로 낮은 값으로 설정하여 상기 중심시 영역과 상기 주변시 영역의 이미지에 대해 렌더링을 수행하는 제어부;를 포함하는 안구 기반 개인화 헤드 마운티드 디스플레이 장치.
display;
a region adjusting unit dividing a first region in the display and a second region having a lower image quality than that of the first region;
a measuring unit measuring the size of the first region based on a user input as the size of the first region is reduced; and
After setting the first area measured by the measuring unit as the central vision area, and setting the outer area of the central vision area as the peripheral vision area, the quality value of the image of the peripheral vision area is the image quality of the central vision area and a controller configured to render the images of the central vision region and the peripheral vision region by setting it to a value relatively lower than the value.
제14항에 있어서,
사용자의 눈의 움직임과 상기 사용자의 머리의 움직임을 트래킹하는 트래킹 모듈;을 더 포함하고,
상기 영역 조절부는,
상기 트래킹 모듈로부터 취득한 상기 사용자의 눈이 바라보고 있는 정방향을 상기 제1영역와 상기 제2영역의 중심으로 하여 상기 제1영역과 상기 제2영역을 결정하는 안구 기반 개인화 헤드 마운티드 디스플레이 장치.
15. The method of claim 14,
Further comprising; a tracking module for tracking the movement of the user's eyes and the movement of the user's head;
The area control unit,
An eye-based personalized head-mounted display device for determining the first area and the second area by using the forward direction that the user's eyes are looking at obtained from the tracking module as the center of the first area and the second area.
KR1020200115362A 2020-09-09 2020-09-09 Eye-based personalized head-mounted display device and control method thereof KR102524097B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200115362A KR102524097B1 (en) 2020-09-09 2020-09-09 Eye-based personalized head-mounted display device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200115362A KR102524097B1 (en) 2020-09-09 2020-09-09 Eye-based personalized head-mounted display device and control method thereof

Publications (2)

Publication Number Publication Date
KR20220033223A true KR20220033223A (en) 2022-03-16
KR102524097B1 KR102524097B1 (en) 2023-04-21

Family

ID=80937759

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200115362A KR102524097B1 (en) 2020-09-09 2020-09-09 Eye-based personalized head-mounted display device and control method thereof

Country Status (1)

Country Link
KR (1) KR102524097B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057930A1 (en) * 2022-09-16 2024-03-21 パナソニックIpマネジメント株式会社 Correction method, measurement method, and head-mounted display system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170013653A (en) 2015-07-28 2017-02-07 재단법인대구경북과학기술원 System for monitoring and controlling head mount display type virtual reality contents
US20180008141A1 (en) * 2014-07-08 2018-01-11 Krueger Wesley W O Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
KR20180059210A (en) * 2016-11-25 2018-06-04 삼성전자주식회사 Image processing apparatus and method for image processing thereof
KR20190002416A (en) * 2016-04-27 2019-01-08 로비 가이드스, 인크. Method and system for displaying additional content on a head-up display that displays a virtual reality environment
KR101951406B1 (en) * 2017-10-11 2019-02-22 한양대학교 산학협력단 Head mounted display and operating method for reducing virtual reality sickness
US20200064631A1 (en) * 2018-08-22 2020-02-27 Microsoft Technology Licensing, Llc Foveated color correction to improve color uniformity of head-mounted displays
JP2020042807A (en) * 2018-09-06 2020-03-19 株式会社ソニー・インタラクティブエンタテインメント Foveated rendering system and method
KR20210072348A (en) * 2019-12-09 2021-06-17 주식회사 윌러스표준기술연구소 Dynamic foveated rendering method for realistic virtual reality

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180008141A1 (en) * 2014-07-08 2018-01-11 Krueger Wesley W O Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
KR20170013653A (en) 2015-07-28 2017-02-07 재단법인대구경북과학기술원 System for monitoring and controlling head mount display type virtual reality contents
KR20190002416A (en) * 2016-04-27 2019-01-08 로비 가이드스, 인크. Method and system for displaying additional content on a head-up display that displays a virtual reality environment
KR20180059210A (en) * 2016-11-25 2018-06-04 삼성전자주식회사 Image processing apparatus and method for image processing thereof
KR101951406B1 (en) * 2017-10-11 2019-02-22 한양대학교 산학협력단 Head mounted display and operating method for reducing virtual reality sickness
US20200064631A1 (en) * 2018-08-22 2020-02-27 Microsoft Technology Licensing, Llc Foveated color correction to improve color uniformity of head-mounted displays
JP2020042807A (en) * 2018-09-06 2020-03-19 株式会社ソニー・インタラクティブエンタテインメント Foveated rendering system and method
KR20210072348A (en) * 2019-12-09 2021-06-17 주식회사 윌러스표준기술연구소 Dynamic foveated rendering method for realistic virtual reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057930A1 (en) * 2022-09-16 2024-03-21 パナソニックIpマネジメント株式会社 Correction method, measurement method, and head-mounted display system

Also Published As

Publication number Publication date
KR102524097B1 (en) 2023-04-21

Similar Documents

Publication Publication Date Title
US20220197381A1 (en) Use of eye tracking to adjust region-of-interest (roi) for compressing images for transmission
US11036284B2 (en) Tracking and drift correction
US10665206B2 (en) Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
US8958599B1 (en) Input method and system based on ambient glints
US8184070B1 (en) Method and system for selecting a user interface for a wearable computing device
US10115235B2 (en) Method for controlling head mounted display, and system for implemeting the method
KR20220116150A (en) Split rendering between the head worn display (HMD) and the host computer
US11002959B2 (en) Head mount display device and driving method thereof
JP2022517991A (en) Dynamic rendering time targeting based on eye tracking
US11301969B1 (en) Context aware dynamic distortion correction
US10820795B1 (en) Method and device for improved interpupillary distance measurement
US11308685B2 (en) Rendering computer-generated reality text
CN111367405A (en) Method and device for adjusting head-mounted display equipment, computer equipment and storage medium
KR102524097B1 (en) Eye-based personalized head-mounted display device and control method thereof
JP6500570B2 (en) Image display apparatus and image display method
US11314327B2 (en) Head mounted display and control method thereof
US9934583B2 (en) Expectation maximization to determine position of ambient glints
WO2022004130A1 (en) Information processing device, information processing method, and storage medium
KR101951406B1 (en) Head mounted display and operating method for reducing virtual reality sickness
KR20170110920A (en) Display device and controlling method thereof
JPWO2019093278A1 (en) Information processing device, information processing method, and program
US11457804B1 (en) System for monitoring vision changes
JP2018195172A (en) Information processing method, information processing program, and information processing device
KR20240053461A (en) User recognition-based custom head-mounted display device and its control method
US11715220B1 (en) Method and device for depth sensor power savings

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant