KR102055481B1 - Method and apparatus for quantitative evaluation assessment of vr content perceptual quality using deep running analysis of vr sickness factors - Google Patents

Method and apparatus for quantitative evaluation assessment of vr content perceptual quality using deep running analysis of vr sickness factors Download PDF

Info

Publication number
KR102055481B1
KR102055481B1 KR1020170107073A KR20170107073A KR102055481B1 KR 102055481 B1 KR102055481 B1 KR 102055481B1 KR 1020170107073 A KR1020170107073 A KR 1020170107073A KR 20170107073 A KR20170107073 A KR 20170107073A KR 102055481 B1 KR102055481 B1 KR 102055481B1
Authority
KR
South Korea
Prior art keywords
content
haptic
fatigue
analyzing
quality index
Prior art date
Application number
KR1020170107073A
Other languages
Korean (ko)
Other versions
KR20190021812A (en
Inventor
노용만
김학구
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170107073A priority Critical patent/KR102055481B1/en
Publication of KR20190021812A publication Critical patent/KR20190021812A/en
Application granted granted Critical
Publication of KR102055481B1 publication Critical patent/KR102055481B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Abstract

본 발명에 따른 VR 컨테츠 체감 품질 평가 방법은 딥 러닝을 기반으로 하여, 체감 VR 컨텐츠로부터 적어도 하나의 피로 유발 인자를 분석하는 단계; 및 딥 러닝을 기반으로 하여, 상기 분석된 적어도 하나의 피로 유발 인자로부터 상기 체감 VR 컨텐츠에 대한 시청자의 체감 품질 지수를 정량적으로 예측하는 단계를 포함할 수 있다.VR content sensation quality evaluation method according to the present invention, based on deep learning, analyzing at least one fatigue causing factor from haptic VR content; And based on deep learning, quantitatively predicting a viewer's haptic quality index for the haptic VR content from the analyzed at least one fatigue causing factor.

Description

VR 피로로유발인자의 딥 러닝 분석을 사용하는 VR 컨텐츠 체감 품질 정량적 평가 장치 및 방법{METHOD AND APPARATUS FOR QUANTITATIVE EVALUATION ASSESSMENT OF VR CONTENT PERCEPTUAL QUALITY USING DEEP RUNNING ANALYSIS OF VR SICKNESS FACTORS}Apparatus and method for quantitative evaluation of VR content sensation quality using deep learning analysis of VR fatigue-induced factors {METHOD AND APPARATUS FOR QUANTITATIVE EVALUATION ASSESSMENT OF VR CONTENT PERCEPTUAL QUALITY USING DEEP RUNNING ANALYSIS OF VR SICKNESS FACTORS}

본 발명은 가상 현실(Virtual Reality) 컨텐츠를 시청하는 사용자가 체감하는 피로도를 평가하기 위한 발명으로서, 구체적으로 딥 러닝을 통하여 특정 가상 현실 컨텐츠가 유발하는 피로도의 원인을 분석하고, 피로도를 정량적으로 평가하는 발명과 관련된다.The present invention is an invention for evaluating fatigue felt by a user watching a virtual reality content. Specifically, the cause of fatigue caused by a specific virtual reality content is analyzed through deep learning, and the fatigue degree is quantitatively evaluated. Related to the invention.

최근 3D display, head mount display (HMD) 등 디스플레이의 발전과 함께 가상현실 (virtual reality, VR) 컨텐츠에 대한 관심이 커지면서 게임, 방송, 엔터테인먼트 등 다양한 분야로 VR 관련 시장이 크게 확대되고 있다.Recently, with the development of displays such as 3D display and head mount display (HMD), interest in virtual reality (VR) contents has increased, and the VR-related market is expanding to various fields such as games, broadcasting, and entertainment.

VR 컨텐츠란 시청자가 지금 보고 있는 영상을 실제로 자신이 체험하는 것 같은 몰입감을 주는 컨텐츠를 말한다. 실제와 같은 몰입감을 시청자에게 제공하기 위해 촬영 및 제작된 VR 컨텐츠는 일반적으로 스테레오 형식, 360도 영상정보, 빠르고 많은 움직임 등의 특성을 가진다.VR content refers to content that immerses viewers as if they are actually experiencing the video they are watching. In order to provide a realistic immersion to viewers, VR content photographed and produced generally has characteristics such as stereo format, 360 degree image information, and fast and many motions.

하지만 이러한 특성 때문에 몰입감이 높은 VR 컨텐츠를 시청할 때, 약 70~80%의 시청자는 심한 피로 또는 사이버멀미(Cybersickness)를 느낀다고 알려져 있다. 그리고 VR 컨텐츠를 시청할 때, 피로나 멀미를 느낀 대부분의 시청자들은 시청 이후에도 이러한 증상이 지속되는 현상을 경험한다고 알려져 있다.However, due to these characteristics, when watching high-immersion VR content, about 70 to 80% of viewers are known to have severe fatigue or cyber sickness. And when watching VR content, most viewers who are tired or sick are known to experience this phenomenon even after watching.

따라서, 이러한 부작용을 막고 안전한 VR 컨텐츠 시청 및 제작을 위해 VR 컨텐츠의 체감 품질을 평가하는 기술 개발이 매우 시급하다.Therefore, it is very urgent to develop a technology for evaluating the haptic quality of VR content to prevent such side effects and to watch and produce VR content safely.

본 발명의 일 실시예는 VR 컨텐츠를 시청한 뒤에 시청자에게 발생할 수 있는 심한 피로 또는 사이버 멀미 등을 사전에 방지할 수 있도록 VR 컨텐츠의 체감 품질 지수를 예측하는 VR 컨텐츠 체감 품질 평가 방법 및 장치를 제공한다.An embodiment of the present invention provides a VR content sensation quality evaluation method and apparatus for predicting haptic quality index of VR content to prevent the severe fatigue or cyber sickness that may occur to the viewer after watching the VR content in advance do.

본 발명의 일 실시예에 따른 VR 컨텐츠 체감 품질 평가 방법은 딥 러닝을 기반으로 하여, 체감 VR 컨텐츠로부터 적어도 하나의 피로 유발 인자를 분석하는 단계; 및 딥 러닝을 기반으로 하여, 상기 분석된 적어도 하나의 피로 유발 인자로부터 상기 체감 VR 컨텐츠에 대한 시청자의 체감 품질 지수를 정량적으로 예측하는 단계를 포함할 수 있다.The VR content sensation quality evaluation method according to an embodiment of the present invention includes analyzing at least one fatigue causing factor from haptic VR content based on deep learning; And based on deep learning, quantitatively predicting a viewer's haptic quality index for the haptic VR content from the analyzed at least one fatigue causing factor.

상기 피로 유발 인자를 분석하는 단계는 참고 정보를 획득하는 단계;Analyzing the fatigue inducing factor may include obtaining reference information;

상기 참고 점보를 원본 VR 컨텐츠에 반영하여 체감 VR 컨텐츠를 구성하는 단계; 및 상기 체감 VR 컨텐츠로부터 상기 적어도 하나의 피로 유발 인자를 분석하는 단계를 포함할 수 있다.Configuring the haptic VR content by reflecting the reference jumbo on the original VR content; And analyzing the at least one fatigue causing factor from the haptic VR content.

상기 피로 유발 인자를 분석하는 단계는 딥 러닝을 기반으로 하여, 상기 체감 VR 컨텐츠로부터 사용자에게 피로를 느끼게 하는 공간적 인자 및 시간적 인자를 분석하는 단계를 포함할 수 있다.The analyzing of the fatigue inducing factor may include analyzing a spatial factor and a temporal factor causing fatigue to the user from the haptic VR content based on deep learning.

나아가, 상기 공간적 인자 및 시간적 인자를 분석하는 단계는 합성곱 신경망(Convolutional Neural Network; CNN) 또는 auto encoder를 기반으로 하여 공간적 인자를 분석하고, 순환 신경망(Recurrent Neural Network; RNN) 또는 LSTM(Long Short Term Memory)를 기반으로 하여 시간적 인자를 분석하는 단계를 포함할 수 있다.Further, the step of analyzing the spatial and temporal factors may be performed based on a convolutional neural network (CNN) or an auto encoder, and analyzes the spatial factors, and may be a recurrent neural network (RNN) or long short (LSTM). Term Memory) may be included to analyze the temporal factor.

상기 피로 유발 인자를 분석하는 단계는 사용자가 상기 체감 VR 컨텐츠에 대한 피로도를 주관적으로 평가하여 제공한 제공 평가 품질 지수와 딥 러닝을 기반으로 상기 체감 VR 컨텐츠에 대한 피로도를 정량적으로 예측한 예측 품질 지수 간의 비용 함수를 사용하여 학습하는 단계를 포함할 수 있다.Analyzing the fatigue inducing factor is a predictive quality index that quantitatively predicts the fatigue degree for the haptic VR content based on deep learning and provided evaluation quality index provided by the user subjectively assessing the fatigue degree for the haptic VR content Learning using a cost function of the liver.

상기 피로 유발 인자를 분석하는 단계는 상기 체감 VR 컨텐츠를 시청하는 사용자의 생체 정보와 딥 러닝을 기반으로 상기 체감 VR 컨텐츠에 대해 측정된 측정 생체 정보 간의 비용 함수를 사용하여 학습하는 단계를 포함할 수 있다.The analyzing of the fatigue inducing factor may include learning using a cost function between biometric information of a user viewing the haptic VR content and measured biometric information measured for the haptic VR content based on deep learning. have.

상기 체감 품질 지수를 정량적으로 예측하는 단계는 상기 체감 VR 컨텐츠를 시청하는 사용자의 생체 정보로부터 상기 체감 VR 컨텐츠에 대한 시청자의 체감 품질 지수를 정량적으로 예측하는 단계를 더 포함할 수 있다.The quantitatively predicting the haptic quality index may further include quantitatively predicting the viewer's haptic quality index for the haptic VR content from the biometric information of the user viewing the haptic VR content.

본 발명의 일 실시예에 따른 VR 컨텐츠 체감 품질 평가 장치는 딥 러닝을 기반으로 하여, 체감 VR 컨텐츠로부터 적어도 하나의 피로 유발 인자를 분석하는 분석부; 및 딥 러닝을 기반으로 하여, 상기 분석된 적어도 하나의 피로 유발 인자 또는 상기 체감 VR 컨텐츠를 시청하는 사용자의 생체 정보로부터 상기 체감 VR 컨텐츠에 대한 시청자의 체감 품질 지수를 정량적으로 예측하는 예측부를 포함할 수 있다.VR content experience quality evaluation apparatus according to an embodiment of the present invention, based on deep learning, the analysis unit for analyzing at least one fatigue causing factor from the haptic VR content; And a prediction unit quantitatively predicting the viewer's haptic quality index for the haptic VR content from the analyzed at least one fatigue-inducing factor or the biometric information of the user viewing the haptic VR content based on deep learning. Can be.

상기 분석부는 참고 정보를 획득하고, 상기 참고 정보를 원본 VR 컨텐츠에 반영하여 체감 VR 컨텐츠를 구성하고, 상기 체감 VR 컨텐츠로부터 상기 적어도 하나의 피로 유발 인자를 분석할 수 있다.The analyzer may obtain reference information, configure the haptic VR content by reflecting the reference information in the original VR content, and analyze the at least one fatigue causing factor from the haptic VR content.

상기 분석부는 딥 러닝을 기반으로 하여, 상기 체감 VR 컨텐츠로부터 사용자에게 피로를 느끼게 하는 공간적 인자 및 시간적 인자를 분석할 수 있다.The analysis unit may analyze a spatial factor and a temporal factor that make a user feel fatigued from the haptic VR content based on deep learning.

상기 분석부는 사용자가 상기 체감 VR 컨텐츠에 대한 피로도를 주관적으로 평가하여 제공한 제공 평가 품질 지수와 딥 러닝을 기반으로 상기 체감 VR 컨텐츠에 대한 피로도를 정량적으로 예측한 예측 품질 지수 간의 비용 함수를 사용하여 학습할 수 있다.The analysis unit uses a cost function between a provided evaluation quality index provided by a user subjectively evaluating the fatigue of the haptic VR content and a predicted quality index that quantitatively predicts the fatigue of the haptic VR content based on deep learning. I can learn.

상기 분석부는 상기 체감 VR 컨텐츠를 시청하는 사용자의 생체 정보와 딥 러닝을 기반으로 상기 체감 VR 컨텐츠에 대해 측정된 측정 생체 정보 간의 비용 함수를 사용하여 학습할 수 있다.The analysis unit may learn by using a cost function between the biometric information of the user viewing the haptic VR content and the measured biometric information measured for the haptic VR content based on deep learning.

본 발명의 일 실시예는에 따른 VR 컨텐츠 체감 품질 평가 방법 및 장치는 VR 컨텐츠를 시청한 뒤에 시청자에게 발생할 수 있는 심한 피로 또는 사이버 멀미 등을 사전에 방지할 수 있도록 VR 컨텐츠의 체감 품질 지수를 예측할 수 있다.According to an embodiment of the present invention, a method and apparatus for evaluating haptic quality of VR content according to an embodiment of the present invention may predict haptic quality index of VR content so as to prevent severe fatigue or cyber sickness that may occur to the viewer after viewing the VR content. Can be.

도 1은 일 실시예에 따른 VR 컨텐츠 체감 품질 평가 장치를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 딥 러닝 기반의 분석부를 설명하기 위한 도면이다.
도 3은 사용자의 머리 움직임을 반영하여 체감 VR 컨텐츠를 획득하는 과정을 설명하기 위한 도면이다.
도 4는 VR 재생 장치의 재생 속도를 반영하여 체감 VR 컨텐츠를 획득하는 과정을 설명하기 위한 도면이다.
도 5는 피로 유발 인자를 분석하는 과정을 설명하기 위한 도면이다.
도 6은 분석부가 제공된 체감 품질 지수를 사용하여 기계 학습하는 과정을 설명하기 위한 도면이다.
도 7은 분석부가 제공된 체감 품질 지수 및 생체 정보를 사용하여 기계 학습하는 과정을 설명하기 위한 도면이다.
도 8 및 도9는 피로 유발 인자를 기반으로 체감 품질 지수를 예측하는 과정을 설명하기 위한 도면이다.
도 10은 예측부가 피로 유발 인자 뿐만 아니라 생체 정보를 기반으로 하여 체감 품질 지수를 예측하는 과정을 설명하기 위한 도면이다.
도 11은 여러 피로 유발 인자를 고려하여 체감 품질 지수를 예측하는 예측부의 구조를 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 VR 컨텐츠 체감 품질 평가 방법을 설명하기 위한 흐름도이다.
도 13은 피로 유발 인자를 분석하는 단계(S1210)를 설명하기 위한 흐름도이다.
1 is a diagram illustrating an apparatus for evaluating haptic VR content quality according to an embodiment.
2 is a diagram for describing a deep learning based analysis unit, according to an exemplary embodiment.
3 is a diagram illustrating a process of acquiring haptic VR content by reflecting a user's head movement.
4 is a diagram for describing a process of acquiring haptic VR content by reflecting a playback speed of a VR playback device.
5 is a view for explaining a process of analyzing fatigue causing factors.
6 is a view for explaining a process of machine learning using the haptic quality index provided by the analysis unit.
7 is a view for explaining a process of machine learning using the haptic quality index and biometric information provided by the analysis unit.
8 and 9 are diagrams for explaining the process of predicting the haptic quality index based on the fatigue inducing factor.
FIG. 10 is a diagram for explaining a process of predicting a haptic quality index based on biometric information as well as a fatigue inducing factor.
FIG. 11 is a diagram for describing a structure of a predictor that predicts a sensory quality index in consideration of various fatigue causing factors.
12 is a flowchart illustrating a method of evaluating VR content sensation quality according to an embodiment.
13 is a flowchart for explaining a step (S1210) of analyzing a fatigue causing factor.

이하, 본 발명의 여러가지 실시예 중 특정 실시예를 첨부된 도면에 도시하여 상세하게 설명한다. 그러나 이러한 특정 실시예가 본 발명을 제한하거나 한정하는 것은 아니다. 도면의 부호에 관계없이 동일한 참조 번호는 동일한 구성요소를 나타내며, 중복되는 설명은 생략한다.Hereinafter, specific embodiments of the various embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, these specific embodiments do not limit or limit the present invention. Regardless of the reference numerals in the drawings, the same reference numerals denote the same components, and redundant descriptions are omitted.

도 1은 일 실시예에 따른 VR 컨텐츠 체감 품질 평가 장치를 설명하기 위한 도면이다.1 is a diagram illustrating an apparatus for evaluating haptic VR content quality according to an embodiment.

도 1을 참조하면, 본 발명의 일 실시예에 따른 VR 컨텐츠 체감 품질 평가 장치는 분석부(170) 및 예측부(180)를 포함한다.Referring to FIG. 1, the VR content sensation quality evaluation apparatus according to an embodiment of the present invention includes an analyzer 170 and a predictor 180.

분석부(170)는 딥 러닝을 기반으로 VR 컨텐츠 중에서 피로를 유발하는 인자를 분석한다. 예측부(180)는 딥 러닝을 기반으로 VR 컨텐츠에 대해 사용자가 체감하는 피로도, 즉 체감 품질을 정량적으로 예측한다.The analysis unit 170 analyzes a factor causing fatigue among VR contents based on deep learning. The prediction unit 180 quantitatively predicts the fatigue level, ie, the haptic quality, experienced by the user with respect to the VR content based on deep learning.

VR 컨텐츠 체감 품질 평가 장치는 VR 재생 장치(110), 사용자(120), 원본 VR 컨텐츠(130)로부터 정보를 얻어서 VR 컨텐츠에 대한 체감 품질 지수를 예측하기 위해 기계 학습할 수 있다.The VR content sensation quality evaluation apparatus may obtain the information from the VR playback device 110, the user 120, and the original VR content 130 to perform machine learning to predict the haptic quality index for the VR content.

VR 컨텐츠 체감 품질 평가 장치의 기계 학습 과정(191)에서, 사용자(120)는 VR 재생 장치(110)를 통하여 원본 VR 컨텐츠(130)를 시청할 수 있다.In the machine learning process 191 of the VR content sensation quality evaluation device, the user 120 may watch the original VR content 130 through the VR playback device 110.

VR 재생 장치(110)는 원본 VR 컨텐츠(130)에 대한 참고 정보(140)를 VR 컨텐츠 체감 품질 평가 장치로 보낼 수 있다. VR 재생 장치(110)는 예를 들어, 머리 착용 디스플레이(Head Mounted Display; HMD)일 수 있다. 참고 정보(140)는 원본 VR 컨텐츠(130)에 반영되어 사용자가 체감하는 체감 VR 컨텐츠를 구성하기 위해 사용되는 정보이다. 참고 정보(140)는 예를 들어, 사용자가 VR 컨텐츠를 시청할 때의 머리 움직임 정도, 사용자의 시청 자세, 사용자 초점의 이동 정도, 원본 VR 컨텐츠(130)를 재생하는 재생 속도(초 당 프레임 수), 원본 VR 컨텐츠와 체감 VR 컨텐츠 간의 시간 딜레이, 시야 각, VR 컨텐츠 렌더링 정보 등이 될 수 있다.The VR playback device 110 may send reference information 140 about the original VR content 130 to the VR content sensation quality evaluation device. The VR playback device 110 may be, for example, a head mounted display (HMD). Reference information 140 is information that is reflected in the original VR content 130 is used to configure the haptic VR content that the user experiences. The reference information 140 may include, for example, the degree of head movement when the user watches VR content, the user's viewing posture, the degree of movement of the user's focus, and the playback speed (frames per second) of playing the original VR content 130. This may be a time delay between the original VR content and the haptic VR content, the viewing angle, and the VR content rendering information.

사용자(120)가 VR 재생 장치(110)를 통해 원본 VR 컨텐츠(130)를 시청하면서 관찰되는 생체 정보(150)는 VR 컨텐츠 체감 품질 평가 장치로 보내질 수 있다. 생체 정보(150)는 원본 VR 컨텐츠(130)에 대해 사용자(120)가 어느 정도 피로도를 느끼는지 판단하는 데 사용되는 정보로서, 체감 품질 지수를 예측하는 데 사용될 수 있다. 생체 정보(150)는 뇌파, 심박 수, 체온, 호흡 수 등이 될 수 있다.The biometric information 150 that is observed while the user 120 views the original VR content 130 through the VR playback device 110 may be sent to the VR content sensation quality evaluation device. The biometric information 150 is information used to determine how much fatigue the user 120 feels with respect to the original VR content 130, and may be used to predict a haptic quality index. The biometric information 150 may be brain waves, heart rate, body temperature, respiratory rate, and the like.

사용자(120)는 VR 재생 장치(110)를 통해 체감한 VR 컨텐츠의 피로도 대하여 체감 품질 지수를 제공할 수 있으며, 제공된 체감 품질 지수(160)는 VR 컨텐츠 체감 품질 평가 장치로 보내질 수 있다. 제공된 체감 품질 지수(160)는 VR 컨텐츠 체감 품질 평가 장치가 예측한 체감 품질 지수가 얼마나 정확한지 판단하는 데 기준이 된다. VR 컨텐츠 체감 품질 평가 장치는 제공된 체감 품질 지수(160)와 예측한 체감 품질 지수의 차이가 최소가 되도록 하는 기계 학습을 수행할 수 있다. The user 120 may provide a haptic quality index with respect to the fatigue degree of VR content felt through the VR playback device 110, and the provided haptic quality index 160 may be sent to the VR content haptic quality evaluation device. The provided haptic quality index 160 serves as a reference for determining how accurate the haptic quality index predicted by the VR content haptic quality evaluation device is predicted. The VR content haptic quality evaluation apparatus may perform machine learning to minimize the difference between the haptic quotient 160 provided and the predicted haptic quality index.

기계 학습 과정(191)에서, 분석부(170)는 피로 유발 인자를 분석하기 위해 참고 정보(140), 생체 정보(150), 제공된 체감 품질 지수(160), 원본 VR 컨텐츠(130)를 사용하여 딥 러닝을 기반으로 기계 학습할 수 있다. 피로 유발 인자는 사용자(120)가 원본 VR 컨텐츠(130)를 시청하면서 체감한 피로도의 원인이 되는 인자이다.In the machine learning process 191, the analyzer 170 uses reference information 140, biometric information 150, provided haptic quality index 160, and original VR content 130 to analyze fatigue-inducing factors. Machine learning based on deep learning. The fatigue inducing factor is a factor that causes the fatigue felt by the user 120 while watching the original VR content 130.

기계 학습 과정(191)에서, 예측부(180)는 사용자(120)가 제공한 체감 품질 지수와 최대한 가까운 체감 품질 지수를 예측하기 위하여 피로 유발 인자 및/또는 생체 정보(150)를 사용하여 딥 러닝을 기반으로 기계 학습할 수 있다.In the machine learning process 191, the prediction unit 180 uses the fatigue causing factor and / or the biometric information 150 to predict the quality of experience index as close as possible to the sensory quality index provided by the user 120. Based on the machine learning.

VR 컨텐츠 체감 품질 평가 장치의 평가 과정(192)은 기계 학습 과정(191)을 통해서 체감 품질 평가 장치가 임계값 이상의 신뢰도를 얻게된 이후의 과정일 수 있다. 예를 들어, 기계 학습 과정(191)을 통해 체감 품질 평가 장치가 예측한 예측한 체감 품질 지수가 제공된 체감 품질 지수와 5% 내외의 오차를 보이는 경우, 평가 과정(192)이 진행될 수 있다.The evaluation process 192 of the VR content haptic quality evaluation device may be a process after the haptic quality evaluation device obtains a reliability above a threshold value through the machine learning process 191. For example, when the predicted haptic quality index predicted by the haptic quality evaluation device shows a difference of about 5% from the haptic quality index provided through the machine learning process 191, the evaluation process 192 may be performed.

학습된 체감 품질 평가 장치는 원본 VR 컨텐츠(130)를 획득하여 사용자가 체감할 피로도, 즉 체감 품질 지수를 예측하여 출력할 수 있다.The learned haptic quality evaluation device may obtain the original VR content 130 and predict and output the fatigue degree, that is, the haptic quality index, to be experienced by the user.

시청자는 피로나 사이버멀미를 유발할 가능성이 높은 VR 컨텐츠를 예측 체감 품질 지수를 통해 쉽게 확인할 수 있고, VR 컨텐츠 제작자는 자신이 만든 VR 컨텐츠가 얼마나 피로나 사이버멀미를 유발하는지 정량적으로 파악할 수 있다. 즉, 예측 체감 품질 지수는 보다 안전한 VR 컨텐츠를 제작할 수 있도록 도움을 주는 VR 컨텐츠 제작 가이드 라인으로 활용될 수 있다.Viewers can easily identify VR contents that are likely to cause fatigue or cyber sickness through the predicted haptic quality index, and VR content creators can quantitatively understand how fatigue or cyber sickness their VR contents cause. In other words, the predicted haptic quality index may be used as a guideline for VR content creation that helps to produce safer VR content.

도 2는 일 실시예에 따른 딥 러닝 기반의 분석부를 설명하기 위한 도면이다.2 is a diagram for describing a deep learning based analysis unit, according to an exemplary embodiment.

도 2를 참조하면, 분석부(170)는 VR 재생 장치(110), 사용자(120), 원본 VR 컨텐츠(130)로부터 정보를 받아 인공 신경망을 통해 기계 학습하고 피로 유발 인자를 분석한다. 피로 유발 인자는 사용자(120)가 원본 VR 컨텐츠(130)를 시청하면서 체감한 피로도의 원인이 되는 인자이다. 피로 유발 인자는 예를 들어, VR 컨텐츠에서 오브젝트의 움직임 속도, VR 컨텐츠 영상의 회전 움직임, 영상 스티칭(stitching)에 따른 영상 왜곡일 수 있다.Referring to FIG. 2, the analysis unit 170 receives information from the VR playback apparatus 110, the user 120, and the original VR content 130, and machine learning through an artificial neural network and analyzes fatigue inducing factors. The fatigue inducing factor is a factor that causes the fatigue felt by the user 120 while watching the original VR content 130. The fatigue-inducing factor may be, for example, image distortion due to the moving speed of the object in the VR content, the rotational movement of the VR content image, and the image stitching.

분석부(170)는 미리 정해진 알고리즘들에 따라 피로 유발 인자를 분석할 수 있다. 알고리즘들 각각은 서로 다른 피로 유발 인자를 분석하기 위해 정해지며, 분석부로 하여금 각 피로 유발 인자에 대한 기계 학습을 가능하게 한다. 각 알고리즘은 예를 들어, 합성곱 신경망(Convolutional Neural Netwrok; CNN), 순환 신경망(Recurrent Neural Network; RNN), LSTM(Long Short Term Memory), GRU(Gated Recurrent Unit), FCN(Fully Convolutional Network) 등의 인공 신경망(Artificial Neural Network; ANN) 중 적어도 하나를 포함할 수 있다.The analyzer 170 may analyze the fatigue causing factor according to predetermined algorithms. Each of the algorithms is determined to analyze different fatigue inducing factors, and allows the analyzer to machine learn about each fatigue inducing factor. Each algorithm is, for example, a convolutional neural netwrok (CNN), a recurrent neural network (RNN), a long short term memory (LSTM), a gated recurrent unit (GRU), a fully convolutional network (FCN), and the like. It may include at least one of an artificial neural network (ANN).

분석부(170)는 사용자(120)가 VR 재생 장치(110)인 HMD를 착용하고 원본 VR 컨텐츠(130)를 시청하는 경우, VR 재생 장치(110)로부터 시청자의 머리 움직임 정보를 받아서 시청자의 시선에 따라 재생된 체감 VR 컨텐츠를 구성하고, 이를 기반으로 피로 유발 인자를 분석할 수 있다.When the user 120 wears the HMD which is the VR playback device 110 and watches the original VR content 130, the analyzer 170 receives the head movement information of the viewer from the VR playback device 110, and the viewer's gaze. According to the configuration of the haptic VR content reproduced, and can be analyzed based on the fatigue causing factors.

분석부(170)는 분석한 피로 유발 인자 또는 사용자의 생체 정보(150)와 제공된 체감 품질 지수(160) 간의 관계를 비교함으로써 좀 더 정확한 피로 유발 인자를 분석해내기 위한 기계 학습을 할 수 있다.The analysis unit 170 may perform machine learning to analyze the fatigue causing factors more accurately by comparing the relationship between the analyzed fatigue causing factors or the user's biometric information 150 and the haptic quality index 160 provided.

사용자(120)가 VR 재생 장치(110)를 통해 원본 VR 컨텐츠(130)를 시청하는 경우, 체감 VR 컨텐츠는 시청 환경에 영향을 받아 원본 VR 컨텐츠(130)와 다를 수 있다. 예를 들어, 사용자(120)가 머리 장착 디스플레이(HMD)를 통해 VR 컨텐츠를 시청하는 경우, 사용자(120)가 머리를 움직이는 행동을 하면, 사용자(120)의 시각에서 바라보는 체감 VR 컨텐츠는 원본 VR 컨텐츠(130)와 비교할 때 시야, 각도, 초점 등이 달라질 수 있다. 다른 예로, 원본 VR 컨텐츠(130)는 90Hz의 재생 속도를 갖는 반면에 VR 재생 장치(110)는 30Hz 또는 60Hz의 재생 속도로 원본 VR 컨텐츠(130)를 재생한다면, 체감 VR 컨텐츠는 원본 VR 컨텐츠(130)와 비교할 때 재생 속도가 느릴 수 있다.When the user 120 views the original VR content 130 through the VR playback device 110, the haptic VR content may be different from the original VR content 130 due to the viewing environment. For example, when the user 120 views the VR content through the head mounted display (HMD), when the user 120 moves the head, the haptic VR content viewed from the user 120's perspective is the original. Compared to the VR content 130, the field of view, angle, focus, and the like may vary. As another example, if the original VR content 130 has a playback speed of 90 Hz while the VR playback device 110 plays the original VR content 130 at a playback speed of 30 Hz or 60 Hz, the haptic VR content may be the original VR content ( Playback speed may be slow compared to 130).

VR 컨텐츠의 체감 품질은 실제 시청자가 보고 있는 체감 VR 컨텐츠에 따라 결정된다. 따라서, VR 컨텐츠 체감 품질 평가 장치는 VR 재생 장치(110)를 통해 VR 컨텐츠의 참고 정보(140)를 제공받고, 참고 정보(140)를 원본 VR 컨텐츠(130)에 반영하여 체감 VR 컨텐츠를 획득한 뒤, 획득한 체감 VR 컨텐츠를 기반으로 피로도를 유발하는 인자가 무엇인지 분석해야 한다.The haptic quality of the VR content is determined by the haptic VR content that the actual viewer is watching. Accordingly, the VR content sensation quality evaluation device receives the reference information 140 of the VR content through the VR playback device 110, and acquires the haptic VR content by reflecting the reference information 140 on the original VR content 130. Afterwards, it is necessary to analyze what factors cause fatigue based on the acquired VR content.

도 3은 사용자의 머리 움직임을 반영하여 체감 VR 컨텐츠를 획득하는 과정을 설명하기 위한 도면이다.3 is a diagram illustrating a process of acquiring haptic VR content by reflecting a user's head movement.

도 3을 참조하면, 분석부(170)는 VR 재생 장치(110)를 머리에 착용한 사용자(120)의 머리 움직임 정보를 원본 VR 컨텐츠(130)에 반영하여 체감 VR 컨텐츠(310)를 획득할 수 있다.Referring to FIG. 3, the analyzer 170 may acquire the haptic VR content 310 by reflecting the head motion information of the user 120 wearing the VR playback device 110 on the head, to the original VR content 130. Can be.

원본 VR 컨텐츠의 특정 프레임 중 특정 지점의 좌표가 VR(x,y,z)로 나타낼 수 있고, 사용자(120)가 원본 VR 컨텐츠를 시청하면서 머리를 움직인 벡터 좌표를 (mx,my,mz)로 나타낼 수 있다고 한다면, 시청자의 시선에서 특정 지점의 좌표는 VR'(x,y,z) = VR(x-mx,y-my,z-mz)로 나타낼 수 있다.The coordinates of a specific point of a specific frame of the original VR content may be represented as VR (x, y, z), and the vector coordinates of the user 120 moving his head while watching the original VR content (mx, my, mz) If it can be expressed as, the coordinates of a specific point in the viewer's gaze may be represented as VR '(x, y, z) = VR (x-mx, y-my, z-mz).

예를 들어, 축구와 관련된 원본 VR 컨텐츠의 특정 프레임의 중앙에 축구공이 위치할 때, 사용자가 머리를 움직여서 시선을 위쪽으로 옮긴다면, 사용자의 시선에서 바라본 체감 VR 컨텐츠에서의 축구공은 특정 프레임의 아래쪽에 위치하게 된다.For example, if a soccer ball is located in the center of a specific frame of soccer-related original VR content, the user moves his head to move his gaze upward. It is located at the bottom.

도 4는 VR 재생 장치의 재생 속도를 반영하여 체감 VR 컨텐츠를 획득하는 과정을 설명하기 위한 도면이다.4 is a diagram for describing a process of acquiring haptic VR content by reflecting a playback speed of a VR playback device.

도 4를 참조하면, 분석부(170)는 원본 VR 컨텐츠(130)의 재생 속도와 VR 재생 장치(110)의 재생 가능 속도를 반영하여 체감 VR 컨텐츠(310)를 획득할 수 있다.Referring to FIG. 4, the analyzer 170 may acquire the haptic VR content 310 by reflecting the playback speed of the original VR content 130 and the playable speed of the VR playback device 110.

원본 VR 컨텐츠(130)의 초 당 프레임 수, 즉 재생 속도가 빠르다고 하더라도 VR 재생 장치(110)가 더 낮은 재생 속도로 사용자(120)에게 VR 컨텐츠를 제공한다면, 사용자(120)가 체감하는 체감 VR 컨텐츠(310)의 재생 속도는 원본 VR 컨텐츠(130)와 달라진다.If the VR playback device 110 provides the VR content to the user 120 at a lower playback speed, even if the frame rate per second of the original VR content 130 is high, the haptic VR that the user 120 experiences The playback speed of the content 310 is different from the original VR content 130.

예를 들어, 원본 VR 컨텐츠(130)의 재생 속도가 90Hz 이더라도, VR 재생 장치(110)의 재생 속도가 30Hz에 불과한 경우, 체감 VR 컨텐츠(310)의 재생 속도는 원본 VR 컨텐츠(130)의 재생 속도보다 느린 30Hz이다. 이 때, 분석부(170)는 샘플링 간격 90Hz/30Hz = 3을 고려하여 피로 유발 인자를 분석할 수 있다.For example, even if the playback speed of the original VR content 130 is 90 Hz, when the playback speed of the VR playback device 110 is only 30 Hz, the playback speed of the haptic VR content 310 is the playback of the original VR content 130. 30Hz slower than the speed. At this time, the analysis unit 170 may analyze the fatigue causing factor in consideration of the sampling interval 90Hz / 30Hz = 3.

분석부(170)는 재생 속도 외에도, 영상 렌더링 및 시간 딜레이 등의 참고 정보(160)를 원본 VR 컨텐츠(130)에 반영하여 체감 VR 컨텐츠(310)를 획득할 수 있다.In addition to the playback speed, the analyzer 170 may acquire the haptic VR content 310 by reflecting reference information 160 such as image rendering and time delay in the original VR content 130.

도 5는 피로 유발 인자를 분석하는 과정을 설명하기 위한 도면이다.5 is a view for explaining a process of analyzing fatigue causing factors.

도 5를 참조하면, 분석부(170)는 피로 유발 인자(550)를 분석하기 위해, 참고정보(140)를 반영한 체감 VR 컨텐츠(310)의 각 프레임(510a 내지 510n)에 대하여 공간적 알고리즘(530) 및 시간적 알고리즘(540)을 적용할 수 있다. 사용자(120)가 VR 컨텐츠를 시청하여 느끼는 피로도 또는 사이버 멀미(cybersickness)는 공간적 인자 및 시간적 인자와 밀접한 연관이 있다.Referring to FIG. 5, the analysis unit 170 analyzes the fatigue causing factor 550, and performs a spatial algorithm 530 on each frame 510a to 510n of the haptic VR content 310 reflecting the reference information 140. And temporal algorithm 540 may be applied. The fatigue or cybersickness that the user 120 experiences by watching the VR content is closely related to the spatial and temporal factors.

공간적 인자는 여러 각도의 영상을 이어 붙이는 스티칭(stitching) 과정에 의한 영상 왜곡 또는 시야각 문제와 같이 공간적인 특성을 가지며 피로를 유발시키는 피로 유발 인자이고, 시간적 인자는 영상 내 빠른 움직임 또는 빠른 화전과 같이 시간적인 특성을 가지며 피로를 유발시키는 피로 유발 인자이다.Spatial factors are fatigue-inducing factors that have spatial characteristics and cause fatigue, such as image distortion or viewing angle problems caused by stitching processes that connect images of various angles. It is a fatigue-inducing factor that has temporal characteristics and causes fatigue.

공간적 인자와 시간적 인자는 서로 관련되어 사용자(120)에게 피로도를 유발한다. 예를 들어, VR 컨텐츠 내 어느 한 프레임에서만 영상 왜곡 또는 빠른 움직임이 발생했을 경우, 사용자가 그것에 의해 극심한 피로나 사이버 멀미를 체감할 가능성은 낮다. 하지만, 영상 왜곡 또는 빠른 움직임이 실질적으로 연속된 여러 프레임들에서 발생한다면 사용자가 체감하는 VR 컨텐츠의 품질을 매우 낮아질 것이다. 따라서, 분석부(170)는 체감 VR 컨텐츠(310) 내 피로를 유발할 수 있는 공간적 인자와 시간적 인자를 모두 고려해야 한다.The spatial and temporal factors are related to each other and cause fatigue to the user 120. For example, if image distortion or rapid movement occurs only in one frame of VR content, the user is unlikely to experience extreme fatigue or cyber sickness. However, if image distortion or rapid movement occurs in several consecutive frames, the quality of the VR content experienced by the user will be very low. Therefore, the analyzer 170 should consider both spatial and temporal factors that can cause fatigue in the haptic VR content 310.

도 5에서는 체감 VR 컨텐츠의 공간적 인자를 추출하기 위한 알고리즘(530)으로 합성곱 신경망(Convolutional Neural Netwrok; CNN)을 사용하였으나, auto encoder 등 공간적 특징 또는 짧은 시간적 특징을 학습하는 데에 유용한 딥 러닝 알고리즘을 사용할 수도 있다.In FIG. 5, a convolutional neural netwrok (CNN) is used as an algorithm 530 for extracting spatial factors of haptic VR content, but a deep learning algorithm useful for learning spatial features such as an auto encoder or short temporal features. You can also use

도 5에서는 체감 VR 컨텐츠의 시간적 인자를 추출하기 위한 알고리즘(540)으로 LSTM(Long Short Term Memory)을 사용하였으나, 순환 신경망(Recurrent Neural Network; RNN), GRU(Gated Recurrent Unit) 등 시간적 특징을 학습하는 데에 유용한 딥 러닝 알고리즘을 사용할 수도 있다.In FIG. 5, although Long Short Term Memory (LSTM) is used as an algorithm 540 for extracting temporal factors of haptic VR content, learning of temporal features such as Recurrent Neural Network (RNN) and Gated Recurrent Unit (GRU) is performed. You can also use deep learning algorithms to help you.

도 6은 분석부가 제공된 체감 품질 지수를 사용하여 기계 학습하는 과정을 설명하기 위한 도면이다.6 is a view for explaining a process of machine learning using the haptic quality index provided by the analysis unit.

도 6을 참조하면, 분석부(170)는 사용자가 VR 컨텐츠를 시청하고 제공한 제공된 체감 품질 지수(160)를 이용하여 보다 정확한 체감 품질 지수 예측을 하기 위한 기계 학습할 수 있다. 예를 들어, 분석부(170)는 제공된 체감 품질 지수와 예측한 체감 품질 지수를 기반으로 하여 비용 함수를 최소화시키는 방향으로 기계 학습할 수 있다.Referring to FIG. 6, the analyzer 170 may perform machine learning to more accurately predict the haptic quality index by using the haptic quality index 160 provided by the user to view and provide VR content. For example, the analyzer 170 may machine learn in a direction of minimizing the cost function based on the provided haptic quality index and the predicted haptic quality index.

분석부(170)는 관계식 1의 비용함수

Figure 112017081888386-pat00001
를 최소화하는 방향으로 기계 학습할 수 있다.The analysis unit 170 is the cost function of relation 1
Figure 112017081888386-pat00001
Machine learning in a way that minimizes

[관계식 1]

Figure 112017081888386-pat00002
[Relationship 1]
Figure 112017081888386-pat00002

관계식 1에서

Figure 112017081888386-pat00003
는 VR 컨텐츠 체감 품질 평가 장치가 예측한 체감 품질 지수이고,
Figure 112017081888386-pat00004
는 사용자(120)가 VR 컨텐츠를 시청하고 제공한 체감 품질 지수이고,
Figure 112017081888386-pat00005
는 예를 들어, cross-entropy loss, L1- norm 또는 L2-norm등의 에러 계산 방법일 수 있으나 이에 국한되지 않는다.In relation 1
Figure 112017081888386-pat00003
Is a haptic quality index predicted by the VR content haptic quality evaluation device,
Figure 112017081888386-pat00004
Is a haptic quality index provided by the user 120 for watching and providing VR content,
Figure 112017081888386-pat00005
For example, may be an error calculation method such as cross-entropy loss, L1-norm or L2-norm, but is not limited thereto.

예를 들어, 0과 10 사이의 점수로 체감 품질 지수를 평가할 수 있고 지수가 낮을수록 피로도가 심한 것일 경우, 사용자가 VR 컨텐츠를 시청하고 3이라는 체감 품질 지수를 제공했으나 VR 컨텐츠체감 품질 평가 장치는 5라는 체감 품질 지수를 예측했다면, 분석부(170)는 3과 5를 비용 함수의 변수로 보고 기계 학습할 수 있다.For example, if it is possible to evaluate the haptic quality index with a score between 0 and 10, and the lower the index, the more severe the fatigue, the user watched VR content and provided a haptic quality index of 3, but the VR content haptic quality evaluation device If the predicted haptic quality index of 5, the analysis unit 170 can be machine learning by looking at 3 and 5 as a variable of the cost function.

도 7은 분석부가 제공된 체감 품질 지수 및 생체 정보를 사용하여 기계 학습하는 과정을 설명하기 위한 도면이다.7 is a view for explaining a process of machine learning using the haptic quality index and biometric information provided by the analysis unit.

체감 VR 컨텐츠의 총 프레임이 n개인 경우, 각 프레임의 시각과 동기화된 생체 정보(150)는 체감 품질 지수를 예측하기 위한 기계 학습에 사용될 수 있다. 생체 정보(150)는 뇌파 세기, 심박 수, 체온, 호흡 수 등이 될 수 있다.If n total frames of haptic VR content are n, the biometric information 150 synchronized with the time of each frame may be used for machine learning to predict the haptic quality index. The biometric information 150 may be brain wave intensity, heart rate, body temperature, respiratory rate, and the like.

이 때, 생체 정보(150)를 이용하는 관계식 2의 비용 함수

Figure 112017081888386-pat00006
는 매 프레임 또는 짧은 시간의 시각적 특징을 기계 학습할 수 있도록 도와줄 수 있다.At this time, the cost function of relation 2 using the biometric information 150
Figure 112017081888386-pat00006
Can help machine learn every frame or short time visual feature.

[관계식 2]

Figure 112017081888386-pat00007
[Relationship 2]
Figure 112017081888386-pat00007

관계식 2에서, n은 총 프레임 개수이며,

Figure 112017081888386-pat00008
는 VR 컨텐츠 체감 품질 평가 장치가 예측한 t번 째 프레임에서의 생체 정보,
Figure 112017081888386-pat00009
는 t번 째 프레임에서 측정된 사용자(120)의 생체 정보(150)이다.In relation 2, n is the total number of frames,
Figure 112017081888386-pat00008
Biometric information in the t-th frame predicted by the VR content sensation quality evaluation apparatus,
Figure 112017081888386-pat00009
Is the biometric information 150 of the user 120 measured in the t th frame.

생체 정보에 대한 기계 학습을 수행하는 것은 분석부(170)로 하여금 사용자(120)가 VR 컨텐츠를 시청했을 때의 생체 정보를 정확하게 예측하는 데 도움을 줄 수 있다. 생체 정보(150)를 이용한 기계 학습은 VR 컨텐츠의 전반적인 품질을 개선하려는 목적보다는 VR 컨텐츠의 매 프레임에 대한 품질을 개선하려는 데에 목적이 있다.Performing machine learning on the biometric information may help the analyzer 170 to accurately predict the biometric information when the user 120 views the VR content. Machine learning using the biometric information 150 is intended to improve the quality of each frame of VR content, rather than to improve the overall quality of the VR content.

분석부(170)는 생체 정보(150) 및 제공된 체감 품질 지수(160)를 기반으로 기계 학습할 수 있다. 예를 들어, 관계식 3의 비용 함수

Figure 112017081888386-pat00010
은 관계식 1 및 관계식 2의 비용 함수인
Figure 112017081888386-pat00011
,
Figure 112017081888386-pat00012
, 가중치 파라미터인
Figure 112017081888386-pat00013
를 사용하여 정의할 수 있다.The analyzer 170 may machine learn based on the biometric information 150 and the provided haptic quality index 160. For example, the cost function in relation 3
Figure 112017081888386-pat00010
Is the cost function of relations 1 and 2
Figure 112017081888386-pat00011
,
Figure 112017081888386-pat00012
, The weight parameter
Figure 112017081888386-pat00013
Can be defined using

[관계식 3]

Figure 112017081888386-pat00014
Figure 112017081888386-pat00015
Figure 112017081888386-pat00016
[Relationship 3]
Figure 112017081888386-pat00014
Figure 112017081888386-pat00015
Figure 112017081888386-pat00016

도 8 또는 9에 도시된 바와 같이, 예측부는 하나의 피로 유발 인자 또는 여러 피로 유발 인자로부터 체감 품질 지수를 예측할 수 있다. 하나의 피로 유발 인자만을 고려하여 체감 품질 지수를 예측하면 기계 학습하는 시간을 단축하고 알고리즘을 구성하는 데 소요되는 비용이 줄어들게 된다. 그러나, 여러 피로 유발 인자를 고려하여 체감 품질 지수를 예측하는 경우보다 정확성이 떨어질 수 있으므로, 정확성과 비용 간의 trade-off 관계를 고려하여 설계해야 한다.As illustrated in FIG. 8 or 9, the prediction unit may predict the haptic quality index from one fatigue causing factor or several fatigue causing factors. Predicting the haptic quality index by considering only one fatigue factor reduces the time spent on machine learning and reduces the cost of constructing the algorithm. However, the accuracy may be inferior to that of predicting the haptic quality index by considering various fatigue inducing factors. Therefore, it is necessary to design in consideration of the trade-off relationship between accuracy and cost.

도 10은 예측부가 피로 유발 인자 뿐만 아니라 생체 정보를 기반으로 하여 체감 품질 지수를 예측하는 과정을 설명하기 위한 도면이다.FIG. 10 is a diagram for explaining a process of predicting a haptic quality index based on biometric information as well as a fatigue inducing factor.

분석부(170)가 분석한 피로 유발 인자는 정확도가 높은 체감 품질 지수가 획득되도록 기계 학습되어 있는 것이며, 생체 정보(150)는 체감 VR 컨텐츠(310)에 대해 객관적인 피로도 정보를 나타내는 것이므로, 피로 유발 인자 및 생체 정보를 이용하여 기계 학습을 한다면 높은 정확도의 체감 품질 지수를 예측할 수 있다.The fatigue inducing factor analyzed by the analysis unit 170 is machine learning to obtain a high-quality sensory quality index, and the biometric information 150 indicates objective fatigue information on the haptic VR content 310, and thus causes fatigue. Machine learning using factor and biometric information can predict the high quality of experience quality index.

도 11은 여러 피로 유발 인자를 고려하여 체감 품질 지수를 예측하는 예측부의 구조를 설명하기 위한 도면이다.FIG. 11 is a diagram for describing a structure of a predictor that predicts a sensory quality index in consideration of various fatigue causing factors.

예측부의 구조는 예를 들어, 심층 신경망(Deep Neural Network; DNN)과 같은 딥 러닝 구조일 수 있다.The structure of the prediction unit may be, for example, a deep learning structure such as a deep neural network (DNN).

각 피로 유발 인자 정보(1110a 내지 1110n)는 예를 들어, 오브젝트의 움직임 속도, VR 컨텐츠 영상의 회전 움직임, 영상 스티칭(stitching)에 따른 영상 왜곡 등이 체감 품질 지수에 미치는 가중치가 고려된 벡터 데이터를 포함할 수 있다. 각 피로 유발 인자 정보(1110a 내지 1110n)가 포함하는 데이터가 심층 신경망을 거치면서 원본 VR 컨텐츠에 대한 체감 품질 지수가 예측될 수 있다. 특정 피로 유발 인자 정보가 체감 품질 지수에 미치는 가중치가 적다고 판단되면, drop out, pruning 등의 regularization 기법을 통하여 측정부(180)의 성능을 높일 수 있다.Each fatigue induction factor information 1110a to 1110n includes, for example, vector data in which weights of weights of bodily movements, rotational movements of VR content images, image distortions due to image stitching, etc. are taken into consideration for the bodily quality index. It may include. As the data included in each fatigue-inducing factor information 1110a to 1110n passes through the deep neural network, the sensory quality index for the original VR content may be predicted. If it is determined that the weight of the specific fatigue causing factor information on the haptic quality index is small, the performance of the measurement unit 180 may be improved through regularization techniques such as drop out and pruning.

도 12는 일 실시예에 따른 VR 컨텐츠 체감 품질 평가 방법을 설명하기 위한 흐름도이다.12 is a flowchart illustrating a method of evaluating VR content sensation quality according to an embodiment.

도 12를 참조하면, VR 컨텐츠 체감 품질 평가 방법은 딥 러닝을 기반으로 하여, 체감 VR 컨텐츠로부터 적어도 하나의 피로 유발 인자를 분석하는 단계를 포함할 수 있다(S1210). Referring to FIG. 12, the VR content sensation quality evaluation method may include analyzing at least one fatigue causing factor from haptic VR content based on deep learning (S1210).

일 예에서, VR 컨텐츠 체감 품질 평가 방법은 피로 유발 인자로서 공간적 인자 및 시간적 인자를 분석할 수 있다.In one example, the VR content sensation quality evaluation method may analyze the spatial and temporal factors as fatigue-inducing factors.

공간적 인자는 여러 각도의 영상을 이어 붙이는 스티칭(stitching) 과정에 의한 영상 왜곡 또는 시야각 문제와 같이 공간적인 특성을 가지며 피로를 유발시키는 피로 유발 인자이고, 시간적 인자는 영상 내 빠른 움직임 또는 빠른 화전과 같이 시간적인 특성을 가지며 피로를 유발시키는 피로 유발 인자이다.Spatial factors are fatigue-inducing factors that have spatial characteristics and cause fatigue, such as image distortion or viewing angle problems caused by stitching processes that connect images of various angles. It is a fatigue-inducing factor that has temporal characteristics and causes fatigue.

공간적 인자와 시간적 인자는 서로 관련되어 사용자(120)에게 피로도를 유발한다. 예를 들어, VR 컨텐츠 내 어느 한 프레임에서만 영상 왜곡 또는 빠른 움직임이 발생했을 경우, 사용자가 그것에 의해 극심한 피로나 사이버 멀미를 체감할 가능성은 낮다. 하지만, 영상 왜곡 또는 빠른 움직임이 실질적으로 연속된 여러 프레임들에서 발생한다면 사용자가 체감하는 VR 컨텐츠의 품질을 매우 낮아질 것이다. 따라서, 체감 VR 컨텐츠 내 피로를 유발할 수 있는 공간적 인자와 시간적 인자를 모두 고려해야 한다.The spatial and temporal factors are related to each other and cause fatigue to the user 120. For example, if image distortion or rapid movement occurs only in one frame of VR content, the user is unlikely to experience extreme fatigue or cyber sickness. However, if image distortion or rapid movement occurs in several consecutive frames, the quality of the VR content experienced by the user will be very low. Therefore, both spatial and temporal factors that can cause fatigue in haptic VR content should be considered.

체감 VR 컨텐츠의 공간적 인자를 추출하기 위한 알고리즘으로 합성곱 신경망(Convolutional Neural Netwrok; CNN), auto encoder 등 공간적 특징 또는 짧은 시간적 특징을 학습하는 데에 유용한 딥 러닝 알고리즘을 사용할 수 있다.As an algorithm for extracting spatial factors of haptic VR content, a deep learning algorithm useful for learning spatial or short temporal features such as a convolutional neural netwrok (CNN) and an auto encoder may be used.

체감 VR 컨텐츠의 시간적 인자를 추출하기 위한 알고리즘으로 LSTM(Long Short Term Memory), 순환 신경망(Recurrent Neural Network; RNN), GRU(Gated Recurrent Unit) 등 시간적 특징을 학습하는 데에 유용한 딥 러닝 알고리즘을 사용할 수 있다.An algorithm for extracting temporal factors of haptic VR content is to use deep learning algorithms useful for learning temporal features such as Long Short Term Memory (LSTM), Recurrent Neural Network (RNN), and Gated Recurrent Unit (GRU). Can be.

S1210 단계를 기계 학습하기 위하여, 사용자가 VR 컨텐츠를 시청하고 제공한 제공된 체감 품질 지수 및 예측한 체감 품질 지수를 이용할 수 있다. 예를 들어, 제공된 체감 품질 지수와 예측한 체감 품질 지수를 기반으로 하여 비용 함수를 최소화시키는 방향으로 기계 학습할 수 있다.In order to machine learn the step S1210, the provided haptic quality index and the predicted haptic quality index that the user watches and provides the VR content may be used. For example, machine learning may be directed toward minimizing the cost function based on the provided haptic quality index and the predicted haptic quality index.

예를 들어, 관계식 1의 비용함수

Figure 112017081888386-pat00017
를 최소화하는 방향으로 기계 학습할 수 있다.For example, the cost function of relation 1
Figure 112017081888386-pat00017
Machine learning in a way that minimizes

S1210 단계를 기계 학습하기 위하여, 생체 정보를 사용할 수 있다.In order to machine learn the step S1210, biometric information may be used.

체감 VR 컨텐츠의 총 프레임이 n개인 경우, 각 프레임의 시각과 동기화된 생체 정보는 체감 품질 지수를 예측하기 위한 기계 학습에 사용될 수 있다. 생체 정보는 뇌파 세기, 심박 수, 체온, 호흡 수 등이 될 수 있다.When n total frames of haptic VR content are present, biometric information synchronized with the time of each frame may be used for machine learning to predict the haptic quality index. The biometric information may be brain wave intensity, heart rate, body temperature, respiratory rate, and the like.

S1210 단계는 측정된 생체 정보와 예측한 생체 정보 간의 차이를 최소화시키는 방향으로 학습될 수 있다.Step S1210 may be learned to minimize the difference between the measured biometric information and the predicted biometric information.

이 때, 생체 정보(150)를 이용하는 비용 함수는 예를 들어, 관계식 2의

Figure 112017081888386-pat00018
와 같을 수 있다.At this time, the cost function using the biometric information 150 is, for example,
Figure 112017081888386-pat00018
May be the same as

[관계식 2]

Figure 112017081888386-pat00019
[Relationship 2]
Figure 112017081888386-pat00019

관계식 2에서, n은 총 프레임 개수이며,

Figure 112017081888386-pat00020
는 VR 컨텐츠 체감 품질 평가 장치가 예측한 t번 째 프레임에서의 생체 정보,
Figure 112017081888386-pat00021
는 t번 째 프레임에서 사용자로부터 측정된 생체 정보이다.In relation 2, n is the total number of frames,
Figure 112017081888386-pat00020
Biometric information in the t-th frame predicted by the VR content sensation quality evaluation apparatus,
Figure 112017081888386-pat00021
Is biometric information measured from the user in the t th frame.

S1210 단계는, 생체 정보(150) 및 제공된 체감 품질 지수(160)를 기반으로 기계 학습할 수 있다. 예를 들어, 관계식 3의 비용 함수

Figure 112017081888386-pat00022
은 관계식 1 및 관계식 2의 비용 함수인
Figure 112017081888386-pat00023
,
Figure 112017081888386-pat00024
, 가중치 파라미터인
Figure 112017081888386-pat00025
를 사용하여 정의할 수 있다.In operation S1210, the machine learning may be performed based on the biometric information 150 and the haptic quality index 160 provided. For example, the cost function in relation 3
Figure 112017081888386-pat00022
Is the cost function of relations 1 and 2
Figure 112017081888386-pat00023
,
Figure 112017081888386-pat00024
, The weight parameter
Figure 112017081888386-pat00025
Can be defined using

[관계식 3]

Figure 112017081888386-pat00026
Figure 112017081888386-pat00027
Figure 112017081888386-pat00028
[Relationship 3]
Figure 112017081888386-pat00026
Figure 112017081888386-pat00027
Figure 112017081888386-pat00028

VR 컨텐츠 체감 품질 평가 방법은 딥 러닝에 기반하여 VR 컨텐츠에 대한 체감 품질 지수를 예측하는 단계를 포함한다(S1220). The VR content sensation quality evaluation method includes predicting a haptic quality index for VR content based on deep learning (S1220).

S1220 단계에서, 하나의 피로 유발 인자 또는 여러 피로 유발 인자로부터 체감 품질 지수를 예측할 수 있다. 피로 유발 인자와 체감 품질 지수 간의 관계를 딥 러닝을 통해 기계 학습하면 비교적 정확한 체감 품질 지수를 예측할 수 있다.In step S1220, it is possible to predict the haptic quality index from one fatigue trigger factor or several fatigue trigger factors. Deep learning machine learning the relationship between fatigue-inducing factors and the sensory quality index can predict relatively accurate sensory quality index.

하나의 피로 유발 인자만을 고려하여 체감 품질 지수를 예측하면 기계 학습하는 시간을 단축하고 알고리즘을 구성하는 데 소요되는 비용이 줄어들게 된다. 그러나, 여러 피로 유발 인자를 고려하여 체감 품질 지수를 예측하는 경우보다 정확성이 떨어질 수 있으므로, 정확성과 비용 간의 trade-off 관계를 고려하여 설계해야 한다.Predicting the haptic quality index by considering only one fatigue factor reduces the time spent on machine learning and reduces the cost of constructing the algorithm. However, the accuracy may be inferior to that of predicting the haptic quality index by considering various fatigue inducing factors. Therefore, it is necessary to design in consideration of the trade-off relationship between accuracy and cost.

S1210 단계에서 분석한 피로 유발 인자는 정확도가 높은 체감 품질 지수가 획득되도록 기계 학습되어 있는 것이며, 생체 정보는 체감 VR 컨텐츠에 대해 객관적인 피로도 정보를 나타내는 것이므로, 피로 유발 인자 및 생체 정보를 이용하여 기계 학습을 한다면 높은 정확도의 체감 품질 지수를 예측할 수 있다.The fatigue inducing factor analyzed in step S1210 is machine learning to obtain a high-quality sensory quality index, and since the biometric information represents objective fatigue information on haptic VR content, the machine learning is performed using the fatigue inducing factor and biometric information. We can predict the high quality of experience quality index.

즉, 생체 정보와 체감 품질 지수 간의 관계를 딥 러닝을 통해 기계 학습하면 피로 유발 인자만을 고려했을 때 보다 더 정확한 체감 품질 지수를 예측할 수 있다.In other words, if the machine learning through the deep learning relationship between the biometric information and the sensory quality index can be predicted more accurately than the fatigue induction factor.

S1220 단계를 기계 학습하기 위하여, 심층 신경망(Deep Neural Network; DNN)과 같은 딥 러닝 구조를 이용할 수 있다.In order to machine learn S1220, a deep learning structure such as a deep neural network (DNN) may be used.

각 피로 유발 인자 정보(1110a 내지 1110n)는 예를 들어, 오브젝트의 움직임 속도, VR 컨텐츠 영상의 회전 움직임, 영상 스티칭(stitching)에 따른 영상 왜곡 등이 체감 품질 지수에 미치는 가중치가 고려된 벡터 데이터를 포함할 수 있다. 각 피로 유발 인자 정보(1110a 내지 1110n)가 포함하는 데이터가 심층 신경망을 거치면서 원본 VR 컨텐츠에 대한 체감 품질 지수가 예측될 수 있다. 특정 피로 유발 인자 정보가 체감 품질 지수에 미치는 가중치가 적다고 판단되면, drop out, pruning 등의 regularization 기법을 통하여 예측 성능을 높일 수 있다.Each fatigue induction factor information 1110a to 1110n includes, for example, vector data in which weights of weights of bodily movements, rotational movements of VR content images, image distortions due to image stitching, etc. are taken into consideration for the bodily quality index. It may include. As the data included in each fatigue-inducing factor information 1110a to 1110n passes through the deep neural network, the sensory quality index for the original VR content may be predicted. If it is determined that the weight of the specific fatigue inducing factor information on the haptic quality index is small, the prediction performance can be improved through regularization techniques such as drop out and pruning.

도 13은 피로 유발 인자를 분석하는 단계(S1210)를 설명하기 위한 흐름도이다.13 is a flowchart for explaining a step (S1210) of analyzing a fatigue causing factor.

VR 컨텐츠의 체감 품질은 실제 시청자가 보고 있는 체감 VR 컨텐츠에 따라 결정된다. 따라서, VR 재생 장치(110)로부터 VR 컨텐츠의 참고 정보(140)를 획득하고(S1310), 참고 정보(140)를 원본 VR 컨텐츠(130)에 반영하여 체감 VR 컨텐츠를 구성한 뒤(S1320), 획득한 체감 VR 컨텐츠를 기반으로 피로도를 유발하는 인자가 무엇인지 분석해야 한다(S1330).The haptic quality of the VR content is determined by the haptic VR content that the actual viewer is watching. Therefore, the reference information 140 of the VR content is obtained from the VR playback apparatus 110 (S1310), and the reference information 140 is reflected on the original VR content 130 to construct the haptic VR content (S1320). Based on the haptic VR content, it is necessary to analyze what factors cause fatigue (S1330).

따라서, 피로 유발 인자를 분석하는 단계(S1210)는 참고 정보를 획득하는 단계를 포함할 수 있다(S1310).Therefore, analyzing the fatigue inducing factor (S1210) may include obtaining reference information (S1310).

참고 정보(140)는 원본 VR 컨텐츠(130)에 반영되어 사용자가 체감하는 체감 VR 컨텐츠를 구성하기 위해 사용되는 정보이다. 참고 정보(140)는 VR 재생 장치(110)로부터 획득할 수 있다. 참고 정보(140)는 예를 들어, 사용자가 VR 컨텐츠를 시청할 때의 머리 움직임 정도, 사용자의 시청 자세, 사용자 초점의 이동 정도, 원본 VR 컨텐츠(130)를 재생하는 재생 속도(초 당 프레임 수), 원본 VR 컨텐츠와 체감 VR 컨텐츠 간의 시간 딜레이, 시야 각, VR 컨텐츠 렌더링 정보 등이 될 수 있다.Reference information 140 is information that is reflected in the original VR content 130 is used to configure the haptic VR content that the user experiences. The reference information 140 may be obtained from the VR playback device 110. The reference information 140 may include, for example, the degree of head movement when the user watches VR content, the user's viewing posture, the degree of movement of the user's focus, and the playback speed (frames per second) of playing the original VR content 130. This may be a time delay between the original VR content and the haptic VR content, the viewing angle, and the VR content rendering information.

S1310 단계 이후, 참고 정보를 기반으로 체감 VR 컨텐츠를 구성하는 단계를 포함할 수 있다(S1320). After the step S1310, it may include the step of configuring the haptic VR content based on the reference information (S1320).

일 예로, VR 재생 장치(110)를 머리에 착용한 사용자(120)의 머리 움직임 정보를 원본 VR 컨텐츠(130)에 반영하여 체감 VR 컨텐츠(310)를 구성할 수 있다.For example, the haptic VR content 310 may be configured by reflecting the head motion information of the user 120 wearing the VR playback device 110 on the head to the original VR content 130.

원본 VR 컨텐츠의 특정 프레임 중 특정 지점의 좌표가 VR(x,y,z)로 나타낼 수 있고, 사용자(120)가 원본 VR 컨텐츠를 시청하면서 머리를 움직인 벡터 좌표를 (mx,my,mz)로 나타낼 수 있다고 한다면, 시청자의 시선에서 특정 지점의 좌표는 VR'(x,y,z) = VR(x-mx,y-my,z-mz)로 나타냄으로써 체감 VR 컨텐츠를 구성할 수 있다.The coordinates of a specific point of a specific frame of the original VR content may be represented as VR (x, y, z), and the vector coordinates of the user 120 moving his head while watching the original VR content (mx, my, mz) If it can be expressed as, the coordinates of a specific point in the viewer's gaze can be expressed as VR '(x, y, z) = VR (x-mx, y-my, z-mz) to construct haptic VR content. .

머리 움직임 외에도, 재생 속도, 영상 렌더링 및 시간 딜레이 등의 참고 정보(160)를 원본 VR 컨텐츠(130)에 반영하여 체감 VR 컨텐츠(310)를 구성할 수 있다.In addition to the head movement, the haptic VR content 310 may be configured by reflecting reference information 160 such as a playback speed, an image rendering, and a time delay in the original VR content 130.

S1320 단계 이후, 체감 VR 컨텐츠로부터 피로 유발 인자를 분석할 수 있다(S1330). 피로 유발 인자를 분석하는 단계는 상기에서 서술한 바 생략한다.After the step S1320, it is possible to analyze the fatigue inducing factor from the haptic VR content (S1330). Analyzing the fatigue causing factor is omitted as described above.

이상과 같이 한정된 실시예를 들어 본 발명을 구체적으로 설명하였으나, 본 발명은 상술한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 청구 범위 및 발명의 설명을 보고 용이하게 변경, 수정하여 실시할 수 있으며 그러한 실시까지 본 발명의 청구범위의 기재 범위에 속하게 된다.Although the present invention has been described in detail with reference to the limited embodiments as described above, the present invention is not limited to the above-described embodiments. Those skilled in the art to which the present invention pertains can see and change the claims and the description of the invention, and can be easily changed, modified and carried out to the implementation within the scope of the claims of the present invention.

Claims (12)

분석부에서 딥 러닝을 기반으로 하여, 체감 VR 컨텐츠로부터 적어도 하나의 피로 유발 인자를 분석하는 단계; 및
예측부에서 딥 러닝을 기반으로 하여, 상기 분석된 적어도 하나의 피로 유발 인자로부터 상기 체감 VR 컨텐츠에 대한 시청자의 체감 품질 지수를 정량적으로 예측하는 단계;
를 포함하고,
상기 피로 유발 인자를 분석하는 단계는
머리 움직임 정도, 시청 자세, 초점의 이동 정도, 재생 속도, 시간 딜레이, 시야 각, 렌더링 정보 중 하나 이상의 참고 정보를 획득하는 단계;
상기 참고 정보를 원본 VR 컨텐츠에 반영하여 체감 VR 컨텐츠를 구성하는 단계; 및
상기 구성된 체감 VR 컨텐츠로부터 상기 적어도 하나의 피로 유발 인자를 분석하는 단계
를 포함하는 VR 컨텐츠 체감 품질 평가 방법.
Analyzing at least one fatigue inducing factor from haptic VR content based on deep learning in the analysis unit; And
Quantitatively predicting a viewer's haptic quality index for the haptic VR content from the analyzed at least one fatigue causing factor based on deep learning in a predictor;
Including,
Analyzing the fatigue inducing factor
Acquiring one or more pieces of reference information among a head movement degree, a viewing position, a moving degree of focus, a reproduction speed, a time delay, a viewing angle, and rendering information;
Configuring the haptic VR content by reflecting the reference information on the original VR content; And
Analyzing the at least one fatigue causing factor from the configured haptic VR content
VR content haptic quality evaluation method comprising a.
삭제delete 제1항에 있어서,
상기 피로 유발 인자를 분석하는 단계는
딥 러닝을 기반으로 하여, 상기 체감 VR 컨텐츠로부터 사용자에게 피로를 느끼게 하는 공간적 인자 및 시간적 인자를 분석하는 단계;
를 포함하는 것을 특징으로 하는 VR 컨텐츠 체감 품질 평가 방법.
The method of claim 1,
Analyzing the fatigue inducing factor
Analyzing spatial and temporal factors that make a user feel fatigued from the haptic VR content based on deep learning;
VR content sensation quality evaluation method comprising a.
제3항에 있어서,
상기 공간적 인자 및 시간적 인자를 분석하는 단계는
합성곱 신경망(Convolutional Neural Network; CNN) 또는 auto encoder를 기반으로 하여 공간적 인자를 분석하고, 순환 신경망(Recurrent Neural Network; RNN) 또는 LSTM(Long Short Term Memory)를 기반으로 하여 시간적 인자를 분석하는 단계
를 포함하는 것을 특징으로 하는 VR 컨텐츠 체감 품질 평가 방법.
The method of claim 3,
Analyzing the spatial and temporal factors
Analyzing spatial factors based on a convolutional neural network (CNN) or auto encoder, and analyzing temporal factors based on a recurrent neural network (RNN) or long short term memory (LSTM)
VR content sensation quality evaluation method comprising a.
제1항에 있어서,
상기 피로 유발 인자를 분석하는 단계는
사용자가 상기 체감 VR 컨텐츠에 대한 피로도를 주관적으로 평가하여 제공한 제공 평가 품질 지수와 딥 러닝을 기반으로 상기 체감 VR 컨텐츠에 대한 피로도를 정량적으로 예측한 예측 품질 지수 간의 비용 함수를 사용하여 학습하는 단계
를 포함하는 것을 특징으로 하는 VR 컨텐츠 체감 품질 평가 방법.
The method of claim 1,
Analyzing the fatigue inducing factor
Learning using a cost function between a provided evaluation quality index provided by a user subjectively evaluating the fatigue of the haptic VR content and a predicted quality index quantitatively predicting the fatigue of the haptic VR content based on deep learning
VR content sensation quality evaluation method comprising a.
제1항에 있어서,
상기 피로 유발 인자를 분석하는 단계는
상기 체감 VR 컨텐츠를 시청하는 사용자의 생체 정보와 딥 러닝을 기반으로 상기 체감 VR 컨텐츠에 대해 측정된 측정 생체 정보 간의 비용 함수를 사용하여 학습하는 단계
를 포함하는 것을 특징으로 하는 VR 컨텐츠 체감 품질 평가 방법.
The method of claim 1,
Analyzing the fatigue inducing factor
Learning by using a cost function between biometric information of the user viewing the haptic VR content and measured biometric information measured for the haptic VR content based on deep learning
VR content sensation quality evaluation method comprising a.
제1항에 있어서,
상기 체감 품질 지수를 정량적으로 예측하는 단계는
상기 체감 VR 컨텐츠를 시청하는 사용자의 생체 정보로부터 상기 체감 VR 컨텐츠에 대한 시청자의 체감 품질 지수를 정량적으로 예측하는 단계
를 더 포함하는 것을 특징으로 하는 VR 컨텐츠 체감 품질 평가 방법.
The method of claim 1,
Quantitatively predicting the haptic quality index
Quantitatively predicting the viewer's haptic quality index for the haptic VR content from the biometric information of the user viewing the haptic VR content
VR content sensation quality evaluation method further comprising.
딥 러닝을 기반으로 하여, 체감 VR 컨텐츠로부터 적어도 하나의 피로 유발 인자를 분석하는 분석부; 및
딥 러닝을 기반으로 하여, 상기 분석된 적어도 하나의 피로 유발 인자 또는 상기 체감 VR 컨텐츠를 시청하는 사용자의 생체 정보로부터 상기 체감 VR 컨텐츠에 대한 시청자의 체감 품질 지수를 정량적으로 예측하는 예측부;
를 포함하고,
상기 분석부는
머리 움직임 정도, 시청 자세, 초점의 이동 정도, 재생 속도, 시간 딜레이, 시야 각, 렌더링 정보 중 하나 이상의 참고 정보를 획득하고, 상기 참고 정보를 원본 VR 컨텐츠에 반영하여 체감 VR 컨텐츠를 구성하며, 상기 구성된 체감 VR 컨텐츠로부터 상기 적어도 하나의 피로 유발 인자를 분석하는 VR 컨텐츠 체감 품질 평가 장치.
An analysis unit analyzing at least one fatigue causing factor from haptic VR content based on deep learning; And
A predicting unit quantitatively predicting the viewer's haptic quality index for the haptic VR content from the analyzed at least one fatigue-inducing factor or the biometric information of the user viewing the haptic VR content;
Including,
The analysis unit
Acquiring reference information of at least one of head movement degree, viewing posture, focus movement degree, playback speed, time delay, field of view, and rendering information, and constructing haptic VR content by reflecting the reference information in the original VR content. VR content sensation quality evaluation device for analyzing the at least one fatigue causing factor from the configured haptic VR content.
삭제delete 제8항에 있어서,
상기 분석부는
딥 러닝을 기반으로 하여, 상기 체감 VR 컨텐츠로부터 사용자에게 피로를 느끼게 하는 공간적 인자 및 시간적 인자를 분석하는 것을 특징으로 하는 VR 컨텐츠 체감 품질 평가 장치.
The method of claim 8,
The analysis unit
The VR content sensation quality evaluation apparatus based on deep learning, analyzing the spatial and temporal factors that make the user feel fatigued from the haptic VR content.
제8항에 있어서,
상기 분석부는
사용자가 상기 체감 VR 컨텐츠에 대한 피로도를 주관적으로 평가하여 제공한 제공 평가 품질 지수와 딥 러닝을 기반으로 상기 체감 VR 컨텐츠에 대한 피로도를 정량적으로 예측한 예측 품질 지수 간의 비용 함수를 사용하여 학습하는 것을 특징으로 하는 VR 컨텐츠 체감 품질 평가 장치.
The method of claim 8,
The analysis unit
Learning using a cost function between the provided evaluation quality index provided by the user subjectively evaluating the fatigue of the haptic VR content and the predicted quality index quantitatively predicting the fatigue of the haptic VR content based on deep learning. VR content experience quality evaluation device characterized in that.
제8항에 있어서,
상기 분석부는
상기 체감 VR 컨텐츠를 시청하는 사용자의 생체 정보와 딥 러닝을 기반으로 상기 체감 VR 컨텐츠에 대해 측정된 측정 생체 정보 간의 비용 함수를 사용하여 학습하는 것을 특징으로 하는 VR 컨텐츠 체감 품질 평가 장치.
The method of claim 8,
The analysis unit
VR content sensation quality evaluation apparatus, characterized in that the learning using the cost function between the biometric information of the user viewing the haptic VR content and the measured biometric information measured for the haptic VR content based on deep learning.
KR1020170107073A 2017-08-24 2017-08-24 Method and apparatus for quantitative evaluation assessment of vr content perceptual quality using deep running analysis of vr sickness factors KR102055481B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170107073A KR102055481B1 (en) 2017-08-24 2017-08-24 Method and apparatus for quantitative evaluation assessment of vr content perceptual quality using deep running analysis of vr sickness factors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170107073A KR102055481B1 (en) 2017-08-24 2017-08-24 Method and apparatus for quantitative evaluation assessment of vr content perceptual quality using deep running analysis of vr sickness factors

Publications (2)

Publication Number Publication Date
KR20190021812A KR20190021812A (en) 2019-03-06
KR102055481B1 true KR102055481B1 (en) 2019-12-12

Family

ID=65761502

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170107073A KR102055481B1 (en) 2017-08-24 2017-08-24 Method and apparatus for quantitative evaluation assessment of vr content perceptual quality using deep running analysis of vr sickness factors

Country Status (1)

Country Link
KR (1) KR102055481B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991471B (en) * 2019-08-01 2023-07-11 南京航空航天大学 Fault diagnosis method for high-speed train traction system
KR102229604B1 (en) 2019-10-28 2021-03-18 한국표준과학연구원 System and method for measuring Optical characteristic and Image quality of VR/AR
KR102222915B1 (en) 2019-10-28 2021-03-04 한국표준과학연구원 System and method for measuring Optical characteristic and Image quality of VR/AR
KR102240190B1 (en) 2019-11-29 2021-04-14 한국표준과학연구원 System and method for measuring optical characteristics of VR/AR optical components
KR102385116B1 (en) 2020-03-10 2022-04-12 한국표준과학연구원 Full-field Distortion Measurement Method of Virtual Reality/Augmented Reality Device lenses
KR102593727B1 (en) 2020-06-01 2023-10-26 한국전자통신연구원 INTERGRATED CORE NETWORK OF 5G and ATSC 3.0, CONTROL PLANE ENTITY AND METHOD FOR TRANSMITTING MULTIMEDIA CONTENTS IN CONTROL PLANE ENTITY
KR102535639B1 (en) * 2020-10-27 2023-05-23 광운대학교 산학협력단 Method for alleviating visual complexity metric of augmented reality device and computer-readable recording medium thereof
KR20220101836A (en) 2021-01-12 2022-07-19 한국전자통신연구원 Apparatus and method for quantifying quality of interaction on extended reality content
CN114403878B (en) * 2022-01-20 2023-05-02 南通理工学院 Voice fatigue detection method based on deep learning

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100085628A (en) * 2009-01-21 2010-07-29 광운대학교 산학협력단 A system and method measuring 3d display-induced visual fatigue in terms of factors unique in 3d contents
KR101105359B1 (en) * 2010-06-22 2012-01-16 연세대학교 산학협력단 Fatigue evaluation method and apparatus for 3D video based on depth map
KR101267637B1 (en) * 2011-03-28 2013-05-24 한국과학기술원 Apparatus for measuring 3D display-induced visual discomfort, Apparatus for extracting 3D visual discomfort-inducing components automatically, and Method thereof

Also Published As

Publication number Publication date
KR20190021812A (en) 2019-03-06

Similar Documents

Publication Publication Date Title
KR102055481B1 (en) Method and apparatus for quantitative evaluation assessment of vr content perceptual quality using deep running analysis of vr sickness factors
US11176731B2 (en) Field of view (FOV) throttling of virtual reality (VR) content in a head mounted display
KR102055486B1 (en) Apparatus for sickness assessment of vr contents using deep learning based analysis of visual­vestibular mismatch and the method thereof
Kim et al. Vrsa net: Vr sickness assessment considering exceptional motion for 360 vr video
US20230414899A1 (en) Classifying a discomfort level of a user when interacting with virtual reality (vr) content
US10088896B2 (en) Queasiness management for virtual reality systems
Zhu et al. Viewing behavior supported visual saliency predictor for 360 degree videos
US10725534B2 (en) Apparatus and method of generating machine learning-based cyber sickness prediction model for virtual reality content
Kim et al. VR sickness versus VR presence: A statistical prediction model
US10832483B2 (en) Apparatus and method of monitoring VR sickness prediction model for virtual reality content
US11302049B2 (en) Preventing transition shocks during transitions between realities
KR20170104846A (en) Method and apparatus for analyzing virtual reality content
WO2020069976A1 (en) Concepts for improved head motion prediction and efficient encoding of immersive video
JP6583996B2 (en) Video evaluation apparatus and program
KR20170105905A (en) Method and apparatus for analyzing virtual reality content
US10755088B2 (en) Augmented reality predictions using machine learning
KR20200065834A (en) System and method for evaluating user response of vr contents, and system and method for executing the vr contents
KR102468345B1 (en) Analysis apparatus and method for cyber sickness of virtual reality contents
KR102468346B1 (en) Monitoring apparatus and method for cyber sickness prediction model of virtual reality contents
KR20210114777A (en) Apparatus and Method for QoE Evaluation of Virtual Reality Content

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right