KR101717399B1 - The automatic system and method for measuring subjective quality score, recording medium thereof - Google Patents
The automatic system and method for measuring subjective quality score, recording medium thereof Download PDFInfo
- Publication number
- KR101717399B1 KR101717399B1 KR1020160011459A KR20160011459A KR101717399B1 KR 101717399 B1 KR101717399 B1 KR 101717399B1 KR 1020160011459 A KR1020160011459 A KR 1020160011459A KR 20160011459 A KR20160011459 A KR 20160011459A KR 101717399 B1 KR101717399 B1 KR 101717399B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- entropy
- unit
- weighting
- calculating
- Prior art date
Links
Images
Classifications
-
- H04N13/0484—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H04N13/0468—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44204—Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
본 발명은 화질 점수 자동 측정 시스템 및 방법과 이에 관한 기록 매체에 관한 것으로서, 더욱 상세하게는 주관적 화질 점수 자동 측정 시스템 및 방법과 이에 관한 기록 매체에 관한 것이다.BACKGROUND OF THE
기존의 화질 점수 측정 시스템은 영상에 대한 주관적 화질 점수를 측정하기 위해 직접 관찰자로부터 질의 응답을 거치는 방식을 주로 채용해왔다. 즉, 영상을 시청하고 그 영상에 대한 주관적인 화질 점수를 기술하는 방식이다. 이러한 방식은 많은 시간을 소비하고 관찰자가 화질 점수를 가중시킬 수 있어 신뢰도가 떨어지는 문제점이 있다.The conventional image quality score measurement system has mainly adopted the method of directly inquiring from the observer to measure the subjective image quality score on the image. That is, it is a method of watching an image and describing a subjective image quality score for the image. This method consumes a lot of time and observers can increase the image quality score, which causes a problem of low reliability.
상기한 바와 같은 종래기술의 문제점을 해결하기 위해, 본 발명은 자동적으로 주관적인 화질 점수를 측정할 수 있는 향상된 신뢰도를 가진 주관적 화질 점수 자동 측정 시스템 및 방법과 이에 관한 기록 매체를 제공한다.In order to solve the above problems, the present invention provides a system and method for automatically measuring a subjective image quality score having an improved reliability that can automatically measure a subjective image quality score, and a recording medium therefor.
상기한 목적을 달성하기 위해 본 발명의 바람직한 제1 실시예에 따르면, 원본 영상 및 평가 영상을 전송하는 영상 출력부; 상기 전송받은 영상을 출력하는 디스플레이 장치; 상기 디스플레이 장치를 관찰하는 관찰자의 눈동자 움직임을 추적하여 응시영역을 산출하는 눈동자 추적 장치; 상기 눈동자 추적 장치로부터 상기 응시영역을 입력받는 입력부; 상기 응시영역에 대해 엔트로피를 계산하는 엔트로피부; 및 상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 점수 산출부를 포함하는 주관적 화질 점수 자동 측정 시스템이 제공된다.According to a first aspect of the present invention, there is provided an image processing apparatus comprising: an image output unit for transmitting an original image and an evaluation image; A display device for outputting the transmitted image; A pupil tracking device for tracking a pupil movement of an observer observing the display device and calculating a gaze area; An input unit for receiving the gaze area from the pupil tracking device; An entropy part for calculating an entropy with respect to the gazing area; And a score calculating unit for calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.
상기 응시영역을 정량화하는 정량화부; 및 상기 정량화된 응시영역에 가중치를 부여하는 가중치 부여부를 더 포함하되, 상기 엔트로피부는 상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 것을 특징으로 한다.A quantification unit for quantifying the gaze region; And a weight assigning unit for assigning a weight to the quantized candidate region, wherein the entropy unit calculates an entropy with respect to the weighted candidate region.
상기 가중치 부여부는, 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여부; 및 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여부를 포함하는 것을 특징으로 한다.Wherein the weighting unit includes: a 2D weighting unit for giving a weight to a quantized gaze area of a 2D image; And a 3D weighting unit for weighting the quantized gaze area of the 3D image.
상기 정량화부는 가우시안 혼합 모델을 이용하여 상기 응시영역을 정량화하는 것을 특징으로 한다.Wherein the quantification unit quantizes the gaze area using a Gaussian mixture model.
상기 2D 가중치 부여부는 Foveation을 이용하여 상기 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 한다.And the 2D weight assigning unit assigns a weight to the quantized gaze area of the 2D image using the Foveation.
상기 3D 가중치 부여부는 패넘의 융합 영역을 이용하여 상기 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 한다.And the 3D weighting unit assigns a weight to the quantized gaze region of the 3D image using the fusion region of the pannel.
상기 점수 산출부는 상기 원본 영상에 대한 엔트로피와 상기 평가 영상에 대한 엔트로피에 대해 쿨백-라이블러 발산(KLD)을 이용하여 화질 점수를 산출하는 것을 특징으로 한다.Wherein the score calculating unit calculates an image quality score using entropy for the original image and entropy for the evaluation image using a Kullback-Leibler divergence (KLD).
또한 본 발명의 제2 실시예에 따르면, 원본 영상 및 평가 영상을 출력하는 영상 출력부; 상기 출력된 영상을 관찰하는 관찰자의 눈동자 추적 결과인 응시영역을 입력받는 입력부; 상기 응시영역에 대해 엔트로피를 계산하는 엔트로피부; 및 상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 점수 산출부를 포함하는 주관적 화질 점수 자동 측정 장치가 제공된다.According to a second aspect of the present invention, there is provided an image processing apparatus comprising: an image output unit outputting an original image and an evaluation image; An input unit for receiving a gaze area as a result of eyeball tracking of an observer observing the output image; An entropy part for calculating an entropy with respect to the gazing area; And a score calculating unit for calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.
상기 응시영역을 정량화하는 정량화부; 및 상기 정량화된 응시영역에 가중치를 부여하는 가중치 부여부를 더 포함하되, 상기 엔트로피부는 상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 것을 특징으로 한다.A quantification unit for quantifying the gaze region; And a weight assigning unit for assigning a weight to the quantized candidate region, wherein the entropy unit calculates an entropy with respect to the weighted candidate region.
상기 가중치 부여부는, 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여부; 및 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여부를 포함하는 것을 특징으로 한다.Wherein the weighting unit includes: a 2D weighting unit for giving a weight to a quantized gaze area of a 2D image; And a 3D weighting unit for weighting the quantized gaze area of the 3D image.
또한 본 발명의 제3 실시예에 따르면, 원본 영상 및 평가 영상을 출력하는 단계; 상기 출력된 영상을 관찰하는 관찰자의 눈동자 움직임을 추적하여 응시영역을 산출하는 단계; 상기 응시영역을 정량화하는 단계; 상기 정량화된 응시영역에 가중치를 부여하는 단계; 상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 단계; 및 상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 단계를 포함하는 주관적 화질 점수 자동 측정 방법이 제공된다.According to a third embodiment of the present invention, there is also provided a method of generating an image, the method comprising: outputting an original image and an evaluation image; Calculating a gazed area by tracking a pupil movement of an observer observing the output image; Quantifying the gaze area; Weighting the quantified gaze area; Calculating entropy for the weighted gaze area; And calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.
상기 가중치를 부여하는 단계는, 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여 단계; 및 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여 단계를 포함하는 것을 특징으로 한다.The weighting step may include: a 2D weighting step of weighting the quantized gaze area of the 2D image; And a 3D weighting step of weighting the quantized gaze area of the 3D image.
상기 정량화하는 단계는 가우시안 혼합 모델을 이용하여 상기 응시영역을 정량화하는 것을 특징으로 한다.Wherein the quantifying step is characterized by quantifying the gaze area using a Gaussian mixture model.
상기 2D 가중치 부여 단계는 Foveation을 이용하여 상기 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 한다.The 2D weighting step may be performed by applying weights to the quantized gaze area of the 2D image using Foveation.
상기 3D 가중치 부여 단계는 패넘의 융합 영역을 이용하여 상기 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 한다.Wherein the 3D weighting step assigns a weight to the quantized gaze area of the 3D image using the fusion area of the pannel.
상기 화질 점수를 산출하는 단계는 상기 원본 영상에 대한 엔트로피와 상기 평가 영상에 대한 엔트로피에 대해 쿨백-라이블러 발산(KLD)을 이용하여 화질 점수를 산출하는 것을 특징으로 한다.The calculating of the image quality score may include calculating an image quality score using entropy of the original image and entropy of the evaluation image using a Kullback-Leibler divergence (KLD).
또한 본 발명의 제4 실시예에 따르면, 상기의 주관적 화질 점수 자동 측정 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체가 제공된다.According to a fourth aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for performing the above-described method for automatically measuring the subjective image quality score.
본 발명은 자동적으로 주관적인 화질 점수를 측정할 수 있으며, 향상된 신뢰도를 갖는 장점이 있다.The present invention is advantageous in that it can automatically measure a subjective image quality score and has an improved reliability.
도 1은 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템을 예시한 것이다.
도 2는 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템의 블록도이다.
도 3은 눈동자 추적 장치(200)인 Smart Eye Pro를 도시한 것이다.
도 4는 압축 왜곡 현상에 따른 영상에 대한 응시영역을 그래픽으로 표현한 예시이다.
도 5는 깊이 정도 차이에 따른 영상에 대한 응시영역을 그래픽으로 표현한 예시이다.
도 6은 가우시안 모델 및 가우시안 혼합 모델의 정량화 그래프를 비교하여 예시한 것이다.
도 7은 가중치 부여에 대한 시각적 인지모델을 도시한 것이다.
도 8은 각 응시영역에 대해 엔트로피 H를 계산한 결과를 예시한 것이다.
도 9는 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템에 의한 화질 점수인 ToVA를 왜곡 및 깊이 정도에 따라 비교한 그래프이다.
도 10은 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 방법을 시간의 흐름에 따라 도시한 순서도이다.FIG. 1 illustrates a system for automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention.
2 is a block diagram of a subjective image quality score automatic measurement system according to an embodiment of the present invention.
FIG. 3 shows a Smart Eye Pro which is a
FIG. 4 is a graphical representation of a gazing area for an image due to a compression distortion phenomenon.
FIG. 5 is a graphical representation of a gazing area for an image according to depth difference.
FIG. 6 illustrates comparison of quantization graphs of a Gaussian model and a Gaussian mixture model.
Figure 7 shows a visual perception model for weighting.
FIG. 8 illustrates results of calculation of entropy H for each of the candidate regions.
FIG. 9 is a graph comparing ToVA, which is an image quality score, by a subjective image quality score automatic measurement system according to an embodiment of the present invention, according to distortion and depth.
FIG. 10 is a flowchart illustrating a method for automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention. Referring to FIG.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 자세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템을 예시한 것이다.FIG. 1 illustrates a system for automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템은 디스플레이 장치(100), 눈동자 추적 장치(200) 및 주관적 화질 점수 자동 측정 장치(300)로 구성된다. 화질 점수를 측정하기 위해 원본 영상 및 평가할 영상이 주관적 화질 점수 자동 측정 장치(300)에서 선택되어 디스플레이 장치(100)를 통해 재생된다. 관찰자는 디스플레이 장치(100)에서 재생되는 원본 영상 및 평가할 영상을 관찰하게 되는데, 이 때, 눈동자 추적 장치(200)는 관찰자의 눈동자의 움직임을 추적한다. 화질의 왜곡에 따라 관찰자의 응시영역의 분포는 달라지므로, 관찰자의 응시영역의 분포를 통해 화질을 평가하는 것이 가능해진다. 또한, 응시영역은 관찰자의 눈동자의 움직임을 추적하여 알아낼 수 있다. 여기서 응시영역은, 관찰자가 응시하고 있는 영역으로써 특정 영역을 관찰자가 얼마나 자주 응시하였는가에 따라 다르게 나타날 수 있다. 이러한 눈동자 추적 장치(200)의 추적 정보는 주관적 화질 점수 자동 측정 장치(300)로 입력되어 주관적 화질 점수 자동 측정 장치(300)는 입력된 추적 정보를 근거로 주관적인 화질 점수를 자동적으로 산출해내게 된다.Referring to FIG. 1, a subjective image quality score automatic measurement system according to an exemplary embodiment of the present invention includes a
도 2는 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템의 블록도이다.2 is a block diagram of a subjective image quality score automatic measurement system according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템은 크게 디스플레이 장치(100), 눈동자 추적 장치(200) 및 주관적 화질 점수 자동 측정 장치(300)를 포함한다. 주관적 화질 점수 자동 측정 장치(300)는 영상 출력부(310), 입력부(320), 정량화부(330), 가중치 부여부(340), 엔트로피부(350) 및 점수 산출부(360)를 포함한다.Referring to FIG. 2, the subjective image quality score automatic measurement system according to an exemplary embodiment of the present invention mainly includes a
영상 출력부(310)는 화질을 평가할 평가 영상을 디스플레이 장치(100)를 통하여 재생한다. 화질을 평가하기 위해서는 기준이 되는 원본 영상이 필요하므로, 영상 출력부(310)는 원본 영상과 평가 영상을 모두 출력할 수 있다. 일례로, 원본 영상을 일정 프레임 출력한 후, 평가 영상을 동일 프레임만큼 출력하는 방법을 사용할 수 있다. 이 때, 평가하는 영상들은 2D 영상일 수도 있고, 3D 영상일 수도 있다. 따라서 디스플레이 장치(100)는 3D 디스플레이가 가능한 장치일 수 있다.The
이제, 눈동자 추적 장치(200)는 재생되는 영상마다 관찰자의 눈동자의 움직임을 추적한다. 눈동자 추적 장치(200)의 추적 방법은 공지된 기술이므로, 다양한 장치 중 어느 것이든 사용 가능할 것이다. 일례로, Smart Eye Pro와 같은 눈동자 추적 장치를 사용할 수 있을 것이다.Now, the
도 3은 눈동자 추적 장치(200)인 Smart Eye Pro를 도시한 것이다.FIG. 3 shows a Smart Eye Pro which is a
도 3을 참조하면, 눈동자 추적 장치인 Smart Eye Pro는 양 안의 눈동자의 움직임을 추적하여 스크린상에 관찰자의 응시영역을 표시할 수 있다. 관찰자의 눈동자의 움직임을 추적한 후, 관찰자의 응시영역을 3차원 기하학을 통해 계산한다. 또한, Smart Eye Pro는 사람의 시선을 지속적으로 추적하여 응시영역을 그래픽으로 표현할 수 있다.Referring to FIG. 3, the Smart Eye Pro, which is a pupil tracking device, can track the pupil movement of the pupil and display the observer's gaze area on the screen. After tracing the movement of the pupil of the observer, the observer's gaze area is calculated through the three-dimensional geometry. Smart Eye Pro also keeps track of people's gaze, allowing them to graphically represent the coverage area.
도 4는 압축 왜곡 현상에 따른 영상에 대한 응시영역을 그래픽으로 표현한 예시이다.FIG. 4 is a graphical representation of a gazing area for an image due to a compression distortion phenomenon.
도 5는 깊이 정도 차이에 따른 영상에 대한 응시영역을 그래픽으로 표현한 예시이다.FIG. 5 is a graphical representation of a gazing area for an image according to depth difference.
도 4 및 도 5를 참조하면, 각종 압축 왜곡 현상이나 깊이 정도 차이에 따른 영상의 화질 변화가 관찰자의 응시영역에 영향을 주고 있음을 확인할 수 있다. 도 4를 참조하면, 왜곡된 영상의 왜곡 정도에 따라 응시영역의 변화도가 달라지는 것을 볼 수 있다. (a) 내지 (c)에 해당하는 영상들은 왜곡 정도가 커질수록 응시영역의 분산이 커지는 것을 확인할 수 있고, (d) 내지 (e)에 해당하는 영상들은 왜곡 정도가 커질수록 응시영역의 분산이 작아지는 것을 확인할 수 있다. 도 5를 참조하면, (a) 내지 (d) 의 모든 예시에서 깊이 정도 차이가 커질수록 응시영역의 분산이 커지는 것을 확인할 수 있다. 이처럼, 영상의 종류에 따라 방향성의 차이는 있으나, 완본 영상과 평가 영상의 화질 차이가 커질수록 응시영역의 분산의 차이도 커지는 것을 확인할 수 있다. 따라서 원본 영상에서의 응시영역의 분산과 평가 영상에서의 응시영역의 분산을 정량화하여 그 차이를 비교하여 주관적 화질 점수를 산출할 수 있게 된다.Referring to FIGS. 4 and 5, it can be seen that various compression distortion phenomena and a change in the image quality due to the depth difference affect the observer's gaze area. Referring to FIG. 4, it can be seen that the degree of change of the gazing region varies depending on the degree of distortion of the distorted image. it can be seen that the variance of the gazing area increases as the distortion degree of the images corresponding to (a) to (c) increases. In the images corresponding to (d) to (e) . Referring to FIG. 5, in all the examples (a) to (d), it can be seen that as the depth difference increases, the variance of the gazing area increases. As described above, although there is a difference in directionality depending on the types of images, it can be seen that as the image quality difference between the full image and the evaluation image becomes larger, the variance of the gaze region becomes larger. Therefore, it is possible to quantify the variance of the gaze region in the original image and the variance of the gaze region in the evaluation image, and compare the differences to calculate the subjective image quality score.
눈동자 추적 장치(200)는 입력부(320)를 통해 영상에 대한 관찰자의 응시영역을 전달하며, 정량화부(330)는 전달받은 응시영역을 화질 점수 산출에 용이하게 정량화하는 기능을 수행한다.The
정량화부(330)는 다양한 방법을 이용하여 응시영역을 정량화할 수 있다. 공지된 다양한 기술이 이용될 수 있으며, 일례로 가우시안 혼합 모델(Gaussian Mixture Model-GMM fitting)을 이용하는 방법에 대해 설명하기로 한다.The
도 6은 가우시안 모델 및 가우시안 혼합 모델의 정량화 그래프를 비교하여 예시한 것이다.FIG. 6 illustrates comparison of quantization graphs of a Gaussian model and a Gaussian mixture model.
도 6을 참조하면, (a)와 같이 응시영역에 대해 가우시안 모델을 적용하면 (b)와 같이 하나의 그래프로 정량화 된다. 그러나 가우시안 혼합 모델을 사용할 경우, (c)와 같이 다수의 그래프로 정량화 된다. 이처럼 가우시안 혼합 모델을 이용해 정량화하게 되면 각각의 무리로 분포하는 영역들에 대해 다수의 그래프로 모델링되어 다양한 분포형태를 비교할 수 있으므로, 응시영역이 영상 내에서 다양하게 무리지어 분포할 수 있는 경우에 더욱 정확한 비교가 가능하게 되는 이점이 있다.Referring to FIG. 6, when a Gaussian model is applied to a gazing region as shown in (a), it is quantified as a single graph as shown in (b). However, when the Gaussian mixture model is used, it is quantified as a number of graphs as shown in (c). In this way, quantification using the Gaussian mixture model can be modeled as a plurality of graphs for each of the clustered regions, so that various distribution patterns can be compared. Therefore, There is an advantage that accurate comparison is possible.
가우시안 혼합 모델을 이용한 번째 응시영역의 분포는 하기 수학식으로 정의된다.Using Gaussian mixture model The second gaze area Is defined by the following equation.
수학식 1에서, 와 는 응시영역에서의 축과 축의 분포를 의미하며, 는 초점의 분산값이다. 따라서 응시영역의 결합분포는 하기 수학식으로 정의된다.In Equation (1) Wow The examination area In Axis Means the distribution of the axis, Is the variance of the focus. Therefore, Bond distribution of Is defined by the following equation.
그러므로, 가우시안 혼합 모델을 이용한 전체 응시영역은 하기 수학식과 같이 정량화할 수 있다.Therefore, the entire examination area using the Gaussian mixture model can be quantified as shown in the following equation.
수학식 3에서, 은 응시영역의 개수를 의미하며, 는 각 응시영역의 분포에 대한 가중치()이다.In Equation (3) Denotes the number of the gaze area, Is a weight for the distribution of each of the candidate regions )to be.
다음으로, 가중치 부여부(340)는 정량화된 응시영역에 대해 가중치를 부여하게 된다. 가중치 부여부(340)는 2D 가중치 부여부(342) 및 3D 가중치 부여부(344)를 포함할 수 있다.Next, the
도 7은 가중치 부여에 대한 시각적 인지모델을 도시한 것이다.Figure 7 shows a visual perception model for weighting.
도 7을 참조하면, 2D 가중치 부여부(342)는 2D 영상에 대해서 가중치를 부여할 수 있는데, 가중치 부여 방법으로 다양한 공지된 방법이 사용 가능하다. 일례로, (a)의 Foveation 모델을 사용할 수 있다. Foveation 모델은 망막의 시세포 분포가 일정하지 않은 이유로 발생되는 시각적 가중치를 모델화한 것으로 하기 수학식으로 정의된다.Referring to FIG. 7, the 2D
수학식 4에서, 는 사람이 응시하는 곳과의 거리()를 의미하고, 는 초점으로부터 다른 위치까지의 픽셀 거리를 의미하며, 는 초점으로부터의 각도(Eccentricity) e를 의미한다. 또한, 는 Foveation에서 정의되는 상수값이다. 각각의 수치는 , 와 로 설정될 수 있으며, 한계주파수 에 대하여 하기 수학식과 같이 가중치를 적용할 수 있다.In Equation (4) Is the distance from where the person stare ), ≪ / RTI > Lt; RTI ID = 0.0 > Pixel distance, < RTI ID = 0.0 > Means the eccentricity e from the focus. Also, Is a constant value defined in Foveation. Each figure , Wow , And the limit frequency Can be weighted as shown in the following equation.
수학식 5에서, 는 Foveation이 적용된 지점에서의 공간 한계 주파수이다. 최종적으로 2D 가중치는 모든 응시영역에서 나타내지게 되고, 하기 수학식과 같다.In Equation (5) Is the spatial limit frequency at the point where the foveation is applied. Finally, the 2D weights are represented in all the candidate regions, and are expressed by the following equations.
도 7을 참조하면, 3D 가중치 부여부(344)는 3D 영상에 대해서 가중치를 부여할 수 있는데, 가중치 부여 방법으로 다양한 공지된 방법이 사용 가능하다. 일례로, (b)의 패넘의 융합 영역(Panum`s Fusional Area) 모델을 사용할 수 있다. 패넘의 융합 영역(Panum`s Fusional Area) 모델을 참조하면, 3D 영상에서 양안의 눈이 한 응시지점에 합성되었을 때, 응시 지점으로부터 물체가 정상적으로 합성되어 보이는 영역이 존재하고, 이 영역을 벗어난 곳의 물체는 합성되지 않아 두 개로 보이는 현상(Diplopia)이 나타난다. 패넘의 융합 영역(Panum`s Fusional Area) 모델에 의한 가중치는 하기 수학식으로 정의된다.Referring to FIG. 7, the 3D
수학식 7에서, 는 패넘의 융합 영역의 한계값이며, 는 실험적으로 얻어지는 고정값으로서, 와 같은 값을 가질 수 있다. 또한, 각각의 각도 와 은 응시영역과 주변영역의 양안의 각도를 의미하고, 이 두 각도의 차이를 각도 시차(angular disparity)라고 정의한다. 따라서, 는 초점에서의 각도시차, 은 주변점에서의 각도시차를 의미하며, 이다. 여기서 각도 시차란, 사람이 응시하는 초점으로부터 다른 사물을 인지할 때 양안과 초점과의 각과 다른 사물을 응시하는 각과의 차이를 의미한다. 따라서 두 영역의 각도 차이에 따라 시각적 인지가 달라짐을 모델화하여 3D 영상에 대한 가중치를 산출하여 적용할 수 있다.In Equation (7) Is the limit value of the fusion region of the pnum, Is an experimentally obtained fixed value, Lt; / RTI > Further, Wow Refers to the angle of both eyes in the gaze area and the surrounding area, and the difference between these two angles is defined as angular disparity. therefore, The angular parallax at focus, Represents the angular parallax at the peripheral points, to be. Here, the angular disparity means the difference between the angles of the binocular and focal points and the angle of gazing at other objects when recognizing another object from the focus of gazing. Therefore, it is possible to calculate and apply a weight value to a 3D image by modeling that a visual perception is changed according to an angle difference between the two areas.
엔트로피부(350)는 가중치가 부여된 응시영역에 대하여 엔트로피를 계산하게 된다.The
도 8은 각 응시영역에 대해 엔트로피 H를 계산한 결과를 예시한 것이다.FIG. 8 illustrates results of calculation of entropy H for each of the candidate regions.
도 8을 참조하면, 각 영상에 대해 엔트로피를 계산하여 비교함으로 응시영역의 분산 정도를 비교할 수 있다. 엔트로피는 하기 수학식으로 정의된다.Referring to FIG. 8, the degree of variance of the gazing area can be compared by calculating entropy for each image. The entropy is defined by the following equation.
수학식 8을 이용하여 엔트로피를 계산할 수 있는데, 도 7을 참조하면 엔트로피는 응시영역이 넓게 퍼져 있을수록 높은 값을 가지는 것을 확인할 수 있다.The entropy can be calculated using Equation (8). Referring to FIG. 7, it can be seen that entropy has a higher value as the crossing region spreads widely.
위와 같은 과정을 원본 영상 및 평가 영상에 대해 수행하여 엔트로피를 계산해내게 되면, 점수 산출부(360)는 원본 영상 및 평가 영상의 계산된 엔트로피의 차이를 이용해 최종적으로 화질 점수를 산출한다. 엔트로피의 차이를 비교하는 방법 또한 다양한 방법이 존재할 수 있다. 일례로, 쿨백-라이블러 발산(KLD, Kullback-Leibler divergence)을 이용하여 계산할 수 있다. KLD는 하기 수학식으로 정의된다.When the above process is performed on the original image and the evaluation image to calculate the entropy, the
수학식 9에서, 는 원본 영상과 평가 영상의 응시영역 분포의 KLD이고, 은 각각 원본 영상과 평가 영상의 엔트로피를 의미한다. 는 각각 최소 최대 엔트로피를 가지는 값이며, 규격화를 위해 사용되는 값이다. 수학식 9을 이용하여, 최종적으로 화질 점수인 ToVA를 산출해 낼 수 있다.In Equation (9) Is the KLD of the gaze region distribution of the original image and the evaluation image, Represents the entropy of the original image and the evaluation image, respectively. Is a value having a minimum maximum entropy, and is a value used for normalization. Using the equation (9), it is possible to calculate ToVA which is the image quality score finally.
도 9는 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템에 의한 화질 점수인 ToVA를 왜곡 및 깊이 정도에 따라 비교한 그래프이다.FIG. 9 is a graph comparing ToVA, which is an image quality score, by a subjective image quality score automatic measurement system according to an embodiment of the present invention, according to distortion and depth.
도 9를 참조하면, 왜곡 정도(Distortion Level) 및 깊이 정도(Disparity Level)가 커짐에 따라 ToVA점수가 증가하여 화질은 감소함을 확인할 수 있다.Referring to FIG. 9, it can be seen that as the distortion degree and the depth level (Disparity Level) increase, the ToVA score increases and the image quality decreases.
이처럼 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템에 의해 산출된 화질 점수는 관찰자에 따라 다르게 나타날 수 있는 주관적인 값이지만, 질의 응답 과정 없이 순수하게 시각적 피로감과 응시 영역을 이용하여 산출해낸 화질 점수이므로, 영상 관찰만으로 신속하게 자동으로 측정 가능하며, 신뢰도가 높다는 장점이 있다.As described above, the image quality score calculated by the system for automatically measuring the subjective image quality score according to the embodiment of the present invention is a subjective value that can be different depending on the observer, but the image quality calculated using the purely visual fatigue and the gaze area Therefore, it is possible to measure automatically and quickly with only image observation, and it has a merit of high reliability.
본 발명의 다른 실시예에 따른 주관적 화질 점수 자동 측정 장치(300)는 영상 출력부(310), 입력부(320), 정량화부(330), 가중치 부여부(340), 엔트로피부(350) 및 점수 산출부(360)를 포함한다.The subjective image quality score
도 2를 참조하면, 본 발명의 다른 실시예에 따른 주관적 화질 점수 자동 측정 장치(300)는 디스플레이 장치(100) 및 눈동자 추적 장치(200)를 이용하여 주관적인 화질 점수를 자동으로 측정해내는 기능을 수행하게 된다. 본 발명의 다른 실시예에 따른 주관적 화질 점수 자동 측정 장치(300)는 본 발명의 일 실시예에서 기술한 바와 동일한 방법으로 작동하여 기능할 수 있게 된다.Referring to FIG. 2, an
도 10은 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 방법을 시간의 흐름에 따라 도시한 순서도이다.FIG. 10 is a flowchart illustrating a method for automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention. Referring to FIG.
본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 방법은 영상을 출력하는 단계(S910), 응시영역을 산출하는 단계(S920), 정량화하는 단계(S930), 가중치를 부여하는 단계(S940), 엔트로피를 계산하는 단계(S950), 화질 점수를 산출하는 단계(S960)를 포함한다.The method of automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention includes a step S910 of outputting an image, a step S920 of calculating a gaze area, a step S930 of quantizing, a step of weighting S940, Calculating entropy (S950), and calculating an image quality score (S960).
영상을 출력하는 단계(S910)는 영상의 화질 점수 측정을 위해 비교를 위한 원본 영상 및 점수를 측정할 평가 영상을 디스플레이 장치를 통해 출력하는 단계이다.Step S910 of outputting an image is a step of outputting an original image for comparison and an evaluation image for measuring a score through a display device for measuring an image quality score of the image.
응시영역을 산출하는 단계(S920)에서는 관찰자가 출력된 영상을 관찰하게 되며, 이 때 눈동자 추적 장치가 관찰자의 눈동자를 추적하여 응시 영역을 산출해내게 된다. In step S920 of calculating the gaze area, the observer observes the output image. At this time, the pupil tracking device tracks the observer's pupil to calculate the gaze area.
정량화하는 단계(S930)에서는 산출된 응시영역을 정량화하는데, 다양한 정량화 방법이 있으며 일례로 가우시안 혼합 모델을 사용할 수 있다.In the step of quantification (S930), various calculated quantification methods are quantified. For example, a Gaussian mixture model can be used.
가중치를 부여하는 단계(S940)에서는 정량화된 응시영역에 대해 가중치를 부여하는데, 이 또한 다양한 공지된 방법을 이용할 수 있다. 일례로, 2D 영상에 대해서는 Foveation 모델을 이용하여 가중치를 부여할 수 있으며 3D 영상에 대해서는 패넘의 융합 영역(Panum`s Fusional Area) 모델을 이용하여 가중치를 부여할 수 있다. In the weighting step S940, a weight is given to the quantized gaze area, and various known methods can be used. For example, 2D images can be weighted using the Foveation model, and 3D images can be weighted using the Panum's Fusional Area model.
엔트로피를 계산하는 단계(S950)에서는 가중치가 부여된 응시영역에 대해 엔트로피를 계산하게 된다. 응시영역의 분산 정도에 따라 엔트로피 값이 계산될 수 있다.In step S950 of calculating the entropy, entropy is calculated for the weighted gaze area. The entropy value can be calculated according to the degree of dispersion of the gaze region.
화질 점수를 산출하는 단계(S960)에서는 원본 영상 및 평가 영상에 대해 계산된 엔트로피 값의 차이를 이용하여 최종적인 화질 점수를 산출한다. 엔트로피의 값을 비교하는 방법 또한 다양한 공지된 방법을 이용할 수 있다. 일례로, 쿨백-라이블러 발산(KLD, Kullback-Leibler divergence)을 이용하여 화질 점수를 산출할 수 있다. In the step of calculating the image quality score (S960), the final image quality score is calculated using the difference of the entropy values calculated for the original image and the evaluation image. Methods for comparing the values of entropy Various known methods can also be used. For example, image quality scores can be calculated using Kullback-Leibler divergence (KLD).
본 발명의 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 것이 있으며, 상기 매체에 기록되는 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 일 실시예들의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments of the present invention may be implemented in the form of program instructions that can be executed on various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Such as magneto-optical, and ROM, RAM, flash memory, etc. Examples of program instructions recorded on the medium include machine code such as those produced by a compiler, Lt; RTI ID = 0.0 > and / or < / RTI > The hardware devices described above may be configured to operate as at least one software module to perform operations of one embodiment of the present invention, and vice versa.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다는 것을 이해할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- Those skilled in the art will appreciate that various modifications and changes may be made thereto without departing from the scope of the present invention. Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .
100: 디스플레이 장치
200: 눈동자 추적 장치
300: 주관적 화질 점수 자동 측정 장치
310: 영상 출력부
320: 입력부
330: 정량화부
340: 가중치 부여부
342: 2D 가중치 부여부
344: 3D 가중치 부여부
350: 엔트로피부
360: 점수 산출부100: display device
200: pupil tracking device
300: Automatic measurement device for subjective image quality score
310: Video output unit
320:
330: Quantification part
340: Whether or not the weight is provided
342: Whether 2D weights are assigned
344: 3D weighting function
350: entropy portion
360: score calculation unit
Claims (17)
상기 전송받은 영상을 출력하는 디스플레이 장치;
상기 디스플레이 장치를 관찰하는 관찰자의 눈동자 움직임을 추적하여 응시영역을 산출하는 눈동자 추적 장치;
상기 눈동자 추적 장치로부터 상기 응시영역을 입력받는 입력부;
상기 응시영역을 정량화하는 정량화부;
2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여부;
3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여부;
상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 엔트로피부; 및
상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 점수 산출부를 포함하는 주관적 화질 점수 자동 측정 시스템.An image output unit for transmitting the original image and the evaluation image;
A display device for outputting the transmitted image;
A pupil tracking device for tracking a pupil movement of an observer observing the display device and calculating a gaze area;
An input unit for receiving the gaze area from the pupil tracking device;
A quantification unit for quantifying the gaze region;
A 2D weighting unit for assigning weights to the quantized gaze region of the 2D image;
A 3D weighting unit for weighting the quantized gaze area of the 3D image;
An entropy unit for calculating an entropy with respect to the weighted gaze area; And
And a score calculating unit for calculating an image quality score using a difference between entropy of the original image and entropy of the evaluation image.
상기 정량화부는 가우시안 혼합 모델을 이용하여 상기 응시영역을 정량화하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 시스템.The method according to claim 1,
Wherein the quantifying unit quantizes the gazing area using a Gaussian mixture model.
상기 2D 가중치 부여부는 Foveation을 이용하여 상기 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 시스템.5. The method of claim 4,
Wherein the 2D weighting unit assigns a weight to the quantized gaze area of the 2D image using the Foveation.
상기 3D 가중치 부여부는 패넘의 융합 영역을 이용하여 상기 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 시스템.6. The method of claim 5,
Wherein the 3D weighting unit assigns a weight to the quantized gaze area of the 3D image using the fusion area of the pannel.
상기 점수 산출부는 상기 원본 영상에 대한 엔트로피와 상기 평가 영상에 대한 엔트로피에 대해 쿨백-라이블러 발산(KLD)을 이용하여 화질 점수를 산출하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 시스템.The method according to claim 6,
Wherein the score calculating unit calculates an image quality score using entropy of the original image and entropy of the evaluation image using a Kullback-Leibler divergence (KLD).
상기 출력된 영상을 관찰하는 관찰자의 눈동자 추적 결과인 응시영역을 입력받는 입력부;
상기 응시영역을 정량화하는 정량화부;
2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여부;
3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여부;
상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 엔트로피부; 및
상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 점수 산출부를 포함하는 주관적 화질 점수 자동 측정 장치.An image output unit for outputting an original image and an evaluation image;
An input unit for receiving a gaze area as a result of eyeball tracking of an observer observing the output image;
A quantification unit for quantifying the gaze region;
A 2D weighting unit for assigning weights to the quantized gaze region of the 2D image;
A 3D weighting unit for weighting the quantized gaze area of the 3D image;
An entropy unit for calculating an entropy with respect to the weighted gaze area; And
And a score calculating unit for calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.
상기 출력된 영상을 관찰하는 관찰자의 눈동자 움직임을 추적하여 응시영역을 산출하는 단계;
상기 응시영역을 정량화하는 단계;
2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여 단계;
3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여 단계;
상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 단계; 및
상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 단계를 포함하는 주관적 화질 점수 자동 측정 방법.Outputting an original image and an evaluation image;
Calculating a gazed area by tracking a pupil movement of an observer observing the output image;
Quantifying the gaze area;
A 2D weighting step of weighting a quantized gaze area of a 2D image;
A 3D weighting step of weighting the quantized gaze area of the 3D image;
Calculating entropy for the weighted gaze area; And
And calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.
상기 정량화하는 단계는 가우시안 혼합 모델을 이용하여 상기 응시영역을 정량화하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 방법.12. The method of claim 11,
Wherein the quantifying step quantifies the gaze area using a Gaussian mixture model.
상기 2D 가중치 부여 단계는 Foveation을 이용하여 상기 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 방법.14. The method of claim 13,
Wherein the 2D weighting step assigns a weight to the quantized gaze area of the 2D image using Foveation.
상기 3D 가중치 부여 단계는 패넘의 융합 영역을 이용하여 상기 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 방법.15. The method of claim 14,
Wherein the 3D weighting step assigns a weight to the quantized gaze area of the 3D image using the fused area of the Pannum.
상기 화질 점수를 산출하는 단계는 상기 원본 영상에 대한 엔트로피와 상기 평가 영상에 대한 엔트로피에 대해 쿨백-라이블러 발산(KLD)을 이용하여 화질 점수를 산출하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 방법.16. The method of claim 15,
Wherein the step of calculating the image quality score comprises calculating an image quality score using a Kullback-Leibler divergence (KLD) for the entropy of the original image and the entropy of the evaluation image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160011459A KR101717399B1 (en) | 2016-01-29 | 2016-01-29 | The automatic system and method for measuring subjective quality score, recording medium thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160011459A KR101717399B1 (en) | 2016-01-29 | 2016-01-29 | The automatic system and method for measuring subjective quality score, recording medium thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101717399B1 true KR101717399B1 (en) | 2017-03-17 |
Family
ID=58502226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160011459A KR101717399B1 (en) | 2016-01-29 | 2016-01-29 | The automatic system and method for measuring subjective quality score, recording medium thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101717399B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034242A (en) * | 2018-07-26 | 2018-12-18 | 北京小米移动软件有限公司 | Methods of marking, the apparatus and system of image processing algorithm |
KR20190076288A (en) | 2017-12-22 | 2019-07-02 | 한국전기연구원 | System and method for estimating subject image quality using visual saliency and a recording medium having computer readable program for executing the method |
-
2016
- 2016-01-29 KR KR1020160011459A patent/KR101717399B1/en active IP Right Grant
Non-Patent Citations (1)
Title |
---|
Junyong You, et al., "Visual attention tuned spatio-velocity contrast sensitivity for video quality assessment", Multimedia and Expo (ICME), 2011 IEEE International Conference on, 06 September 2011.* * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190076288A (en) | 2017-12-22 | 2019-07-02 | 한국전기연구원 | System and method for estimating subject image quality using visual saliency and a recording medium having computer readable program for executing the method |
CN109034242A (en) * | 2018-07-26 | 2018-12-18 | 北京小米移动软件有限公司 | Methods of marking, the apparatus and system of image processing algorithm |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6250916B2 (en) | 3D video quality prediction system | |
Gorley et al. | Stereoscopic image quality metrics and compression | |
Lee et al. | 3D perception based quality pooling: Stereopsis, binocular rivalry, and binocular suppression | |
Oh et al. | Stereoscopic 3D visual discomfort prediction: A dynamic accommodation and vergence interaction model | |
KR20200079170A (en) | Gaze estimation method and gaze estimation apparatus | |
Yang et al. | Blind assessment for stereo images considering binocular characteristics and deep perception map based on deep belief network | |
KR101393621B1 (en) | Method and system for analyzing a quality of three-dimensional image | |
US9483960B2 (en) | Method and apparatus for dimensional proximity sensing for the visually impaired | |
US20110242280A1 (en) | Parallax image generating apparatus and method | |
KR101835578B1 (en) | Concentrativeness evaluating system | |
KR101717399B1 (en) | The automatic system and method for measuring subjective quality score, recording medium thereof | |
Xu et al. | Quality assessment of stereoscopic 360-degree images from multi-viewports | |
Jiang et al. | Quality assessment for virtual reality technology based on real scene | |
Fezza et al. | Stereoscopic image quality metric based on local entropy and binocular just noticeable difference | |
Ma et al. | Joint binocular energy-contrast perception for quality assessment of stereoscopic images | |
Nguyen et al. | Symmetric dynamic programming stereo using block matching guidance | |
Mozhaeva et al. | Video quality assessment considering the features of the human visual system | |
Wan et al. | Depth perception assessment of 3D videos based on stereoscopic and spatial orientation structural features | |
Lee et al. | A new framework for measuring 2D and 3D visual information in terms of entropy | |
Kim et al. | Quality assessment of perceptual crosstalk on two-view auto-stereoscopic displays | |
Fezza et al. | Stereoscopic 3d image quality assessment based on cyclopean view and depth map | |
US9282317B2 (en) | Method and apparatus for processing an image and generating information representing the degree of stereoscopic effects | |
KR102175481B1 (en) | Biometric device and method | |
Chen et al. | Full-reference quality assessment of stereoscopic images by modeling binocular rivalry | |
Berry et al. | 3D sound and 3D image interactions: a review of audio-visual depth perception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |