KR101717399B1 - The automatic system and method for measuring subjective quality score, recording medium thereof - Google Patents

The automatic system and method for measuring subjective quality score, recording medium thereof Download PDF

Info

Publication number
KR101717399B1
KR101717399B1 KR1020160011459A KR20160011459A KR101717399B1 KR 101717399 B1 KR101717399 B1 KR 101717399B1 KR 1020160011459 A KR1020160011459 A KR 1020160011459A KR 20160011459 A KR20160011459 A KR 20160011459A KR 101717399 B1 KR101717399 B1 KR 101717399B1
Authority
KR
South Korea
Prior art keywords
image
entropy
unit
weighting
calculating
Prior art date
Application number
KR1020160011459A
Other languages
Korean (ko)
Inventor
이상훈
김우재
김학섭
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020160011459A priority Critical patent/KR101717399B1/en
Application granted granted Critical
Publication of KR101717399B1 publication Critical patent/KR101717399B1/en

Links

Images

Classifications

    • H04N13/0484
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • H04N13/0468
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Disclosed are a system and a method for automatically measuring a subjective image quality score and a recording medium thereof. The system comprises: an image output unit which transmits an original image and an evaluation image; a display device which displays the received image; a pupil tracking device which tracks the pupil movement of an observer observing the display device and calculates a gazing region; an input unit which receives the gazing region from the pupil tracking device; an entropy unit which calculates an entropy for the gazing region; and a score calculation unit which calculates an image quality score by using the difference in entropies of the original image and the evaluation image. According to the disclosed system, there are merits in that a subjective image quality score can be automatically measured and the reliability thereof is improved.

Description

주관적 화질 점수 자동 측정 시스템 및 방법과 이에 관한 기록 매체{THE AUTOMATIC SYSTEM AND METHOD FOR MEASURING SUBJECTIVE QUALITY SCORE, RECORDING MEDIUM THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a system and method for automatically measuring a subjective image quality score,

본 발명은 화질 점수 자동 측정 시스템 및 방법과 이에 관한 기록 매체에 관한 것으로서, 더욱 상세하게는 주관적 화질 점수 자동 측정 시스템 및 방법과 이에 관한 기록 매체에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and method for automatic image quality score measurement, and a recording medium therefor, and more particularly, to a system and method for automatically measuring subjective image quality scores and a recording medium therefor.

기존의 화질 점수 측정 시스템은 영상에 대한 주관적 화질 점수를 측정하기 위해 직접 관찰자로부터 질의 응답을 거치는 방식을 주로 채용해왔다. 즉, 영상을 시청하고 그 영상에 대한 주관적인 화질 점수를 기술하는 방식이다. 이러한 방식은 많은 시간을 소비하고 관찰자가 화질 점수를 가중시킬 수 있어 신뢰도가 떨어지는 문제점이 있다.The conventional image quality score measurement system has mainly adopted the method of directly inquiring from the observer to measure the subjective image quality score on the image. That is, it is a method of watching an image and describing a subjective image quality score for the image. This method consumes a lot of time and observers can increase the image quality score, which causes a problem of low reliability.

상기한 바와 같은 종래기술의 문제점을 해결하기 위해, 본 발명은 자동적으로 주관적인 화질 점수를 측정할 수 있는 향상된 신뢰도를 가진 주관적 화질 점수 자동 측정 시스템 및 방법과 이에 관한 기록 매체를 제공한다.In order to solve the above problems, the present invention provides a system and method for automatically measuring a subjective image quality score having an improved reliability that can automatically measure a subjective image quality score, and a recording medium therefor.

상기한 목적을 달성하기 위해 본 발명의 바람직한 제1 실시예에 따르면, 원본 영상 및 평가 영상을 전송하는 영상 출력부; 상기 전송받은 영상을 출력하는 디스플레이 장치; 상기 디스플레이 장치를 관찰하는 관찰자의 눈동자 움직임을 추적하여 응시영역을 산출하는 눈동자 추적 장치; 상기 눈동자 추적 장치로부터 상기 응시영역을 입력받는 입력부; 상기 응시영역에 대해 엔트로피를 계산하는 엔트로피부; 및 상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 점수 산출부를 포함하는 주관적 화질 점수 자동 측정 시스템이 제공된다.According to a first aspect of the present invention, there is provided an image processing apparatus comprising: an image output unit for transmitting an original image and an evaluation image; A display device for outputting the transmitted image; A pupil tracking device for tracking a pupil movement of an observer observing the display device and calculating a gaze area; An input unit for receiving the gaze area from the pupil tracking device; An entropy part for calculating an entropy with respect to the gazing area; And a score calculating unit for calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.

상기 응시영역을 정량화하는 정량화부; 및 상기 정량화된 응시영역에 가중치를 부여하는 가중치 부여부를 더 포함하되, 상기 엔트로피부는 상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 것을 특징으로 한다.A quantification unit for quantifying the gaze region; And a weight assigning unit for assigning a weight to the quantized candidate region, wherein the entropy unit calculates an entropy with respect to the weighted candidate region.

상기 가중치 부여부는, 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여부; 및 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여부를 포함하는 것을 특징으로 한다.Wherein the weighting unit includes: a 2D weighting unit for giving a weight to a quantized gaze area of a 2D image; And a 3D weighting unit for weighting the quantized gaze area of the 3D image.

상기 정량화부는 가우시안 혼합 모델을 이용하여 상기 응시영역을 정량화하는 것을 특징으로 한다.Wherein the quantification unit quantizes the gaze area using a Gaussian mixture model.

상기 2D 가중치 부여부는 Foveation을 이용하여 상기 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 한다.And the 2D weight assigning unit assigns a weight to the quantized gaze area of the 2D image using the Foveation.

상기 3D 가중치 부여부는 패넘의 융합 영역을 이용하여 상기 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 한다.And the 3D weighting unit assigns a weight to the quantized gaze region of the 3D image using the fusion region of the pannel.

상기 점수 산출부는 상기 원본 영상에 대한 엔트로피와 상기 평가 영상에 대한 엔트로피에 대해 쿨백-라이블러 발산(KLD)을 이용하여 화질 점수를 산출하는 것을 특징으로 한다.Wherein the score calculating unit calculates an image quality score using entropy for the original image and entropy for the evaluation image using a Kullback-Leibler divergence (KLD).

또한 본 발명의 제2 실시예에 따르면, 원본 영상 및 평가 영상을 출력하는 영상 출력부; 상기 출력된 영상을 관찰하는 관찰자의 눈동자 추적 결과인 응시영역을 입력받는 입력부; 상기 응시영역에 대해 엔트로피를 계산하는 엔트로피부; 및 상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 점수 산출부를 포함하는 주관적 화질 점수 자동 측정 장치가 제공된다.According to a second aspect of the present invention, there is provided an image processing apparatus comprising: an image output unit outputting an original image and an evaluation image; An input unit for receiving a gaze area as a result of eyeball tracking of an observer observing the output image; An entropy part for calculating an entropy with respect to the gazing area; And a score calculating unit for calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.

상기 응시영역을 정량화하는 정량화부; 및 상기 정량화된 응시영역에 가중치를 부여하는 가중치 부여부를 더 포함하되, 상기 엔트로피부는 상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 것을 특징으로 한다.A quantification unit for quantifying the gaze region; And a weight assigning unit for assigning a weight to the quantized candidate region, wherein the entropy unit calculates an entropy with respect to the weighted candidate region.

상기 가중치 부여부는, 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여부; 및 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여부를 포함하는 것을 특징으로 한다.Wherein the weighting unit includes: a 2D weighting unit for giving a weight to a quantized gaze area of a 2D image; And a 3D weighting unit for weighting the quantized gaze area of the 3D image.

또한 본 발명의 제3 실시예에 따르면, 원본 영상 및 평가 영상을 출력하는 단계; 상기 출력된 영상을 관찰하는 관찰자의 눈동자 움직임을 추적하여 응시영역을 산출하는 단계; 상기 응시영역을 정량화하는 단계; 상기 정량화된 응시영역에 가중치를 부여하는 단계; 상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 단계; 및 상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 단계를 포함하는 주관적 화질 점수 자동 측정 방법이 제공된다.According to a third embodiment of the present invention, there is also provided a method of generating an image, the method comprising: outputting an original image and an evaluation image; Calculating a gazed area by tracking a pupil movement of an observer observing the output image; Quantifying the gaze area; Weighting the quantified gaze area; Calculating entropy for the weighted gaze area; And calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.

상기 가중치를 부여하는 단계는, 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여 단계; 및 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여 단계를 포함하는 것을 특징으로 한다.The weighting step may include: a 2D weighting step of weighting the quantized gaze area of the 2D image; And a 3D weighting step of weighting the quantized gaze area of the 3D image.

상기 정량화하는 단계는 가우시안 혼합 모델을 이용하여 상기 응시영역을 정량화하는 것을 특징으로 한다.Wherein the quantifying step is characterized by quantifying the gaze area using a Gaussian mixture model.

상기 2D 가중치 부여 단계는 Foveation을 이용하여 상기 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 한다.The 2D weighting step may be performed by applying weights to the quantized gaze area of the 2D image using Foveation.

상기 3D 가중치 부여 단계는 패넘의 융합 영역을 이용하여 상기 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 한다.Wherein the 3D weighting step assigns a weight to the quantized gaze area of the 3D image using the fusion area of the pannel.

상기 화질 점수를 산출하는 단계는 상기 원본 영상에 대한 엔트로피와 상기 평가 영상에 대한 엔트로피에 대해 쿨백-라이블러 발산(KLD)을 이용하여 화질 점수를 산출하는 것을 특징으로 한다.The calculating of the image quality score may include calculating an image quality score using entropy of the original image and entropy of the evaluation image using a Kullback-Leibler divergence (KLD).

또한 본 발명의 제4 실시예에 따르면, 상기의 주관적 화질 점수 자동 측정 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체가 제공된다.According to a fourth aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for performing the above-described method for automatically measuring the subjective image quality score.

본 발명은 자동적으로 주관적인 화질 점수를 측정할 수 있으며, 향상된 신뢰도를 갖는 장점이 있다.The present invention is advantageous in that it can automatically measure a subjective image quality score and has an improved reliability.

도 1은 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템을 예시한 것이다.
도 2는 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템의 블록도이다.
도 3은 눈동자 추적 장치(200)인 Smart Eye Pro를 도시한 것이다.
도 4는 압축 왜곡 현상에 따른 영상에 대한 응시영역을 그래픽으로 표현한 예시이다.
도 5는 깊이 정도 차이에 따른 영상에 대한 응시영역을 그래픽으로 표현한 예시이다.
도 6은 가우시안 모델 및 가우시안 혼합 모델의 정량화 그래프를 비교하여 예시한 것이다.
도 7은 가중치 부여에 대한 시각적 인지모델을 도시한 것이다.
도 8은 각 응시영역에 대해 엔트로피 H를 계산한 결과를 예시한 것이다.
도 9는 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템에 의한 화질 점수인 ToVA를 왜곡 및 깊이 정도에 따라 비교한 그래프이다.
도 10은 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 방법을 시간의 흐름에 따라 도시한 순서도이다.
FIG. 1 illustrates a system for automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention.
2 is a block diagram of a subjective image quality score automatic measurement system according to an embodiment of the present invention.
FIG. 3 shows a Smart Eye Pro which is a pupil tracking device 200. FIG.
FIG. 4 is a graphical representation of a gazing area for an image due to a compression distortion phenomenon.
FIG. 5 is a graphical representation of a gazing area for an image according to depth difference.
FIG. 6 illustrates comparison of quantization graphs of a Gaussian model and a Gaussian mixture model.
Figure 7 shows a visual perception model for weighting.
FIG. 8 illustrates results of calculation of entropy H for each of the candidate regions.
FIG. 9 is a graph comparing ToVA, which is an image quality score, by a subjective image quality score automatic measurement system according to an embodiment of the present invention, according to distortion and depth.
FIG. 10 is a flowchart illustrating a method for automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention. Referring to FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 자세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템을 예시한 것이다.FIG. 1 illustrates a system for automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템은 디스플레이 장치(100), 눈동자 추적 장치(200) 및 주관적 화질 점수 자동 측정 장치(300)로 구성된다. 화질 점수를 측정하기 위해 원본 영상 및 평가할 영상이 주관적 화질 점수 자동 측정 장치(300)에서 선택되어 디스플레이 장치(100)를 통해 재생된다. 관찰자는 디스플레이 장치(100)에서 재생되는 원본 영상 및 평가할 영상을 관찰하게 되는데, 이 때, 눈동자 추적 장치(200)는 관찰자의 눈동자의 움직임을 추적한다. 화질의 왜곡에 따라 관찰자의 응시영역의 분포는 달라지므로, 관찰자의 응시영역의 분포를 통해 화질을 평가하는 것이 가능해진다. 또한, 응시영역은 관찰자의 눈동자의 움직임을 추적하여 알아낼 수 있다. 여기서 응시영역은, 관찰자가 응시하고 있는 영역으로써 특정 영역을 관찰자가 얼마나 자주 응시하였는가에 따라 다르게 나타날 수 있다. 이러한 눈동자 추적 장치(200)의 추적 정보는 주관적 화질 점수 자동 측정 장치(300)로 입력되어 주관적 화질 점수 자동 측정 장치(300)는 입력된 추적 정보를 근거로 주관적인 화질 점수를 자동적으로 산출해내게 된다.Referring to FIG. 1, a subjective image quality score automatic measurement system according to an exemplary embodiment of the present invention includes a display device 100, a pupil tracking device 200, and a subjective image quality score automatic measuring device 300. In order to measure the image quality score, the original image and the image to be evaluated are selected in the subjective image quality score automatic measuring device 300 and reproduced through the display device 100. The observer observes the original image and the image to be evaluated, which are reproduced in the display device 100. At this time, the pupil tracking device 200 tracks the movement of the observer's pupil. Since the distribution of the gaze area of the observer changes according to the distortion of the image quality, it becomes possible to evaluate the image quality through the distribution of the observer's gaze area. In addition, the gaze area can be tracked by tracking the movement of the observer's pupil. Here, the gaze area may appear differently depending on how often an observer looks at a specific area as an area where the observer is gazing. The tracking information of the pupil tracking device 200 is input to the subjective image quality score automatic measuring device 300, and the subjective image quality score automatic measuring device 300 automatically calculates a subjective image quality score based on the inputted tracking information .

도 2는 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템의 블록도이다.2 is a block diagram of a subjective image quality score automatic measurement system according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템은 크게 디스플레이 장치(100), 눈동자 추적 장치(200) 및 주관적 화질 점수 자동 측정 장치(300)를 포함한다. 주관적 화질 점수 자동 측정 장치(300)는 영상 출력부(310), 입력부(320), 정량화부(330), 가중치 부여부(340), 엔트로피부(350) 및 점수 산출부(360)를 포함한다.Referring to FIG. 2, the subjective image quality score automatic measurement system according to an exemplary embodiment of the present invention mainly includes a display device 100, a pupil tracking device 200, and a subjective image quality score automatic measuring device 300. The subjective image quality score automatic measuring apparatus 300 includes an image output unit 310, an input unit 320, a quantization unit 330, a weight assigning unit 340, an entropy unit 350 and a score calculating unit 360 .

영상 출력부(310)는 화질을 평가할 평가 영상을 디스플레이 장치(100)를 통하여 재생한다. 화질을 평가하기 위해서는 기준이 되는 원본 영상이 필요하므로, 영상 출력부(310)는 원본 영상과 평가 영상을 모두 출력할 수 있다. 일례로, 원본 영상을 일정 프레임 출력한 후, 평가 영상을 동일 프레임만큼 출력하는 방법을 사용할 수 있다. 이 때, 평가하는 영상들은 2D 영상일 수도 있고, 3D 영상일 수도 있다. 따라서 디스플레이 장치(100)는 3D 디스플레이가 가능한 장치일 수 있다.The video output unit 310 reproduces an evaluation video image to be evaluated through the display device 100. In order to evaluate the image quality, a reference original image is required, so that the image output unit 310 can output both the original image and the evaluation image. For example, it is possible to use a method of outputting an original image with a certain frame and outputting an evaluation image with the same frame. At this time, the images to be evaluated may be 2D images or 3D images. Accordingly, the display device 100 may be a device capable of 3D display.

이제, 눈동자 추적 장치(200)는 재생되는 영상마다 관찰자의 눈동자의 움직임을 추적한다. 눈동자 추적 장치(200)의 추적 방법은 공지된 기술이므로, 다양한 장치 중 어느 것이든 사용 가능할 것이다. 일례로, Smart Eye Pro와 같은 눈동자 추적 장치를 사용할 수 있을 것이다.Now, the pupil tracking device 200 tracks the movement of the observer's pupil for each reproduced image. Since the tracking method of the pupil tracking device 200 is a known technique, any of various devices may be used. For example, you could use a pupil tracking device like the Smart Eye Pro.

도 3은 눈동자 추적 장치(200)인 Smart Eye Pro를 도시한 것이다.FIG. 3 shows a Smart Eye Pro which is a pupil tracking device 200. FIG.

도 3을 참조하면, 눈동자 추적 장치인 Smart Eye Pro는 양 안의 눈동자의 움직임을 추적하여 스크린상에 관찰자의 응시영역을 표시할 수 있다. 관찰자의 눈동자의 움직임을 추적한 후, 관찰자의 응시영역을 3차원 기하학을 통해 계산한다. 또한, Smart Eye Pro는 사람의 시선을 지속적으로 추적하여 응시영역을 그래픽으로 표현할 수 있다.Referring to FIG. 3, the Smart Eye Pro, which is a pupil tracking device, can track the pupil movement of the pupil and display the observer's gaze area on the screen. After tracing the movement of the pupil of the observer, the observer's gaze area is calculated through the three-dimensional geometry. Smart Eye Pro also keeps track of people's gaze, allowing them to graphically represent the coverage area.

도 4는 압축 왜곡 현상에 따른 영상에 대한 응시영역을 그래픽으로 표현한 예시이다.FIG. 4 is a graphical representation of a gazing area for an image due to a compression distortion phenomenon.

도 5는 깊이 정도 차이에 따른 영상에 대한 응시영역을 그래픽으로 표현한 예시이다.FIG. 5 is a graphical representation of a gazing area for an image according to depth difference.

도 4 및 도 5를 참조하면, 각종 압축 왜곡 현상이나 깊이 정도 차이에 따른 영상의 화질 변화가 관찰자의 응시영역에 영향을 주고 있음을 확인할 수 있다. 도 4를 참조하면, 왜곡된 영상의 왜곡 정도에 따라 응시영역의 변화도가 달라지는 것을 볼 수 있다. (a) 내지 (c)에 해당하는 영상들은 왜곡 정도가 커질수록 응시영역의 분산이 커지는 것을 확인할 수 있고, (d) 내지 (e)에 해당하는 영상들은 왜곡 정도가 커질수록 응시영역의 분산이 작아지는 것을 확인할 수 있다. 도 5를 참조하면, (a) 내지 (d) 의 모든 예시에서 깊이 정도 차이가 커질수록 응시영역의 분산이 커지는 것을 확인할 수 있다. 이처럼, 영상의 종류에 따라 방향성의 차이는 있으나, 완본 영상과 평가 영상의 화질 차이가 커질수록 응시영역의 분산의 차이도 커지는 것을 확인할 수 있다. 따라서 원본 영상에서의 응시영역의 분산과 평가 영상에서의 응시영역의 분산을 정량화하여 그 차이를 비교하여 주관적 화질 점수를 산출할 수 있게 된다.Referring to FIGS. 4 and 5, it can be seen that various compression distortion phenomena and a change in the image quality due to the depth difference affect the observer's gaze area. Referring to FIG. 4, it can be seen that the degree of change of the gazing region varies depending on the degree of distortion of the distorted image. it can be seen that the variance of the gazing area increases as the distortion degree of the images corresponding to (a) to (c) increases. In the images corresponding to (d) to (e) . Referring to FIG. 5, in all the examples (a) to (d), it can be seen that as the depth difference increases, the variance of the gazing area increases. As described above, although there is a difference in directionality depending on the types of images, it can be seen that as the image quality difference between the full image and the evaluation image becomes larger, the variance of the gaze region becomes larger. Therefore, it is possible to quantify the variance of the gaze region in the original image and the variance of the gaze region in the evaluation image, and compare the differences to calculate the subjective image quality score.

눈동자 추적 장치(200)는 입력부(320)를 통해 영상에 대한 관찰자의 응시영역을 전달하며, 정량화부(330)는 전달받은 응시영역을 화질 점수 산출에 용이하게 정량화하는 기능을 수행한다.The pupil tracking device 200 transmits the gaze area of the observer to the image through the input unit 320. The quantification unit 330 performs the function of quantizing the gaze area to easily calculate the image quality score.

정량화부(330)는 다양한 방법을 이용하여 응시영역을 정량화할 수 있다. 공지된 다양한 기술이 이용될 수 있으며, 일례로 가우시안 혼합 모델(Gaussian Mixture Model-GMM fitting)을 이용하는 방법에 대해 설명하기로 한다.The quantification unit 330 may quantify the examination area using various methods. Various known techniques can be used, and a method using a Gaussian Mixture Model (GMM fitting) will be described as an example.

도 6은 가우시안 모델 및 가우시안 혼합 모델의 정량화 그래프를 비교하여 예시한 것이다.FIG. 6 illustrates comparison of quantization graphs of a Gaussian model and a Gaussian mixture model.

도 6을 참조하면, (a)와 같이 응시영역에 대해 가우시안 모델을 적용하면 (b)와 같이 하나의 그래프로 정량화 된다. 그러나 가우시안 혼합 모델을 사용할 경우, (c)와 같이 다수의 그래프로 정량화 된다. 이처럼 가우시안 혼합 모델을 이용해 정량화하게 되면 각각의 무리로 분포하는 영역들에 대해 다수의 그래프로 모델링되어 다양한 분포형태를 비교할 수 있으므로, 응시영역이 영상 내에서 다양하게 무리지어 분포할 수 있는 경우에 더욱 정확한 비교가 가능하게 되는 이점이 있다.Referring to FIG. 6, when a Gaussian model is applied to a gazing region as shown in (a), it is quantified as a single graph as shown in (b). However, when the Gaussian mixture model is used, it is quantified as a number of graphs as shown in (c). In this way, quantification using the Gaussian mixture model can be modeled as a plurality of graphs for each of the clustered regions, so that various distribution patterns can be compared. Therefore, There is an advantage that accurate comparison is possible.

가우시안 혼합 모델을 이용한

Figure 112016009978891-pat00001
번째 응시영역
Figure 112016009978891-pat00002
의 분포는 하기 수학식으로 정의된다.Using Gaussian mixture model
Figure 112016009978891-pat00001
The second gaze area
Figure 112016009978891-pat00002
Is defined by the following equation.

Figure 112016009978891-pat00003
Figure 112016009978891-pat00003

수학식 1에서,

Figure 112016009978891-pat00004
Figure 112016009978891-pat00005
는 응시영역
Figure 112016009978891-pat00006
에서의
Figure 112016009978891-pat00007
축과
Figure 112016009978891-pat00008
축의 분포를 의미하며,
Figure 112016009978891-pat00009
는 초점의 분산값이다. 따라서 응시영역
Figure 112016009978891-pat00010
의 결합분포
Figure 112016009978891-pat00011
는 하기 수학식으로 정의된다.In Equation (1)
Figure 112016009978891-pat00004
Wow
Figure 112016009978891-pat00005
The examination area
Figure 112016009978891-pat00006
In
Figure 112016009978891-pat00007
Axis
Figure 112016009978891-pat00008
Means the distribution of the axis,
Figure 112016009978891-pat00009
Is the variance of the focus. Therefore,
Figure 112016009978891-pat00010
Bond distribution of
Figure 112016009978891-pat00011
Is defined by the following equation.

Figure 112016009978891-pat00012
Figure 112016009978891-pat00012

그러므로, 가우시안 혼합 모델을 이용한 전체 응시영역은 하기 수학식과 같이 정량화할 수 있다.Therefore, the entire examination area using the Gaussian mixture model can be quantified as shown in the following equation.

Figure 112016009978891-pat00013
Figure 112016009978891-pat00013

수학식 3에서,

Figure 112016009978891-pat00014
은 응시영역의 개수를 의미하며,
Figure 112016009978891-pat00015
는 각 응시영역의 분포에 대한 가중치(
Figure 112016009978891-pat00016
)이다.In Equation (3)
Figure 112016009978891-pat00014
Denotes the number of the gaze area,
Figure 112016009978891-pat00015
Is a weight for the distribution of each of the candidate regions
Figure 112016009978891-pat00016
)to be.

다음으로, 가중치 부여부(340)는 정량화된 응시영역에 대해 가중치를 부여하게 된다. 가중치 부여부(340)는 2D 가중치 부여부(342) 및 3D 가중치 부여부(344)를 포함할 수 있다.Next, the weight assigning unit 340 assigns a weight to the quantized gaze area. The weight assigning unit 340 may include a 2D weight assigning unit 342 and a 3D weight assigning unit 344.

도 7은 가중치 부여에 대한 시각적 인지모델을 도시한 것이다.Figure 7 shows a visual perception model for weighting.

도 7을 참조하면, 2D 가중치 부여부(342)는 2D 영상에 대해서 가중치를 부여할 수 있는데, 가중치 부여 방법으로 다양한 공지된 방법이 사용 가능하다. 일례로, (a)의 Foveation 모델을 사용할 수 있다. Foveation 모델은 망막의 시세포 분포가 일정하지 않은 이유로 발생되는 시각적 가중치를 모델화한 것으로 하기 수학식으로 정의된다.Referring to FIG. 7, the 2D weight assigning unit 342 may weight a 2D image, and various known methods can be used as a weighting method. For example, the Foveation model in (a) can be used. The foveation model is a model of the visual weighting that occurs due to the non-uniform distribution of the retina's photoreceptor cell, which is defined by the following equation.

Figure 112016009978891-pat00017
Figure 112016009978891-pat00017

수학식 4에서,

Figure 112016009978891-pat00018
는 사람이 응시하는 곳과의 거리(
Figure 112016009978891-pat00019
)를 의미하고,
Figure 112016009978891-pat00020
는 초점으로부터 다른 위치
Figure 112016009978891-pat00021
까지의 픽셀 거리를 의미하며,
Figure 112016009978891-pat00022
는 초점으로부터의 각도(Eccentricity) e를 의미한다. 또한,
Figure 112016009978891-pat00023
는 Foveation에서 정의되는 상수값이다. 각각의 수치는
Figure 112016009978891-pat00024
,
Figure 112016009978891-pat00025
Figure 112016009978891-pat00026
로 설정될 수 있으며, 한계주파수
Figure 112016009978891-pat00027
에 대하여 하기 수학식과 같이 가중치를 적용할 수 있다.In Equation (4)
Figure 112016009978891-pat00018
Is the distance from where the person stare
Figure 112016009978891-pat00019
), ≪ / RTI >
Figure 112016009978891-pat00020
Lt; RTI ID = 0.0 >
Figure 112016009978891-pat00021
Pixel distance, < RTI ID = 0.0 >
Figure 112016009978891-pat00022
Means the eccentricity e from the focus. Also,
Figure 112016009978891-pat00023
Is a constant value defined in Foveation. Each figure
Figure 112016009978891-pat00024
,
Figure 112016009978891-pat00025
Wow
Figure 112016009978891-pat00026
, And the limit frequency
Figure 112016009978891-pat00027
Can be weighted as shown in the following equation.

Figure 112016009978891-pat00028
Figure 112016009978891-pat00028

수학식 5에서,

Figure 112016009978891-pat00029
는 Foveation이 적용된 지점에서의 공간 한계 주파수이다. 최종적으로 2D 가중치는 모든 응시영역에서 나타내지게 되고, 하기 수학식과 같다.In Equation (5)
Figure 112016009978891-pat00029
Is the spatial limit frequency at the point where the foveation is applied. Finally, the 2D weights are represented in all the candidate regions, and are expressed by the following equations.

Figure 112016009978891-pat00030
Figure 112016009978891-pat00030

도 7을 참조하면, 3D 가중치 부여부(344)는 3D 영상에 대해서 가중치를 부여할 수 있는데, 가중치 부여 방법으로 다양한 공지된 방법이 사용 가능하다. 일례로, (b)의 패넘의 융합 영역(Panum`s Fusional Area) 모델을 사용할 수 있다. 패넘의 융합 영역(Panum`s Fusional Area) 모델을 참조하면, 3D 영상에서 양안의 눈이 한 응시지점에 합성되었을 때, 응시 지점으로부터 물체가 정상적으로 합성되어 보이는 영역이 존재하고, 이 영역을 벗어난 곳의 물체는 합성되지 않아 두 개로 보이는 현상(Diplopia)이 나타난다. 패넘의 융합 영역(Panum`s Fusional Area) 모델에 의한 가중치는 하기 수학식으로 정의된다.Referring to FIG. 7, the 3D weight assigning unit 344 may weight a 3D image. Various known methods can be used as a weighting method. For example, we can use the Panum's Fusional Area model in (b). Referring to the Panum's Fusional Area model, when eyes of both eyes are synthesized at one gaze point in a 3D image, there exists a region in which an object is normally synthesized from the gaze point, The object is not synthesized, and two phenomena (Diplopia) appear. The weight by the Panum's Fusional Area model is defined by the following equation.

Figure 112016009978891-pat00031
Figure 112016009978891-pat00031

수학식 7에서,

Figure 112016009978891-pat00032
는 패넘의 융합 영역의 한계값이며,
Figure 112016009978891-pat00033
는 실험적으로 얻어지는 고정값으로서,
Figure 112016009978891-pat00034
와 같은 값을 가질 수 있다. 또한, 각각의 각도
Figure 112016009978891-pat00035
Figure 112016009978891-pat00036
은 응시영역과 주변영역의 양안의 각도를 의미하고, 이 두 각도의 차이를 각도 시차(angular disparity)라고 정의한다. 따라서,
Figure 112016009978891-pat00037
는 초점에서의 각도시차,
Figure 112016009978891-pat00038
은 주변점에서의 각도시차를 의미하며,
Figure 112016009978891-pat00039
이다. 여기서 각도 시차란, 사람이 응시하는 초점으로부터 다른 사물을 인지할 때 양안과 초점과의 각과 다른 사물을 응시하는 각과의 차이를 의미한다. 따라서 두 영역의 각도 차이에 따라 시각적 인지가 달라짐을 모델화하여 3D 영상에 대한 가중치를 산출하여 적용할 수 있다.In Equation (7)
Figure 112016009978891-pat00032
Is the limit value of the fusion region of the pnum,
Figure 112016009978891-pat00033
Is an experimentally obtained fixed value,
Figure 112016009978891-pat00034
Lt; / RTI > Further,
Figure 112016009978891-pat00035
Wow
Figure 112016009978891-pat00036
Refers to the angle of both eyes in the gaze area and the surrounding area, and the difference between these two angles is defined as angular disparity. therefore,
Figure 112016009978891-pat00037
The angular parallax at focus,
Figure 112016009978891-pat00038
Represents the angular parallax at the peripheral points,
Figure 112016009978891-pat00039
to be. Here, the angular disparity means the difference between the angles of the binocular and focal points and the angle of gazing at other objects when recognizing another object from the focus of gazing. Therefore, it is possible to calculate and apply a weight value to a 3D image by modeling that a visual perception is changed according to an angle difference between the two areas.

엔트로피부(350)는 가중치가 부여된 응시영역에 대하여 엔트로피를 계산하게 된다.The entropy unit 350 calculates the entropy for the weighted gaze area.

도 8은 각 응시영역에 대해 엔트로피 H를 계산한 결과를 예시한 것이다.FIG. 8 illustrates results of calculation of entropy H for each of the candidate regions.

도 8을 참조하면, 각 영상에 대해 엔트로피를 계산하여 비교함으로 응시영역의 분산 정도를 비교할 수 있다. 엔트로피는 하기 수학식으로 정의된다.Referring to FIG. 8, the degree of variance of the gazing area can be compared by calculating entropy for each image. The entropy is defined by the following equation.

Figure 112016009978891-pat00040
Figure 112016009978891-pat00040

수학식 8을 이용하여 엔트로피를 계산할 수 있는데, 도 7을 참조하면 엔트로피는 응시영역이 넓게 퍼져 있을수록 높은 값을 가지는 것을 확인할 수 있다.The entropy can be calculated using Equation (8). Referring to FIG. 7, it can be seen that entropy has a higher value as the crossing region spreads widely.

위와 같은 과정을 원본 영상 및 평가 영상에 대해 수행하여 엔트로피를 계산해내게 되면, 점수 산출부(360)는 원본 영상 및 평가 영상의 계산된 엔트로피의 차이를 이용해 최종적으로 화질 점수를 산출한다. 엔트로피의 차이를 비교하는 방법 또한 다양한 방법이 존재할 수 있다. 일례로, 쿨백-라이블러 발산(KLD, Kullback-Leibler divergence)을 이용하여 계산할 수 있다. KLD는 하기 수학식으로 정의된다.When the above process is performed on the original image and the evaluation image to calculate the entropy, the score calculation unit 360 finally calculates the image quality score using the difference of the calculated entropy of the original image and the evaluation image. There are also various methods for comparing differences in entropy. For example, it can be calculated using Kullback-Leibler divergence (KLD). KLD is defined by the following equation.

Figure 112016009978891-pat00041
Figure 112016009978891-pat00041

수학식 9에서,

Figure 112016009978891-pat00042
는 원본 영상과 평가 영상의 응시영역 분포의 KLD이고,
Figure 112016009978891-pat00043
은 각각 원본 영상과 평가 영상의 엔트로피를 의미한다.
Figure 112016009978891-pat00044
는 각각 최소 최대 엔트로피를 가지는 값이며, 규격화를 위해 사용되는 값이다. 수학식 9을 이용하여, 최종적으로 화질 점수인 ToVA를 산출해 낼 수 있다.In Equation (9)
Figure 112016009978891-pat00042
Is the KLD of the gaze region distribution of the original image and the evaluation image,
Figure 112016009978891-pat00043
Represents the entropy of the original image and the evaluation image, respectively.
Figure 112016009978891-pat00044
Is a value having a minimum maximum entropy, and is a value used for normalization. Using the equation (9), it is possible to calculate ToVA which is the image quality score finally.

도 9는 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템에 의한 화질 점수인 ToVA를 왜곡 및 깊이 정도에 따라 비교한 그래프이다.FIG. 9 is a graph comparing ToVA, which is an image quality score, by a subjective image quality score automatic measurement system according to an embodiment of the present invention, according to distortion and depth.

도 9를 참조하면, 왜곡 정도(Distortion Level) 및 깊이 정도(Disparity Level)가 커짐에 따라 ToVA점수가 증가하여 화질은 감소함을 확인할 수 있다.Referring to FIG. 9, it can be seen that as the distortion degree and the depth level (Disparity Level) increase, the ToVA score increases and the image quality decreases.

이처럼 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 시스템에 의해 산출된 화질 점수는 관찰자에 따라 다르게 나타날 수 있는 주관적인 값이지만, 질의 응답 과정 없이 순수하게 시각적 피로감과 응시 영역을 이용하여 산출해낸 화질 점수이므로, 영상 관찰만으로 신속하게 자동으로 측정 가능하며, 신뢰도가 높다는 장점이 있다.As described above, the image quality score calculated by the system for automatically measuring the subjective image quality score according to the embodiment of the present invention is a subjective value that can be different depending on the observer, but the image quality calculated using the purely visual fatigue and the gaze area Therefore, it is possible to measure automatically and quickly with only image observation, and it has a merit of high reliability.

본 발명의 다른 실시예에 따른 주관적 화질 점수 자동 측정 장치(300)는 영상 출력부(310), 입력부(320), 정량화부(330), 가중치 부여부(340), 엔트로피부(350) 및 점수 산출부(360)를 포함한다.The subjective image quality score automatic measuring apparatus 300 according to another embodiment of the present invention includes an image output unit 310, an input unit 320, a quantization unit 330, a weight assigning unit 340, an entropy unit 350, And a calculation unit 360.

도 2를 참조하면, 본 발명의 다른 실시예에 따른 주관적 화질 점수 자동 측정 장치(300)는 디스플레이 장치(100) 및 눈동자 추적 장치(200)를 이용하여 주관적인 화질 점수를 자동으로 측정해내는 기능을 수행하게 된다. 본 발명의 다른 실시예에 따른 주관적 화질 점수 자동 측정 장치(300)는 본 발명의 일 실시예에서 기술한 바와 동일한 방법으로 작동하여 기능할 수 있게 된다.Referring to FIG. 2, an apparatus 300 for automatically measuring a subjective image quality score according to another embodiment of the present invention includes a function of automatically measuring a subjective image quality score using the display device 100 and the pupil tracking device 200 . The subjective image quality point automatic measuring apparatus 300 according to another embodiment of the present invention can operate and function in the same manner as described in the embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 방법을 시간의 흐름에 따라 도시한 순서도이다.FIG. 10 is a flowchart illustrating a method for automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention. Referring to FIG.

본 발명의 일 실시예에 따른 주관적 화질 점수 자동 측정 방법은 영상을 출력하는 단계(S910), 응시영역을 산출하는 단계(S920), 정량화하는 단계(S930), 가중치를 부여하는 단계(S940), 엔트로피를 계산하는 단계(S950), 화질 점수를 산출하는 단계(S960)를 포함한다.The method of automatically measuring a subjective image quality score according to an exemplary embodiment of the present invention includes a step S910 of outputting an image, a step S920 of calculating a gaze area, a step S930 of quantizing, a step of weighting S940, Calculating entropy (S950), and calculating an image quality score (S960).

영상을 출력하는 단계(S910)는 영상의 화질 점수 측정을 위해 비교를 위한 원본 영상 및 점수를 측정할 평가 영상을 디스플레이 장치를 통해 출력하는 단계이다.Step S910 of outputting an image is a step of outputting an original image for comparison and an evaluation image for measuring a score through a display device for measuring an image quality score of the image.

응시영역을 산출하는 단계(S920)에서는 관찰자가 출력된 영상을 관찰하게 되며, 이 때 눈동자 추적 장치가 관찰자의 눈동자를 추적하여 응시 영역을 산출해내게 된다. In step S920 of calculating the gaze area, the observer observes the output image. At this time, the pupil tracking device tracks the observer's pupil to calculate the gaze area.

정량화하는 단계(S930)에서는 산출된 응시영역을 정량화하는데, 다양한 정량화 방법이 있으며 일례로 가우시안 혼합 모델을 사용할 수 있다.In the step of quantification (S930), various calculated quantification methods are quantified. For example, a Gaussian mixture model can be used.

가중치를 부여하는 단계(S940)에서는 정량화된 응시영역에 대해 가중치를 부여하는데, 이 또한 다양한 공지된 방법을 이용할 수 있다. 일례로, 2D 영상에 대해서는 Foveation 모델을 이용하여 가중치를 부여할 수 있으며 3D 영상에 대해서는 패넘의 융합 영역(Panum`s Fusional Area) 모델을 이용하여 가중치를 부여할 수 있다. In the weighting step S940, a weight is given to the quantized gaze area, and various known methods can be used. For example, 2D images can be weighted using the Foveation model, and 3D images can be weighted using the Panum's Fusional Area model.

엔트로피를 계산하는 단계(S950)에서는 가중치가 부여된 응시영역에 대해 엔트로피를 계산하게 된다. 응시영역의 분산 정도에 따라 엔트로피 값이 계산될 수 있다.In step S950 of calculating the entropy, entropy is calculated for the weighted gaze area. The entropy value can be calculated according to the degree of dispersion of the gaze region.

화질 점수를 산출하는 단계(S960)에서는 원본 영상 및 평가 영상에 대해 계산된 엔트로피 값의 차이를 이용하여 최종적인 화질 점수를 산출한다. 엔트로피의 값을 비교하는 방법 또한 다양한 공지된 방법을 이용할 수 있다. 일례로, 쿨백-라이블러 발산(KLD, Kullback-Leibler divergence)을 이용하여 화질 점수를 산출할 수 있다. In the step of calculating the image quality score (S960), the final image quality score is calculated using the difference of the entropy values calculated for the original image and the evaluation image. Methods for comparing the values of entropy Various known methods can also be used. For example, image quality scores can be calculated using Kullback-Leibler divergence (KLD).

본 발명의 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 것이 있으며, 상기 매체에 기록되는 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 일 실시예들의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments of the present invention may be implemented in the form of program instructions that can be executed on various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Such as magneto-optical, and ROM, RAM, flash memory, etc. Examples of program instructions recorded on the medium include machine code such as those produced by a compiler, Lt; RTI ID = 0.0 > and / or < / RTI > The hardware devices described above may be configured to operate as at least one software module to perform operations of one embodiment of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다는 것을 이해할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- Those skilled in the art will appreciate that various modifications and changes may be made thereto without departing from the scope of the present invention. Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

100: 디스플레이 장치
200: 눈동자 추적 장치
300: 주관적 화질 점수 자동 측정 장치
310: 영상 출력부
320: 입력부
330: 정량화부
340: 가중치 부여부
342: 2D 가중치 부여부
344: 3D 가중치 부여부
350: 엔트로피부
360: 점수 산출부
100: display device
200: pupil tracking device
300: Automatic measurement device for subjective image quality score
310: Video output unit
320:
330: Quantification part
340: Whether or not the weight is provided
342: Whether 2D weights are assigned
344: 3D weighting function
350: entropy portion
360: score calculation unit

Claims (17)

원본 영상 및 평가 영상을 전송하는 영상 출력부;
상기 전송받은 영상을 출력하는 디스플레이 장치;
상기 디스플레이 장치를 관찰하는 관찰자의 눈동자 움직임을 추적하여 응시영역을 산출하는 눈동자 추적 장치;
상기 눈동자 추적 장치로부터 상기 응시영역을 입력받는 입력부;
상기 응시영역을 정량화하는 정량화부;
2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여부;
3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여부;
상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 엔트로피부; 및
상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 점수 산출부를 포함하는 주관적 화질 점수 자동 측정 시스템.
An image output unit for transmitting the original image and the evaluation image;
A display device for outputting the transmitted image;
A pupil tracking device for tracking a pupil movement of an observer observing the display device and calculating a gaze area;
An input unit for receiving the gaze area from the pupil tracking device;
A quantification unit for quantifying the gaze region;
A 2D weighting unit for assigning weights to the quantized gaze region of the 2D image;
A 3D weighting unit for weighting the quantized gaze area of the 3D image;
An entropy unit for calculating an entropy with respect to the weighted gaze area; And
And a score calculating unit for calculating an image quality score using a difference between entropy of the original image and entropy of the evaluation image.
삭제delete 삭제delete 제1항에 있어서,
상기 정량화부는 가우시안 혼합 모델을 이용하여 상기 응시영역을 정량화하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 시스템.
The method according to claim 1,
Wherein the quantifying unit quantizes the gazing area using a Gaussian mixture model.
제4항에 있어서,
상기 2D 가중치 부여부는 Foveation을 이용하여 상기 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 시스템.
5. The method of claim 4,
Wherein the 2D weighting unit assigns a weight to the quantized gaze area of the 2D image using the Foveation.
제5항에 있어서,
상기 3D 가중치 부여부는 패넘의 융합 영역을 이용하여 상기 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 시스템.
6. The method of claim 5,
Wherein the 3D weighting unit assigns a weight to the quantized gaze area of the 3D image using the fusion area of the pannel.
제6항에 있어서,
상기 점수 산출부는 상기 원본 영상에 대한 엔트로피와 상기 평가 영상에 대한 엔트로피에 대해 쿨백-라이블러 발산(KLD)을 이용하여 화질 점수를 산출하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 시스템.
The method according to claim 6,
Wherein the score calculating unit calculates an image quality score using entropy of the original image and entropy of the evaluation image using a Kullback-Leibler divergence (KLD).
원본 영상 및 평가 영상을 출력하는 영상 출력부;
상기 출력된 영상을 관찰하는 관찰자의 눈동자 추적 결과인 응시영역을 입력받는 입력부;
상기 응시영역을 정량화하는 정량화부;
2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여부;
3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여부;
상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 엔트로피부; 및
상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 점수 산출부를 포함하는 주관적 화질 점수 자동 측정 장치.
An image output unit for outputting an original image and an evaluation image;
An input unit for receiving a gaze area as a result of eyeball tracking of an observer observing the output image;
A quantification unit for quantifying the gaze region;
A 2D weighting unit for assigning weights to the quantized gaze region of the 2D image;
A 3D weighting unit for weighting the quantized gaze area of the 3D image;
An entropy unit for calculating an entropy with respect to the weighted gaze area; And
And a score calculating unit for calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.
삭제delete 삭제delete 원본 영상 및 평가 영상을 출력하는 단계;
상기 출력된 영상을 관찰하는 관찰자의 눈동자 움직임을 추적하여 응시영역을 산출하는 단계;
상기 응시영역을 정량화하는 단계;
2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 2D 가중치 부여 단계;
3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 3D 가중치 부여 단계;
상기 가중치가 부여된 응시영역에 대해 엔트로피를 계산하는 단계; 및
상기 원본 영상에 대한 엔트로피와 평가 영상에 대한 엔트로피의 차이를 이용하여 화질 점수를 산출하는 단계를 포함하는 주관적 화질 점수 자동 측정 방법.
Outputting an original image and an evaluation image;
Calculating a gazed area by tracking a pupil movement of an observer observing the output image;
Quantifying the gaze area;
A 2D weighting step of weighting a quantized gaze area of a 2D image;
A 3D weighting step of weighting the quantized gaze area of the 3D image;
Calculating entropy for the weighted gaze area; And
And calculating an image quality score using the difference between the entropy of the original image and the entropy of the evaluation image.
삭제delete 제11항에 있어서,
상기 정량화하는 단계는 가우시안 혼합 모델을 이용하여 상기 응시영역을 정량화하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 방법.
12. The method of claim 11,
Wherein the quantifying step quantifies the gaze area using a Gaussian mixture model.
제13항에 있어서,
상기 2D 가중치 부여 단계는 Foveation을 이용하여 상기 2D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 방법.
14. The method of claim 13,
Wherein the 2D weighting step assigns a weight to the quantized gaze area of the 2D image using Foveation.
제14항에 있어서,
상기 3D 가중치 부여 단계는 패넘의 융합 영역을 이용하여 상기 3D 영상의 정량화된 응시영역에 대해 가중치를 부여하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 방법.
15. The method of claim 14,
Wherein the 3D weighting step assigns a weight to the quantized gaze area of the 3D image using the fused area of the Pannum.
제15항에 있어서,
상기 화질 점수를 산출하는 단계는 상기 원본 영상에 대한 엔트로피와 상기 평가 영상에 대한 엔트로피에 대해 쿨백-라이블러 발산(KLD)을 이용하여 화질 점수를 산출하는 것을 특징으로 하는 주관적 화질 점수 자동 측정 방법.
16. The method of claim 15,
Wherein the step of calculating the image quality score comprises calculating an image quality score using a Kullback-Leibler divergence (KLD) for the entropy of the original image and the entropy of the evaluation image.
제11항, 제13항 내지 제16항 중 어느 한 항의 주관적 화질 점수 자동 측정 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for performing a method of automatically measuring a subjective image quality score according to any one of claims 11 to 13.
KR1020160011459A 2016-01-29 2016-01-29 The automatic system and method for measuring subjective quality score, recording medium thereof KR101717399B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160011459A KR101717399B1 (en) 2016-01-29 2016-01-29 The automatic system and method for measuring subjective quality score, recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160011459A KR101717399B1 (en) 2016-01-29 2016-01-29 The automatic system and method for measuring subjective quality score, recording medium thereof

Publications (1)

Publication Number Publication Date
KR101717399B1 true KR101717399B1 (en) 2017-03-17

Family

ID=58502226

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160011459A KR101717399B1 (en) 2016-01-29 2016-01-29 The automatic system and method for measuring subjective quality score, recording medium thereof

Country Status (1)

Country Link
KR (1) KR101717399B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034242A (en) * 2018-07-26 2018-12-18 北京小米移动软件有限公司 Methods of marking, the apparatus and system of image processing algorithm
KR20190076288A (en) 2017-12-22 2019-07-02 한국전기연구원 System and method for estimating subject image quality using visual saliency and a recording medium having computer readable program for executing the method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Junyong You, et al., "Visual attention tuned spatio-velocity contrast sensitivity for video quality assessment", Multimedia and Expo (ICME), 2011 IEEE International Conference on, 06 September 2011.* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190076288A (en) 2017-12-22 2019-07-02 한국전기연구원 System and method for estimating subject image quality using visual saliency and a recording medium having computer readable program for executing the method
CN109034242A (en) * 2018-07-26 2018-12-18 北京小米移动软件有限公司 Methods of marking, the apparatus and system of image processing algorithm

Similar Documents

Publication Publication Date Title
JP6250916B2 (en) 3D video quality prediction system
Gorley et al. Stereoscopic image quality metrics and compression
Lee et al. 3D perception based quality pooling: Stereopsis, binocular rivalry, and binocular suppression
Oh et al. Stereoscopic 3D visual discomfort prediction: A dynamic accommodation and vergence interaction model
KR20200079170A (en) Gaze estimation method and gaze estimation apparatus
Yang et al. Blind assessment for stereo images considering binocular characteristics and deep perception map based on deep belief network
KR101393621B1 (en) Method and system for analyzing a quality of three-dimensional image
US9483960B2 (en) Method and apparatus for dimensional proximity sensing for the visually impaired
US20110242280A1 (en) Parallax image generating apparatus and method
KR101835578B1 (en) Concentrativeness evaluating system
KR101717399B1 (en) The automatic system and method for measuring subjective quality score, recording medium thereof
Xu et al. Quality assessment of stereoscopic 360-degree images from multi-viewports
Jiang et al. Quality assessment for virtual reality technology based on real scene
Fezza et al. Stereoscopic image quality metric based on local entropy and binocular just noticeable difference
Ma et al. Joint binocular energy-contrast perception for quality assessment of stereoscopic images
Nguyen et al. Symmetric dynamic programming stereo using block matching guidance
Mozhaeva et al. Video quality assessment considering the features of the human visual system
Wan et al. Depth perception assessment of 3D videos based on stereoscopic and spatial orientation structural features
Lee et al. A new framework for measuring 2D and 3D visual information in terms of entropy
Kim et al. Quality assessment of perceptual crosstalk on two-view auto-stereoscopic displays
Fezza et al. Stereoscopic 3d image quality assessment based on cyclopean view and depth map
US9282317B2 (en) Method and apparatus for processing an image and generating information representing the degree of stereoscopic effects
KR102175481B1 (en) Biometric device and method
Chen et al. Full-reference quality assessment of stereoscopic images by modeling binocular rivalry
Berry et al. 3D sound and 3D image interactions: a review of audio-visual depth perception

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant