KR20130081835A - Method and system for analyzing a quality of three-dimensional image - Google Patents

Method and system for analyzing a quality of three-dimensional image Download PDF

Info

Publication number
KR20130081835A
KR20130081835A KR1020120002873A KR20120002873A KR20130081835A KR 20130081835 A KR20130081835 A KR 20130081835A KR 1020120002873 A KR1020120002873 A KR 1020120002873A KR 20120002873 A KR20120002873 A KR 20120002873A KR 20130081835 A KR20130081835 A KR 20130081835A
Authority
KR
South Korea
Prior art keywords
depth
value
image
information
values
Prior art date
Application number
KR1020120002873A
Other languages
Korean (ko)
Other versions
KR101393621B1 (en
Inventor
김아란
김하윤
정원석
전병기
김종옥
최지훈
박영환
윤민주
Original Assignee
에스케이플래닛 주식회사
(주)리얼디스퀘어
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사, (주)리얼디스퀘어, 고려대학교 산학협력단 filed Critical 에스케이플래닛 주식회사
Priority to KR1020120002873A priority Critical patent/KR101393621B1/en
Priority to PCT/KR2012/009003 priority patent/WO2013105720A1/en
Publication of KR20130081835A publication Critical patent/KR20130081835A/en
Application granted granted Critical
Publication of KR101393621B1 publication Critical patent/KR101393621B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: Quality analysis apparatus and method of three-dimension check the quality about the depth level among the three-dimensional effect as numerical value, produce 7 coefficient values about stability, evaluate the stability, and objectively evaluate error to check the quality of three-dimensional image. CONSTITUTION: A three-dimensional effect analysis unit (120) produces a three-dimensional value from depth information about a two-dimensional image. A stability analysis unit (130) produces a final stability factor value through liner combination of 7 coefficient values obtained using the depth information and parallax information. An error analysis unit (140) uses the depth information or other information to detect image processing error. Each weighted value and constant [constant] are applied to the three-dimensional effect about each sequence image, stability, and the count value of error in case An analysis result unit (150) applies each weighted value and constant to the three-dimensional effect, stability, and coefficient values of error about each sequence image to produce the total point and generates a list by using the total point, when transforming the two-dimensional image into three-dimensional image. [Reference numerals] (110) Input unit; (120) Three-dimensional effect analysis unit; (130) Stability analysis unit; (140) Error analysis unit; (150) Analysis result unit; (160) Output unit; (AA) Original sequence image; (BB) Depthmap sequence image

Description

3차원 입체영상의 품질 분석 장치 및 방법{Method and system for analyzing a quality of three-dimensional image}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for analyzing three-

본 발명은 3차원 입체영상의 품질 분석 장치 및 방법에 관한 것으로서, 보다 상세하게는, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 얼마나 좋은 입체감을 가지고 있는지에 대한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 그리고 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는 것이다.
The present invention relates to an apparatus and method for analyzing the quality of a three-dimensional image, and more particularly, to a method and apparatus for analyzing the quality of a three-dimensional image using a depth map generated when a two- The degree of stereoscopic effect on the presence or absence of the stereoscopic effect is expressed by a numerical value, and seven factors that affect the stability of the three-dimensional stereoscopic image are obtained to show how severe the visual fatigue is, To perform an objective quality evaluation as to whether there is an error in processing an object as an object.

최근에 3차원 입체 영상(stereoscopic image)에 대한 관심이 높아지면서 다양한 방식의 입체 영상 획득 장치와 디스플레이 장치들이 개발되고 있다. 입체 영상을 디스플레이하기 위해 입체 영상 신호를 획득하기 위한 한 가지 방법으로 영상의 획득시에 1쌍의 좌우 카메라를 이용하는 방법이 있다. 이 방법은 자연스러운 입체 영상을 디스플레이할 수 있는 장점은 있지만 영상 획득을 위하여 2대의 카메라가 필요할 뿐만 아니라 획득한 좌영상과 우영상의 필름화 또는 부호화에 따른 문제, 그리고 좌영상과 우영상의 프레임율의 차이 등과 같은 문제들을 해결해야 하는 단점이 있다. Recently, interest in stereoscopic images has increased, and various types of stereoscopic image acquisition devices and display devices have been developed. One method for acquiring a stereoscopic image signal for displaying a stereoscopic image is to use a pair of left and right cameras at the time of acquiring the stereoscopic image. This method is advantageous in that it can display natural stereoscopic images, but it requires not only two cameras for image acquisition but also problems in filming or encoding of acquired left and right images and frame rate of left and right images And the like, and the like.

입체 영상 신호를 획득하기 위한 다른 한 가지 방법은 하나의 카메라로 획득한 2차원 영상신호를 3차원 영상신호로 변환하는 것이다. 이 방법에 의하면, 획득한 2차원 영상(원 영상)에 대하여 소정의 신호 처리를 수행함으로써 3차원 영상, 즉 좌영상과 우영상을 생성하기 때문에, 좌우 카메라를 이용하여 입체 영상신호를 획득할 때 초래되는 전술한 문제점이 발생하지 않는다. 다만, 이 방법은 하나의 영상을 이용하여 두 개의 영상을 생성하는 것이기 때문에, 자연스럽고 안정된 입체감을 갖는 입체 영상을 디스플레이하기가 어려운 단점이 있다. 따라서 2차원 영상신호를 3차원 영상신호로 변환하는데 있어서는 변환된 3차원 영상신호를 이용하여 더욱 자연스럽고 안정된 입체감을 갖는 입체 영상을 디스플레이하는 것이 상당히 중요하다.Another method for acquiring a stereoscopic image signal is to convert a two-dimensional image signal acquired by one camera into a three-dimensional image signal. According to this method, since a three-dimensional image, that is, a left image and a right image are generated by performing predetermined signal processing on the acquired two-dimensional image (original image), when a stereoscopic image signal is acquired using the left and right cameras The above-mentioned problem to be caused does not occur. However, since this method generates two images using one image, it is difficult to display a stereoscopic image having a natural and stable stereoscopic effect. Therefore, in converting a two-dimensional image signal into a three-dimensional image signal, it is very important to display a three-dimensional image having a more natural and stable three-dimensional image by using the converted three-dimensional image signal.

그런데, 시청자가 3차원 입체 영상을 접했을 때 느끼는 어지러움, 시각적 피로도 등을 연구하여 인간에게 가장 알맞은 시야각과 입체영상 시청거리 등에 관해서 어느 정도 객관성이 있고 타당한 연구 결과가 나와 있지만 2차원 영상에서 변환된 3차원 입체영상에 대한 자체의 품질을 측정하는 도구 및 장치는 아직까지 개발되지 않고 있다.
However, researchers have studied the dizziness and visual fatigue that the viewer has experienced when they encountered 3D stereoscopic images, and have found objectivity and reasonable research results regarding the viewing angle and stereoscopic viewing distance which are most suitable for human being. However, Tools and devices for measuring the quality of 3D stereoscopic images have not yet been developed.

대한민국 공개특허공보 제10-2008-0047673호(공개일:2008.05.30)Korean Patent Publication No. 10-2008-0047673 (Published on May 30, 2008)

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 얼마나 좋은 입체감을 가지고 있는지에 대한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 그리고 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법을 제공함에 그 기술적 과제가 있다.
Disclosure of Invention Technical Problem [8] The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide a 3D depth image Dimensional visual image, and the seven factors that affect the stability of the three-dimensional stereoscopic image are displayed to indicate how severe the visual fatigue is, and whether there is an error processing the object as a background or processing the background as an object Dimensional stereoscopic image quality analyzing apparatus and method capable of performing an objective quality evaluation on a 3D stereoscopic image.

상술한 목적을 달성하기 위한 본 발명의 3차원 입체영상의 품질 분석 장치는, 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 입력부; 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 입체감 분석부; 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 분석부; 상기 2차원 영상에 대한 깊이 정보를 이용하거나, 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 오류성 분석부; 상기 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공하는 분석 결과부; 및 상기 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트를 화면 상에 출력하는 출력부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for analyzing quality of a three-dimensional image, the apparatus comprising: an input unit for inputting an original sequence image and a depth map sequence image for a two-dimensional image; Extracts depth values for each pixel for each frame from the depth information of the two-dimensional image, and generates a depth information histogram representing a depth map distribution map according to a depth gray value for each depth value per extracted frame A three-dimensional analysis unit for generating a three-dimensional (DF) value by analyzing the similarity of the depth information histogram and the uniformity histogram using a Batarya coefficient; The parallax information is generated using the depth information of the two-dimensional image, and the parallax information is generated by using the depth information and the parallax information to calculate the parallax range, the maximum value of the parallax absolute value, The seven coefficients on the Scale Movement of the squares of the average of the disparity, the Spatial Complexity of the screen, the Depth Position of the screen and the square of the distance, the temporal complexity, A stability analyzer for obtaining a final stability factor (CF) value by linear combination; An error analysis unit that detects an error of processing a background as an object or an error of processing an object as a background by using depth information of the 2D image or using information other than the depth information; When converting the 2D image into a 3D stereoscopic image, the total evaluation score is calculated by giving weights and constants to the values of the stereoscopic sense, stability, and error of the sequence images for each sequence image. An analysis result unit having a total evaluation score and providing the list according to a ranking; And output coefficient values related to stereoscopic effect, stability, and error for each sequence image on the screen in numerical values and on a graph, and output a list according to the total evaluation score for each sequence image and the rank of each total evaluation score on the screen. It includes an output unit.

또한, 상기 분석 결과부는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력할 수 있다.In addition, the analysis result section may output a total evaluation score (QM) by calculating a linear combination of the three-dimensional sensation and the stability with respect to the total evaluation score according to the following equation (1).

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며,

Figure pat00002
는 가중치(coefficient)를 나타내며,
Figure pat00003
는 상수(costant)를 나타낸다. Here, QM represents the overall total evaluation score of the 3D image, DF represents the 3D value of the 3D image, CF represents the stability coefficient of the 3D image,
Figure pat00002
Represents a weight coefficient,
Figure pat00003
Denotes a cost.

또한, 상기 분석 결과부는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정할 수 있다.The result of the analysis may be determined by a logarithmic function of the histogram stereo value and the parallax product according to the following equation (2) with respect to the stereoscopic value DF.

[수학식 2]&Quot; (2) "

Figure pat00004
Figure pat00004

또한, 상기 입체감 분석부는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 히스토그램 생성부; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 입체값 산출부를 포함한다.The stereoscopic analysis unit may further include: a histogram generation unit that generates a depth information histogram indicating a depth map distribution map corresponding to a depth gray value with respect to depth information per frame; And a stereo value calculating unit for calculating a stereo value DF using the Battacharyya coefficient based on the similarity of the depth map histogram and the uniform distribution histogram.

또한, 상기 히스토그램 생성부는, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성할 수 있다.Also, the histogram generator may convert a depth value of each pixel per frame into a depth gray value of 0 to 255, and a depth information histogram showing a distribution of depth gray values for each pixel in one frame Can be generated.

또한, 상기 입체값 산출부는, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출할 수 있다.Also, the stereoscopic value calculator may normalize the frequency of the depth map histogram by the number of all pixels, normalize the i-th value of the depth information histogram (x [i]), The i-th value of the depth information histogram can be calculated by dividing the i-th value of the depth information histogram by the entire pixel value according to the following equation (4).

[수학식 4]&Quot; (4) "

Figure pat00005
Figure pat00005

또한, 상기 안정성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 산출부를 포함한다.The stability analysis unit may extract depth values for each pixel per frame from a depth map of the 2D image and store depth information for each frame by dividing the depth values for each pixel. part; A parallax information generation unit generating parallax information using the generated depth map; And a stability calculator for calculating seven factor values using the depth information and the parallax information and generating a final stability factor CF by linear combination.

또한, 상기 안정성 산출부는 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출할 수 있다.Also, the stability calculator may calculate the final stability coefficient CF for one frame by performing linear combination of the seven coefficient values according to the following equation (12).

[수학식 12]&Quot; (12) "

Figure pat00006
Figure pat00006

여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.Here, omega 1 to omega 7 represent weight values for seven respective coefficient values.

또한, 상기 안정성 산출부는, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출할 수 있다.In addition, the stability calculation unit calculates seven coefficient values according to Equation 10 for each frame for every frame in the same process of calculating the stability coefficient value CF for one frame, for each frame for every frame. The total stability factor (T CF ) is arranged by arranging the seven coefficient values of N as the number of frames according to the following equation (13), and the weights for the seven coefficient values for each frame according to the following equation (14). The weighting coefficient X values (ω1 to ω7) arranged as (ω) values can be calculated.

[수학식 13]&Quot; (13) "

Figure pat00007
Figure pat00007

[수학식 14]&Quot; (14) "

Figure pat00008
Figure pat00008

여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.Here, X denotes a weight coefficient value composed of a 7x1 matrix, S denotes a matrix vector relating to Nx1 subjective evaluation, and N denotes the number of frames.

또한, 상기 오류성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 오류성 산출부를 포함한다.In addition, the error analysis unit, depth information for extracting the depth value for each pixel per frame from the depth map (depth map) for the two-dimensional image, the depth information for dividing and storing the depth value for each extracted pixel for each frame Storage unit; A parallax information generation unit generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. It includes an error calculation unit.

또한, 상기 오류성 산출부는, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출할 수 있다.The error calculating unit may separate the background information and the object part using the depth value for each depth information per frame, and use the information other than the depth in the separated background part to determine the background object. Depth inversion to be processed can be detected to calculate the error coefficient value.

또한, 상기 오류상 산출부는, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출할 수 있다.In addition, the error image calculating unit may be regarded as a background when a difference value of the difference image is smaller than a threshold value by using a difference image between a previous frame and a current frame of the 2D image as information other than the depth, and as an object if larger than the threshold value. The error count can be calculated.

그리고, 상기 오류성 산출부는, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출할 수 있다.The error calculator may detect an error using a motion vector with information other than the depth. The error calculator may set a global motion vector in a block unit and move in a block unit. When the calculated motion vector value differs from the motion vector of the background by a predetermined amount or more, the error coefficient value may be calculated by considering the object as an object.

한편, 상술한 목적을 달성하기 위한 본 발명의 3차원 입체영상의 품질 분석 방법은, (a) 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 단계; (b) 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하여, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 단계; (c) 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 단계; (d) 상기 2차원 영상에 대한 깊이 정보 또는 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 단계; 및 (e) 상기 2차원 영상의 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하거나, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for analyzing the quality of a three-dimensional image, the method comprising the steps of: (a) inputting an original sequence image and a depth map sequence image for a two- (b) extracting depth values for each pixel per each frame from depth information of the two-dimensional image, and extracting depth information indicating a depth map distribution according to a depth gray value with respect to depth values per extracted frame Generating a histogram, generating a stereoscopic (DF) value by analyzing the similarity between the depth information histogram and the uniform histogram using Battaria's coefficient; (c) generating parallax information using the depth information of the two-dimensional image, and generating parallax information by using the depth information and the parallax information to calculate a parallax range, a maximum value of a parallax absolute value, The average of the distance between the screen and the screen, the spatial complexity, the depth value of the screen and the square of the distance, the temporal complexity, and the mean of the squared difference Generating a final stability coefficient (CF) value by linear combination by obtaining seven coefficient values; (d) detecting an error processing an background as an object or an error processing an object as a background, using depth information of the two-dimensional image or information other than the depth information; And (e) calculating a total evaluation score by giving weights and constants to the three-dimensional, stability, and error coefficient values for each sequence image of the 2D image, or calculating the total evaluation score for each sequence image. Providing a list according to the ranking (Ranking).

한편, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 실행하는 프로그램을 CD나 USB 매체 등 컴퓨터로 읽을 수 있는 매체에 기록할 수 있다.
Meanwhile, a program for executing the method for analyzing the quality of three-dimensional stereoscopic image according to the embodiment of the present invention can be recorded on a computer-readable medium such as a CD or a USB medium.

상술한 바와 같이 본 발명의 3차원 입체영상의 품질 분석 장치 및 방법은, 3D 입체영상의 품질을 객관적으로 평가할 수 있다.As described above, the apparatus and method for analyzing quality of a 3D stereoscopic image of the present invention can objectively evaluate the quality of a 3D stereoscopic image.

즉, 3D 입체영상의 품질을 가늠하는 한가지 요소인 입체감 중 depth level의 정도(깊이감)에 대한 품질을 수치로써 확인할 수 있고, 또한 품질을 가늠하는 요소인 안정성(편안감)에 대해 7 가지 계수 값을 산출해 평가할 수 있으며, 그리고 품질을 가늠하는 요소인 오류성에 대해 객관적으로 평가하여 3D 입체영상의 퀄리티(Quality)를 확인할 수 있다.
In other words, it is possible to confirm the quality of the degree of depth level (depth sense) in the 3D sensation, which is one element for determining the quality of the 3D stereoscopic image, as the numerical value, and to measure the stability And the quality of the 3D stereoscopic image can be confirmed by objectively evaluating the erroneousness which is a factor of the quality.

도 1은 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치의 기능 블록을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 설명하기 위한 전체적인 동작 흐름도이다.
도 3은 본 발명의 실시예에 따른 입체감 분석부의 제어 블록도이다.
도 4는 본 발명의 실시예에 따른 입체감 분석부의 입체감 분석 방법을 설명하기 위한 동작 흐름도이다.
도 5는 본 발명의 실시예에 따라 2차원 영상으로부터 생성한 각 프레임당 각 픽셀에 대한 깊이 값들의 예를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따라 하나의 프레임당 픽셀의 깊이값이 차지하는 분포도를 나타내는 히스토그램의 한 예를 도시한 도면이다.
도 7은 본 발명의 실시예에 따라 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값으로 나타낸 예를 도시한 도면이다.
도 8은 본 발명의 실시예에 따라 산출된 입체값을 기준으로 3차원 입체영상의 하나의 프레임에 대한 입체감이 좋은 예와 나쁜 예를 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 안정성 분석부의 기능 블록을 개략적으로 나타낸 것이다.
도 10은 본 발명의 실시예에 따른 안정성 분석부의 안정성 분석 방법을 설명하기 위한 동작 흐름도이다.
도 11은 본 발명의 실시예에 따른 시차의 범위(Range)와 시차의 최대값(Max)을 설명하기 위한 도면이다.
도 12는 본 발명의 실시예에 따른 시차의 평균값과 스크린 사이의 거리를 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 시차의 분산(Spatial Complexity)을 설명하기 위한 도면이다.
도 14는 본 발명의 실시예에 따른 깊이 위치에 관한 계수 값을 산출하는 예를 설명하기 위한 도면이다.
도 15는 본 발명의 실시예에 따른 오류성 분석부의 기능 블록을 개략적으로 나타낸 것이다.
도 16은 본 발명의 실시예에 따른 오류성 분석부의 오류성 분석 방법을 설명하기 위한 동작 흐름도이다.
도 17은 본 발명의 실시예에 따른 2차원 영상에 대해 깊이 값을 이용하여 배경과 객체로 분리하는 예를 나타낸 도면이다.
도 18은 수동 변환 영상과 자동 변환 영상에 대해 깊이 값을 이용해 객체 부분과 배경 부분으로 분리한 예를 나타낸 도면이다.
도 19는 본 발명의 실시예에 따라 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하는 예를 나타낸 도면이다.
도 20은 본 발명의 실시예에 따라 객체가 배경으로 처리된 깊이 역전을 검지해 오류 계수값을 산출하는 예를 나타낸 도면이다.
도 21은 본 발명의 실시예에 따른 배경 부분에서 차영상의 값이 임계값보다 큼에 따라 깊이 역전으로 간주하여 오류를 검출하는 예를 나타낸 도면이다.
도 22는 본 발명의 실시예에 따라 각 시퀀스 이미지에 대한 입체감과 안정성 및 오류성에 대한 결과 값을 수치와 그래프 등으로 출력하는 예를 나타낸 도면이다.
1 is a block diagram schematically showing functional blocks of a device for analyzing the quality of a three-dimensional image according to an embodiment of the present invention.
2 is a flowchart illustrating a method for analyzing quality of a three-dimensional image according to an exemplary embodiment of the present invention.
3 is a control block diagram of a three-dimensional analysis unit according to an embodiment of the present invention.
4 is a flowchart illustrating a method of analyzing a three-dimensional effect of a three-dimensional analysis unit according to an exemplary embodiment of the present invention.
5 is a diagram illustrating an example of depth values for each pixel generated from a two-dimensional image according to an embodiment of the present invention.
FIG. 6 is a diagram showing an example of a histogram showing a distribution diagram of a depth value of a pixel per one frame according to an embodiment of the present invention.
FIG. 7 is a diagram showing an example in which the degree of similarity between a depth information histogram and a uniformity histogram is expressed in terms of a stereoscopic value according to an embodiment of the present invention.
8 is a diagram showing a good example and a bad example of a three-dimensional image of one frame of a three-dimensional image based on the three-dimensional value calculated according to the embodiment of the present invention.
FIG. 9 schematically shows a functional block of the stability analysis unit according to the embodiment of the present invention.
10 is a flowchart illustrating a stability analysis method of a stability analysis unit according to an embodiment of the present invention.
11 is a diagram for explaining a range of a parallax and a maximum value Max of a parallax according to an embodiment of the present invention.
12 is a view for explaining an average value of parallax and a distance between screens according to an embodiment of the present invention.
13 is a view for explaining the spatial complexity according to an embodiment of the present invention.
FIG. 14 is a diagram for explaining an example of calculating a coefficient value with respect to a depth position according to an embodiment of the present invention.
FIG. 15 is a schematic block diagram of the error analysis unit according to the embodiment of the present invention.
16 is a flowchart illustrating an error analysis method of the error analysis unit according to the embodiment of the present invention.
17 is a view illustrating an example of dividing a two-dimensional image into a background and an object using a depth value according to an embodiment of the present invention.
18 is a diagram showing an example in which an object part and a background part are separated using a depth value for a manual conversion image and an automatic conversion image.
19 is a diagram illustrating an example of using a difference image between a previous frame and a current frame of a two-dimensional image according to an embodiment of the present invention.
FIG. 20 is a diagram illustrating an example of calculating an error count value by detecting a depth inversion in which an object is processed as a background in accordance with an embodiment of the present invention.
FIG. 21 is a diagram illustrating an example of detecting an error by considering a depth inversion according to a value of a difference image in a background portion according to an exemplary embodiment of the present invention, which is greater than a threshold value.
FIG. 22 is a diagram illustrating an example of outputting a result of three-dimensional sense, stability, and erroneousness of each sequence image by numerical values, a graph, and the like according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치의 기능 블록을 개략적으로 나타낸 구성도이다.1 is a block diagram schematically showing functional blocks of a device for analyzing the quality of a three-dimensional image according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치(100)는, 입력부(110), 입체감 분석부(120), 안정성 분석부(130), 오류성 분석부(140), 분석 결과부(150) 및 출력부(160) 등을 포함한다.Referring to FIG. 1, an apparatus 100 for analyzing the quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention includes an input unit 110, a 3D effect analyzing unit 120, a stability analyzing unit 130, 140, an analysis result unit 150, an output unit 160, and the like.

입력부(110)는 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보 시퀀스 이미지를 입력한다. 이때, 한 폴더 내에 시퀀스 이미지의 파일명 끝에 "_001, _002, _003, …" 처럼 순차적인 번호가 붙여져 있을 때, 그 폴더 내의 이미지를 모두 불러와 입력한다.The input unit 110 inputs the original sequence image and the depth information sequence image for the two-dimensional image. At this time, when sequential numbers such as "_001, _002, _003, ..." are attached to the end of the file name of the sequence image in one folder, all the images in the folder are input and inputted.

입체감 분석부(120)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 정보에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 분석하여 입체값(QM Factor)을 생성한다. 이때, 입체값이 예를 들면 0.3 이하는 저급, 0.3 ~ 0.8 사이는 중급, 0.8 이상은 고급 입체감을 가지고 있다고 볼 수 있다.The stereoscopic analysis unit 120 extracts depth values for each pixel of each frame as shown in FIG. 5 from a depth map of the 2D image, and extracts depth gray for each extracted depth information for each frame. Depth histogram showing depth map distribution according to (depth gray) values, and the similarity between depth map histogram and uniform distribution histogram is calculated by Bhattacharyya Coefficient. ) To generate a QM factor. At this time, it is considered that the stereoscopic value is low, for example, lower than 0.3, intermediate between 0.3 and 0.8 and higher than 0.8.

안정성 분석부(130)는 2차원 영상에 대한 깊이 지도(depth map)를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다.The stability analyzer 130 generates parallax information using a depth map of a two-dimensional image, and uses the depth information and the parallax information to determine a range of parallax that affects the stability of the three- The maximum value of the absolute value of the parallax, the average value of the parallax and the average of the screen, the spatial complexity, the dispersion value of the screen and the square of the distance, (CF) values are obtained by linear combination by obtaining seven factors such as a temporal complexity and a mean of a square of difference in time difference.

오류성 분석부(140)는 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전(Depth map reverse)의 오류를 검출한다.The error analysis unit 140 divides the depth information of each frame into a background portion and an object portion using a depth value thereof and processes the object based on the threshold value Or an error in the depth map reverse processing that treats the background as an object.

분석 결과부(150)는 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성 등의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 1(나쁨) 부터 5(좋음)까지 총 평가 점수를 산출해 디스플레이 하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공한다. 즉, 분석 결과부(150)는 최종적인 품질 결과값에 대해 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력한다.The analysis result unit 150 gives a weight and a constant for each coefficient value such as stereoscopic feeling, stability, and error for each sequence image when converting a 2D image into a 3D stereoscopic image, thereby giving 1 (bad) The total evaluation score is calculated and displayed from 5 to (good), and the total evaluation score for each sequence image is provided as a list according to the ranking. That is, the analysis result unit 150 calculates a linear combination of the three-dimensional feeling and the stability according to the following Equation 1 with respect to the final quality result value, and outputs the total evaluation score QM.

Figure pat00009
Figure pat00009

여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타낸다. 또한,

Figure pat00010
는 가중치(coefficient)를 나타내는 것으로 3D 영상의 입체값에 대한 계수값과 3D 영상의 안정성에 대한 계수값을 나타내며 수학식12 내지 수학식14와 같은 방식으로 얻을 수 있고,
Figure pat00011
는 상수(costant)를 나타내는 것으로 최종 결과로 총 평가 점수가 0 ~ 5점 사이가 나올 수 있도록 일정 값을 더하여 값을 조정하기 위해 정한 값을 나타낸다. 이때, 입체값의 경우 시차(parallax)를 증가시키다 보면 입체감이 더 이상 좋아지지 않는 지점이 발생하므로, 분석 결과부(150)는 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하게 된다.Here, QM represents a total total evaluation score of the 3D image, DF represents a stereoscopic value of the 3D image, and CF represents a stability coefficient value of the 3D image. Also,
Figure pat00010
Represents a coefficient value for the 3D image and a coefficient value for the stability of the 3D image, and can be obtained in the manner of Equations (12) to (14)
Figure pat00011
Represents a constant, and the final value indicates a value determined to adjust the value by adding a certain value so that the total evaluation score is between 0 and 5 points. In this case, when the parallax is increased, the point where the cubic effect does not improve any more occurs. Therefore, the analysis result unit 150 calculates the histogram stereo value and the parallax (for example, parallax multiplied by the logarithmic function.

Figure pat00012
Figure pat00012

출력부(160)는 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프 등으로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트 등을 화면 상에 출력한다. 이때, 출력부(160)는 시퀀스 이미지에 대한 각각의 점수를 Polar Graph로 나타내어 각각의 프레임에 대한 점수를 사용자가 한 눈에 식별할 수 있도록 한다.The output unit 160 outputs coefficient values related to stereoscopic feeling, stability, and error for each sequence image on the screen as numerical values and graphs, and lists the total evaluation scores for each sequence image and the rank of each total evaluation score. And so on. At this time, the output unit 160 displays each score of the sequence image with a Polar Graph, so that the user can identify the score for each frame at a glance.

도 2는 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 설명하기 위한 전체적인 동작 흐름도이다.2 is a flowchart illustrating a method for analyzing quality of a three-dimensional image according to an exemplary embodiment of the present invention.

도 2를 참조하면, 3차원 입체영상의 품질 분석 장치(100)는, 먼저 입력부(110)를 통해 원본 시퀀스 이미지(Raw sequence image)와 깊이지도 시퀀스 이미지(depth map sequence image)를 입력받는다(S210).Referring to FIG. 2, the apparatus 100 for analyzing the quality of a 3D stereoscopic image first receives a raw sequence image and a depth map sequence image through an input unit 110 (S210 ).

이에, 입체감 분석부(120)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 정보에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 분석하여 입체값(QM Factor)을 생성한다(S220).Accordingly, the 3D analysis unit 120 extracts depth values for each pixel of each frame as shown in FIG. 5 from a depth map of the 2D image, and extracts depth information for each extracted frame. Create a depth information histogram that shows the depth map distribution according to the depth gray value, and calculate the similarity between the depth map histogram and the uniform distribution histogram. Analyze using Bhattacharyya Coefficient to generate a stereoscopic value (QM Factor) (S220).

또한, 안정성 분석부(130)는 2차원 영상에 대한 깊이 지도(depth map)를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다(S230).In addition, the stability analysis unit 130 generates parallax information using a depth map of a two-dimensional image, and uses the depth information and the parallax information to calculate parallax information that affects the stability of the three- The maximum value of the absolute value of the parallax, the average value of the parallax and the distance between the screens, the spatial complexity, the depth value of the screen and the square of the distance, The final stability coefficient CF is generated by a linear combination of seven factors such as the temporal complexity of the time difference and the mean of the squared difference of the time difference S230.

즉, 안전성 분석부(130)는 사용자가 안정성에 대한 버튼을 클릭하면, 안정성 내 계수(Factor)들에 대한 프레임들의 평균 결과값의 WeightSum을 계산하여 출력하고, 각 프레임마다의 결과 값은 텍스트 파일로 저장하여 각 프레임에 대한 결과 값도 볼 수 있도록 한다.That is, when the user clicks the button for stability, the safety analysis unit 130 calculates and outputs WeightSum of the average result value of the frames with respect to the intra-stability factors, and the resultant value for each frame is stored in a text file So that the result values for each frame can be viewed.

또한, 오류성 분석부(140)는 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전(Depth map reverse)에 대한 오류값을 생성한다(S240).The error analysis unit 140 divides the depth information of each frame into a background portion and an object portion by using the depth value thereof, Or an error value for a depth reversal process for processing a background as an object (S240).

즉, 오류성 분석부(140)는 깊이 역전을 검출하였을 때 썸네일(sumnail) 이미지로 역전된 깊이 지도를 출력하고, 오류가 있을 경우 사용자로 하여금 UI(User Interface)를 통해 해당 프레임을 선택하여 그 결과값만 제외할 수 있도록 하며, 역전된 부분은 어느 위치에 얼마만큼의 영역이 역전되었는지 8*8 픽셀 단위의 흰색 블록으로 표시한다. 이때, 하나의 프레임에서 전체 블록수 대비 흰색 블록의 비율을 점수화하여 오류값으로 생성하고, 하나의 프레임에 15 블록 이상의 역전 현상이 존재할 때 해당 프레임 영상의 이상을 표시하며, 각 프레임에 임계값 이상의 역전 현상이 일어난 프레임을 오류 프레임으로 표시할 수 있다.That is, when the depth reversal is detected, the error analysis unit 140 outputs a reversed depth map as a thumbnail image, and when there is an error, the user selects a corresponding frame through a UI (User Interface) The result can be excluded, and the inverted part is indicated by a white block of 8 * 8 pixel units in which position the area is inverted. In this case, the ratio of white blocks to the total number of blocks in one frame is scored to generate an error value. When there is an inversion phenomenon of 15 or more blocks in one frame, an abnormality of the corresponding frame image is displayed. It is possible to display a frame in which an inversion phenomenon occurs as an error frame.

이어, 분석 결과부(150)는 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성에 대한 값에 각각의 가중치와 상수(Constant)를 주어 1(나쁨) 부터 5(좋음)까지 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공한다(S250).Subsequently, the analysis result unit 150 calculates a total evaluation score from 1 (bad) to 5 (good) by giving weights and constants to respective values of stereoscopic sense, stability, and error for each sequence image. The total evaluation score for each sequence image is provided as a list according to a ranking (S250).

즉, 분석 결과부(150)는 도 22에 도시된 바와 같이 각 시퀀스 이미지에 대한 입체감과 안정성 및 오류성에 대한 결과 값을 수치와 그래프 등으로 출력하고, 원본 시퀀스 이미지와 Depth 시퀀스 이미지를 썸네일로 출력하며, 입체감과 오류성에 대한 결과 썸네일을 출력한다.That is, as shown in FIG. 22, the analysis result unit 150 outputs the result values of the stereoscopic sense, stability, and error of each sequence image as a numerical value and a graph, and outputs the original sequence image and the depth sequence image as thumbnails. And outputs the resulting thumbnails for the three-dimensional and error.

따라서, 사용자는 원본 시퀀스 이미지에 대해서 입체감과 안정성, 오류성에 대해 각각의 값을 확인할 수 있고, 전체적인 품질에 관한 총 평가 점수를 확인할 수 있다.Accordingly, the user can confirm the respective values of the three-dimensional sense, the stability, and the erroneousness with respect to the original sequence image, and the total evaluation score regarding the overall quality can be confirmed.

[ 입체감 분석부의 상세 구성 및 동작 ][Detailed Configuration and Operation of the Stereoscopic Analysis Unit]

도 3은 본 발명의 실시예에 따른 입체감 분석부의 제어 블록도이다. 3 is a control block diagram of a three-dimensional analysis unit according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 입체감 분석부(120)는, 히스토그램(histogram) 생성부(310), 입체값 산출부(320), 입체값 저장부(330)를 포함한다. 3, the stereoscopic analysis unit 120 of the present invention includes a histogram generator 310, a stereoscopic value calculator 320, and a stereoscopic value storage unit 330. [

여기서, 2차원 영상에 대한 각 프레임당 깊이 정보는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하여 얻은 것이다. 깊이 지도는 2차원 영상에 대한 프레임당 각 픽셀의 깊이값(depth value)들을 저장한 데이터 구조이다. 도 5는 본 발명의 실시예에 따라 2차원 영상으로부터 생성한 각 프레임당 각 픽셀에 대한 깊이 값들의 예를 나타낸 도면이다. 도 5에 도시된 바와 같이, 입체감 분석부(120)는 깊이지도로부터 (가)와 같이 프레임당 각 픽셀에 대한 깊이값들을 추출하고, 추출한 각 픽셀에 대한 깊이값들을 (나)와 같이 각 프레임별로 구분하여 임시로 저장한다. 이때, 입체감 분석부(120)는 생성한 깊이정보를 임시로 저장하기 위한 저장 기능을 갖는다.Here, the depth information per frame for a two-dimensional image is obtained by extracting depth values for each pixel per each frame as shown in FIG. 5 from a depth map for a two-dimensional image. The depth map is a data structure storing depth values of each pixel per frame for a two-dimensional image. 5 is a diagram illustrating an example of depth values for each pixel generated from a two-dimensional image according to an embodiment of the present invention. 5, the three-dimensional analysis unit 120 extracts depth values for each pixel per frame as in (a) from the depth map, and calculates depth values of the extracted pixels as shown in (b) And stores them temporarily. At this time, the three-dimensional analysis unit 120 has a storage function for temporarily storing the generated depth information.

히스토그램 생성부(310)는 추출된 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성한다. 즉, 히스토그램 생성부(120)는 도 6에 도시된 바와 같이 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하여 가로축으로 하고, 하나의 프레임에서 각 깊이 값이 얼마나 분포되어 있는지를 나타내는 분포도를 세로축으로 하는 히스토그램을 생성하는 것이다. 도 6은 본 발명의 실시예에 따라 하나의 프레임당 픽셀의 깊이값이 차지하는 분포도를 나타내는 히스토그램의 한 예를 도시한 도면이다.The histogram generator 310 generates a depth information histogram representing a depth map distribution map corresponding to depth gray values for each extracted depth information per frame. That is, as shown in FIG. 6, the histogram generator 120 converts the depth values of each pixel per frame into depth gray values of 0 to 255 values to make the horizontal axis, And a histogram showing the vertical distribution of the distribution charts. FIG. 6 is a diagram showing an example of a histogram showing a distribution diagram of a depth value of a pixel per one frame according to an embodiment of the present invention.

입체값 산출부(320)는 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 산출하여 입체값(DF)으로 출력한다. 여기서, 균등 분포 히스토그램은 입체감이 높게 나타나도록 깊이지도의 깊이 값이 다양하게 분포된 이상적인 깊이 정보 히스토그램을 의미한다. 따라서, 본 발명의 입체감 분석부(120)는 모든 각 프레임당 픽셀의 깊이 정보 히스토그램과 비교하기 위한 기준이 되는 균등 분포 히스토그램을 저장하고 있다.The stereo value calculator 320 calculates the similarity between the depth map histogram and the uniform distribution histogram using the Bhattacharyya coefficient and outputs the stereo value DF. Here, the uniform distribution histogram means an ideal depth information histogram in which the depth value of the depth map is widely distributed so that the three-dimensional feeling is high. Accordingly, the three-dimensional analysis unit 120 of the present invention stores a uniform distribution histogram serving as a reference for comparison with the depth information histogram of pixels per each frame.

즉, 입체값 산출부(320)는 깊이 정보 히스토그램과 균등 분포 히스토그램 값들의 총합이 각각 1이 되도록 픽셀의 개수로 나누어 정규화(Normalization)하고, 바타차리야 계수를 이용하여 다음 수학식3에 따라 깊이 정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값(DFHistogram)으로 산출하는 것이다.That is, the stereoscopic calculator 320 normalizes the number of pixels so that the sum of the depth information histogram and the equal distribution histogram values is 1, and normalizes them. The similarity between the information histogram and the uniform distribution histogram is calculated as a three-dimensional value (DF Histogram ).

Figure pat00013
Figure pat00013

수학식3에서,

Figure pat00014
는 정규화 된(Normalized) 깊이 정보 히스토그램의 i번째 인덱스(index)의 값이고,
Figure pat00015
는 정규화 된 균등분포 히스토그램의 i번째 인덱스(index)의 값을 나타낸다.In Equation (3)
Figure pat00014
Is the value of the i-th index (index) of the normalized depth information histogram,
Figure pat00015
Represents the value of the i-th index (index) of the normalized uniform distribution histogram.

여기서, 바타차리야 계수는 이전 프레임과 현재 프레임을 비교하여 두 프레임 간의 색상의 유사성을 찾아내어 최대로 유사한 픽셀들을 이전 프레임과 동일한 픽셀들로 인식하여 추적하는 것으로, -1에서 1까지의 값을 가지며, 1에 가까울수록 두 프레임 간 높은 상호 연관성을 갖고, -1에 가까울수록 연관성이 적다. 즉, 입체값이 1에 가까울수록 서로 유사하고, -1에 가까울수록 서로 다르다는 것이다.Here, the Bartaglia coefficient compares the previous frame with the current frame, finds the similarity of colors between the two frames, identifies the maximum number of similar pixels as the same as the previous frame, and tracks the values from -1 to 1 The closer to 1, the higher the correlation between the two frames, the closer to -1, the less relevant. That is, the closer to 1 the values are similar to each other, and the closer to -1 the differences are.

도 4는 본 발명의 실시예에 따른 입체감 분석부의 입체감 분석 방법을 설명하기 위한 동작 흐름도이다.4 is a flowchart illustrating a method of analyzing a three-dimensional effect of a three-dimensional analysis unit according to an exemplary embodiment of the present invention.

먼저, 본 발명의 실시예에 따른 입체감 분석부(120)는 입력부(110)를 통해 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S410).First, the 3D effect analyzing unit 120 receives depth information per frame for a 2D image through the input unit 110 (S410).

이때, 입체감 분석부(120)는 2차원 영상의 깊이지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 임시로 저장한다.At this time, the three-dimensional analysis unit 120 extracts depth values for each pixel per frame as shown in FIG. 5 from a depth map of the two-dimensional image, and extracts depth values of the extracted pixels for each frame And store them temporarily.

이어, 입체감 분석부(120)는 입력부(110)를 통해 입력받은 각 프레임당 깊이 정보에 대해, 히스토그램 생성부(310)를 통해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성한다(S420).Next, the depth-of-field analyzing unit 120 obtains a depth map distribution map corresponding to the depth gray value through the histogram generating unit 310 with respect to the depth information per frame input through the input unit 110 A depth information histogram is generated (S420).

즉, 히스토그램 생성부(310)는 도 6에 도시된 바와 같이 프레임당 각 픽셀의 깊이 값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하여 가로축으로 하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값이 얼마나 분포되어 있는지를 나타내는 분포도를 세로축으로 하는 깊이 정보 히스토그램을 생성하는 것이다.That is, as shown in FIG. 6, the histogram generator 310 converts the depth values of each pixel per frame into depth gray values of 0 to 255 values to make the horizontal axis, A depth information histogram is generated in which the vertical axis represents a distribution diagram indicating how deep gray values are distributed.

이어, 입체감 분석부(120)는 입체값 산출부(320)를 통해 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(QM Factor)으로 산출한다(S430).Subsequently, the stereoscopic analysis unit 120 determines the similarity between the depth map histogram and the uniform distribution histogram through the stereoscopic value calculation unit 320 by using the Bhattacharyya Coefficient. It calculates it as a value (QM Factor) (S430).

이때, 입체값 산출부(320)는 깊이정보 히스토그램과 균등분포 히스토그램 값들의 총합이 각각 1이 되도록 픽셀의 개수로 나누어 정규화(Normalization)하고, 바타차리야 계수를 이용하여 수학식1과 같이 정규화 한 깊이정보 히스토그램의 각 인덱스 값과 정규화 한 균등분포 히스토그램의 각 인덱스 값을 곱하여 루트를 취한 값들을 모두 합하여, 도 7에 도시된 바와 같이 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값(DFHistogram)으로 산출하는 것이다. 도 7은 본 발명의 실시예에 따라 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값으로 나타낸 예를 도시한 도면이다.At this time, the three-dimensional value calculation unit 320 is normalized by the number of pixels so that the sum of the depth information histogram and the equal distribution histogram value is 1, respectively, and normalized as shown in Equation 1 by using the Batcharya coefficient. By multiplying each index value of the depth information histogram by each index value of the normalized uniform distribution histogram and adding the roots together, the similarity of the depth information histogram and the uniform distribution histogram is shown as a stereoscopic value (DF Histogram ). To calculate. FIG. 7 is a diagram showing an example in which the degree of similarity between a depth information histogram and a uniformity histogram is expressed in terms of a stereoscopic value according to an embodiment of the present invention.

즉, 입체값 산출부(320)는 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화한다. 여기서, 전체 픽셀(Total)은 예를 들면, 1920*1080의 Full HD이면 2,073,600 픽셀이라 할 수 있다. 깊이정보 히스토그램의 i번째 값의 정규화(x[i])는 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출할 수 있다.That is, the stereo value calculating unit 320 normalizes the frequency of the depth map histogram by dividing the frequency of the depth map histogram by the number of all the pixels. Here, the total pixel is, for example, 2,073,600 pixels in the case of Full HD of 1920 * 1080. The normalization (x [i]) of the i-th value of the depth information histogram can be calculated by dividing the i-th value of the depth information histogram by the whole pixel value according to the following equation (4).

Figure pat00016
Figure pat00016

따라서, 정규화 한 깊이정보 히스토그램 값의 i번째부터 255까지의 합은 1이라 할 수 있으며, 0부터 255까지의 깊이 그레이(depth gray) 값에 대해, 정규화 된(Normalized) 깊이정보 히스토그램의 1번째 인덱스(index)의 값(x1)과 정규화 된 균등분포 히스토그램의 1번째 인덱스(index)의 값(y1)을 곱하여 루트를 취한 값과, 정규화 된 깊이정보 히스토그램의 2번째 인덱스(index)의 값(x2)과 정규화 된 균등분포 히스토그램의 2번째 인덱스(index)의 값(y2)을 곱하여 루트를 취한 값, 동일한 과정으로 정규화 된 깊이정보 히스토그램의 256번째 인덱스(index)의 값(x256)과 정규화 된 균등분포 히스토그램의 256번째 인덱스(index)의 값(y256)을 곱하여 루트를 취한 값을 모두 합하여 입체값(DFHistogram)을 산출하게 되는 것이다.Therefore, the sum from i th to 255 of the normalized depth histogram value is 1, and the first index of the normalized depth histogram for the depth gray value from 0 to 255. The rooted value is multiplied by the value of (index) (x1) and the value of the first index (y1) of the normalized uniform distribution histogram, and the value of the second index (x2) of the normalized depth information histogram (x2). ) Is multiplied by the value of the second index (y2) of the normalized uniform distribution histogram, and the root is obtained, and the value of the 256th index (x256) of the depth histogram normalized by the same process (x256) By multiplying the value of the 256th index (y256) of the distribution histogram, the root values are summed to calculate the stereoscopic value (DF Histogram ).

그리고, 입체감 분석부(120)는 입체값 산출부(320)를 통해 산출된 각 프레임당 입체값을 도 8에 도시된 바와 같이 화면 상에 디스플레이하거나, 이후에 사용하기 위해 입체값 저장부(330)에 저장한다(S440).The stereoscopic analysis unit 120 displays the stereoscopic values for each frame calculated through the stereoscopic value calculator 320 on the screen as shown in FIG. 8, or displays the stereoscopic values for each frame in the stereoscopic value storage unit 330 (S440).

즉, 입체값 산출부(320)는 수학식1과 같이 산출한 각 프레임당 입체값을 해당 프레임 및 히스토그램과 함께 화면 상에 출력함으로써, 사용자가 도 8에 도시된 바와 같이 입체감이 좋은 예와 입체감이 나쁜 예로 구분할 수 있다. 도 8은 본 발명의 실시예에 따라 산출된 입체값을 기준으로 3차원 입체영상의 하나의 프레임에 대한 입체감이 좋은 예와 나쁜 예를 나타낸 도면이다.That is, the stereoscopic value calculator 320 outputs the stereoscopic values per frame calculated as shown in Equation (1) together with the corresponding frames and the histogram on the screen. As a result, as shown in FIG. 8, This is a bad example. 8 is a diagram showing a good example and a bad example of a three-dimensional image of one frame of a three-dimensional image based on the three-dimensional value calculated according to the embodiment of the present invention.

따라서, 본 발명의 실시예에 따른 입체감 분석부(120)에 의하면, 3D 입체영상이 얼마나 좋은 입체감을 가지고 있는지를 수치로써 확인할 수 있다.Therefore, according to the three-dimensional analysis unit 120 according to the embodiment of the present invention, it is possible to confirm by numerical values how good the 3D stereoscopic effect is.

[ 안정성 분석부의 상세 구성과 동작 ][Detailed Configuration and Operation of Stability Analysis Section]

도 9는 본 발명의 실시예에 따른 안정성 분석부의 기능 블록을 개략적으로 나타낸 것이다.FIG. 9 schematically shows a functional block of the stability analysis unit according to the embodiment of the present invention.

안정성 분석부(130)는 입력부(110)를 통해 원본 시퀀스 이미지와 깊이지도 시퀀스 이미지를 입력받으면, 입력된 깊이지도 시퀀스 이미지를 깊이정보 저장부(910)에 저장한다. Upon receiving the original sequence image and the depth map sequence image through the input unit 110, the stability analysis unit 130 stores the input depth map sequence image in the depth information storage unit 910.

즉, 깊이정보 저장부(910)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 (가)와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 (나)와 같이 각 프레임별로 구분하여 저장하는 기능을 갖는다.That is, the depth information storage unit 910 extracts depth values for each pixel per frame as shown in (A) of FIG. 5 from a depth map of the two-dimensional image, And stores the values separately for each frame as in (b).

이어, 시차정보 생성부(920)는 이렇게 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성한다. 사람은 2 개의 눈을 통해 사물의 입체감이나 거리감을 인지한다. 하나의 사물을 볼 때, 2 개의 눈을 통해 각각 다른 영상이 생성되고 이러한 영상을 적절히 합성함으로써 사람은 사물의 입체감이나 거리감을 인지하게 된다. 따라서, 3차원 입체영상은 이러한 사람의 인지 특성을 고려하여 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성하게 된다. 이러한 눈의 시각적 차이가 바로 시차이며, 깊이 지도를 이용하여 시차를 생성한다. Then, the parallax information generating unit 920 generates parallax information using the generated depth map. A person recognizes the sense of depth and distance of objects through two eyes. When one object is viewed, different images are generated through two eyes, and by combining these images appropriately, one recognizes the sense of depth and distance of objects. Accordingly, the three-dimensional stereoscopic image generates two images considering the visual difference of the left and right eyes from one two-dimensional image in consideration of the person's cognitive characteristics. The visual difference of these eyes is the parallax, and the parallax is generated using the depth map.

이어, 안정성 산출부(930)는 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다.The stability calculator 930 calculates the stability of the three-dimensional image using the depth information and the parallax information. The stability calculator 930 calculates the stability of the three-dimensional image using the range of the parallax, the maximum value of the absolute value of the parallax, There are seven factors such as Average, Spatial Complexity, Depth Position of screen and square of distance, Temporal Complexity, Scene Movement of difference of squared difference. ) Is calculated and a final stability coefficient (CF) value is generated by a linear combination.

도 10은 본 발명의 실시예에 따른 안정성 분석부의 안정성 분석 방법을 설명하기 위한 동작 흐름도이다.10 is a flowchart illustrating a stability analysis method of a stability analysis unit according to an embodiment of the present invention.

먼저, 본 발명의 실시예에 따른 안정성 분석부(130)는 입력부(110)를 통해 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S1010).First, the stability analysis unit 130 according to the embodiment of the present invention receives depth information per frame for a two-dimensional image through the input unit 110 (S1010).

이때, 안정성 분석부(130)는 2차원 영상의 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장한다.At this time, the stability analysis unit 130 extracts depth values for each pixel per frame as shown in FIG. 5 from a depth map of the two-dimensional image, and calculates depth values of the extracted pixels by each frame Respectively.

이어, 안정성 분석부(130)는 각 프레임당 깊이 지도를 이용하여 시차정보 생성부(920)를 통해 시차(parallax) 정보를 생성한다(S1020).Next, the stability analysis unit 130 generates parallax information through the parallax information generation unit 920 using a depth map for each frame (S1020).

즉, 시차정보 생성부(920)는 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성할 때 이용하는 눈의 시각적 차이에 관한 시차 정보를 생성하는 것이다.That is, the parallax information generating unit 920 generates parallax information on the visual difference of eyes used when two images considering the visual difference of the left and right eyes are generated from one two-dimensional image.

이어, 안정성 분석부(130)는 깊이 정보와 시차 정보를 이용해 안정성 산출부(930)를 통해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수(Factor)값을 산출한다(S1030).The stability analyzer 130 then uses the depth information and the parallax information to calculate the range of the parallax through the stability calculator 930, the maximum value Max of the parallax absolute value, the distance between the average value of the parallaxes and the screen Average Factor, Spatial Complexity, Depth Position of Screen and Distance Squares, Temporal Complexity, 7 Factors on Scene Movement of Difference, (S1030).

즉, 안정성 산출부(930)는 첫번째 계수 값으로 다음 수학식5에 따라 시차의 범위(Range)에 관한 계수 값(CFRange)을 산출한다.That is, the stability calculation unit 930 calculates a coefficient value (CF Range ) with respect to a range of a time difference according to the following equation (5) as the first coefficient value.

Figure pat00017
Figure pat00017

여기서, 시차의 범위(Range)는 도 11에 도시된 바와 같이 각 프레임(frame) 별 깊이 지도(depth map)의 스크린(Screen)을 기준으로 디스패러티(disparity)의 값이 앞쪽으로 가장 많이 나온 값을 max(스크린 값을 0이라 할 때 disparity 값이 마이너스(-) 값 중 가장 큰 값), 뒤쪽으로 가장 많이 들어간 값을 min(disparity값이 플러스(+) 값으로 가장 큰 값)으로 한다. Range 값이 클수록 시차 폭이 크므로 안정성에 영향을 미칠 수 있다.Here, the range of the disparity is a value obtained by dividing the value of the disparity (the disparity value) from the screen (Screen) of the depth map for each frame by the value (The disparity value is the largest value of minus (-) when the screen value is 0), and min (the disparity value is the largest value of plus value) that is the most value behind. The larger the range value, the greater the parallax width, which may affect the stability.

또한, disp(x,y)는 원 영상의 x,y 좌표값이 좌영상에서 얼마만큼 이동했는가에 대한 값으로, 깊이정보(depth map)의 x,y 좌표의 gray 값을 256(총 depth의 gray level 값)에서 뺀 값(256-depthmap(x,y좌표 gray값)에 스크린 면의 gray 값을 뺀 값[(256-depthmap(x,y좌표 gray값))-Screen면의 gray 값]이 그 정보가 된다. 즉 스크린 면을 기준으로 얼마만큼 좌, 우 영상의 차가 존재하는가에 대한 정보이다. 도 11은 본 발명의 실시예에 따른 시차의 범위(Range)와 시차의 최대값(Max)을 설명하기 위한 도면이다.Disp (x, y) is a value indicating how much the x and y coordinate values of the original image have moved in the left image, and the gray value of the x and y coordinates of the depth map is 256 (256-depthmap (x, y coordinate gray value)) - The gray value of the screen face] is obtained by subtracting the gray value of the screen face from the 256-depthmap (x, y coordinate gray value) The range of the parallax according to the embodiment of the present invention and the maximum value Max of the parallax according to the embodiment of the present invention, Fig.

또한, 안정성 측정부(150)는 두번째 계수 값으로 다음 수학식6에 따라 시차 절대값의 최대값(Max)에 관한 계수 값(CFMax)을 산출한다.In addition, the stability measuring unit 150 calculates the coefficient value CF Max with respect to the maximum value Max of the absolute value of the parallax according to the following equation (6) as the second coefficient value.

Figure pat00018
Figure pat00018

여기서, 최대값(MAX)은 도 11에 도시된 바와 같이 각 frame 별 depth map에서 스크린(Screen)을 기준으로 disparity의 값이 앞쪽으로 가장 많이 나온 값(disp(x,y)값 즉 마이너스(-) 값을 가지므로 절대값을 적용함) 중 가장 큰 값을 나타낸다. MAX 값이 클수록 스크린보다 앞으로 많이 영상이 나와 보이므로 안정성에 영향을 줄 수 있다.11, the maximum value (MAX) is a value (disp (x, y), that is, minus (-)) values in which the value of disparity is most advanced forward from the screen (screen) ) Value and therefore the absolute value is applied). The larger the value of MAX, the more image is displayed than the screen, which may affect the stability.

또한, 안정성 산출부(930)는 세번째 계수 값으로 다음 수학식7에 따라 도 12에 도시된 바와 같이 시차의 평균값과 스크린 사이의 거리(Average)에 관한 계수 값(CFaverage)을 산출한다. In addition, the stability calculator 930 calculates a coefficient average (CF average ) about the average value of the parallax and the distance (Average) between the screens as shown in FIG. 12 according to the following equation (7) with the third coefficient value.

Figure pat00019
Figure pat00019

여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서의 차가 없기 때문에 제로(0)이다.Here, disp display represents the disparity (disp.) Value on the screen, which is zero because there is no difference on the screen.

이때, 도 12는 본 발명의 실시예에 따른 시차의 평균값과 스크린 사이의 거리를 설명하기 위한 도면이다. 도 12에 도시된 바와 같이 Average 값이 클수록 스크린 면에서 멀어지므로 안정성에 영향을 줄 수 있다. 또한, 절대값을 뺄 경우 Average 값이 마이너스(-) 값이 될 경우 스크린 면보다 앞으로 튀어나오는 영역이 많다는 것으로 안정성에 좋지 않은 영향을 미친다. 여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서 차가 없기 때문에 제로(0)이다.12 is a view for explaining an average value of parallax and a distance between screens according to an embodiment of the present invention. As shown in FIG. 12, the larger the Average value, the farther from the screen surface, the stability may be affected. Also, if the absolute value is subtracted, if the average value is minus (-) value, there are a lot of areas that are protruding forward than the screen surface, which adversely affects stability. Here, disp display represents the disparity (disp.) Value on the screen, which is zero because there is no difference on the screen.

또한, 안정성 산출부(930)는 네번째 계수 값으로 다음 수학식8에 따라 도 13에 도시된 바와 같이 시차의 분산(Spatial Complexity)에 관한 계수 값(CFSpatialComplexity)을 산출한다.In addition, the stability calculator 930 calculates a coefficient value (CF SpatialComplexity ) related to the spatial complexity as shown in FIG. 13 according to the following equation (8) with the fourth coefficient value.

Figure pat00020
Figure pat00020

여기서, E(disp(x,y))는 (x,y) 좌표의 Average 면에서의 디스패러티(disp.) 값을 나타내며, 시차의 분산은 도 13에 도시된 바와 같이 Average 면에서의 분산값으로, 평균값 면(Average point)에서 조밀하게 분산되어 있을수록 같은 영상(Average 면에서 분산값이 큰 영상)보다 어지러움이 감소될 수 있다. 도 13은 본 발명의 실시예에 따른 시차의 분산(Spatial Complexity)을 설명하기 위한 도면이다. Here, E (disp (x, y)) represents the disparity (disp.) Value in the Average plane of the (x, y) coordinates, , And as the image is densely dispersed at the average point, the dizziness may be reduced as compared with the same image (the image having a large variance value in the average plane). 13 is a view for explaining the spatial complexity according to an embodiment of the present invention.

또한, 안정성 산출부(930)는 다섯번째 계수 값으로 다음 수학식9에 따라 도 14에 도시된 바와 같이 깊이 위치(Depth Point)에 관한 계수 값(CFDepthPosition)을 산출한다.In addition, the reliability calculation unit 930 calculates a coefficient (CF DepthPosition) on the depth position (Depth Point) as shown in Figure 14 in accordance with the following equation (9) in the fifth coefficient value.

Figure pat00021
Figure pat00021

여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서 차가 없기 때문에 제로(0)이다.Here, disp display represents the disparity (disp.) Value on the screen, which is zero because there is no difference on the screen.

즉, 깊이 위치(Depth Position)에 관한 계수 값(CFDepthPosition)은 도 14에 도시된 바와 같이 스크린으로부터 오브젝트 거리 제곱의 분산값이다. 도 14는 본 발명의 실시예에 따른 깊이 위치에 관한 계수 값을 산출하는 예를 설명하기 위한 도면이다.That is, the coefficient value (CF DepthPosition ) with respect to the depth position is a variance value of the object distance square from the screen as shown in Fig. FIG. 14 is a diagram for explaining an example of calculating a coefficient value with respect to a depth position according to an embodiment of the present invention.

또한, 안정성 산출부(930)는 여섯번째 계수 값으로 다음 수학식10에 따라 시차 차이의 분산(Temporal Complexity)에 관한 계수 값(CFTemporalComplexity)을 산출한다.In addition, the stability calculation unit 930 calculates a coefficient value (CF Temporal Complexity) related to the temporal complexity according to the following equation (10) as the sixth coefficient value.

Figure pat00022
Figure pat00022

여기서, dispi(x,y)는 현재 i 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내고, dispi - 1(x,y)는 이전 i-1 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내며, diff(x,y)는 현재 i 프레임의 시차 값과 이전 i-1 프레임의 시차 값과의 차이(diff.) 값을 나타내며, E(diff(x,y))는 스크린 면에서의 시차들의 차이(diff.) 값을 나타낸다.Here, disp i (x, y) represents the (x, y) Time (disp.) Value of the coordinates of the current i-th frame, disp i - 1 (x, y) are from the previous i-1 frame, (x (x, y) represents a difference value (diff) between a parallax value of a current i-th frame and a parallax value of a previous i-1 frame, and E (diff (x, y)) represents the difference (diff.) value of the parallaxes on the screen surface.

또한, 안정성 산출부(930)는 일곱번째 계수 값으로 다음 수학식11에 따라 시차 차이의 제곱의 평균(Scene Movement)에 관한 계수 값(CFSceneMovement)을 산출한다.In addition, the reliability calculation unit 930 calculates a coefficient of the mean (Scene Movement) of the square of the difference between differential (CF SceneMovement) according to the following Equation 11 as the seventh coefficient value.

Figure pat00023
Figure pat00023

여기서, dispi(x,y)는 현재 i 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내고, dispi - 1(x,y)는 이전 i-1 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내며, diff(x,y)는 현재 i 프레임의 시차 값과 이전 i-1 프레임의 시차 값과의 차이(diff.) 값을 나타낸다.Here, disp i (x, y) represents the (x, y) Time (disp.) Value of the coordinates of the current i-th frame, disp i - 1 (x, y) are from the previous i-1 frame, (x (x, y) represents the difference (diff) between the time difference of the current i-th frame and the time difference of the previous i-1 frame.

이어, 안정성 산출부(930)는 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF:Compatibility Factor)을 산출한다(S1040). Next, the stability calculator 930 calculates a final stability factor (CF) for one frame by performing linear combination according to the following equation (12) (S1040).

Figure pat00024
Figure pat00024

여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.Here, omega 1 to omega 7 represent weight values for seven respective coefficient values.

이때, 안정성 분석부(130)는 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출한다. 즉, 안정성 산출부(930)는 Least Mean Square 방법을 통해 주관적인 평가와 상관도가 높도록 선형조합의 가중치 계수(coefficient)를 결정한다. In this case, the stability analyzer 130 calculates seven coefficient values according to Equation 10 for each frame for all the frames in the same process of calculating the stability coefficient value CF for one frame, for all the frames. The total stability factor is obtained by arranging the seven coefficient values of each frame according to the following equation (13) (Total Compatibility Factor; T CF ). Calculate a weighting factor (X) value (ω1 to ω7) arranged with the weighting values for. That is, the stability calculation unit 930 determines the weighting coefficient of the linear combination so that the subjective evaluation and the degree of correlation are high through the Least Mean Square method.

Figure pat00025
Figure pat00025

Figure pat00026
Figure pat00026

여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.Here, X denotes a weight coefficient value composed of a 7x1 matrix, S denotes a matrix vector relating to Nx1 subjective evaluation, and N denotes the number of frames.

따라서, 본 발명의 실시예에 따른 안정성 분석부(130)에 의하면, 3D 입체영상이 얼마나 좋은 안정성(편안감)을 가지고 있는지를 수치로써 확인할 수 있다.Therefore, according to the stability analysis unit 130 according to the embodiment of the present invention, it is possible to confirm how good the stability of the 3D stereoscopic image is.

[ [ 오류성Errors 분석부의 상세 구성 및 동작 ] Detailed Configuration and Operation of Analysis Unit]

도 15는 본 발명의 실시예에 따른 오류성 분석부의 기능 블록을 개략적으로 나타낸 것이다.FIG. 15 is a schematic block diagram of the error analysis unit according to the embodiment of the present invention.

오류성 분석부(140)는 입력부(110)를 통해 원본 시퀀스 이미지와 깊이지도 시퀀스 이미지를 입력받으면, 입력된 깊이지도 시퀀스 이미지를 깊이정보 저장부(1510)에 저장한다. The error analysis unit 140 receives the original sequence image and the depth map sequence image through the input unit 110 and stores the input depth map sequence image in the depth information storage unit 1510. [

즉, 깊이정보 저장부(1510)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 (가)와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 (나)와 같이 각 프레임별로 구분하여 저장하는 것이다.That is, the depth information storage unit 1510 extracts depth values for each pixel per frame as shown in (a) of FIG. 5 from a depth map of the two-dimensional image, The values are stored separately for each frame as in (b).

이어, 시차정보 생성부(1520)는 이렇게 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성한다. 3차원 입체영상은 사람의 인지 특성을 고려하여 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성하게 된다. 이러한 눈의 시각적 차이가 바로 시차이며, 깊이 지도를 이용하여 시차를 생성한다. Next, the parallax information generating unit 1520 generates parallax information using the generated depth map. 3D stereoscopic images generate two images considering the visual difference of left and right eyes from one 2D image considering human cognitive characteristics. The visual difference of these eyes is the parallax, and the parallax is generated using the depth map.

오류성 산출부(1530)는 생성된 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나, 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성한다.The error calculator 1530 divides the generated depth information for each frame into a background portion and an object portion by using the depth value thereof, , Or generates an error count value for the depth inversion processing the background as an object.

이때, 오류성 산출부(1530)는, 깊이 정보에 대한 각각의 수평 라인(Horizontal Line)에서 객체의 깊이 값이 배경의 깊이 값보다 큰 것을 이용해 배경과 객체를 분리한다.At this time, the error calculator 1530 separates the background and the object by using the depth value of the object in each horizontal line for the depth information that is greater than the depth value of the background.

또한, 오류성 산출부(1530)는 깊이 정보에서 수평 라인(Horizontal Line)별로 예를 들면, 배경의 깊이 값을 임계값으로 설정하여, 수평 라인(Horizontal Line)별로 임계값보다 큰 것을 객체로 간주하여 배경과 객체를 분리할 수 있다.The error calculator 1530 sets the depth value of the background as a threshold value for each horizontal line in the depth information and regards an object larger than the threshold value per horizontal line as an object You can separate the background and the object.

또한, 오류성 산출부(1530)는 분리된 객체 부분 중 배경에 대한 깊이 값이 존재함에 따라 객체를 배경으로 처리하는 깊이 역전을 검지해 오류 계수값을 산출한다.In addition, the error calculator 1530 detects a depth inversion process for processing an object as a background in the presence of a depth value for a background among the separated object portions, thereby calculating an error count value.

또한, 오류성 산출부(1530)는 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출할 수 있다. 여기서, 깊이 이외의 정보는 2차원 영상의 차영상을 이용하는 것으로서, 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하는 것이다. 이는 카메라의 이동이 매우 동적이지 않는다고 가정하면, 배경 부분은 거의 변화가 없고 객체 부분만 변화가 있기 때문에, 배경 부분의 차 영상의 값은 작고, 객체 부분의 차 영상의 값은 상대적으로 큰 것을 이용하는 것이다. 따라서, 오류성 산출부(1530)는 배경 부분에서 차 영상의 값이 임계값보다 큰 부분이 존재하면 깊이 역전으로 간주하여 오류 계수값을 산출하게 된다.In addition, the error calculator 1530 can calculate the error count by detecting the depth inversion that processes the background as an object using information other than depth in the separated background portion. Here, the information other than the depth uses the difference image of the two-dimensional image. When the difference image of the difference image between the previous frame and the current frame of the two-dimensional image is used, if the difference image is smaller than the threshold value, If it is large, it is regarded as an object. Assuming that the movement of the camera is not very dynamic, since the background part has almost no change and only the object part changes, the value of the difference image of the background part is small and the value of the difference image of the object part is relatively large will be. Accordingly, the error calculator 1530 regards the difference image as a depth inversion if the difference image has a value larger than the threshold value in the background portion, and calculates the error coefficient value.

그리고, 오류성 산출부(1530)는 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하게 된다.The error calculator 1530 can detect an error using a motion vector with information other than depth. The error motion calculator 1530 sets a global motion vector for each block, A motion vector is calculated and an error coefficient value is calculated by considering the calculated motion vector value as an object when a difference of a predetermined difference with a background motion vector occurs.

도 16은 본 발명의 실시예에 따른 오류성 분석부의 오류성 분석 방법을 설명하기 위한 동작 흐름도이다.16 is a flowchart illustrating an error analysis method of the error analysis unit according to the embodiment of the present invention.

도 16을 참조하면, 본 발명의 실시예에 따른 오류성 분석부(140)는, 먼저, 입력부(110)를 통해 도 5에 도시된 바와 같이 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S1610).Referring to FIG. 16, the error analysis unit 140 according to the embodiment of the present invention first receives depth information per frame for a two-dimensional image through the input unit 110 as shown in FIG. 5 (S1610).

즉, 오류성 분석부(140)는 2차원 영상의 깊이지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 깊이정보 저장부(1510)에 저장한다. That is, the error-rate analyzing unit 140 extracts depth values for each pixel per frame as shown in FIG. 5 from a depth map of the two-dimensional image, And stores them in the depth information storage unit 1510. FIG.

이어, 오류성 분석부(140)는, 각 프레임당 깊이 정보에 대해, 오류성 산출부(1530)를 통해 깊이(depth) 값을 이용하여 도 17에 도시된 바와 같이 배경(background) 부분과 객체(object) 부분으로 분리한다(S1620). 도 17은 본 발명의 실시예에 따른 2차원 영상에 대해 깊이 값을 이용하여 배경과 객체로 분리하는 예를 나타낸 도면이다. 도 18은 수동 변환 영상과 자동 변환 영상에 대해 깊이 값을 이용해 객체 부분과 배경 부분으로 분리한 예를 보여준다.Then, the erroneous property analyzing unit 140 uses the depth value through the erroneousness calculating unit 1530 with respect to the depth information for each frame, as shown in FIG. 17, (S1620). < / RTI > 17 is a view illustrating an example of dividing a two-dimensional image into a background and an object using a depth value according to an embodiment of the present invention. FIG. 18 shows an example in which an object part and a background part are separated using a depth value for a manual conversion image and an automatic conversion image.

즉, 오류성 산출부(1530)는, 2차원 영상의 깊이 정보에 대한 각각의 수평 라인(Horizontal Line)에서 객체의 깊이 값이 배경의 깊이 값보다 큰 것을 이용해 배경과 객체를 분리하는 것이다.That is, the error calculator 1530 separates the background and the object by using the depth value of the object in each horizontal line for the depth information of the two-dimensional image larger than the depth value of the background.

또한, 오류성 산출부(1530)는, 깊이 정보에서 수평 라인(Horizontal Line)별로 임계값을 설정하고, 수평 라인(Horizontal Line)별 배경과 객체에 대한 깊이 값 중 임계값보다 큰 것을 객체로 간주하여 배경과 객체를 분리할 수 있다.In addition, the error calculator 1530 sets a threshold value for each horizontal line in the depth information and regards the depth value for the background and the object for each horizontal line as an object larger than the threshold value You can separate the background and the object.

또한, 오류성 산출부(1530)는, 깊이 이외의 정보로 도 19에 도시된 바와 같이 이전 영상(프레임)과 현재 영상(프레임)의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여, 배경이 객체로 처리되거나, 객체가 배경으로 처리된 오류를 검출할 수 있다. 도 19는 본 발명의 실시예에 따라 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하는 예를 나타낸 도면이다.If the value of the difference image is smaller than the threshold value by using difference information between the previous image (frame) and the current image (frame) as shown in Fig. 19 with information other than the depth, the error calculator 1530 If the threshold is greater than the threshold, it is regarded as an object, and the background can be treated as an object or the object can be detected as a background. 19 is a diagram illustrating an example of using a difference image between a previous frame and a current frame of a two-dimensional image according to an embodiment of the present invention.

이어, 오류성 분석부(140)는, 오류성 산출부(1530)를 통해 객체가 배경으로 처리되거나, 배경이 객체로 처리된 깊이 역전을 검지하여 오류 계수값을 산출한다(S1630).In step S1630, the error analysis unit 140 detects an inverse of the depth of the object processed by the background or processed by the object through the error calculator 1530, and calculates an error coefficient value.

즉, 오류성 산출부(1530)는, 분리된 객체 부분 중 배경에 대한 깊이 값이 존재함에 따라 도 20에 도시된 바와 같이 객체가 배경으로 처리된 깊이 역전(빨간 원 안쪽 부분)을 검지해 오류 계수값을 산출하게 된다. 도 20은 본 발명의 실시예에 따라 객체가 배경으로 처리된 깊이 역전을 검지해 오류 계수값을 산출하는 예를 나타낸 도면이다.That is, as the depth value for the background among the separated object parts exists, the error calculator 1530 detects the depth inversion (the inner part of the red circle) in which the object is processed as the background as shown in FIG. 20, The coefficient value is calculated. FIG. 20 is a diagram illustrating an example of calculating an error count value by detecting a depth inversion in which an object is processed as a background in accordance with an embodiment of the present invention.

또한, 오류성 분석부(140)는, 분리된 배경 부분에서 깊이 이외의 정보로 차 영상을 이용하여 배경이 객체로 처리된 오류를 검출할 수 있다. 즉, 오류성 분석부(140)는, 카메라 이동이 매우 동적이지 않다면 배경 부분은 거의 변화가 없고 객체 부분만 영상의 변화가 있으므로, 배경 부분의 차 영상의 값은 작고 객체(object) 부분의 값은 상대적으로 큰 것을 이용해 도 21에 도시된 바와 같이 배경 부분(검은색 부분)에서 차영상의 값이 임계값보다 큰 부분이 존재하면 깊이 역전으로 간주하여 오류를 검출하게 되는 것이다. 도 21은 본 발명의 실시예에 따른 배경 부분에서 차영상의 값이 임계값보다 큼에 따라 깊이 역전으로 간주하여 오류를 검출하는 예를 나타낸 도면이다.In addition, the error analysis unit 140 can detect an error in which the background is processed as an object by using the difference image as the information other than the depth in the separated background part. That is, if the camera movement is not very dynamic, the error analyzing unit 140 has almost no change in the background portion and only changes the image of the object portion, so that the difference image of the background portion is small and the value of the object portion As shown in FIG. 21, if there is a portion where the difference of the difference image is larger than the threshold value in the background portion (black portion), the error is regarded as the depth inversion and the error is detected. FIG. 21 is a diagram illustrating an example of detecting an error by considering a depth inversion according to a value of a difference image in a background portion according to an exemplary embodiment of the present invention, which is greater than a threshold value.

그리고, 오류성 분석부(140)는, 깊이 이외의 정보로 움직임 벡터를 이용하여 오류를 검출하게 되는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터가 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류를 검출하게 된다.The error analyzing unit 140 detects an error using a motion vector with information other than the depth. The error analyzing unit 140 sets a global motion vector in a unit of a block, And detects an error when the calculated motion vector is regarded as an object when a difference between the calculated motion vector and a motion vector of the background occurs.

이어, 오류성 분석부(140)는, 오류 검출을 화면 상에 디스플레이하거나 저장부 등에 저장한다(S1640).Then, the error analysis unit 140 displays the error detection on the screen or stores it in a storage unit or the like (S1640).

따라서, 본 발명의 실시예에 따른 오류성 분석부(140)에 의하면, 3D 입체영상의 품질을 가늠하는 한가지 요소인 오류성에 대한 품질을 객관적으로 평가함으로써 3D 입체영상의 퀄리티(Quality)를 확인할 수 있다.Therefore, according to the error analysis unit 140 according to the embodiment of the present invention, the quality of the 3D stereoscopic image can be confirmed by objectively evaluating the quality of the erroneousness, which is one factor of the quality of the 3D stereoscopic image have.

한편, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 실행하는 프로그램을 CD나 USB 매체 등 컴퓨터로 읽을 수 있는 매체에 기록할 수 있다.Meanwhile, a program for executing the method for analyzing the quality of three-dimensional stereoscopic image according to the embodiment of the present invention can be recorded on a computer-readable medium such as a CD or a USB medium.

본 발명의 실시예에 의하면, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 3차원 영상이 얼마나 좋은 입체감을 가지고 있는지에 관한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 깊이 정보에 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법을 실현할 수 있다.According to the embodiment of the present invention, by using the depth information (depth map) generated when converting a two-dimensional image into a three-dimensional image, the degree of a three-dimensional effect as to how good the three- And the seven factors that affect the stability of the 3D stereoscopic image are displayed to show how severe the visual fatigue is, and there is no error in processing the depth information by the object as the background or the background as the object Dimensional stereoscopic image quality analyzing apparatus and method capable of performing an objective quality evaluation on the 3D stereoscopic image.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

본 발명은 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 3차원 영상이 얼마나 좋은 입체감을 가지고 있는지에 관한 입체감의 정도를 수치로 표시하거나, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하거나, 깊이 정보에 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법에 이용할 수 있다.
The present invention uses a depth map generated when a two-dimensional image is converted into a three-dimensional image, and displays the degree of a three-dimensional effect as to how good the three-dimensional image has a three- Objective quality evaluation to determine how severe the visual fatigue is, or whether there is an error processing the object with the depth information or processing the background as the object, by obtaining the seven factor that affects the stability of the stereoscopic image Dimensional stereoscopic image quality analysis apparatus and method, which can perform the three-dimensional stereoscopic image.

100 : 3차원 입체영상의 품질분석장치 110 : 입력부
120 : 입체감 분석부 130 : 안정성 분석부
140 : 오류성 분석부 150 : 분석 결과부
160 : 출력부
100: apparatus for analyzing quality of three-dimensional stereoscopic image 110:
120: three-dimensional analysis unit 130: stability analysis unit
140: Error Analysis Unit 150: Analysis Result Unit
160: Output section

Claims (27)

2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 입력부;
상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 입체감 분석부;
상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 분석부;
상기 2차원 영상에 대한 깊이 정보를 이용하거나, 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 오류성 분석부;
상기 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공하는 분석 결과부; 및
상기 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트를 화면 상에 출력하는 출력부;
를 포함하는 3차원 입체영상의 품질 분석 장치.
An input unit for inputting an original sequence image and a depth map sequence image for a two-dimensional image;
Extracts depth values for each pixel for each frame from the depth information of the two-dimensional image, and generates a depth information histogram representing a depth map distribution map according to a depth gray value for each depth value per extracted frame A three-dimensional analysis unit for generating a three-dimensional (DF) value by analyzing the similarity of the depth information histogram and the uniformity histogram using a Batarya coefficient;
The parallax information is generated using the depth information of the two-dimensional image, and the parallax information is generated by using the depth information and the parallax information to calculate the parallax range, the maximum value of the parallax absolute value, The seven coefficients on the Scale Movement of the squares of the average of the disparity, the Spatial Complexity of the screen, the Depth Position of the screen and the square of the distance, the temporal complexity, A stability analyzer for obtaining a final stability factor (CF) value by linear combination;
An error analysis unit that detects an error of processing a background as an object or an error of processing an object as a background by using depth information of the 2D image or using information other than the depth information;
When converting the 2D image into a 3D stereoscopic image, the total evaluation score is calculated by giving weights and constants to the values of the stereoscopic sense, stability, and error of the sequence images for each sequence image. An analysis result unit having a total evaluation score and providing the list according to a ranking; And
Coefficient values for stereoscopic feeling, stability, and error are output on the screen as numerical values and graphs for each sequence image, and a list according to the total evaluation score and the ranking of each total evaluation score for each sequence image is output on the screen. An output unit;
Dimensional stereoscopic image.
제 1 항에 있어서,
상기 분석 결과부는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력하는 것을 특징으로 하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 1]
Figure pat00027

여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며,
Figure pat00028
는 가중치(coefficient)를 나타내며,
Figure pat00029
는 상수(costant)를 나타낸다.
The method of claim 1,
Wherein the analysis result section outputs a total evaluation score (QM) by calculating a linear combination of the three-dimensional sensation and the stability with respect to the total evaluation score according to the following equation (1) Stereoscopic image quality analyzer.
[Equation 1]
Figure pat00027

Here, QM represents the overall total evaluation score of the 3D image, DF represents the 3D value of the 3D image, CF represents the stability coefficient of the 3D image,
Figure pat00028
Represents a weight coefficient,
Figure pat00029
Denotes a cost.
제 2 항에 있어서,
상기 분석 결과부는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 2]
Figure pat00030
3. The method of claim 2,
Wherein the analysis result section determines a logarithmic function of the histogram stereo value and a parallax product according to the following equation (2) for the stereoscopic value DF.
&Quot; (2) "
Figure pat00030
제 1 항에 있어서,
상기 입체감 분석부는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 히스토그램 생성부; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 입체값 산출부를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
The method of claim 1,
The histogram analyzer may include: a histogram generator for generating a depth information histogram representing a depth map distribution map corresponding to a depth gray value with respect to depth information per frame; And a stereo value calculating unit for calculating a stereo value DF using the Battacharyya coefficient based on the similarity of the depth map histogram and the uniform distribution histogram. Dimensional stereoscopic image.
제 4 항에 있어서,
상기 히스토그램 생성부는, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
5. The method of claim 4,
The histogram generation unit converts the depth values of each pixel per frame into deep gray values of 0 to 255 values and generates a depth information histogram representing a distribution of depth gray values for each pixel in one frame Dimensional stereoscopic image.
제 4 항에 있어서,
상기 입체값 산출부는, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 4]
Figure pat00031
5. The method of claim 4,
The stereoscopic value calculator normalizes the frequency of the depth map histogram by the number of pixels and normalizes the i-th value of the depth information histogram (x [i]) using the following mathematical expression And the i-th value of the depth information histogram is calculated by dividing the i-th value of the depth information histogram by the entire pixel value according to Equation (4).
&Quot; (4) "
Figure pat00031
제 1 항에 있어서,
상기 안정성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 산출부;
를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
The method of claim 1,
The stability analysis unit may include: a depth information storage unit for extracting depth values for each pixel per frame from a depth map of the 2D image, and storing the extracted depth values for each pixel for each frame; A parallax information generation unit generating parallax information using the generated depth map; A stability calculator for calculating seven coefficient values using the depth information and the parallax information and generating a final stability factor CF by linear combination;
Dimensional stereoscopic image by using the three-dimensional image.
제 7 항에 있어서,
상기 안정성 산출부는 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 12]
Figure pat00032

여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.
The method of claim 7, wherein
Wherein the stability calculator calculates the final stability coefficient (CF) for one frame by linear combination of the seven coefficient values according to the following equation (12): < EMI ID = Device.
&Quot; (12) "
Figure pat00032

Here, omega 1 to omega 7 represent weight values for seven respective coefficient values.
제 8 항에 있어서,
상기 안정성 산출부는, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 13]
Figure pat00033

[수학식 14]
Figure pat00034

여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.
The method of claim 8,
The stability calculation unit calculates seven coefficient values according to Equation 10 for each frame for all the frames in the same process of calculating the stability coefficient value CF for one frame. The total stability factor is obtained by arranging the branch coefficient values as the number of frames according to Equation 13 (Total Compatibility Factor; T CF ). And a weight coefficient (X) value (ω1 to ω7) arranged as the values of the 3D stereoscopic image.
&Quot; (13) "
Figure pat00033

&Quot; (14) "
Figure pat00034

Here, X represents a weighting coefficient value consisting of a 7x1 matrix, S represents a matrix vector for Nx1 subjective evaluation, and N represents the number of frames.
제 1 항에 있어서,
상기 오류성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 오류성 산출부;
를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
The method of claim 1,
The error analysis unit extracts depth values for each pixel per frame from a depth map of the 2D image, and stores the depth information for each frame by dividing the depth values for each pixel. ; A parallax information generation unit generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. An error calculation unit;
Dimensional stereoscopic image by using the three-dimensional image.
제 10 항에 있어서,
상기 오류성 산출부는, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
11. The method of claim 10,
The error calculating unit divides the depth information per frame into a background part and an object part using a depth value, and processes the background as an object using information other than depth in the separated background part. Detecting depth reversal to calculate the error coefficient value of the three-dimensional stereoscopic image analysis device.
제 10 항에 있어서,
상기 오류상 산출부는, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
11. The method of claim 10,
The error image calculation unit uses the difference image between the previous frame and the current frame of the 2D image as information other than the depth to regard the background as a value when the difference image is smaller than a threshold value and to regard the object as an object when the difference value is larger than the threshold value. 3D stereoscopic image quality analysis device, characterized in that for calculating an error coefficient value.
제 10 항에 있어서,
상기 오류성 산출부는, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
11. The method of claim 10,
The error calculator may detect an error using a motion vector using information other than the depth. The error calculation unit may set a global motion vector in a block unit, and set the motion vector in a block unit. And calculating an error coefficient value when the calculated motion vector value differs from the background motion vector by a predetermined amount, and calculates an error coefficient value.
(a) 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 단계;
(b) 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하여, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 단계;
(c) 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 단계;
(d) 상기 2차원 영상에 대한 깊이 정보 또는 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 단계; 및
(e) 상기 2차원 영상의 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하거나, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공하는 단계;
를 포함하는 3차원 입체영상의 품질 분석 방법.
(a) inputting an original sequence image and a depth map sequence image for a two-dimensional image;
(b) extracting depth values for each pixel per each frame from depth information of the two-dimensional image, and extracting depth information indicating a depth map distribution according to a depth gray value with respect to depth values per extracted frame Generating a histogram, generating a stereoscopic (DF) value by analyzing the similarity between the depth information histogram and the uniform histogram using Battaria's coefficient;
(c) generating parallax information using the depth information of the two-dimensional image, and generating parallax information by using the depth information and the parallax information to calculate a parallax range, a maximum value of a parallax absolute value, The average of the distance between the screen and the screen, the spatial complexity, the depth value of the screen and the square of the distance, the temporal complexity, and the mean of the squared difference Generating a final stability coefficient (CF) value by linear combination by obtaining seven coefficient values;
(d) detecting an error of processing a background as an object or an error of processing an object as a background using depth information of the 2D image or information other than the depth information; And
(e) calculate the total evaluation score by giving weights and constants to the values of the three-dimensional, stability, and error coefficients for each sequence image of the 2D image, or rank the total evaluation score for each sequence image Providing as a list according to (Ranking);
Dimensional stereoscopic image.
제 14 항에 있어서,
상기 (e) 단계는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력하는 것을 특징으로 하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 1]
Figure pat00035

여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며,
Figure pat00036
는 가중치(coefficient)를 나타내며,
Figure pat00037
는 상수(costant)를 나타낸다.
15. The method of claim 14,
Wherein the step (e) calculates a linear combination of the three-dimensional sensation and the stability with respect to the total evaluation score according to the following equation (1), and outputs the total evaluation score QM A method for quality analysis of 3D stereoscopic images.
[Equation 1]
Figure pat00035

Here, QM represents the overall total evaluation score of the 3D image, DF represents the 3D value of the 3D image, CF represents the stability coefficient of the 3D image,
Figure pat00036
Represents a weight coefficient,
Figure pat00037
Denotes a cost.
제 15 항에 있어서,
상기 (e) 단계는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 2]
Figure pat00038
The method of claim 15,
Wherein the step (e) comprises: determining a logarithmic function of a histogram stereogram and a parallax product according to the following equation (2) for the stereoscopic value DF.
&Quot; (2) "
Figure pat00038
제 14 항에 있어서,
상기 (b) 단계는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 (가) 과정; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 (나) 과정을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
15. The method of claim 14,
Wherein the step (b) comprises: (a) generating a depth information histogram representing a depth map distribution map corresponding to a depth gray value for each depth information per frame; And a step (b) of calculating a stereoscopic value DF using the Battacharyya coefficient using the similarity between the depth map histogram and the uniform distribution histogram. A method for analyzing the quality of 3D images.
제 17 항에 있어서,
상기 (가) 과정은, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
The method of claim 17,
The step (a) converts a depth value of each pixel per frame into a depth gray value of 0 to 255, and a depth information histogram showing a distribution of depth gray values for each pixel in one frame Dimensional stereoscopic image by using the three-dimensional image.
제 17 항에 있어서,
상기 (나) 과정은, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 4]
Figure pat00039
The method of claim 17,
The step (b) normalizes the frequency of the depth map histogram by the number of pixels and normalizes the i-th value of the depth information histogram (x [i]). Wherein the i-th value of the depth information histogram is calculated by dividing the i-th value of the depth information histogram by the total pixel value according to Equation (4).
&Quot; (4) "
Figure pat00039
제 14 항에 있어서,
상기 (c) 단계는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 (가) 과정; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 (나) 과정; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 (다) 과정;
을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
15. The method of claim 14,
In the step (c), the depth values of each pixel per frame are extracted from the depth map of the 2D image, and the depth values of the extracted pixels are divided and stored for each frame. process; (B) generating parallax information using the generated depth map; And (c) generating seven final factor values by linear combination using the depth information and the time difference information.
Dimensional stereoscopic image, the method comprising the steps of:
제 20 항에 있어서,
상기 (다) 과정은, 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 12]
Figure pat00040

여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.
21. The method of claim 20,
(C) calculating a final stability coefficient (CF) for one frame by performing linear combination of the seven coefficient values according to the following equation (12): < EMI ID = Quality analysis method of.
&Quot; (12) "
Figure pat00040

Here, omega 1 to omega 7 represent weight values for seven respective coefficient values.
제 21 항에 있어서,
상기 (다) 과정은, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 13]
Figure pat00041

[수학식 14]
Figure pat00042

여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.
22. The method of claim 21,
Step (c) is the same process of calculating the stability coefficient value CF for one frame, and calculates seven coefficient values according to Equation 10 for each frame for every frame, and calculates each frame for every frame. The total stability factor (T CF ) is arranged by arranging the seven coefficient values of N as the number of frames according to the following equation (13), and the weights for the seven coefficient values for each frame according to the following equation (14). A quality analysis method for a 3D stereoscopic image, comprising calculating a weighting coefficient (X) value arranged from (ω) values (ω1 to ω7).
&Quot; (13) "
Figure pat00041

&Quot; (14) "
Figure pat00042

Here, X represents a weighting coefficient value consisting of a 7x1 matrix, S represents a matrix vector for Nx1 subjective evaluation, and N represents the number of frames.
제 14 항에 있어서,
상기 (d) 단계는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 (가) 과정; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 (나) 과정; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 (다) 과정;
을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
15. The method of claim 14,
In the step (d), the depth values of each pixel per frame are extracted from the depth map of the 2D image, and the depth values of each extracted pixel are divided and stored for each frame. process; (B) generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. (C) process of doing;
Dimensional stereoscopic image, the method comprising the steps of:
제 23 항에 있어서,
상기 (다) 과정은, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
24. The method of claim 23,
In the step (c), the depth information for each frame is divided into a background part and an object part using a depth value, and the background is converted into an object using information other than depth in the separated background part. A quality analysis method for a 3D stereoscopic image, characterized by detecting a depth reversal to be processed and calculating an error coefficient value.
제 23 항에 있어서,
상기 (다) 과정은, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
24. The method of claim 23,
In the step (c), the difference between the previous frame and the current frame of the 2D image is different from the depth. The method of claim 3, wherein the error coefficient value is calculated.
제 23 항에 있어서,
상기 (다) 과정은, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
24. The method of claim 23,
In the step (c), an error may be detected using a motion vector with information other than the depth, and a motion vector of a background is set in units of blocks, and the motion vectors are units of blocks. And calculating an error coefficient value when the calculated motion vector value differs from the background motion vector by a predetermined amount as an object, and calculates an error coefficient value.
제 14 항 내지 제 23 항에 있는 3차원 입체영상의 품질 분석 방법을 실행하기 위한 프로그램을 기록한, 컴퓨터로 읽을 수 있는 매체.A computer readable medium having recorded thereon a program for executing the quality analysis method of the three-dimensional stereoscopic image according to claim 14.
KR1020120002873A 2012-01-10 2012-01-10 Method and system for analyzing a quality of three-dimensional image KR101393621B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120002873A KR101393621B1 (en) 2012-01-10 2012-01-10 Method and system for analyzing a quality of three-dimensional image
PCT/KR2012/009003 WO2013105720A1 (en) 2012-01-10 2012-10-30 Device and method for analyzing quality of three-dimensional stereoscopic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120002873A KR101393621B1 (en) 2012-01-10 2012-01-10 Method and system for analyzing a quality of three-dimensional image

Publications (2)

Publication Number Publication Date
KR20130081835A true KR20130081835A (en) 2013-07-18
KR101393621B1 KR101393621B1 (en) 2014-05-12

Family

ID=48781642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120002873A KR101393621B1 (en) 2012-01-10 2012-01-10 Method and system for analyzing a quality of three-dimensional image

Country Status (2)

Country Link
KR (1) KR101393621B1 (en)
WO (1) WO2013105720A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150034377A (en) * 2013-09-26 2015-04-03 엘지디스플레이 주식회사 Device and method of generating a new image for multi-view autostereoscopic image display
CN111836038A (en) * 2019-04-17 2020-10-27 北京地平线机器人技术研发有限公司 Method and device for determining imaging quality, storage medium and electronic equipment
CN112712477A (en) * 2020-12-21 2021-04-27 东莞埃科思科技有限公司 Depth image evaluation method and device of structured light module

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104394403B (en) * 2014-11-04 2016-04-27 宁波大学 A kind of stereoscopic video quality method for objectively evaluating towards compression artefacts
CN109429051B (en) * 2017-07-12 2020-08-18 天津大学 Non-reference stereo video quality objective evaluation method based on multi-view feature learning
CN107645661B (en) * 2017-09-21 2019-05-03 北京牡丹电子集团有限责任公司数字电视技术中心 A kind of assessment method and system for wearing display equipment video image comfort level
CN108492275B (en) * 2018-01-24 2020-08-18 浙江科技学院 No-reference stereo image quality evaluation method based on deep neural network
CN109523506B (en) * 2018-09-21 2021-03-26 浙江大学 Full-reference stereo image quality objective evaluation method based on visual salient image feature enhancement
KR20210076660A (en) 2019-12-16 2021-06-24 연세대학교 산학협력단 Method and Apparatus for Stereoscopic Image Quality Assessment Based on Convolutional Neural Network
CN112954313A (en) * 2021-02-09 2021-06-11 方玉明 Method for calculating perception quality of panoramic image

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245451A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Stereoscopic image evaluating device
JP2003018619A (en) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd Three-dimensional image evaluation apparatus and display using the same
JP4469159B2 (en) * 2003-11-06 2010-05-26 学校法人早稲田大学 3D image evaluation apparatus and 3D image tuner
KR101291071B1 (en) * 2010-06-08 2013-08-01 주식회사 에스칩스 Method And Apparatus for Impoving Stereoscopic Image Error
KR101105359B1 (en) * 2010-06-22 2012-01-16 연세대학교 산학협력단 Fatigue evaluation method and apparatus for 3D video based on depth map
KR101332628B1 (en) * 2011-11-23 2013-11-25 에스케이플래닛 주식회사 Method and system for measuring a quality of three-dimensional image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150034377A (en) * 2013-09-26 2015-04-03 엘지디스플레이 주식회사 Device and method of generating a new image for multi-view autostereoscopic image display
CN111836038A (en) * 2019-04-17 2020-10-27 北京地平线机器人技术研发有限公司 Method and device for determining imaging quality, storage medium and electronic equipment
CN111836038B (en) * 2019-04-17 2023-02-28 北京地平线机器人技术研发有限公司 Method and device for determining imaging quality, storage medium and electronic equipment
CN112712477A (en) * 2020-12-21 2021-04-27 东莞埃科思科技有限公司 Depth image evaluation method and device of structured light module

Also Published As

Publication number Publication date
KR101393621B1 (en) 2014-05-12
WO2013105720A1 (en) 2013-07-18

Similar Documents

Publication Publication Date Title
KR101393621B1 (en) Method and system for analyzing a quality of three-dimensional image
Alexiou et al. Point cloud quality assessment metric based on angular similarity
CN103763552B (en) Stereoscopic image non-reference quality evaluation method based on visual perception characteristics
CN104754322A (en) Stereoscopic video comfort evaluation method and device
CN109510981A (en) A kind of stereo-picture comfort level prediction technique based on multiple dimensioned dct transform
Jiang et al. Quality assessment for virtual reality technology based on real scene
Zhou et al. PMFS: a perceptual modulated feature similarity metric for stereoscopic image quality assessment
JP2013073598A (en) Image processing device, image processing method, and program
CN108848365B (en) A kind of reorientation stereo image quality evaluation method
CN109523590A (en) A kind of 3D rendering depth information visual comfort appraisal procedure based on sample
Battisti et al. A perceptual quality metric for high-definition stereoscopic 3D video
Jiang et al. Visual comfort assessment for stereoscopic images based on sparse coding with multi-scale dictionaries
KR101332628B1 (en) Method and system for measuring a quality of three-dimensional image
Liu et al. Toward a quality predictor for stereoscopic images via analysis of human binocular visual perception
KR101849696B1 (en) Method and apparatus for obtaining informaiton of lighting and material in image modeling system
Md et al. Multiscale-ssim index based stereoscopic image quality assessment
CN110060291B (en) Three-dimensional apparent distance resolving method considering human factors
KR20130057147A (en) Method and system for measuring a stability of three-dimensional image
Liu et al. Learning-based quality assessment of retargeted stereoscopic images
JP6162924B2 (en) Image processing method and apparatus
Lebreton et al. Open perceptual binocular and monocular descriptors for stereoscopic 3D images and video characterization
Galkandage et al. A full-reference stereoscopic image quality metric based on binocular energy and regression analysis
Choi et al. Visual comfort measurement for 2D/3D converted stereo video sequence
Shen et al. Objective quality assessment of stereo images with Human Visual characteristic
Li et al. HVS-Based Quality Assessment Metrics for 3-D Images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170504

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180503

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190503

Year of fee payment: 6