KR20130081835A - Method and system for analyzing a quality of three-dimensional image - Google Patents
Method and system for analyzing a quality of three-dimensional image Download PDFInfo
- Publication number
- KR20130081835A KR20130081835A KR1020120002873A KR20120002873A KR20130081835A KR 20130081835 A KR20130081835 A KR 20130081835A KR 1020120002873 A KR1020120002873 A KR 1020120002873A KR 20120002873 A KR20120002873 A KR 20120002873A KR 20130081835 A KR20130081835 A KR 20130081835A
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- value
- image
- information
- values
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 3차원 입체영상의 품질 분석 장치 및 방법에 관한 것으로서, 보다 상세하게는, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 얼마나 좋은 입체감을 가지고 있는지에 대한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 그리고 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는 것이다.
The present invention relates to an apparatus and method for analyzing the quality of a three-dimensional image, and more particularly, to a method and apparatus for analyzing the quality of a three-dimensional image using a depth map generated when a two- The degree of stereoscopic effect on the presence or absence of the stereoscopic effect is expressed by a numerical value, and seven factors that affect the stability of the three-dimensional stereoscopic image are obtained to show how severe the visual fatigue is, To perform an objective quality evaluation as to whether there is an error in processing an object as an object.
최근에 3차원 입체 영상(stereoscopic image)에 대한 관심이 높아지면서 다양한 방식의 입체 영상 획득 장치와 디스플레이 장치들이 개발되고 있다. 입체 영상을 디스플레이하기 위해 입체 영상 신호를 획득하기 위한 한 가지 방법으로 영상의 획득시에 1쌍의 좌우 카메라를 이용하는 방법이 있다. 이 방법은 자연스러운 입체 영상을 디스플레이할 수 있는 장점은 있지만 영상 획득을 위하여 2대의 카메라가 필요할 뿐만 아니라 획득한 좌영상과 우영상의 필름화 또는 부호화에 따른 문제, 그리고 좌영상과 우영상의 프레임율의 차이 등과 같은 문제들을 해결해야 하는 단점이 있다. Recently, interest in stereoscopic images has increased, and various types of stereoscopic image acquisition devices and display devices have been developed. One method for acquiring a stereoscopic image signal for displaying a stereoscopic image is to use a pair of left and right cameras at the time of acquiring the stereoscopic image. This method is advantageous in that it can display natural stereoscopic images, but it requires not only two cameras for image acquisition but also problems in filming or encoding of acquired left and right images and frame rate of left and right images And the like, and the like.
입체 영상 신호를 획득하기 위한 다른 한 가지 방법은 하나의 카메라로 획득한 2차원 영상신호를 3차원 영상신호로 변환하는 것이다. 이 방법에 의하면, 획득한 2차원 영상(원 영상)에 대하여 소정의 신호 처리를 수행함으로써 3차원 영상, 즉 좌영상과 우영상을 생성하기 때문에, 좌우 카메라를 이용하여 입체 영상신호를 획득할 때 초래되는 전술한 문제점이 발생하지 않는다. 다만, 이 방법은 하나의 영상을 이용하여 두 개의 영상을 생성하는 것이기 때문에, 자연스럽고 안정된 입체감을 갖는 입체 영상을 디스플레이하기가 어려운 단점이 있다. 따라서 2차원 영상신호를 3차원 영상신호로 변환하는데 있어서는 변환된 3차원 영상신호를 이용하여 더욱 자연스럽고 안정된 입체감을 갖는 입체 영상을 디스플레이하는 것이 상당히 중요하다.Another method for acquiring a stereoscopic image signal is to convert a two-dimensional image signal acquired by one camera into a three-dimensional image signal. According to this method, since a three-dimensional image, that is, a left image and a right image are generated by performing predetermined signal processing on the acquired two-dimensional image (original image), when a stereoscopic image signal is acquired using the left and right cameras The above-mentioned problem to be caused does not occur. However, since this method generates two images using one image, it is difficult to display a stereoscopic image having a natural and stable stereoscopic effect. Therefore, in converting a two-dimensional image signal into a three-dimensional image signal, it is very important to display a three-dimensional image having a more natural and stable three-dimensional image by using the converted three-dimensional image signal.
그런데, 시청자가 3차원 입체 영상을 접했을 때 느끼는 어지러움, 시각적 피로도 등을 연구하여 인간에게 가장 알맞은 시야각과 입체영상 시청거리 등에 관해서 어느 정도 객관성이 있고 타당한 연구 결과가 나와 있지만 2차원 영상에서 변환된 3차원 입체영상에 대한 자체의 품질을 측정하는 도구 및 장치는 아직까지 개발되지 않고 있다.
However, researchers have studied the dizziness and visual fatigue that the viewer has experienced when they encountered 3D stereoscopic images, and have found objectivity and reasonable research results regarding the viewing angle and stereoscopic viewing distance which are most suitable for human being. However, Tools and devices for measuring the quality of 3D stereoscopic images have not yet been developed.
본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 얼마나 좋은 입체감을 가지고 있는지에 대한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 그리고 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법을 제공함에 그 기술적 과제가 있다.
Disclosure of Invention Technical Problem [8] The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide a 3D depth image Dimensional visual image, and the seven factors that affect the stability of the three-dimensional stereoscopic image are displayed to indicate how severe the visual fatigue is, and whether there is an error processing the object as a background or processing the background as an object Dimensional stereoscopic image quality analyzing apparatus and method capable of performing an objective quality evaluation on a 3D stereoscopic image.
상술한 목적을 달성하기 위한 본 발명의 3차원 입체영상의 품질 분석 장치는, 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 입력부; 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 입체감 분석부; 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 분석부; 상기 2차원 영상에 대한 깊이 정보를 이용하거나, 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 오류성 분석부; 상기 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공하는 분석 결과부; 및 상기 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트를 화면 상에 출력하는 출력부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for analyzing quality of a three-dimensional image, the apparatus comprising: an input unit for inputting an original sequence image and a depth map sequence image for a two-dimensional image; Extracts depth values for each pixel for each frame from the depth information of the two-dimensional image, and generates a depth information histogram representing a depth map distribution map according to a depth gray value for each depth value per extracted frame A three-dimensional analysis unit for generating a three-dimensional (DF) value by analyzing the similarity of the depth information histogram and the uniformity histogram using a Batarya coefficient; The parallax information is generated using the depth information of the two-dimensional image, and the parallax information is generated by using the depth information and the parallax information to calculate the parallax range, the maximum value of the parallax absolute value, The seven coefficients on the Scale Movement of the squares of the average of the disparity, the Spatial Complexity of the screen, the Depth Position of the screen and the square of the distance, the temporal complexity, A stability analyzer for obtaining a final stability factor (CF) value by linear combination; An error analysis unit that detects an error of processing a background as an object or an error of processing an object as a background by using depth information of the 2D image or using information other than the depth information; When converting the 2D image into a 3D stereoscopic image, the total evaluation score is calculated by giving weights and constants to the values of the stereoscopic sense, stability, and error of the sequence images for each sequence image. An analysis result unit having a total evaluation score and providing the list according to a ranking; And output coefficient values related to stereoscopic effect, stability, and error for each sequence image on the screen in numerical values and on a graph, and output a list according to the total evaluation score for each sequence image and the rank of each total evaluation score on the screen. It includes an output unit.
또한, 상기 분석 결과부는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력할 수 있다.In addition, the analysis result section may output a total evaluation score (QM) by calculating a linear combination of the three-dimensional sensation and the stability with respect to the total evaluation score according to the following equation (1).
[수학식 1][Equation 1]
여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며, 는 가중치(coefficient)를 나타내며, 는 상수(costant)를 나타낸다. Here, QM represents the overall total evaluation score of the 3D image, DF represents the 3D value of the 3D image, CF represents the stability coefficient of the 3D image, Represents a weight coefficient, Denotes a cost.
또한, 상기 분석 결과부는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정할 수 있다.The result of the analysis may be determined by a logarithmic function of the histogram stereo value and the parallax product according to the following equation (2) with respect to the stereoscopic value DF.
[수학식 2]&Quot; (2) "
또한, 상기 입체감 분석부는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 히스토그램 생성부; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 입체값 산출부를 포함한다.The stereoscopic analysis unit may further include: a histogram generation unit that generates a depth information histogram indicating a depth map distribution map corresponding to a depth gray value with respect to depth information per frame; And a stereo value calculating unit for calculating a stereo value DF using the Battacharyya coefficient based on the similarity of the depth map histogram and the uniform distribution histogram.
또한, 상기 히스토그램 생성부는, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성할 수 있다.Also, the histogram generator may convert a depth value of each pixel per frame into a depth gray value of 0 to 255, and a depth information histogram showing a distribution of depth gray values for each pixel in one frame Can be generated.
또한, 상기 입체값 산출부는, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출할 수 있다.Also, the stereoscopic value calculator may normalize the frequency of the depth map histogram by the number of all pixels, normalize the i-th value of the depth information histogram (x [i]), The i-th value of the depth information histogram can be calculated by dividing the i-th value of the depth information histogram by the entire pixel value according to the following equation (4).
[수학식 4]&Quot; (4) "
또한, 상기 안정성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 산출부를 포함한다.The stability analysis unit may extract depth values for each pixel per frame from a depth map of the 2D image and store depth information for each frame by dividing the depth values for each pixel. part; A parallax information generation unit generating parallax information using the generated depth map; And a stability calculator for calculating seven factor values using the depth information and the parallax information and generating a final stability factor CF by linear combination.
또한, 상기 안정성 산출부는 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출할 수 있다.Also, the stability calculator may calculate the final stability coefficient CF for one frame by performing linear combination of the seven coefficient values according to the following equation (12).
[수학식 12]&Quot; (12) "
여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.Here,
또한, 상기 안정성 산출부는, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출할 수 있다.In addition, the stability calculation unit calculates seven coefficient values according to
[수학식 13]&Quot; (13) "
[수학식 14]&Quot; (14) "
여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.Here, X denotes a weight coefficient value composed of a 7x1 matrix, S denotes a matrix vector relating to Nx1 subjective evaluation, and N denotes the number of frames.
또한, 상기 오류성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 오류성 산출부를 포함한다.In addition, the error analysis unit, depth information for extracting the depth value for each pixel per frame from the depth map (depth map) for the two-dimensional image, the depth information for dividing and storing the depth value for each extracted pixel for each frame Storage unit; A parallax information generation unit generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. It includes an error calculation unit.
또한, 상기 오류성 산출부는, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출할 수 있다.The error calculating unit may separate the background information and the object part using the depth value for each depth information per frame, and use the information other than the depth in the separated background part to determine the background object. Depth inversion to be processed can be detected to calculate the error coefficient value.
또한, 상기 오류상 산출부는, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출할 수 있다.In addition, the error image calculating unit may be regarded as a background when a difference value of the difference image is smaller than a threshold value by using a difference image between a previous frame and a current frame of the 2D image as information other than the depth, and as an object if larger than the threshold value. The error count can be calculated.
그리고, 상기 오류성 산출부는, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출할 수 있다.The error calculator may detect an error using a motion vector with information other than the depth. The error calculator may set a global motion vector in a block unit and move in a block unit. When the calculated motion vector value differs from the motion vector of the background by a predetermined amount or more, the error coefficient value may be calculated by considering the object as an object.
한편, 상술한 목적을 달성하기 위한 본 발명의 3차원 입체영상의 품질 분석 방법은, (a) 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 단계; (b) 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하여, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 단계; (c) 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 단계; (d) 상기 2차원 영상에 대한 깊이 정보 또는 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 단계; 및 (e) 상기 2차원 영상의 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하거나, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for analyzing the quality of a three-dimensional image, the method comprising the steps of: (a) inputting an original sequence image and a depth map sequence image for a two- (b) extracting depth values for each pixel per each frame from depth information of the two-dimensional image, and extracting depth information indicating a depth map distribution according to a depth gray value with respect to depth values per extracted frame Generating a histogram, generating a stereoscopic (DF) value by analyzing the similarity between the depth information histogram and the uniform histogram using Battaria's coefficient; (c) generating parallax information using the depth information of the two-dimensional image, and generating parallax information by using the depth information and the parallax information to calculate a parallax range, a maximum value of a parallax absolute value, The average of the distance between the screen and the screen, the spatial complexity, the depth value of the screen and the square of the distance, the temporal complexity, and the mean of the squared difference Generating a final stability coefficient (CF) value by linear combination by obtaining seven coefficient values; (d) detecting an error processing an background as an object or an error processing an object as a background, using depth information of the two-dimensional image or information other than the depth information; And (e) calculating a total evaluation score by giving weights and constants to the three-dimensional, stability, and error coefficient values for each sequence image of the 2D image, or calculating the total evaluation score for each sequence image. Providing a list according to the ranking (Ranking).
한편, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 실행하는 프로그램을 CD나 USB 매체 등 컴퓨터로 읽을 수 있는 매체에 기록할 수 있다.
Meanwhile, a program for executing the method for analyzing the quality of three-dimensional stereoscopic image according to the embodiment of the present invention can be recorded on a computer-readable medium such as a CD or a USB medium.
상술한 바와 같이 본 발명의 3차원 입체영상의 품질 분석 장치 및 방법은, 3D 입체영상의 품질을 객관적으로 평가할 수 있다.As described above, the apparatus and method for analyzing quality of a 3D stereoscopic image of the present invention can objectively evaluate the quality of a 3D stereoscopic image.
즉, 3D 입체영상의 품질을 가늠하는 한가지 요소인 입체감 중 depth level의 정도(깊이감)에 대한 품질을 수치로써 확인할 수 있고, 또한 품질을 가늠하는 요소인 안정성(편안감)에 대해 7 가지 계수 값을 산출해 평가할 수 있으며, 그리고 품질을 가늠하는 요소인 오류성에 대해 객관적으로 평가하여 3D 입체영상의 퀄리티(Quality)를 확인할 수 있다.
In other words, it is possible to confirm the quality of the degree of depth level (depth sense) in the 3D sensation, which is one element for determining the quality of the 3D stereoscopic image, as the numerical value, and to measure the stability And the quality of the 3D stereoscopic image can be confirmed by objectively evaluating the erroneousness which is a factor of the quality.
도 1은 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치의 기능 블록을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 설명하기 위한 전체적인 동작 흐름도이다.
도 3은 본 발명의 실시예에 따른 입체감 분석부의 제어 블록도이다.
도 4는 본 발명의 실시예에 따른 입체감 분석부의 입체감 분석 방법을 설명하기 위한 동작 흐름도이다.
도 5는 본 발명의 실시예에 따라 2차원 영상으로부터 생성한 각 프레임당 각 픽셀에 대한 깊이 값들의 예를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따라 하나의 프레임당 픽셀의 깊이값이 차지하는 분포도를 나타내는 히스토그램의 한 예를 도시한 도면이다.
도 7은 본 발명의 실시예에 따라 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값으로 나타낸 예를 도시한 도면이다.
도 8은 본 발명의 실시예에 따라 산출된 입체값을 기준으로 3차원 입체영상의 하나의 프레임에 대한 입체감이 좋은 예와 나쁜 예를 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 안정성 분석부의 기능 블록을 개략적으로 나타낸 것이다.
도 10은 본 발명의 실시예에 따른 안정성 분석부의 안정성 분석 방법을 설명하기 위한 동작 흐름도이다.
도 11은 본 발명의 실시예에 따른 시차의 범위(Range)와 시차의 최대값(Max)을 설명하기 위한 도면이다.
도 12는 본 발명의 실시예에 따른 시차의 평균값과 스크린 사이의 거리를 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 시차의 분산(Spatial Complexity)을 설명하기 위한 도면이다.
도 14는 본 발명의 실시예에 따른 깊이 위치에 관한 계수 값을 산출하는 예를 설명하기 위한 도면이다.
도 15는 본 발명의 실시예에 따른 오류성 분석부의 기능 블록을 개략적으로 나타낸 것이다.
도 16은 본 발명의 실시예에 따른 오류성 분석부의 오류성 분석 방법을 설명하기 위한 동작 흐름도이다.
도 17은 본 발명의 실시예에 따른 2차원 영상에 대해 깊이 값을 이용하여 배경과 객체로 분리하는 예를 나타낸 도면이다.
도 18은 수동 변환 영상과 자동 변환 영상에 대해 깊이 값을 이용해 객체 부분과 배경 부분으로 분리한 예를 나타낸 도면이다.
도 19는 본 발명의 실시예에 따라 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하는 예를 나타낸 도면이다.
도 20은 본 발명의 실시예에 따라 객체가 배경으로 처리된 깊이 역전을 검지해 오류 계수값을 산출하는 예를 나타낸 도면이다.
도 21은 본 발명의 실시예에 따른 배경 부분에서 차영상의 값이 임계값보다 큼에 따라 깊이 역전으로 간주하여 오류를 검출하는 예를 나타낸 도면이다.
도 22는 본 발명의 실시예에 따라 각 시퀀스 이미지에 대한 입체감과 안정성 및 오류성에 대한 결과 값을 수치와 그래프 등으로 출력하는 예를 나타낸 도면이다.1 is a block diagram schematically showing functional blocks of a device for analyzing the quality of a three-dimensional image according to an embodiment of the present invention.
2 is a flowchart illustrating a method for analyzing quality of a three-dimensional image according to an exemplary embodiment of the present invention.
3 is a control block diagram of a three-dimensional analysis unit according to an embodiment of the present invention.
4 is a flowchart illustrating a method of analyzing a three-dimensional effect of a three-dimensional analysis unit according to an exemplary embodiment of the present invention.
5 is a diagram illustrating an example of depth values for each pixel generated from a two-dimensional image according to an embodiment of the present invention.
FIG. 6 is a diagram showing an example of a histogram showing a distribution diagram of a depth value of a pixel per one frame according to an embodiment of the present invention.
FIG. 7 is a diagram showing an example in which the degree of similarity between a depth information histogram and a uniformity histogram is expressed in terms of a stereoscopic value according to an embodiment of the present invention.
8 is a diagram showing a good example and a bad example of a three-dimensional image of one frame of a three-dimensional image based on the three-dimensional value calculated according to the embodiment of the present invention.
FIG. 9 schematically shows a functional block of the stability analysis unit according to the embodiment of the present invention.
10 is a flowchart illustrating a stability analysis method of a stability analysis unit according to an embodiment of the present invention.
11 is a diagram for explaining a range of a parallax and a maximum value Max of a parallax according to an embodiment of the present invention.
12 is a view for explaining an average value of parallax and a distance between screens according to an embodiment of the present invention.
13 is a view for explaining the spatial complexity according to an embodiment of the present invention.
FIG. 14 is a diagram for explaining an example of calculating a coefficient value with respect to a depth position according to an embodiment of the present invention.
FIG. 15 is a schematic block diagram of the error analysis unit according to the embodiment of the present invention.
16 is a flowchart illustrating an error analysis method of the error analysis unit according to the embodiment of the present invention.
17 is a view illustrating an example of dividing a two-dimensional image into a background and an object using a depth value according to an embodiment of the present invention.
18 is a diagram showing an example in which an object part and a background part are separated using a depth value for a manual conversion image and an automatic conversion image.
19 is a diagram illustrating an example of using a difference image between a previous frame and a current frame of a two-dimensional image according to an embodiment of the present invention.
FIG. 20 is a diagram illustrating an example of calculating an error count value by detecting a depth inversion in which an object is processed as a background in accordance with an embodiment of the present invention.
FIG. 21 is a diagram illustrating an example of detecting an error by considering a depth inversion according to a value of a difference image in a background portion according to an exemplary embodiment of the present invention, which is greater than a threshold value.
FIG. 22 is a diagram illustrating an example of outputting a result of three-dimensional sense, stability, and erroneousness of each sequence image by numerical values, a graph, and the like according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치의 기능 블록을 개략적으로 나타낸 구성도이다.1 is a block diagram schematically showing functional blocks of a device for analyzing the quality of a three-dimensional image according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치(100)는, 입력부(110), 입체감 분석부(120), 안정성 분석부(130), 오류성 분석부(140), 분석 결과부(150) 및 출력부(160) 등을 포함한다.Referring to FIG. 1, an
입력부(110)는 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보 시퀀스 이미지를 입력한다. 이때, 한 폴더 내에 시퀀스 이미지의 파일명 끝에 "_001, _002, _003, …" 처럼 순차적인 번호가 붙여져 있을 때, 그 폴더 내의 이미지를 모두 불러와 입력한다.The
입체감 분석부(120)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 정보에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 분석하여 입체값(QM Factor)을 생성한다. 이때, 입체값이 예를 들면 0.3 이하는 저급, 0.3 ~ 0.8 사이는 중급, 0.8 이상은 고급 입체감을 가지고 있다고 볼 수 있다.The
안정성 분석부(130)는 2차원 영상에 대한 깊이 지도(depth map)를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다.The
오류성 분석부(140)는 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전(Depth map reverse)의 오류를 검출한다.The
분석 결과부(150)는 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성 등의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 1(나쁨) 부터 5(좋음)까지 총 평가 점수를 산출해 디스플레이 하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공한다. 즉, 분석 결과부(150)는 최종적인 품질 결과값에 대해 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력한다.The
여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타낸다. 또한, 는 가중치(coefficient)를 나타내는 것으로 3D 영상의 입체값에 대한 계수값과 3D 영상의 안정성에 대한 계수값을 나타내며 수학식12 내지 수학식14와 같은 방식으로 얻을 수 있고, 는 상수(costant)를 나타내는 것으로 최종 결과로 총 평가 점수가 0 ~ 5점 사이가 나올 수 있도록 일정 값을 더하여 값을 조정하기 위해 정한 값을 나타낸다. 이때, 입체값의 경우 시차(parallax)를 증가시키다 보면 입체감이 더 이상 좋아지지 않는 지점이 발생하므로, 분석 결과부(150)는 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하게 된다.Here, QM represents a total total evaluation score of the 3D image, DF represents a stereoscopic value of the 3D image, and CF represents a stability coefficient value of the 3D image. Also, Represents a coefficient value for the 3D image and a coefficient value for the stability of the 3D image, and can be obtained in the manner of Equations (12) to (14) Represents a constant, and the final value indicates a value determined to adjust the value by adding a certain value so that the total evaluation score is between 0 and 5 points. In this case, when the parallax is increased, the point where the cubic effect does not improve any more occurs. Therefore, the
출력부(160)는 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프 등으로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트 등을 화면 상에 출력한다. 이때, 출력부(160)는 시퀀스 이미지에 대한 각각의 점수를 Polar Graph로 나타내어 각각의 프레임에 대한 점수를 사용자가 한 눈에 식별할 수 있도록 한다.The
도 2는 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 설명하기 위한 전체적인 동작 흐름도이다.2 is a flowchart illustrating a method for analyzing quality of a three-dimensional image according to an exemplary embodiment of the present invention.
도 2를 참조하면, 3차원 입체영상의 품질 분석 장치(100)는, 먼저 입력부(110)를 통해 원본 시퀀스 이미지(Raw sequence image)와 깊이지도 시퀀스 이미지(depth map sequence image)를 입력받는다(S210).Referring to FIG. 2, the
이에, 입체감 분석부(120)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 정보에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 분석하여 입체값(QM Factor)을 생성한다(S220).Accordingly, the
또한, 안정성 분석부(130)는 2차원 영상에 대한 깊이 지도(depth map)를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다(S230).In addition, the
즉, 안전성 분석부(130)는 사용자가 안정성에 대한 버튼을 클릭하면, 안정성 내 계수(Factor)들에 대한 프레임들의 평균 결과값의 WeightSum을 계산하여 출력하고, 각 프레임마다의 결과 값은 텍스트 파일로 저장하여 각 프레임에 대한 결과 값도 볼 수 있도록 한다.That is, when the user clicks the button for stability, the
또한, 오류성 분석부(140)는 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전(Depth map reverse)에 대한 오류값을 생성한다(S240).The
즉, 오류성 분석부(140)는 깊이 역전을 검출하였을 때 썸네일(sumnail) 이미지로 역전된 깊이 지도를 출력하고, 오류가 있을 경우 사용자로 하여금 UI(User Interface)를 통해 해당 프레임을 선택하여 그 결과값만 제외할 수 있도록 하며, 역전된 부분은 어느 위치에 얼마만큼의 영역이 역전되었는지 8*8 픽셀 단위의 흰색 블록으로 표시한다. 이때, 하나의 프레임에서 전체 블록수 대비 흰색 블록의 비율을 점수화하여 오류값으로 생성하고, 하나의 프레임에 15 블록 이상의 역전 현상이 존재할 때 해당 프레임 영상의 이상을 표시하며, 각 프레임에 임계값 이상의 역전 현상이 일어난 프레임을 오류 프레임으로 표시할 수 있다.That is, when the depth reversal is detected, the
이어, 분석 결과부(150)는 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성에 대한 값에 각각의 가중치와 상수(Constant)를 주어 1(나쁨) 부터 5(좋음)까지 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공한다(S250).Subsequently, the
즉, 분석 결과부(150)는 도 22에 도시된 바와 같이 각 시퀀스 이미지에 대한 입체감과 안정성 및 오류성에 대한 결과 값을 수치와 그래프 등으로 출력하고, 원본 시퀀스 이미지와 Depth 시퀀스 이미지를 썸네일로 출력하며, 입체감과 오류성에 대한 결과 썸네일을 출력한다.That is, as shown in FIG. 22, the
따라서, 사용자는 원본 시퀀스 이미지에 대해서 입체감과 안정성, 오류성에 대해 각각의 값을 확인할 수 있고, 전체적인 품질에 관한 총 평가 점수를 확인할 수 있다.Accordingly, the user can confirm the respective values of the three-dimensional sense, the stability, and the erroneousness with respect to the original sequence image, and the total evaluation score regarding the overall quality can be confirmed.
[ 입체감 분석부의 상세 구성 및 동작 ][Detailed Configuration and Operation of the Stereoscopic Analysis Unit]
도 3은 본 발명의 실시예에 따른 입체감 분석부의 제어 블록도이다. 3 is a control block diagram of a three-dimensional analysis unit according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 본 발명의 입체감 분석부(120)는, 히스토그램(histogram) 생성부(310), 입체값 산출부(320), 입체값 저장부(330)를 포함한다. 3, the
여기서, 2차원 영상에 대한 각 프레임당 깊이 정보는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하여 얻은 것이다. 깊이 지도는 2차원 영상에 대한 프레임당 각 픽셀의 깊이값(depth value)들을 저장한 데이터 구조이다. 도 5는 본 발명의 실시예에 따라 2차원 영상으로부터 생성한 각 프레임당 각 픽셀에 대한 깊이 값들의 예를 나타낸 도면이다. 도 5에 도시된 바와 같이, 입체감 분석부(120)는 깊이지도로부터 (가)와 같이 프레임당 각 픽셀에 대한 깊이값들을 추출하고, 추출한 각 픽셀에 대한 깊이값들을 (나)와 같이 각 프레임별로 구분하여 임시로 저장한다. 이때, 입체감 분석부(120)는 생성한 깊이정보를 임시로 저장하기 위한 저장 기능을 갖는다.Here, the depth information per frame for a two-dimensional image is obtained by extracting depth values for each pixel per each frame as shown in FIG. 5 from a depth map for a two-dimensional image. The depth map is a data structure storing depth values of each pixel per frame for a two-dimensional image. 5 is a diagram illustrating an example of depth values for each pixel generated from a two-dimensional image according to an embodiment of the present invention. 5, the three-
히스토그램 생성부(310)는 추출된 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성한다. 즉, 히스토그램 생성부(120)는 도 6에 도시된 바와 같이 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하여 가로축으로 하고, 하나의 프레임에서 각 깊이 값이 얼마나 분포되어 있는지를 나타내는 분포도를 세로축으로 하는 히스토그램을 생성하는 것이다. 도 6은 본 발명의 실시예에 따라 하나의 프레임당 픽셀의 깊이값이 차지하는 분포도를 나타내는 히스토그램의 한 예를 도시한 도면이다.The
입체값 산출부(320)는 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 산출하여 입체값(DF)으로 출력한다. 여기서, 균등 분포 히스토그램은 입체감이 높게 나타나도록 깊이지도의 깊이 값이 다양하게 분포된 이상적인 깊이 정보 히스토그램을 의미한다. 따라서, 본 발명의 입체감 분석부(120)는 모든 각 프레임당 픽셀의 깊이 정보 히스토그램과 비교하기 위한 기준이 되는 균등 분포 히스토그램을 저장하고 있다.The
즉, 입체값 산출부(320)는 깊이 정보 히스토그램과 균등 분포 히스토그램 값들의 총합이 각각 1이 되도록 픽셀의 개수로 나누어 정규화(Normalization)하고, 바타차리야 계수를 이용하여 다음 수학식3에 따라 깊이 정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값(DFHistogram)으로 산출하는 것이다.That is, the
수학식3에서, 는 정규화 된(Normalized) 깊이 정보 히스토그램의 i번째 인덱스(index)의 값이고, 는 정규화 된 균등분포 히스토그램의 i번째 인덱스(index)의 값을 나타낸다.In Equation (3) Is the value of the i-th index (index) of the normalized depth information histogram, Represents the value of the i-th index (index) of the normalized uniform distribution histogram.
여기서, 바타차리야 계수는 이전 프레임과 현재 프레임을 비교하여 두 프레임 간의 색상의 유사성을 찾아내어 최대로 유사한 픽셀들을 이전 프레임과 동일한 픽셀들로 인식하여 추적하는 것으로, -1에서 1까지의 값을 가지며, 1에 가까울수록 두 프레임 간 높은 상호 연관성을 갖고, -1에 가까울수록 연관성이 적다. 즉, 입체값이 1에 가까울수록 서로 유사하고, -1에 가까울수록 서로 다르다는 것이다.Here, the Bartaglia coefficient compares the previous frame with the current frame, finds the similarity of colors between the two frames, identifies the maximum number of similar pixels as the same as the previous frame, and tracks the values from -1 to 1 The closer to 1, the higher the correlation between the two frames, the closer to -1, the less relevant. That is, the closer to 1 the values are similar to each other, and the closer to -1 the differences are.
도 4는 본 발명의 실시예에 따른 입체감 분석부의 입체감 분석 방법을 설명하기 위한 동작 흐름도이다.4 is a flowchart illustrating a method of analyzing a three-dimensional effect of a three-dimensional analysis unit according to an exemplary embodiment of the present invention.
먼저, 본 발명의 실시예에 따른 입체감 분석부(120)는 입력부(110)를 통해 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S410).First, the 3D
이때, 입체감 분석부(120)는 2차원 영상의 깊이지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 임시로 저장한다.At this time, the three-
이어, 입체감 분석부(120)는 입력부(110)를 통해 입력받은 각 프레임당 깊이 정보에 대해, 히스토그램 생성부(310)를 통해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성한다(S420).Next, the depth-of-
즉, 히스토그램 생성부(310)는 도 6에 도시된 바와 같이 프레임당 각 픽셀의 깊이 값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하여 가로축으로 하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값이 얼마나 분포되어 있는지를 나타내는 분포도를 세로축으로 하는 깊이 정보 히스토그램을 생성하는 것이다.That is, as shown in FIG. 6, the
이어, 입체감 분석부(120)는 입체값 산출부(320)를 통해 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(QM Factor)으로 산출한다(S430).Subsequently, the
이때, 입체값 산출부(320)는 깊이정보 히스토그램과 균등분포 히스토그램 값들의 총합이 각각 1이 되도록 픽셀의 개수로 나누어 정규화(Normalization)하고, 바타차리야 계수를 이용하여 수학식1과 같이 정규화 한 깊이정보 히스토그램의 각 인덱스 값과 정규화 한 균등분포 히스토그램의 각 인덱스 값을 곱하여 루트를 취한 값들을 모두 합하여, 도 7에 도시된 바와 같이 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값(DFHistogram)으로 산출하는 것이다. 도 7은 본 발명의 실시예에 따라 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값으로 나타낸 예를 도시한 도면이다.At this time, the three-dimensional
즉, 입체값 산출부(320)는 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화한다. 여기서, 전체 픽셀(Total)은 예를 들면, 1920*1080의 Full HD이면 2,073,600 픽셀이라 할 수 있다. 깊이정보 히스토그램의 i번째 값의 정규화(x[i])는 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출할 수 있다.That is, the stereo
따라서, 정규화 한 깊이정보 히스토그램 값의 i번째부터 255까지의 합은 1이라 할 수 있으며, 0부터 255까지의 깊이 그레이(depth gray) 값에 대해, 정규화 된(Normalized) 깊이정보 히스토그램의 1번째 인덱스(index)의 값(x1)과 정규화 된 균등분포 히스토그램의 1번째 인덱스(index)의 값(y1)을 곱하여 루트를 취한 값과, 정규화 된 깊이정보 히스토그램의 2번째 인덱스(index)의 값(x2)과 정규화 된 균등분포 히스토그램의 2번째 인덱스(index)의 값(y2)을 곱하여 루트를 취한 값, 동일한 과정으로 정규화 된 깊이정보 히스토그램의 256번째 인덱스(index)의 값(x256)과 정규화 된 균등분포 히스토그램의 256번째 인덱스(index)의 값(y256)을 곱하여 루트를 취한 값을 모두 합하여 입체값(DFHistogram)을 산출하게 되는 것이다.Therefore, the sum from i th to 255 of the normalized depth histogram value is 1, and the first index of the normalized depth histogram for the depth gray value from 0 to 255. The rooted value is multiplied by the value of (index) (x1) and the value of the first index (y1) of the normalized uniform distribution histogram, and the value of the second index (x2) of the normalized depth information histogram (x2). ) Is multiplied by the value of the second index (y2) of the normalized uniform distribution histogram, and the root is obtained, and the value of the 256th index (x256) of the depth histogram normalized by the same process (x256) By multiplying the value of the 256th index (y256) of the distribution histogram, the root values are summed to calculate the stereoscopic value (DF Histogram ).
그리고, 입체감 분석부(120)는 입체값 산출부(320)를 통해 산출된 각 프레임당 입체값을 도 8에 도시된 바와 같이 화면 상에 디스플레이하거나, 이후에 사용하기 위해 입체값 저장부(330)에 저장한다(S440).The
즉, 입체값 산출부(320)는 수학식1과 같이 산출한 각 프레임당 입체값을 해당 프레임 및 히스토그램과 함께 화면 상에 출력함으로써, 사용자가 도 8에 도시된 바와 같이 입체감이 좋은 예와 입체감이 나쁜 예로 구분할 수 있다. 도 8은 본 발명의 실시예에 따라 산출된 입체값을 기준으로 3차원 입체영상의 하나의 프레임에 대한 입체감이 좋은 예와 나쁜 예를 나타낸 도면이다.That is, the
따라서, 본 발명의 실시예에 따른 입체감 분석부(120)에 의하면, 3D 입체영상이 얼마나 좋은 입체감을 가지고 있는지를 수치로써 확인할 수 있다.Therefore, according to the three-
[ 안정성 분석부의 상세 구성과 동작 ][Detailed Configuration and Operation of Stability Analysis Section]
도 9는 본 발명의 실시예에 따른 안정성 분석부의 기능 블록을 개략적으로 나타낸 것이다.FIG. 9 schematically shows a functional block of the stability analysis unit according to the embodiment of the present invention.
안정성 분석부(130)는 입력부(110)를 통해 원본 시퀀스 이미지와 깊이지도 시퀀스 이미지를 입력받으면, 입력된 깊이지도 시퀀스 이미지를 깊이정보 저장부(910)에 저장한다. Upon receiving the original sequence image and the depth map sequence image through the
즉, 깊이정보 저장부(910)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 (가)와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 (나)와 같이 각 프레임별로 구분하여 저장하는 기능을 갖는다.That is, the depth
이어, 시차정보 생성부(920)는 이렇게 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성한다. 사람은 2 개의 눈을 통해 사물의 입체감이나 거리감을 인지한다. 하나의 사물을 볼 때, 2 개의 눈을 통해 각각 다른 영상이 생성되고 이러한 영상을 적절히 합성함으로써 사람은 사물의 입체감이나 거리감을 인지하게 된다. 따라서, 3차원 입체영상은 이러한 사람의 인지 특성을 고려하여 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성하게 된다. 이러한 눈의 시각적 차이가 바로 시차이며, 깊이 지도를 이용하여 시차를 생성한다. Then, the parallax
이어, 안정성 산출부(930)는 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다.The
도 10은 본 발명의 실시예에 따른 안정성 분석부의 안정성 분석 방법을 설명하기 위한 동작 흐름도이다.10 is a flowchart illustrating a stability analysis method of a stability analysis unit according to an embodiment of the present invention.
먼저, 본 발명의 실시예에 따른 안정성 분석부(130)는 입력부(110)를 통해 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S1010).First, the
이때, 안정성 분석부(130)는 2차원 영상의 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장한다.At this time, the
이어, 안정성 분석부(130)는 각 프레임당 깊이 지도를 이용하여 시차정보 생성부(920)를 통해 시차(parallax) 정보를 생성한다(S1020).Next, the
즉, 시차정보 생성부(920)는 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성할 때 이용하는 눈의 시각적 차이에 관한 시차 정보를 생성하는 것이다.That is, the parallax
이어, 안정성 분석부(130)는 깊이 정보와 시차 정보를 이용해 안정성 산출부(930)를 통해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수(Factor)값을 산출한다(S1030).The
즉, 안정성 산출부(930)는 첫번째 계수 값으로 다음 수학식5에 따라 시차의 범위(Range)에 관한 계수 값(CFRange)을 산출한다.That is, the
여기서, 시차의 범위(Range)는 도 11에 도시된 바와 같이 각 프레임(frame) 별 깊이 지도(depth map)의 스크린(Screen)을 기준으로 디스패러티(disparity)의 값이 앞쪽으로 가장 많이 나온 값을 max(스크린 값을 0이라 할 때 disparity 값이 마이너스(-) 값 중 가장 큰 값), 뒤쪽으로 가장 많이 들어간 값을 min(disparity값이 플러스(+) 값으로 가장 큰 값)으로 한다. Range 값이 클수록 시차 폭이 크므로 안정성에 영향을 미칠 수 있다.Here, the range of the disparity is a value obtained by dividing the value of the disparity (the disparity value) from the screen (Screen) of the depth map for each frame by the value (The disparity value is the largest value of minus (-) when the screen value is 0), and min (the disparity value is the largest value of plus value) that is the most value behind. The larger the range value, the greater the parallax width, which may affect the stability.
또한, disp(x,y)는 원 영상의 x,y 좌표값이 좌영상에서 얼마만큼 이동했는가에 대한 값으로, 깊이정보(depth map)의 x,y 좌표의 gray 값을 256(총 depth의 gray level 값)에서 뺀 값(256-depthmap(x,y좌표 gray값)에 스크린 면의 gray 값을 뺀 값[(256-depthmap(x,y좌표 gray값))-Screen면의 gray 값]이 그 정보가 된다. 즉 스크린 면을 기준으로 얼마만큼 좌, 우 영상의 차가 존재하는가에 대한 정보이다. 도 11은 본 발명의 실시예에 따른 시차의 범위(Range)와 시차의 최대값(Max)을 설명하기 위한 도면이다.Disp (x, y) is a value indicating how much the x and y coordinate values of the original image have moved in the left image, and the gray value of the x and y coordinates of the depth map is 256 (256-depthmap (x, y coordinate gray value)) - The gray value of the screen face] is obtained by subtracting the gray value of the screen face from the 256-depthmap (x, y coordinate gray value) The range of the parallax according to the embodiment of the present invention and the maximum value Max of the parallax according to the embodiment of the present invention, Fig.
또한, 안정성 측정부(150)는 두번째 계수 값으로 다음 수학식6에 따라 시차 절대값의 최대값(Max)에 관한 계수 값(CFMax)을 산출한다.In addition, the
여기서, 최대값(MAX)은 도 11에 도시된 바와 같이 각 frame 별 depth map에서 스크린(Screen)을 기준으로 disparity의 값이 앞쪽으로 가장 많이 나온 값(disp(x,y)값 즉 마이너스(-) 값을 가지므로 절대값을 적용함) 중 가장 큰 값을 나타낸다. MAX 값이 클수록 스크린보다 앞으로 많이 영상이 나와 보이므로 안정성에 영향을 줄 수 있다.11, the maximum value (MAX) is a value (disp (x, y), that is, minus (-)) values in which the value of disparity is most advanced forward from the screen (screen) ) Value and therefore the absolute value is applied). The larger the value of MAX, the more image is displayed than the screen, which may affect the stability.
또한, 안정성 산출부(930)는 세번째 계수 값으로 다음 수학식7에 따라 도 12에 도시된 바와 같이 시차의 평균값과 스크린 사이의 거리(Average)에 관한 계수 값(CFaverage)을 산출한다. In addition, the
여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서의 차가 없기 때문에 제로(0)이다.Here, disp display represents the disparity (disp.) Value on the screen, which is zero because there is no difference on the screen.
이때, 도 12는 본 발명의 실시예에 따른 시차의 평균값과 스크린 사이의 거리를 설명하기 위한 도면이다. 도 12에 도시된 바와 같이 Average 값이 클수록 스크린 면에서 멀어지므로 안정성에 영향을 줄 수 있다. 또한, 절대값을 뺄 경우 Average 값이 마이너스(-) 값이 될 경우 스크린 면보다 앞으로 튀어나오는 영역이 많다는 것으로 안정성에 좋지 않은 영향을 미친다. 여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서 차가 없기 때문에 제로(0)이다.12 is a view for explaining an average value of parallax and a distance between screens according to an embodiment of the present invention. As shown in FIG. 12, the larger the Average value, the farther from the screen surface, the stability may be affected. Also, if the absolute value is subtracted, if the average value is minus (-) value, there are a lot of areas that are protruding forward than the screen surface, which adversely affects stability. Here, disp display represents the disparity (disp.) Value on the screen, which is zero because there is no difference on the screen.
또한, 안정성 산출부(930)는 네번째 계수 값으로 다음 수학식8에 따라 도 13에 도시된 바와 같이 시차의 분산(Spatial Complexity)에 관한 계수 값(CFSpatialComplexity)을 산출한다.In addition, the
여기서, E(disp(x,y))는 (x,y) 좌표의 Average 면에서의 디스패러티(disp.) 값을 나타내며, 시차의 분산은 도 13에 도시된 바와 같이 Average 면에서의 분산값으로, 평균값 면(Average point)에서 조밀하게 분산되어 있을수록 같은 영상(Average 면에서 분산값이 큰 영상)보다 어지러움이 감소될 수 있다. 도 13은 본 발명의 실시예에 따른 시차의 분산(Spatial Complexity)을 설명하기 위한 도면이다. Here, E (disp (x, y)) represents the disparity (disp.) Value in the Average plane of the (x, y) coordinates, , And as the image is densely dispersed at the average point, the dizziness may be reduced as compared with the same image (the image having a large variance value in the average plane). 13 is a view for explaining the spatial complexity according to an embodiment of the present invention.
또한, 안정성 산출부(930)는 다섯번째 계수 값으로 다음 수학식9에 따라 도 14에 도시된 바와 같이 깊이 위치(Depth Point)에 관한 계수 값(CFDepthPosition)을 산출한다.In addition, the
여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서 차가 없기 때문에 제로(0)이다.Here, disp display represents the disparity (disp.) Value on the screen, which is zero because there is no difference on the screen.
즉, 깊이 위치(Depth Position)에 관한 계수 값(CFDepthPosition)은 도 14에 도시된 바와 같이 스크린으로부터 오브젝트 거리 제곱의 분산값이다. 도 14는 본 발명의 실시예에 따른 깊이 위치에 관한 계수 값을 산출하는 예를 설명하기 위한 도면이다.That is, the coefficient value (CF DepthPosition ) with respect to the depth position is a variance value of the object distance square from the screen as shown in Fig. FIG. 14 is a diagram for explaining an example of calculating a coefficient value with respect to a depth position according to an embodiment of the present invention.
또한, 안정성 산출부(930)는 여섯번째 계수 값으로 다음 수학식10에 따라 시차 차이의 분산(Temporal Complexity)에 관한 계수 값(CFTemporalComplexity)을 산출한다.In addition, the
여기서, dispi(x,y)는 현재 i 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내고, dispi - 1(x,y)는 이전 i-1 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내며, diff(x,y)는 현재 i 프레임의 시차 값과 이전 i-1 프레임의 시차 값과의 차이(diff.) 값을 나타내며, E(diff(x,y))는 스크린 면에서의 시차들의 차이(diff.) 값을 나타낸다.Here, disp i (x, y) represents the (x, y) Time (disp.) Value of the coordinates of the current i-th frame, disp i - 1 (x, y) are from the previous i-1 frame, (x (x, y) represents a difference value (diff) between a parallax value of a current i-th frame and a parallax value of a previous i-1 frame, and E (diff (x, y)) represents the difference (diff.) value of the parallaxes on the screen surface.
또한, 안정성 산출부(930)는 일곱번째 계수 값으로 다음 수학식11에 따라 시차 차이의 제곱의 평균(Scene Movement)에 관한 계수 값(CFSceneMovement)을 산출한다.In addition, the
여기서, dispi(x,y)는 현재 i 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내고, dispi - 1(x,y)는 이전 i-1 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내며, diff(x,y)는 현재 i 프레임의 시차 값과 이전 i-1 프레임의 시차 값과의 차이(diff.) 값을 나타낸다.Here, disp i (x, y) represents the (x, y) Time (disp.) Value of the coordinates of the current i-th frame, disp i - 1 (x, y) are from the previous i-1 frame, (x (x, y) represents the difference (diff) between the time difference of the current i-th frame and the time difference of the previous i-1 frame.
이어, 안정성 산출부(930)는 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF:Compatibility Factor)을 산출한다(S1040). Next, the
여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.Here,
이때, 안정성 분석부(130)는 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출한다. 즉, 안정성 산출부(930)는 Least Mean Square 방법을 통해 주관적인 평가와 상관도가 높도록 선형조합의 가중치 계수(coefficient)를 결정한다. In this case, the
여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.Here, X denotes a weight coefficient value composed of a 7x1 matrix, S denotes a matrix vector relating to Nx1 subjective evaluation, and N denotes the number of frames.
따라서, 본 발명의 실시예에 따른 안정성 분석부(130)에 의하면, 3D 입체영상이 얼마나 좋은 안정성(편안감)을 가지고 있는지를 수치로써 확인할 수 있다.Therefore, according to the
[ [ 오류성Errors 분석부의 상세 구성 및 동작 ] Detailed Configuration and Operation of Analysis Unit]
도 15는 본 발명의 실시예에 따른 오류성 분석부의 기능 블록을 개략적으로 나타낸 것이다.FIG. 15 is a schematic block diagram of the error analysis unit according to the embodiment of the present invention.
오류성 분석부(140)는 입력부(110)를 통해 원본 시퀀스 이미지와 깊이지도 시퀀스 이미지를 입력받으면, 입력된 깊이지도 시퀀스 이미지를 깊이정보 저장부(1510)에 저장한다. The
즉, 깊이정보 저장부(1510)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 (가)와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 (나)와 같이 각 프레임별로 구분하여 저장하는 것이다.That is, the depth
이어, 시차정보 생성부(1520)는 이렇게 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성한다. 3차원 입체영상은 사람의 인지 특성을 고려하여 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성하게 된다. 이러한 눈의 시각적 차이가 바로 시차이며, 깊이 지도를 이용하여 시차를 생성한다. Next, the parallax
오류성 산출부(1530)는 생성된 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나, 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성한다.The
이때, 오류성 산출부(1530)는, 깊이 정보에 대한 각각의 수평 라인(Horizontal Line)에서 객체의 깊이 값이 배경의 깊이 값보다 큰 것을 이용해 배경과 객체를 분리한다.At this time, the
또한, 오류성 산출부(1530)는 깊이 정보에서 수평 라인(Horizontal Line)별로 예를 들면, 배경의 깊이 값을 임계값으로 설정하여, 수평 라인(Horizontal Line)별로 임계값보다 큰 것을 객체로 간주하여 배경과 객체를 분리할 수 있다.The
또한, 오류성 산출부(1530)는 분리된 객체 부분 중 배경에 대한 깊이 값이 존재함에 따라 객체를 배경으로 처리하는 깊이 역전을 검지해 오류 계수값을 산출한다.In addition, the
또한, 오류성 산출부(1530)는 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출할 수 있다. 여기서, 깊이 이외의 정보는 2차원 영상의 차영상을 이용하는 것으로서, 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하는 것이다. 이는 카메라의 이동이 매우 동적이지 않는다고 가정하면, 배경 부분은 거의 변화가 없고 객체 부분만 변화가 있기 때문에, 배경 부분의 차 영상의 값은 작고, 객체 부분의 차 영상의 값은 상대적으로 큰 것을 이용하는 것이다. 따라서, 오류성 산출부(1530)는 배경 부분에서 차 영상의 값이 임계값보다 큰 부분이 존재하면 깊이 역전으로 간주하여 오류 계수값을 산출하게 된다.In addition, the
그리고, 오류성 산출부(1530)는 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하게 된다.The
도 16은 본 발명의 실시예에 따른 오류성 분석부의 오류성 분석 방법을 설명하기 위한 동작 흐름도이다.16 is a flowchart illustrating an error analysis method of the error analysis unit according to the embodiment of the present invention.
도 16을 참조하면, 본 발명의 실시예에 따른 오류성 분석부(140)는, 먼저, 입력부(110)를 통해 도 5에 도시된 바와 같이 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S1610).Referring to FIG. 16, the
즉, 오류성 분석부(140)는 2차원 영상의 깊이지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 깊이정보 저장부(1510)에 저장한다. That is, the error-
이어, 오류성 분석부(140)는, 각 프레임당 깊이 정보에 대해, 오류성 산출부(1530)를 통해 깊이(depth) 값을 이용하여 도 17에 도시된 바와 같이 배경(background) 부분과 객체(object) 부분으로 분리한다(S1620). 도 17은 본 발명의 실시예에 따른 2차원 영상에 대해 깊이 값을 이용하여 배경과 객체로 분리하는 예를 나타낸 도면이다. 도 18은 수동 변환 영상과 자동 변환 영상에 대해 깊이 값을 이용해 객체 부분과 배경 부분으로 분리한 예를 보여준다.Then, the erroneous
즉, 오류성 산출부(1530)는, 2차원 영상의 깊이 정보에 대한 각각의 수평 라인(Horizontal Line)에서 객체의 깊이 값이 배경의 깊이 값보다 큰 것을 이용해 배경과 객체를 분리하는 것이다.That is, the
또한, 오류성 산출부(1530)는, 깊이 정보에서 수평 라인(Horizontal Line)별로 임계값을 설정하고, 수평 라인(Horizontal Line)별 배경과 객체에 대한 깊이 값 중 임계값보다 큰 것을 객체로 간주하여 배경과 객체를 분리할 수 있다.In addition, the
또한, 오류성 산출부(1530)는, 깊이 이외의 정보로 도 19에 도시된 바와 같이 이전 영상(프레임)과 현재 영상(프레임)의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여, 배경이 객체로 처리되거나, 객체가 배경으로 처리된 오류를 검출할 수 있다. 도 19는 본 발명의 실시예에 따라 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하는 예를 나타낸 도면이다.If the value of the difference image is smaller than the threshold value by using difference information between the previous image (frame) and the current image (frame) as shown in Fig. 19 with information other than the depth, the
이어, 오류성 분석부(140)는, 오류성 산출부(1530)를 통해 객체가 배경으로 처리되거나, 배경이 객체로 처리된 깊이 역전을 검지하여 오류 계수값을 산출한다(S1630).In step S1630, the
즉, 오류성 산출부(1530)는, 분리된 객체 부분 중 배경에 대한 깊이 값이 존재함에 따라 도 20에 도시된 바와 같이 객체가 배경으로 처리된 깊이 역전(빨간 원 안쪽 부분)을 검지해 오류 계수값을 산출하게 된다. 도 20은 본 발명의 실시예에 따라 객체가 배경으로 처리된 깊이 역전을 검지해 오류 계수값을 산출하는 예를 나타낸 도면이다.That is, as the depth value for the background among the separated object parts exists, the
또한, 오류성 분석부(140)는, 분리된 배경 부분에서 깊이 이외의 정보로 차 영상을 이용하여 배경이 객체로 처리된 오류를 검출할 수 있다. 즉, 오류성 분석부(140)는, 카메라 이동이 매우 동적이지 않다면 배경 부분은 거의 변화가 없고 객체 부분만 영상의 변화가 있으므로, 배경 부분의 차 영상의 값은 작고 객체(object) 부분의 값은 상대적으로 큰 것을 이용해 도 21에 도시된 바와 같이 배경 부분(검은색 부분)에서 차영상의 값이 임계값보다 큰 부분이 존재하면 깊이 역전으로 간주하여 오류를 검출하게 되는 것이다. 도 21은 본 발명의 실시예에 따른 배경 부분에서 차영상의 값이 임계값보다 큼에 따라 깊이 역전으로 간주하여 오류를 검출하는 예를 나타낸 도면이다.In addition, the
그리고, 오류성 분석부(140)는, 깊이 이외의 정보로 움직임 벡터를 이용하여 오류를 검출하게 되는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터가 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류를 검출하게 된다.The
이어, 오류성 분석부(140)는, 오류 검출을 화면 상에 디스플레이하거나 저장부 등에 저장한다(S1640).Then, the
따라서, 본 발명의 실시예에 따른 오류성 분석부(140)에 의하면, 3D 입체영상의 품질을 가늠하는 한가지 요소인 오류성에 대한 품질을 객관적으로 평가함으로써 3D 입체영상의 퀄리티(Quality)를 확인할 수 있다.Therefore, according to the
한편, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 실행하는 프로그램을 CD나 USB 매체 등 컴퓨터로 읽을 수 있는 매체에 기록할 수 있다.Meanwhile, a program for executing the method for analyzing the quality of three-dimensional stereoscopic image according to the embodiment of the present invention can be recorded on a computer-readable medium such as a CD or a USB medium.
본 발명의 실시예에 의하면, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 3차원 영상이 얼마나 좋은 입체감을 가지고 있는지에 관한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 깊이 정보에 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법을 실현할 수 있다.According to the embodiment of the present invention, by using the depth information (depth map) generated when converting a two-dimensional image into a three-dimensional image, the degree of a three-dimensional effect as to how good the three- And the seven factors that affect the stability of the 3D stereoscopic image are displayed to show how severe the visual fatigue is, and there is no error in processing the depth information by the object as the background or the background as the object Dimensional stereoscopic image quality analyzing apparatus and method capable of performing an objective quality evaluation on the 3D stereoscopic image.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
본 발명은 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 3차원 영상이 얼마나 좋은 입체감을 가지고 있는지에 관한 입체감의 정도를 수치로 표시하거나, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하거나, 깊이 정보에 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법에 이용할 수 있다.
The present invention uses a depth map generated when a two-dimensional image is converted into a three-dimensional image, and displays the degree of a three-dimensional effect as to how good the three-dimensional image has a three- Objective quality evaluation to determine how severe the visual fatigue is, or whether there is an error processing the object with the depth information or processing the background as the object, by obtaining the seven factor that affects the stability of the stereoscopic image Dimensional stereoscopic image quality analysis apparatus and method, which can perform the three-dimensional stereoscopic image.
100 : 3차원 입체영상의 품질분석장치 110 : 입력부
120 : 입체감 분석부 130 : 안정성 분석부
140 : 오류성 분석부 150 : 분석 결과부
160 : 출력부100: apparatus for analyzing quality of three-dimensional stereoscopic image 110:
120: three-dimensional analysis unit 130: stability analysis unit
140: Error Analysis Unit 150: Analysis Result Unit
160: Output section
Claims (27)
상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 입체감 분석부;
상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 분석부;
상기 2차원 영상에 대한 깊이 정보를 이용하거나, 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 오류성 분석부;
상기 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공하는 분석 결과부; 및
상기 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트를 화면 상에 출력하는 출력부;
를 포함하는 3차원 입체영상의 품질 분석 장치.An input unit for inputting an original sequence image and a depth map sequence image for a two-dimensional image;
Extracts depth values for each pixel for each frame from the depth information of the two-dimensional image, and generates a depth information histogram representing a depth map distribution map according to a depth gray value for each depth value per extracted frame A three-dimensional analysis unit for generating a three-dimensional (DF) value by analyzing the similarity of the depth information histogram and the uniformity histogram using a Batarya coefficient;
The parallax information is generated using the depth information of the two-dimensional image, and the parallax information is generated by using the depth information and the parallax information to calculate the parallax range, the maximum value of the parallax absolute value, The seven coefficients on the Scale Movement of the squares of the average of the disparity, the Spatial Complexity of the screen, the Depth Position of the screen and the square of the distance, the temporal complexity, A stability analyzer for obtaining a final stability factor (CF) value by linear combination;
An error analysis unit that detects an error of processing a background as an object or an error of processing an object as a background by using depth information of the 2D image or using information other than the depth information;
When converting the 2D image into a 3D stereoscopic image, the total evaluation score is calculated by giving weights and constants to the values of the stereoscopic sense, stability, and error of the sequence images for each sequence image. An analysis result unit having a total evaluation score and providing the list according to a ranking; And
Coefficient values for stereoscopic feeling, stability, and error are output on the screen as numerical values and graphs for each sequence image, and a list according to the total evaluation score and the ranking of each total evaluation score for each sequence image is output on the screen. An output unit;
Dimensional stereoscopic image.
상기 분석 결과부는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력하는 것을 특징으로 하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 1]
여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며, 는 가중치(coefficient)를 나타내며, 는 상수(costant)를 나타낸다. The method of claim 1,
Wherein the analysis result section outputs a total evaluation score (QM) by calculating a linear combination of the three-dimensional sensation and the stability with respect to the total evaluation score according to the following equation (1) Stereoscopic image quality analyzer.
[Equation 1]
Here, QM represents the overall total evaluation score of the 3D image, DF represents the 3D value of the 3D image, CF represents the stability coefficient of the 3D image, Represents a weight coefficient, Denotes a cost.
상기 분석 결과부는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 2]
3. The method of claim 2,
Wherein the analysis result section determines a logarithmic function of the histogram stereo value and a parallax product according to the following equation (2) for the stereoscopic value DF.
&Quot; (2) "
상기 입체감 분석부는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 히스토그램 생성부; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 입체값 산출부를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The method of claim 1,
The histogram analyzer may include: a histogram generator for generating a depth information histogram representing a depth map distribution map corresponding to a depth gray value with respect to depth information per frame; And a stereo value calculating unit for calculating a stereo value DF using the Battacharyya coefficient based on the similarity of the depth map histogram and the uniform distribution histogram. Dimensional stereoscopic image.
상기 히스토그램 생성부는, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.5. The method of claim 4,
The histogram generation unit converts the depth values of each pixel per frame into deep gray values of 0 to 255 values and generates a depth information histogram representing a distribution of depth gray values for each pixel in one frame Dimensional stereoscopic image.
상기 입체값 산출부는, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 4]
5. The method of claim 4,
The stereoscopic value calculator normalizes the frequency of the depth map histogram by the number of pixels and normalizes the i-th value of the depth information histogram (x [i]) using the following mathematical expression And the i-th value of the depth information histogram is calculated by dividing the i-th value of the depth information histogram by the entire pixel value according to Equation (4).
&Quot; (4) "
상기 안정성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 산출부;
를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The method of claim 1,
The stability analysis unit may include: a depth information storage unit for extracting depth values for each pixel per frame from a depth map of the 2D image, and storing the extracted depth values for each pixel for each frame; A parallax information generation unit generating parallax information using the generated depth map; A stability calculator for calculating seven coefficient values using the depth information and the parallax information and generating a final stability factor CF by linear combination;
Dimensional stereoscopic image by using the three-dimensional image.
상기 안정성 산출부는 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 12]
여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.The method of claim 7, wherein
Wherein the stability calculator calculates the final stability coefficient (CF) for one frame by linear combination of the seven coefficient values according to the following equation (12): < EMI ID = Device.
&Quot; (12) "
Here, omega 1 to omega 7 represent weight values for seven respective coefficient values.
상기 안정성 산출부는, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.
[수학식 13]
[수학식 14]
여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.The method of claim 8,
The stability calculation unit calculates seven coefficient values according to Equation 10 for each frame for all the frames in the same process of calculating the stability coefficient value CF for one frame. The total stability factor is obtained by arranging the branch coefficient values as the number of frames according to Equation 13 (Total Compatibility Factor; T CF ). And a weight coefficient (X) value (ω1 to ω7) arranged as the values of the 3D stereoscopic image.
&Quot; (13) "
&Quot; (14) "
Here, X represents a weighting coefficient value consisting of a 7x1 matrix, S represents a matrix vector for Nx1 subjective evaluation, and N represents the number of frames.
상기 오류성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 오류성 산출부;
를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The method of claim 1,
The error analysis unit extracts depth values for each pixel per frame from a depth map of the 2D image, and stores the depth information for each frame by dividing the depth values for each pixel. ; A parallax information generation unit generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. An error calculation unit;
Dimensional stereoscopic image by using the three-dimensional image.
상기 오류성 산출부는, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.11. The method of claim 10,
The error calculating unit divides the depth information per frame into a background part and an object part using a depth value, and processes the background as an object using information other than depth in the separated background part. Detecting depth reversal to calculate the error coefficient value of the three-dimensional stereoscopic image analysis device.
상기 오류상 산출부는, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.11. The method of claim 10,
The error image calculation unit uses the difference image between the previous frame and the current frame of the 2D image as information other than the depth to regard the background as a value when the difference image is smaller than a threshold value and to regard the object as an object when the difference value is larger than the threshold value. 3D stereoscopic image quality analysis device, characterized in that for calculating an error coefficient value.
상기 오류성 산출부는, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.11. The method of claim 10,
The error calculator may detect an error using a motion vector using information other than the depth. The error calculation unit may set a global motion vector in a block unit, and set the motion vector in a block unit. And calculating an error coefficient value when the calculated motion vector value differs from the background motion vector by a predetermined amount, and calculates an error coefficient value.
(b) 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하여, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 단계;
(c) 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 단계;
(d) 상기 2차원 영상에 대한 깊이 정보 또는 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 단계; 및
(e) 상기 2차원 영상의 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하거나, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공하는 단계;
를 포함하는 3차원 입체영상의 품질 분석 방법.(a) inputting an original sequence image and a depth map sequence image for a two-dimensional image;
(b) extracting depth values for each pixel per each frame from depth information of the two-dimensional image, and extracting depth information indicating a depth map distribution according to a depth gray value with respect to depth values per extracted frame Generating a histogram, generating a stereoscopic (DF) value by analyzing the similarity between the depth information histogram and the uniform histogram using Battaria's coefficient;
(c) generating parallax information using the depth information of the two-dimensional image, and generating parallax information by using the depth information and the parallax information to calculate a parallax range, a maximum value of a parallax absolute value, The average of the distance between the screen and the screen, the spatial complexity, the depth value of the screen and the square of the distance, the temporal complexity, and the mean of the squared difference Generating a final stability coefficient (CF) value by linear combination by obtaining seven coefficient values;
(d) detecting an error of processing a background as an object or an error of processing an object as a background using depth information of the 2D image or information other than the depth information; And
(e) calculate the total evaluation score by giving weights and constants to the values of the three-dimensional, stability, and error coefficients for each sequence image of the 2D image, or rank the total evaluation score for each sequence image Providing as a list according to (Ranking);
Dimensional stereoscopic image.
상기 (e) 단계는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력하는 것을 특징으로 하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 1]
여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며, 는 가중치(coefficient)를 나타내며, 는 상수(costant)를 나타낸다. 15. The method of claim 14,
Wherein the step (e) calculates a linear combination of the three-dimensional sensation and the stability with respect to the total evaluation score according to the following equation (1), and outputs the total evaluation score QM A method for quality analysis of 3D stereoscopic images.
[Equation 1]
Here, QM represents the overall total evaluation score of the 3D image, DF represents the 3D value of the 3D image, CF represents the stability coefficient of the 3D image, Represents a weight coefficient, Denotes a cost.
상기 (e) 단계는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 2]
The method of claim 15,
Wherein the step (e) comprises: determining a logarithmic function of a histogram stereogram and a parallax product according to the following equation (2) for the stereoscopic value DF.
&Quot; (2) "
상기 (b) 단계는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 (가) 과정; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 (나) 과정을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.15. The method of claim 14,
Wherein the step (b) comprises: (a) generating a depth information histogram representing a depth map distribution map corresponding to a depth gray value for each depth information per frame; And a step (b) of calculating a stereoscopic value DF using the Battacharyya coefficient using the similarity between the depth map histogram and the uniform distribution histogram. A method for analyzing the quality of 3D images.
상기 (가) 과정은, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.The method of claim 17,
The step (a) converts a depth value of each pixel per frame into a depth gray value of 0 to 255, and a depth information histogram showing a distribution of depth gray values for each pixel in one frame Dimensional stereoscopic image by using the three-dimensional image.
상기 (나) 과정은, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 4]
The method of claim 17,
The step (b) normalizes the frequency of the depth map histogram by the number of pixels and normalizes the i-th value of the depth information histogram (x [i]). Wherein the i-th value of the depth information histogram is calculated by dividing the i-th value of the depth information histogram by the total pixel value according to Equation (4).
&Quot; (4) "
상기 (c) 단계는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 (가) 과정; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 (나) 과정; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 (다) 과정;
을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.15. The method of claim 14,
In the step (c), the depth values of each pixel per frame are extracted from the depth map of the 2D image, and the depth values of the extracted pixels are divided and stored for each frame. process; (B) generating parallax information using the generated depth map; And (c) generating seven final factor values by linear combination using the depth information and the time difference information.
Dimensional stereoscopic image, the method comprising the steps of:
상기 (다) 과정은, 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 12]
여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.21. The method of claim 20,
(C) calculating a final stability coefficient (CF) for one frame by performing linear combination of the seven coefficient values according to the following equation (12): < EMI ID = Quality analysis method of.
&Quot; (12) "
Here, omega 1 to omega 7 represent weight values for seven respective coefficient values.
상기 (다) 과정은, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.
[수학식 13]
[수학식 14]
여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.22. The method of claim 21,
Step (c) is the same process of calculating the stability coefficient value CF for one frame, and calculates seven coefficient values according to Equation 10 for each frame for every frame, and calculates each frame for every frame. The total stability factor (T CF ) is arranged by arranging the seven coefficient values of N as the number of frames according to the following equation (13), and the weights for the seven coefficient values for each frame according to the following equation (14). A quality analysis method for a 3D stereoscopic image, comprising calculating a weighting coefficient (X) value arranged from (ω) values (ω1 to ω7).
&Quot; (13) "
&Quot; (14) "
Here, X represents a weighting coefficient value consisting of a 7x1 matrix, S represents a matrix vector for Nx1 subjective evaluation, and N represents the number of frames.
상기 (d) 단계는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 (가) 과정; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 (나) 과정; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 (다) 과정;
을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.15. The method of claim 14,
In the step (d), the depth values of each pixel per frame are extracted from the depth map of the 2D image, and the depth values of each extracted pixel are divided and stored for each frame. process; (B) generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. (C) process of doing;
Dimensional stereoscopic image, the method comprising the steps of:
상기 (다) 과정은, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.24. The method of claim 23,
In the step (c), the depth information for each frame is divided into a background part and an object part using a depth value, and the background is converted into an object using information other than depth in the separated background part. A quality analysis method for a 3D stereoscopic image, characterized by detecting a depth reversal to be processed and calculating an error coefficient value.
상기 (다) 과정은, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.24. The method of claim 23,
In the step (c), the difference between the previous frame and the current frame of the 2D image is different from the depth. The method of claim 3, wherein the error coefficient value is calculated.
상기 (다) 과정은, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.24. The method of claim 23,
In the step (c), an error may be detected using a motion vector with information other than the depth, and a motion vector of a background is set in units of blocks, and the motion vectors are units of blocks. And calculating an error coefficient value when the calculated motion vector value differs from the background motion vector by a predetermined amount as an object, and calculates an error coefficient value.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120002873A KR101393621B1 (en) | 2012-01-10 | 2012-01-10 | Method and system for analyzing a quality of three-dimensional image |
PCT/KR2012/009003 WO2013105720A1 (en) | 2012-01-10 | 2012-10-30 | Device and method for analyzing quality of three-dimensional stereoscopic image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120002873A KR101393621B1 (en) | 2012-01-10 | 2012-01-10 | Method and system for analyzing a quality of three-dimensional image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130081835A true KR20130081835A (en) | 2013-07-18 |
KR101393621B1 KR101393621B1 (en) | 2014-05-12 |
Family
ID=48781642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120002873A KR101393621B1 (en) | 2012-01-10 | 2012-01-10 | Method and system for analyzing a quality of three-dimensional image |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101393621B1 (en) |
WO (1) | WO2013105720A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150034377A (en) * | 2013-09-26 | 2015-04-03 | 엘지디스플레이 주식회사 | Device and method of generating a new image for multi-view autostereoscopic image display |
CN111836038A (en) * | 2019-04-17 | 2020-10-27 | 北京地平线机器人技术研发有限公司 | Method and device for determining imaging quality, storage medium and electronic equipment |
CN112712477A (en) * | 2020-12-21 | 2021-04-27 | 东莞埃科思科技有限公司 | Depth image evaluation method and device of structured light module |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104394403B (en) * | 2014-11-04 | 2016-04-27 | 宁波大学 | A kind of stereoscopic video quality method for objectively evaluating towards compression artefacts |
CN109429051B (en) * | 2017-07-12 | 2020-08-18 | 天津大学 | Non-reference stereo video quality objective evaluation method based on multi-view feature learning |
CN107645661B (en) * | 2017-09-21 | 2019-05-03 | 北京牡丹电子集团有限责任公司数字电视技术中心 | A kind of assessment method and system for wearing display equipment video image comfort level |
CN108492275B (en) * | 2018-01-24 | 2020-08-18 | 浙江科技学院 | No-reference stereo image quality evaluation method based on deep neural network |
CN109523506B (en) * | 2018-09-21 | 2021-03-26 | 浙江大学 | Full-reference stereo image quality objective evaluation method based on visual salient image feature enhancement |
KR20210076660A (en) | 2019-12-16 | 2021-06-24 | 연세대학교 산학협력단 | Method and Apparatus for Stereoscopic Image Quality Assessment Based on Convolutional Neural Network |
CN112954313A (en) * | 2021-02-09 | 2021-06-11 | 方玉明 | Method for calculating perception quality of panoramic image |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002245451A (en) * | 2001-02-19 | 2002-08-30 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image evaluating device |
JP2003018619A (en) * | 2001-07-03 | 2003-01-17 | Olympus Optical Co Ltd | Three-dimensional image evaluation apparatus and display using the same |
JP4469159B2 (en) * | 2003-11-06 | 2010-05-26 | 学校法人早稲田大学 | 3D image evaluation apparatus and 3D image tuner |
KR101291071B1 (en) * | 2010-06-08 | 2013-08-01 | 주식회사 에스칩스 | Method And Apparatus for Impoving Stereoscopic Image Error |
KR101105359B1 (en) * | 2010-06-22 | 2012-01-16 | 연세대학교 산학협력단 | Fatigue evaluation method and apparatus for 3D video based on depth map |
KR101332628B1 (en) * | 2011-11-23 | 2013-11-25 | 에스케이플래닛 주식회사 | Method and system for measuring a quality of three-dimensional image |
-
2012
- 2012-01-10 KR KR1020120002873A patent/KR101393621B1/en active IP Right Grant
- 2012-10-30 WO PCT/KR2012/009003 patent/WO2013105720A1/en active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150034377A (en) * | 2013-09-26 | 2015-04-03 | 엘지디스플레이 주식회사 | Device and method of generating a new image for multi-view autostereoscopic image display |
CN111836038A (en) * | 2019-04-17 | 2020-10-27 | 北京地平线机器人技术研发有限公司 | Method and device for determining imaging quality, storage medium and electronic equipment |
CN111836038B (en) * | 2019-04-17 | 2023-02-28 | 北京地平线机器人技术研发有限公司 | Method and device for determining imaging quality, storage medium and electronic equipment |
CN112712477A (en) * | 2020-12-21 | 2021-04-27 | 东莞埃科思科技有限公司 | Depth image evaluation method and device of structured light module |
Also Published As
Publication number | Publication date |
---|---|
KR101393621B1 (en) | 2014-05-12 |
WO2013105720A1 (en) | 2013-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101393621B1 (en) | Method and system for analyzing a quality of three-dimensional image | |
Alexiou et al. | Point cloud quality assessment metric based on angular similarity | |
CN103763552B (en) | Stereoscopic image non-reference quality evaluation method based on visual perception characteristics | |
CN104754322A (en) | Stereoscopic video comfort evaluation method and device | |
CN109510981A (en) | A kind of stereo-picture comfort level prediction technique based on multiple dimensioned dct transform | |
Jiang et al. | Quality assessment for virtual reality technology based on real scene | |
Zhou et al. | PMFS: a perceptual modulated feature similarity metric for stereoscopic image quality assessment | |
JP2013073598A (en) | Image processing device, image processing method, and program | |
CN108848365B (en) | A kind of reorientation stereo image quality evaluation method | |
CN109523590A (en) | A kind of 3D rendering depth information visual comfort appraisal procedure based on sample | |
Battisti et al. | A perceptual quality metric for high-definition stereoscopic 3D video | |
Jiang et al. | Visual comfort assessment for stereoscopic images based on sparse coding with multi-scale dictionaries | |
KR101332628B1 (en) | Method and system for measuring a quality of three-dimensional image | |
Liu et al. | Toward a quality predictor for stereoscopic images via analysis of human binocular visual perception | |
KR101849696B1 (en) | Method and apparatus for obtaining informaiton of lighting and material in image modeling system | |
Md et al. | Multiscale-ssim index based stereoscopic image quality assessment | |
CN110060291B (en) | Three-dimensional apparent distance resolving method considering human factors | |
KR20130057147A (en) | Method and system for measuring a stability of three-dimensional image | |
Liu et al. | Learning-based quality assessment of retargeted stereoscopic images | |
JP6162924B2 (en) | Image processing method and apparatus | |
Lebreton et al. | Open perceptual binocular and monocular descriptors for stereoscopic 3D images and video characterization | |
Galkandage et al. | A full-reference stereoscopic image quality metric based on binocular energy and regression analysis | |
Choi et al. | Visual comfort measurement for 2D/3D converted stereo video sequence | |
Shen et al. | Objective quality assessment of stereo images with Human Visual characteristic | |
Li et al. | HVS-Based Quality Assessment Metrics for 3-D Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170504 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180503 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190503 Year of fee payment: 6 |