WO2013105720A1 - Device and method for analyzing quality of three-dimensional stereoscopic image - Google Patents

Device and method for analyzing quality of three-dimensional stereoscopic image Download PDF

Info

Publication number
WO2013105720A1
WO2013105720A1 PCT/KR2012/009003 KR2012009003W WO2013105720A1 WO 2013105720 A1 WO2013105720 A1 WO 2013105720A1 KR 2012009003 W KR2012009003 W KR 2012009003W WO 2013105720 A1 WO2013105720 A1 WO 2013105720A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
value
image
information
values
Prior art date
Application number
PCT/KR2012/009003
Other languages
French (fr)
Korean (ko)
Inventor
김아란
김하윤
정원석
전병기
김종옥
최지훈
박영환
윤민주
Original Assignee
에스케이플래닛 주식회사
(주)리얼디스퀘어
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사, (주)리얼디스퀘어, 고려대학교 산학협력단 filed Critical 에스케이플래닛 주식회사
Publication of WO2013105720A1 publication Critical patent/WO2013105720A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present invention relates to an apparatus and method for analyzing a quality of a 3D stereoscopic image. More particularly, how good a 3D stereoscopic image is by using depth map generated when the 2D image is converted into a 3D stereoscopic image. Display the degree of three-dimensional sense of whether you have a numerical value, calculate the seven factors that affect the stability of three-dimensional stereoscopic images, and indicate how severe visual fatigue is, and process the object in the background It is to be able to perform an objective quality evaluation on whether there is no error processing an as an object.
  • One method for acquiring a stereoscopic image signal to display a stereoscopic image is to use a pair of left and right cameras when acquiring an image.
  • This method has the advantage of displaying a natural three-dimensional image, but not only two cameras are required for image acquisition, but also problems caused by filming or encoding the acquired left and right images, and frame rates of the left and right images.
  • There are disadvantages to solve the problems such as difference of the difference.
  • Another method for acquiring a 3D image signal is to convert a 2D image signal acquired by one camera into a 3D image signal.
  • a three-dimensional image i.e., a left image and a right image
  • a three-dimensional image is generated by performing predetermined signal processing on the acquired two-dimensional image (the original image)
  • the above-mentioned problem does not occur.
  • this method since this method generates two images using one image, it is difficult to display a three-dimensional image having a natural and stable three-dimensional effect. Therefore, in converting a 2D video signal into a 3D video signal, it is very important to display a 3D video having a more natural and stable 3D effect by using the converted 3D video signal.
  • the present invention has been made to solve the above-described problem, by using the depth map generated when converting a 2D image into a 3D stereoscopic image, the degree of the stereoscopic sense of how good the stereoscopic sense is Display the numerical value, obtain seven factor values that affect the stability of the 3D stereoscopic image, and indicate how severe the visual fatigue is, and whether there is no error processing the object as a background or processing the background as an object.
  • There is a technical problem to provide an apparatus and method for quality analysis of three-dimensional stereoscopic images, which enables to perform an objective quality evaluation for.
  • an apparatus for quality analysis of a 3D stereoscopic image comprising: an input unit configured to input an original sequence image and a depth map sequence image of a 2D image; Extract depth values for each pixel per frame from the depth information of the 2D image, and generate a depth information histogram indicating a depth map distribution map according to depth gray values for the extracted depth values for each frame.
  • a three-dimensional analysis unit configured to generate a three-dimensional (DF) value by analyzing the similarity between the depth information histogram and the equal distribution histogram using a batcharya coefficient; Create parallax information using depth information on the 2D image, and use the depth information and parallax information between the range of parallax, the maximum value of parallax absolute value, the average value of parallax and the screen Seven coefficients for Average, Spatial Complexity, Depth Position of Screen and Distance Square, Temporal Complexity, and Mean Movement Square of Parallax Difference
  • a stability analyzer for generating a final stability coefficient (CF) value by obtaining a linear combination;
  • An error analysis unit that detects an error of processing a background as an object or an error of processing an object as a background by using depth information of the 2D image or using information other than the depth information; When converting the 2D image into a 3D stereoscopic image, the total evaluation score is calculated by giving weights and constants to the values of the stereoscopic sense,
  • An analysis result unit having a total evaluation score and providing the list according to a ranking; And output coefficient values related to stereoscopic effect, stability, and error for each sequence image on the screen in numerical values and on a graph, and output a list according to the total evaluation score for each sequence image and the rank of each total evaluation score on the screen. It includes an output unit.
  • the analysis result unit may output a total evaluation score (QM) by calculating a linear combination of three-dimensional effect and stability with respect to the total evaluation score.
  • QM total evaluation score
  • QM represents the total total evaluation score of the 3D image
  • DF represents the stereoscopic value of the 3D image
  • CF represents the stability coefficient value of the 3D image
  • represents the weight represents the cost. Indicates.
  • the analysis result unit may determine the stereoscopic value DF as a logarithm of a histogram stereoscopic value and a parallax product according to Equation 2 below.
  • the three-dimensional analysis unit may further include: a histogram generator configured to generate a depth information histogram indicating a depth map distribution according to a depth gray value with respect to the depth information per frame; And a stereoscopic value calculation unit configured to calculate a stereoscopic value (DF) using the Battacharyya coefficient for the similarity between the depth map histogram and the uniform distribution histogram.
  • a histogram generator configured to generate a depth information histogram indicating a depth map distribution according to a depth gray value with respect to the depth information per frame
  • a stereoscopic value calculation unit configured to calculate a stereoscopic value (DF) using the Battacharyya coefficient for the similarity between the depth map histogram and the uniform distribution histogram.
  • DF stereoscopic value
  • the histogram generator may convert depth values of each pixel per frame into a depth gray value of 0 to 255, and generate a depth information histogram indicating a distribution of depth gray values for each pixel in one frame. Can be generated.
  • the stereoscopic value calculation unit normalizes the frequency of the depth map histogram by dividing the number of pixels by the total number of pixels, and normalizes the i th value of the depth information histogram (x [i]). According to Equation 4, the i th value of the depth information histogram may be calculated by dividing the entire pixel value.
  • the stability analysis unit may extract depth values for each pixel per frame from a depth map of the 2D image and store depth information for each frame by dividing the depth values for each pixel. part;
  • a parallax information generation unit generating parallax information using the generated depth map;
  • a stability calculator configured to obtain seven coefficient values using the depth information and parallax information, and to generate a final stability coefficient (CF) value by linear combination.
  • the stability calculator may calculate a final stability coefficient value CF for one frame by linear combination of the seven coefficient values according to Equation 12 below.
  • ⁇ 1 to ⁇ 7 represent weight values for seven coefficient values.
  • the stability calculation unit calculates seven coefficient values according to Equation 10 for each frame for every frame in the same process of calculating the stability coefficient value CF for one frame, for each frame for every frame.
  • the total stability factor (TCF) is arranged by arranging the seven coefficient values of the frame according to the following equation (13) (Total Compatibility Factor; TCF), and the weights of the seven coefficient values for each frame according to the following equation (14) It is possible to calculate the weighting factor (X) values arranged from ( ⁇ ) values ( ⁇ 1 to ⁇ 7).
  • X represents a weighting coefficient value consisting of a 7x1 matrix
  • S represents a matrix vector for Nx1 subjective evaluation
  • N represents the number of frames.
  • the error analysis unit depth information for extracting the depth value for each pixel per frame from the depth map (depth map) for the two-dimensional image, the depth information for dividing and storing the depth value for each extracted pixel for each frame Storage unit;
  • a parallax information generation unit generating parallax information using the generated depth map;
  • the error calculating unit may separate the background information and the object part using the depth value for each depth information per frame, and use the information other than the depth in the separated background part to determine the background object. Depth inversion to be processed can be detected to calculate the error coefficient value.
  • the error image calculating unit may be regarded as a background when a difference value of the difference image is smaller than a threshold value by using a difference image between a previous frame and a current frame of the 2D image as information other than the depth, and as an object if larger than the threshold value.
  • the error count can be calculated.
  • the error calculator may detect an error using a motion vector with information other than the depth.
  • the error calculator may set a global motion vector in a block unit and move in a block unit.
  • the error coefficient value may be calculated by considering the object as an object.
  • the quality analysis method of the three-dimensional stereoscopic image of the present invention for achieving the above object, (a) inputting the original sequence image and depth map (depth map) sequence image for the two-dimensional image; (b) Depth information extracting depth values for each pixel per frame from the depth information of the two-dimensional image, and depth information indicating the depth map distribution according to the depth gray value for each extracted depth value for each frame Generating a histogram and analyzing the similarity between the depth information histogram and the uniform distribution histogram using a batcharya coefficient to generate a stereoscopic (DF) value; (c) generating parallax information using depth information of the 2D image, and using the depth information and parallax information, the range of parallax, the maximum value of the parallax absolute value, and the average value of parallax; Of the distance between the screen and the screen, the variance of the parallax, the variance of the screen and the distance square, the temporal complexity, and the average of the squares
  • the program for executing the quality analysis method of the three-dimensional stereoscopic image according to an embodiment of the present invention can be recorded in a computer-readable medium such as a CD or USB media.
  • the apparatus and method for quality analysis of 3D stereoscopic images of the present invention can objectively evaluate the quality of 3D stereoscopic images.
  • the quality of the depth level (depth) of the three-dimensional image which is one of the factors for measuring the quality of the 3D stereoscopic image, can be confirmed numerically, and the seven factors for the stability (comfort), which is the factor for measuring the quality, are measured. Values can be calculated and evaluated, and the quality of 3D stereoscopic images can be confirmed by objectively evaluating error, which is a factor for measuring quality.
  • FIG. 1 is a block diagram schematically showing a functional block of an apparatus for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an overall operation of a method for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention.
  • FIG. 3 is a control block diagram of a stereoscopic analysis unit according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a three-dimensional analysis method of the three-dimensional analysis unit according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating examples of depth values for each pixel for each frame generated from a 2D image according to an exemplary embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of a histogram showing a distribution chart occupied by a depth value of a pixel per frame according to an exemplary embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an example in which the similarity between the depth information histogram and the uniform distribution histogram is shown in three-dimensional values according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating examples of good and bad stereoscopic feelings for one frame of a 3D stereoscopic image based on the stereoscopic values calculated according to an embodiment of the present invention.
  • FIG. 9 schematically illustrates a functional block of a stability analyzer according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a method for analyzing stability of a stability analyzer according to an exemplary embodiment of the present invention.
  • FIG. 11 is a diagram for describing a range of parallax and a maximum value of parallax according to an embodiment of the present invention.
  • FIG. 12 is a diagram for describing a distance between an average value of parallax and a screen according to an exemplary embodiment of the present invention.
  • FIG. 13 is a diagram illustrating a spatial complexity of parallax according to an embodiment of the present invention.
  • FIG. 14 is a view for explaining an example of calculating a coefficient value regarding a depth position according to an embodiment of the present invention.
  • 16 is a flowchart illustrating an error analysis method of an error analysis unit according to an exemplary embodiment of the present invention.
  • 17 is a diagram illustrating an example of separating a background into an object using a depth value with respect to a 2D image according to an exemplary embodiment of the present invention.
  • FIG. 18 is a diagram illustrating an example of dividing an object portion and a background portion by using depth values for a manually converted image and an automatically converted image.
  • 19 illustrates an example of using a difference image between a previous frame and a current frame of a 2D image according to an embodiment of the present invention.
  • 20 is a diagram illustrating an example of detecting an error by considering a depth inversion as a value of a difference image is greater than a threshold value in a background part according to an exemplary embodiment of the present invention.
  • FIG. 1 is a block diagram schematically showing a functional block of an apparatus for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention.
  • the apparatus 100 for analyzing quality of a 3D stereoscopic image may include an input unit 110, a stereoscopic analysis unit 120, a stability analysis unit 130, and an error analysis unit ( 140, an analysis result unit 150, an output unit 160, and the like.
  • the input unit 110 inputs an original sequence image and a depth information sequence image for a 2D image. At this time, when a sequential number such as "_001, _002, _003, " is attached to the end of the file name of the sequence image in one folder, all the images in the folder are loaded and input.
  • the stereoscopic analysis unit 120 extracts depth values for each pixel of each frame as shown in FIG. 5 from a depth map of the 2D image, and extracts depth gray for each extracted depth information for each frame.
  • Depth histogram showing depth map distribution according to (depth gray) values, and the similarity between depth map histogram and uniform distribution histogram is calculated by Bhattacharyya Coefficient. ) To generate a QM factor.
  • the stereoscopic value is lower than 0.3, for example, intermediate between 0.3 and 0.8, and higher than three-dimensional has a high three-dimensional effect.
  • the stability analyzer 130 generates parallax information using a depth map of the 2D image, and a range of parallax that affects stability of the 3D stereoscopic image using depth information and parallax information.
  • Range the maximum value of the parallax absolute value (Max), the distance between the mean value of the parallax and the screen (Average), the spatial complexity of the parallax, the variance of the screen and the distance squared (Depth Position), the variance of the parallax difference Seven factors, such as Temporal Complexity and the mean of the square of the parallax difference, are obtained, and the final stability coefficient (CF) is generated by linear combination.
  • the error analysis unit 140 separates the depth information for each frame into a background part and an object part using the depth value, and processes the object in the background based on the threshold value. Detect an error in depth map reverse that treats the background as an object.
  • the analysis result unit 150 gives a weight and a constant for each coefficient value such as stereoscopic feeling, stability, and error for each sequence image when converting a 2D image into a 3D stereoscopic image, thereby giving 1 (bad)
  • the total evaluation score is calculated and displayed from 5 to (good), and the total evaluation score for each sequence image is provided as a list according to the ranking. That is, the analysis result unit 150 outputs the total evaluation score QM by calculating the linear combination of the three-dimensional effect and the stability according to the following equation 1 for the final quality result value.
  • QM represents a total total evaluation score of the 3D image
  • DF represents a stereoscopic value of the 3D image
  • CF represents a stability coefficient value of the 3D image.
  • denotes a weight (coefficient) represents a coefficient value for the stereoscopic value of the 3D image and a coefficient value for the stability of the 3D image can be obtained in the same manner as in Equations 12 to 14, and is a cost
  • the final result indicates a value determined to adjust the value by adding a certain value so that the total evaluation score is between 0 and 5 points.
  • the analysis result unit 150 analyzes the histogram stereoscopic value and the parallax according to the following equation (2) for the stereoscopic value DF. parallax) is determined by the logarithm of the product.
  • the output unit 160 outputs coefficient values related to stereoscopic feeling, stability, and error for each sequence image on the screen as numerical values and graphs, and lists the total evaluation scores for each sequence image and the rank of each total evaluation score. And so on. At this time, the output unit 160 displays each score for the sequence image in a polar graph so that the user can identify the score for each frame at a glance.
  • FIG. 2 is a flowchart illustrating an overall operation of a method for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention.
  • the apparatus 100 for analyzing quality of a 3D stereoscopic image first receives a raw sequence image and a depth map sequence image through the input unit 110 (S210). ).
  • the 3D analysis unit 120 extracts depth values for each pixel of each frame as shown in FIG. 5 from a depth map of the 2D image, and extracts depth information for each extracted frame. Create a depth information histogram that shows the depth map distribution according to the depth gray value, and calculate the similarity between the depth map histogram and the uniform distribution histogram. Analyze using Bhattacharyya Coefficient to generate a three-dimensional value (QM Factor) (S220).
  • QM Factor Bhattacharyya Coefficient
  • the stability analysis unit 130 generates parallax information using a depth map of the 2D image, and the parallax affecting the stability of the 3D stereoscopic image using the depth information and the parallax information.
  • Range the maximum value of the parallax absolute value (Max), the average value of the parallax and the distance between the screen (Average), the spatial complexity of the parallax, the variance of the screen and the distance squared (Depth Position), the parallax difference Seven factors, such as Temporal Complexity and the mean of the square of the parallax difference, are obtained, and the final stability coefficient (CF) is generated by linear combination (S230).
  • the safety analysis unit 130 calculates and outputs a WeightSum of the average result value of the frames for the factors in the stability, and the result value for each frame is a text file. Save it so that you can see the result for each frame.
  • the error analysis unit 140 separates the depth information for each frame into a background part and an object part using the depth value, and sets the background of the object based on the threshold value.
  • an error value for depth map reverse which is processed as or is processed as an object, is generated.
  • the error analysis unit 140 outputs a depth map inverted as a thumbnail image, and if there is an error, the user selects a corresponding frame through the UI (User Interface) Only the result value can be excluded, and the inverted part shows how many areas are inverted and where they are inverted by white blocks of 8 * 8 pixels.
  • the ratio of the white blocks to the total number of blocks in one frame is scored to generate an error value, and when there is more than 15 blocks of inversion in one frame, the abnormality of the corresponding frame image is displayed, and each frame has a threshold value or more.
  • the frame in which the reverse phenomenon occurs can be displayed as an error frame.
  • the analysis result unit 150 calculates a total evaluation score from 1 (bad) to 5 (good) by giving weights and constants to respective values of stereoscopic sense, stability, and error for each sequence image.
  • the total evaluation score for each sequence image is provided as a list according to a ranking (S250).
  • the analysis result unit 150 outputs the result values of the three-dimensional feeling, stability and error of each sequence image in numerical values and graphs, and outputs the original sequence image and the depth sequence image as thumbnails, and Print the resulting thumbnail.
  • the user can check each value of the stereoscopic sense, stability and error of the original sequence image, and can check the total evaluation score on the overall quality.
  • FIG. 3 is a control block diagram of a stereoscopic analysis unit according to an embodiment of the present invention.
  • the stereoscopic analysis unit 120 of the present invention includes a histogram generator 310, a stereoscopic value calculator 320, and a stereoscopic value storage unit 330.
  • the depth information for each frame of the 2D image is obtained by extracting depth values for each pixel of each frame as shown in FIG. 5 from the depth map of the 2D image.
  • the depth map is a data structure that stores depth values of each pixel per frame for the 2D image.
  • 5 is a diagram illustrating examples of depth values for each pixel for each frame generated from a 2D image according to an exemplary embodiment of the present invention.
  • the 3D analysis unit 120 extracts depth values for each pixel per frame from the depth map as shown in (A), and extracts depth values for each extracted pixel as shown in (B). Save by temporarily.
  • the three-dimensional analysis unit 120 has a storage function for temporarily storing the generated depth information.
  • the histogram generator 310 generates a depth information histogram representing a depth map distribution according to the depth gray value with respect to the extracted depth information per frame. That is, the histogram generator 120 converts the depth values of each pixel per frame into depth gray values of 0 to 255 as the horizontal axis, as shown in FIG. 6, and sets each depth value in one frame. The histogram with the vertical axis showing the distribution of how much is distributed.
  • FIG. 6 is a diagram illustrating an example of a histogram showing a distribution chart occupied by a depth value of a pixel per frame according to an exemplary embodiment of the present invention.
  • the stereoscopic value calculator 320 calculates the similarity between the depth map histogram and the uniform distribution histogram using a Battacharyya Coefficient, and outputs the similarity between the depth map histogram and the stereoscopic value DF.
  • the equal distribution histogram means an ideal depth information histogram in which the depth values of the depth map are variously distributed so that a three-dimensional appearance is high.
  • the stereoscopic analysis unit 120 of the present invention stores an equal distribution histogram which is a reference for comparing with the depth information histogram of each pixel per frame.
  • the stereoscopic value calculating unit 320 normalizes the number of pixels so that the sum of the depth information histogram and the uniform distribution histogram values is 1, and normalizes the depth information according to the following equation (3) using the Batcharya coefficient.
  • the similarity between the information histogram and the uniform distribution histogram is calculated as a three-dimensional value (DFHistogram).
  • Equation 3 is a value of the i-th index of the normalized depth information histogram, and is a value of the i-th index of the normalized uniformly distributed histogram.
  • the Batcharya coefficient compares the previous frame with the current frame, finds the color similarity between the two frames, and recognizes and tracks the most similar pixels as the same pixels as the previous frame.
  • FIG. 4 is a flowchart illustrating a three-dimensional analysis method of the three-dimensional analysis unit according to an embodiment of the present invention.
  • the stereoscopic analysis unit 120 receives depth information for each frame of the 2D image through the input unit 110 (S410).
  • the 3D analysis unit 120 extracts depth values for each pixel per frame from the depth map of the 2D image, and extracts depth values for each extracted pixel for each frame. Save it temporarily.
  • the three-dimensional analysis unit 120 performs depth map distribution according to depth gray values through the histogram generator 310 with respect to depth information for each frame received through the input unit 110.
  • a depth information histogram is generated (S420).
  • the histogram generator 310 converts the depth values of each pixel per frame into depth gray values of 0 to 255 values as shown in FIG. 6, and sets the horizontal axis, and in each frame in one frame. It is to generate a depth information histogram with a vertical axis indicating a distribution of depth gray values.
  • the stereoscopic analysis unit 120 determines the similarity between the depth map histogram and the uniform distribution histogram through the stereoscopic value calculator 320 using the Bhattacharyya Coefficient. It calculates it as a value (QM Factor) (S430).
  • the three-dimensional value calculation unit 320 is normalized by the number of pixels so that the sum of the depth information histogram and the equal distribution histogram value is 1, respectively, and normalized as shown in Equation 1 by using the Batcharya coefficient.
  • the similarity of the depth information histogram and the uniform distribution histogram as a three-dimensional value (DFHistogram).
  • To calculate. 7 is a diagram illustrating an example in which the similarity between the depth information histogram and the uniform distribution histogram is shown in three-dimensional values according to an embodiment of the present invention.
  • the stereoscopic value calculator 320 normalizes the frequency of the depth map histogram by dividing the frequency by the number of pixels.
  • the total pixel total may be 2,073,600 pixels, for example, in 1920 * 1080 Full HD.
  • the normalization (x [i]) of the i-th value of the depth information histogram may be calculated by dividing the i-th value of the depth information histogram by all pixel values according to Equation 4 below.
  • the sum from i th to 255 of the normalized depth histogram value is 1, and the first index of the normalized depth histogram for the depth gray value from 0 to 255.
  • the rooted value is multiplied by the value of (index) (x1) and the value of the first index (y1) of the normalized uniform distribution histogram, and the value of the second index (x2) of the normalized depth information histogram (x2).
  • the stereoscopic analysis unit 120 displays the stereoscopic value for each frame calculated by the stereoscopic value calculating unit 320 on the screen as shown in FIG. 8, or the stereoscopic value storage unit 330 for later use. Save to (S440).
  • the stereoscopic value calculator 320 outputs the stereoscopic values for each frame, calculated as shown in Equation 1, on the screen together with the frame and the histogram, so that the user has a good stereoscopic effect and stereoscopic effect as shown in FIG. 8. This is a bad example.
  • FIG. 8 is a diagram illustrating examples of good and bad stereoscopic feelings for one frame of a 3D stereoscopic image based on the stereoscopic values calculated according to an embodiment of the present invention.
  • the stereoscopic analysis unit 120 it can be confirmed by numerical value how good the 3D stereoscopic image has a stereoscopic feeling.
  • FIG. 9 schematically illustrates a functional block of a stability analyzer according to an embodiment of the present invention.
  • the stability analysis unit 130 When the stability analysis unit 130 receives the original sequence image and the depth map sequence image through the input unit 110, the stability analysis unit 130 stores the input depth map sequence image in the depth information storage unit 910.
  • the depth information storage unit 910 extracts the depth values for each pixel per frame from the depth map of the 2D image as shown in FIG. 5, and the depth for each extracted pixel. It has a function to store values separately for each frame as shown in (b).
  • the parallax information generator 920 generates parallax information using the generated depth map.
  • a person perceives the three-dimensional or distance of an object through two eyes.
  • different images are generated through two eyes, and by appropriately synthesizing the images, a person perceives a three-dimensional sense or a sense of distance of the object.
  • the 3D stereoscopic image generates two images in consideration of visual differences between left and right eyes from one 2D image in consideration of the cognitive characteristics of the person. This visual difference between the eyes is parallax, and creates a parallax using a depth map.
  • the stability calculator 930 uses depth information and parallax information to determine the range of parallax that affects the stability of the 3D stereoscopic image, the maximum value of the parallax absolute value, the average value of the parallax, and the screen. Seven factors: distance, spatial complexity, variance of screen and distance squares, temporal complexity, and mean movement squared ) Is then used to generate the final coefficient of stability (CF) by linear combination.
  • FIG. 10 is a flowchart illustrating a method for analyzing stability of a stability analyzer according to an exemplary embodiment of the present invention.
  • the stability analyzer 130 receives depth information for each frame of the 2D image through the input unit 110 (S1010).
  • the stability analysis unit 130 extracts depth values for each pixel per frame from the depth map of the 2D image, and extracts the depth values for each extracted pixel for each frame. Save separately.
  • the stability analyzer 130 generates parallax information through the parallax information generator 920 using the depth map for each frame (S1020).
  • the parallax information generation unit 920 generates parallax information about visual differences of eyes used when generating two images considering visual differences between left and right eyes from one 2D image.
  • the stability analyzer 130 uses the depth information and the parallax information to determine the range of parallax, the maximum value of the parallax absolute value, the average value of the parallax, and the distance between the screens through the stability calculator 930. Average, Spatial Complexity, Depth Position of the Screen and Distance Squares, Temporal Complexity, and Seven Movements on the Mean Square of the Parallax Difference. The value is calculated (S1030).
  • the stability calculator 930 calculates the coefficient value CFRange of the range of parallax according to Equation 5 as the first coefficient value.
  • the range of parallax is the value where the disparity is most forwarded based on the screen of the depth map for each frame, as shown in FIG. 11.
  • max be the maximum value of the negative (-) value of the disparity value when the screen value is 0, and min (the largest value of the disparity value as the positive value).
  • min the largest value of the disparity value as the positive value. The larger the range value, the larger the parallax width, which may affect stability.
  • disp (x, y) is a value of how much the x, y coordinate values of the original image are moved in the left image, and the gray value of the x, y coordinates of the depth map is 256 (the total depth of the image). subtracted from the gray level value (256-depthmap (x, y coordinate gray value) minus the gray value of the screen surface [(256-depthmap (x, y coordinate gray value))-screen gray value]) That is, information on how much difference between left and right images exists based on the screen surface
  • Figure 11 is a range of parallax and a maximum value of parallax according to an embodiment of the present invention. It is a figure for explaining.
  • the stability measuring unit 150 calculates the coefficient value CFMax regarding the maximum value Max of the parallax absolute value according to Equation 6 as the second coefficient value.
  • the maximum value MAX is a value in which a disparity has the most forward value based on a screen in the depth map for each frame (disp (x, y), that is, negative ( ⁇ ). ) Value, so the absolute value is applied.) The higher the MAX value, the more images appear ahead of the screen, which can affect stability.
  • the stability calculator 930 calculates a coefficient value CFaverage of the distance between the average value of the parallax and the screen as shown in FIG. 12 as the third coefficient value.
  • dispdisplay represents a disp. Value in a display and is zero because there is no difference in the screen.
  • FIG. 12 is a diagram illustrating a distance between an average value of parallax and a screen according to an exemplary embodiment of the present invention.
  • the larger the Average value the farther from the screen surface may affect stability.
  • the absolute value is subtracted, if the Average value becomes negative (-), the area that protrudes more than the screen surface has a bad effect on stability.
  • dispdisplay represents the disp. Value in the display and is zero because there is no difference in the screen.
  • the stability calculator 930 calculates a coefficient value CFSpatialComplexity as a fourth coefficient value with respect to spatial complexity as shown in FIG. 13 according to Equation 8 below.
  • E (disp (x, y)) represents a disparity value in the average plane of (x, y) coordinates
  • the dispersion of parallax is a dispersion value in the average plane as shown in FIG.
  • FIG. 13 is a diagram illustrating a spatial complexity of parallax according to an embodiment of the present invention.
  • the stability calculator 930 calculates the coefficient value CFDepthPosition regarding the depth position as shown in FIG. 14 as the fifth coefficient value.
  • dispdisplay represents the disp. Value in the display and is zero because there is no difference in the screen.
  • the coefficient value CFDepthPosition for the depth position is a variance value of the object distance squared from the screen as shown in FIG. 14.
  • 14 is a view for explaining an example of calculating a coefficient value regarding a depth position according to an embodiment of the present invention.
  • the stability calculator 930 calculates a coefficient value (CFTemporalComplexity) regarding the variance of the parallax difference according to Equation 10 as the sixth coefficient value.
  • dispi (x, y) represents the disparity value of the (x, y) coordinate in the current i frame
  • dispi-1 (x, y) represents (x, y in the previous i-1 frame
  • Diff (x, y) represents the difference (diff.)
  • E (diff (x) , y)) represents the difference (diff.) value of parallaxes on the screen side.
  • the stability calculator 930 calculates the coefficient value CFSceneMovement regarding the mean (Scene Movement) of the square of the parallax difference according to Equation 11 as the seventh coefficient value.
  • dispi (x, y) represents the disparity value of the (x, y) coordinate in the current i frame
  • dispi-1 (x, y) represents (x, y in the previous i-1 frame )
  • diff (x, y) indicates the difference between the disparity value of the current i frame and the disparity value of the previous i-1 frame.
  • the stability calculator 930 linearly combines the seven coefficient values according to Equation 12 to calculate a final stability factor (CF) for one frame (S1040).
  • ⁇ 1 to ⁇ 7 represent weight values for seven coefficient values.
  • the stability analyzer 130 calculates seven coefficient values according to Equation 10 for each frame for all the frames in the same process of calculating the stability coefficient value CF for one frame, for all the frames.
  • the total stability factor is obtained by arranging the seven coefficient values of each frame according to the following equation (13) (Total Compatibility Factor; TCF).
  • TCF Total Compatibility Factor
  • X represents a weighting coefficient value consisting of a 7x1 matrix
  • S represents a matrix vector for Nx1 subjective evaluation
  • N represents the number of frames.
  • the stability analysis unit 130 it can be confirmed by numerical value how good stability (comfort) of the 3D stereoscopic image.
  • the error analysis unit 140 When the error analysis unit 140 receives the original sequence image and the depth map sequence image through the input unit 110, the error analysis unit 140 stores the input depth map sequence image in the depth information storage unit 1510.
  • the depth information storage unit 1510 extracts depth values for each pixel per frame from the depth map of the 2D image as shown in FIG. 5, and the depth for each extracted pixel. The values are divided and stored for each frame as shown in (b).
  • the parallax information generation unit 1520 generates parallax information using the generated depth map.
  • the 3D stereoscopic image generates two images in consideration of visual differences between left and right eyes from one 2D image in consideration of human cognitive characteristics. This visual difference between the eyes is parallax, and creates a parallax using a depth map.
  • the error calculator 1530 divides the generated depth information for each frame into a background part and an object part by using a depth value, and sets an object based on a threshold value. Error coefficients for depth inversion or background processing as objects.
  • the error calculator 1530 separates the background and the object by using the object having a depth value greater than that of the background in each horizontal line of depth information.
  • the error calculator 1530 sets the depth value of the background as a threshold value for each horizontal line in the depth information, and considers the object larger than the threshold value for each horizontal line as the object. To separate the objects from the background.
  • the error calculator 1530 detects a depth reversal for processing the object in the background as the depth value of the background among the separated object parts, and calculates an error count value.
  • the error calculator 1530 may detect a depth reversal of processing the background as an object using information other than the depth in the separated background to calculate an error coefficient value.
  • the information other than the depth is to use the difference image of the 2D image, and if the difference value of the difference image is smaller than the threshold value using the difference image of the previous frame and the current frame of the 2D image, it is regarded as the background, If it is large, it is regarded as an object. This assumes that the movement of the camera is not very dynamic. Since the background part is almost unchanged and only the object part is changed, the value of the difference image of the background part is small and the value of the difference image of the object part is relatively large. will be. Accordingly, the error calculator 1530 calculates an error count value by considering the depth inversion when a part of the background image having a difference value greater than the threshold exists in the background part.
  • the error calculator 1530 may detect an error using a motion vector with information other than depth.
  • the error calculation unit 1530 sets a global motion vector in a block unit and sets a block unit in a block unit. When the calculated motion vector value is more than a predetermined distance from the motion vector of the background, the motion vector is regarded as an object and an error coefficient value is calculated.
  • 16 is a flowchart illustrating an error analysis method of an error analysis unit according to an exemplary embodiment of the present invention.
  • the error analysis unit 140 first receives depth information for each frame of a 2D image through the input unit 110 as shown in FIG. 5. (S1610).
  • the error analysis unit 140 extracts depth values for each pixel per frame from the depth map of the 2D image, and extracts the depth values for each pixel from each frame as shown in FIG. 5.
  • the data is stored in the depth information storage unit 1510.
  • the error analysis unit 140 uses the depth value through the error calculation unit 1530 for depth information for each frame, as shown in FIG. 17, as shown in FIG. 17. It is separated into the (object) part (S1620).
  • 17 is a diagram illustrating an example of separating a background into an object using a depth value with respect to a 2D image according to an exemplary embodiment of the present invention.
  • 18 illustrates an example of separating the object part and the background part by using depth values for the manually converted image and the automatically converted image.
  • FIG. 17A illustrates a frame of a left image for generating a 3D stereoscopic image
  • FIG. 17B illustrates a depth map of the image of FIG.
  • the depth information of the pixels representing the object is greater than the depth information of the pixels representing the background. Able to know.
  • area A should be included in the background although the depth information is large, and area B should be included in the object although the depth information is small.
  • the depth map When the depth map is generated by manually converting the image of FIG. 17A, the depth map is illustrated in FIG. 18A, and the depth map is automatically generated when the depth map is automatically converted to FIG. 18B. If the object and the background are separated by using the depth information of each depth map, it becomes (a ') and (b') of FIG.
  • the area A of FIG. 17 is incorrectly separated into an object because the depth information is large although the area A should be separated into the background, and the area B may be separated into an object. Because of its small size, it can be incorrectly separated into the background.
  • the error calculator 1530 separates the background and the object by using the object having a depth value greater than that of the background in each horizontal line of depth information of the 2D image.
  • the error calculator 1530 sets a threshold value for each horizontal line in the depth information, and considers the object larger than a threshold value among the depth values for the background and the object for each horizontal line. To separate the objects from the background.
  • the error calculating unit 1530 uses the difference image between the previous image (frame) and the current image (frame) as information other than the depth, and if the difference image value is smaller than the threshold value. If it is regarded as a background and if it is larger than the threshold, it can be regarded as an object, so that the background is treated as an object or an error in which the object is processed as a background can be detected. 19 illustrates an example of using a difference image between a previous frame and a current frame of a 2D image according to an embodiment of the present invention.
  • the image (a) of FIG. 19 is a current frame image
  • the image (b) of FIG. 19 is a previous frame image
  • the image (c) of FIG. 19 represents a difference image obtained by subtracting the previous frame image from the current frame image.
  • the difference image (Fig. 19 (c) image) is a difference occurs when the outline portion of the object (person) compares the current frame and the previous frame in accordance with the movement of the object, the difference in depth information occurs in this portion It can be seen that it is displayed in color.
  • the error calculator 1530 extracts an area where depth reversal occurs by comparing a depth map of an object or a background separated by the object / background separation unit and a difference image generated from the difference image.
  • the error analysis unit 140 detects a depth reversal through which the object is processed as the background or the background is processed as the object through the error calculation unit 1530 (S1630).
  • the error calculator 1530 may determine the depth in which the object is processed as the background in the image (a) in which the background and the object are separated as shown in FIG. 20, as the depth value of the background exists among the separated object parts.
  • the reversal (inner circle) is detected and the error count is calculated.
  • the error analysis unit 140 may detect an error in which the background is processed as an object by using the difference image as information other than the depth in the separated background part. That is, the error analysis unit 140, if the camera movement is not very dynamic, since the background portion is almost unchanged and only the object portion has a change in the image, the value of the difference image (b) of the background portion is small and the object (object) As shown in FIG. 20, when the value of the portion is greater than the threshold value in the background portion (black portion) as shown in FIG. 20, the value of the portion is regarded as depth inversion, and an error is detected. will be.
  • FIG. 20C is a diagram illustrating an example of detecting an error by considering the depth inversion B as the value of the difference image b is larger than the threshold value in the background part.
  • the error analysis unit 140 compares the (a) image, which is the object or background image separated into the object / background, and the (b) image, which is the difference image.
  • the error analysis unit 140 estimates the outline of the object from the difference image (image (b) of FIG. 20), and generates an area in which a pixel separated from the background included in the object is inverted in depth (FIG. c) B area of the image).
  • the error analysis unit 140 detects a pixel separated into a background among the pixels included in the object as an area occurring in the depth reversal, the depth information of the difference image pixel corresponding to the pixel constituting the separated object is inverted depth. Pixels less than the threshold value are extracted to an area where depth inversion occurs, and pixels having depth information of a difference image pixel corresponding to pixels constituting the separated background greater than or equal to the depth inversion threshold are extracted to an area where depth inversion occurs.
  • the error analysis unit 140 of the 3D stereoscopic image may detect a region where depth inversion occurs using a motion vector.
  • the motion vector calculation divides the frame into block units, calculates a motion vector of the block, and the error analysis unit 140 uses the calculated motion vector to determine whether the motion vector of the block constituting the separated background is a reference motion vector.
  • the larger block is extracted to the area where depth reversal occurs.
  • an error in the case where each pixel is separated into a background or an object using only depth information may be detected using a difference image or a motion vector, and the region in which the error is detected may be re-separated.
  • the error analysis unit 140 detects an error using a motion vector with information other than depth.
  • the error analysis unit 140 sets a global motion vector in a block unit and sets a block unit. When the calculated motion vector differs from the background motion vector by a certain degree, the motion vector is regarded as an object and an error is detected.
  • the error analysis unit 140 displays the error detection on the screen or stores the error detection unit in operation S1640.
  • the quality of the 3D stereoscopic image can be confirmed by objectively evaluating the quality of the error, which is one factor for measuring the quality of the 3D stereoscopic image. have.
  • the program for executing the quality analysis method of the three-dimensional stereoscopic image according to an embodiment of the present invention can be recorded in a computer-readable medium such as a CD or USB media.
  • An apparatus and method for analyzing quality of a 3D stereoscopic image may be implemented to allow an objective quality evaluation to be performed.
  • the present invention uses a depth map generated when converting a two-dimensional image to a three-dimensional stereoscopic image, and displays the degree of three-dimensionality as to how good the three-dimensional image has a three-dimensional image, or three-dimensionally. Seven factor values that affect the stability of stereoscopic images are obtained to indicate how severe the visual fatigue is, or to provide an objective quality assessment of whether there is no error in processing the background or object in the depth information. It can be used in the apparatus and method for analyzing quality of 3D stereoscopic images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a device and method for analyzing the quality of a three-dimensional stereoscopic image, and the device comprises: a three-dimensional effect analysis unit for extracting depth values for each pixel per frame from depth information on a two-dimensional image, generating a depth information histogram indicative of a distribution chart of a depth map in accordance with a depth gray value for the extracted depth values per frame, and generating a three-dimensional value (DF) by analyzing the similarity between the depth information histogram and a uniform distribution histogram by using a Bhattacharyya coefficient; a stability analysis unit for generating parallax information by using the depth information on the two-dimensional image, obtaining seven coefficient values by using the depth information and the parallax information, and generating a final stability coefficient value (CF) through a linear combination; an error analysis unit for detecting an error that processes the background as an object or an error that processes the object as the background, by using the depth information on the two-dimensional image or other information excluding the depth information; and an analysis result unit for calculating a total evaluation score by giving a weight and a constant to each coefficient value on a three-dimensional effect, stability, and errors for each sequence image when the two-dimensional image is converted into a three-dimensional stereoscopic image, and providing a list according to the ranking with the total evaluation score for each sequence image.

Description

3차원 입체영상의 품질 분석 장치 및 방법Apparatus and method for quality analysis of 3D stereoscopic images
본 발명은 3차원 입체영상의 품질 분석 장치 및 방법에 관한 것으로서, 보다 상세하게는, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 얼마나 좋은 입체감을 가지고 있는지에 대한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 그리고 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는 것이다.The present invention relates to an apparatus and method for analyzing a quality of a 3D stereoscopic image. More particularly, how good a 3D stereoscopic image is by using depth map generated when the 2D image is converted into a 3D stereoscopic image. Display the degree of three-dimensional sense of whether you have a numerical value, calculate the seven factors that affect the stability of three-dimensional stereoscopic images, and indicate how severe visual fatigue is, and process the object in the background It is to be able to perform an objective quality evaluation on whether there is no error processing an as an object.
최근에 3차원 입체 영상(stereoscopic image)에 대한 관심이 높아지면서 다양한 방식의 입체 영상 획득 장치와 디스플레이 장치들이 개발되고 있다. 입체 영상을 디스플레이하기 위해 입체 영상 신호를 획득하기 위한 한 가지 방법으로 영상의 획득시에 1쌍의 좌우 카메라를 이용하는 방법이 있다. 이 방법은 자연스러운 입체 영상을 디스플레이할 수 있는 장점은 있지만 영상 획득을 위하여 2대의 카메라가 필요할 뿐만 아니라 획득한 좌영상과 우영상의 필름화 또는 부호화에 따른 문제, 그리고 좌영상과 우영상의 프레임율의 차이 등과 같은 문제들을 해결해야 하는 단점이 있다. Recently, with increasing interest in 3D stereoscopic images, various types of stereoscopic image acquisition devices and display devices have been developed. One method for acquiring a stereoscopic image signal to display a stereoscopic image is to use a pair of left and right cameras when acquiring an image. This method has the advantage of displaying a natural three-dimensional image, but not only two cameras are required for image acquisition, but also problems caused by filming or encoding the acquired left and right images, and frame rates of the left and right images. There are disadvantages to solve the problems such as difference of the difference.
입체 영상 신호를 획득하기 위한 다른 한 가지 방법은 하나의 카메라로 획득한 2차원 영상신호를 3차원 영상신호로 변환하는 것이다. 이 방법에 의하면, 획득한 2차원 영상(원 영상)에 대하여 소정의 신호 처리를 수행함으로써 3차원 영상, 즉 좌영상과 우영상을 생성하기 때문에, 좌우 카메라를 이용하여 입체 영상신호를 획득할 때 초래되는 전술한 문제점이 발생하지 않는다. 다만, 이 방법은 하나의 영상을 이용하여 두 개의 영상을 생성하는 것이기 때문에, 자연스럽고 안정된 입체감을 갖는 입체 영상을 디스플레이하기가 어려운 단점이 있다. 따라서 2차원 영상신호를 3차원 영상신호로 변환하는데 있어서는 변환된 3차원 영상신호를 이용하여 더욱 자연스럽고 안정된 입체감을 갖는 입체 영상을 디스플레이하는 것이 상당히 중요하다.Another method for acquiring a 3D image signal is to convert a 2D image signal acquired by one camera into a 3D image signal. According to this method, since a three-dimensional image, i.e., a left image and a right image, is generated by performing predetermined signal processing on the acquired two-dimensional image (the original image), when acquiring a stereoscopic image signal using a left and right camera. The above-mentioned problem does not occur. However, since this method generates two images using one image, it is difficult to display a three-dimensional image having a natural and stable three-dimensional effect. Therefore, in converting a 2D video signal into a 3D video signal, it is very important to display a 3D video having a more natural and stable 3D effect by using the converted 3D video signal.
그런데, 시청자가 3차원 입체 영상을 접했을 때 느끼는 어지러움, 시각적 피로도 등을 연구하여 인간에게 가장 알맞은 시야각과 입체영상 시청거리 등에 관해서 어느 정도 객관성이 있고 타당한 연구 결과가 나와 있지만 2차원 영상에서 변환된 3차원 입체영상에 대한 자체의 품질을 측정하는 도구 및 장치는 아직까지 개발되지 않고 있다.By the way, the dizziness, visual fatigue, etc. that viewers feel when they come in contact with 3D stereoscopic images are studied. Tools and devices for measuring its own quality for 3D stereoscopic images have not been developed yet.
본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 얼마나 좋은 입체감을 가지고 있는지에 대한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 그리고 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법을 제공함에 그 기술적 과제가 있다.The present invention has been made to solve the above-described problem, by using the depth map generated when converting a 2D image into a 3D stereoscopic image, the degree of the stereoscopic sense of how good the stereoscopic sense is Display the numerical value, obtain seven factor values that affect the stability of the 3D stereoscopic image, and indicate how severe the visual fatigue is, and whether there is no error processing the object as a background or processing the background as an object. There is a technical problem to provide an apparatus and method for quality analysis of three-dimensional stereoscopic images, which enables to perform an objective quality evaluation for.
상술한 목적을 달성하기 위한 본 발명의 3차원 입체영상의 품질 분석 장치는, 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 입력부; 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 입체감 분석부; 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 분석부; 상기 2차원 영상에 대한 깊이 정보를 이용하거나, 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 오류성 분석부; 상기 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공하는 분석 결과부; 및 상기 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트를 화면 상에 출력하는 출력부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for quality analysis of a 3D stereoscopic image, comprising: an input unit configured to input an original sequence image and a depth map sequence image of a 2D image; Extract depth values for each pixel per frame from the depth information of the 2D image, and generate a depth information histogram indicating a depth map distribution map according to depth gray values for the extracted depth values for each frame. A three-dimensional analysis unit configured to generate a three-dimensional (DF) value by analyzing the similarity between the depth information histogram and the equal distribution histogram using a batcharya coefficient; Create parallax information using depth information on the 2D image, and use the depth information and parallax information between the range of parallax, the maximum value of parallax absolute value, the average value of parallax and the screen Seven coefficients for Average, Spatial Complexity, Depth Position of Screen and Distance Square, Temporal Complexity, and Mean Movement Square of Parallax Difference A stability analyzer for generating a final stability coefficient (CF) value by obtaining a linear combination; An error analysis unit that detects an error of processing a background as an object or an error of processing an object as a background by using depth information of the 2D image or using information other than the depth information; When converting the 2D image into a 3D stereoscopic image, the total evaluation score is calculated by giving weights and constants to the values of the stereoscopic sense, stability, and error of the sequence images for each sequence image. An analysis result unit having a total evaluation score and providing the list according to a ranking; And output coefficient values related to stereoscopic effect, stability, and error for each sequence image on the screen in numerical values and on a graph, and output a list according to the total evaluation score for each sequence image and the rank of each total evaluation score on the screen. It includes an output unit.
또한, 상기 분석 결과부는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력할 수 있다.The analysis result unit may output a total evaluation score (QM) by calculating a linear combination of three-dimensional effect and stability with respect to the total evaluation score.
[수학식 1][Equation 1]
Figure PCTKR2012009003-appb-I000001
Figure PCTKR2012009003-appb-I000001
여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며, 는 가중치(coefficient)를 나타내며, 는 상수(costant)를 나타낸다. Here, QM represents the total total evaluation score of the 3D image, DF represents the stereoscopic value of the 3D image, CF represents the stability coefficient value of the 3D image, represents the weight, and represents the cost. Indicates.
또한, 상기 분석 결과부는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정할 수 있다.The analysis result unit may determine the stereoscopic value DF as a logarithm of a histogram stereoscopic value and a parallax product according to Equation 2 below.
[수학식 2][Equation 2]
Figure PCTKR2012009003-appb-I000002
Figure PCTKR2012009003-appb-I000002
또한, 상기 입체감 분석부는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 히스토그램 생성부; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 입체값 산출부를 포함한다.The three-dimensional analysis unit may further include: a histogram generator configured to generate a depth information histogram indicating a depth map distribution according to a depth gray value with respect to the depth information per frame; And a stereoscopic value calculation unit configured to calculate a stereoscopic value (DF) using the Battacharyya coefficient for the similarity between the depth map histogram and the uniform distribution histogram.
또한, 상기 히스토그램 생성부는, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성할 수 있다.The histogram generator may convert depth values of each pixel per frame into a depth gray value of 0 to 255, and generate a depth information histogram indicating a distribution of depth gray values for each pixel in one frame. Can be generated.
또한, 상기 입체값 산출부는, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출할 수 있다.In addition, the stereoscopic value calculation unit normalizes the frequency of the depth map histogram by dividing the number of pixels by the total number of pixels, and normalizes the i th value of the depth information histogram (x [i]). According to Equation 4, the i th value of the depth information histogram may be calculated by dividing the entire pixel value.
[수학식 4][Equation 4]
Figure PCTKR2012009003-appb-I000003
Figure PCTKR2012009003-appb-I000003
또한, 상기 안정성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 산출부를 포함한다.The stability analysis unit may extract depth values for each pixel per frame from a depth map of the 2D image and store depth information for each frame by dividing the depth values for each pixel. part; A parallax information generation unit generating parallax information using the generated depth map; And a stability calculator configured to obtain seven coefficient values using the depth information and parallax information, and to generate a final stability coefficient (CF) value by linear combination.
또한, 상기 안정성 산출부는 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출할 수 있다.In addition, the stability calculator may calculate a final stability coefficient value CF for one frame by linear combination of the seven coefficient values according to Equation 12 below.
[수학식 12][Equation 12]
Figure PCTKR2012009003-appb-I000004
Figure PCTKR2012009003-appb-I000004
여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.Here, ω1 to ω7 represent weight values for seven coefficient values.
또한, 상기 안정성 산출부는, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출할 수 있다.In addition, the stability calculation unit calculates seven coefficient values according to Equation 10 for each frame for every frame in the same process of calculating the stability coefficient value CF for one frame, for each frame for every frame. The total stability factor (TCF) is arranged by arranging the seven coefficient values of the frame according to the following equation (13) (Total Compatibility Factor; TCF), and the weights of the seven coefficient values for each frame according to the following equation (14) It is possible to calculate the weighting factor (X) values arranged from (ω) values (ω1 to ω7).
[수학식 13][Equation 13]
Figure PCTKR2012009003-appb-I000005
Figure PCTKR2012009003-appb-I000005
[수학식 14][Equation 14]
Figure PCTKR2012009003-appb-I000006
Figure PCTKR2012009003-appb-I000006
여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.Here, X represents a weighting coefficient value consisting of a 7x1 matrix, S represents a matrix vector for Nx1 subjective evaluation, and N represents the number of frames.
또한, 상기 오류성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 오류성 산출부를 포함한다.In addition, the error analysis unit, depth information for extracting the depth value for each pixel per frame from the depth map (depth map) for the two-dimensional image, the depth information for dividing and storing the depth value for each extracted pixel for each frame Storage unit; A parallax information generation unit generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. It includes an error calculation unit.
또한, 상기 오류성 산출부는, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출할 수 있다.The error calculating unit may separate the background information and the object part using the depth value for each depth information per frame, and use the information other than the depth in the separated background part to determine the background object. Depth inversion to be processed can be detected to calculate the error coefficient value.
또한, 상기 오류상 산출부는, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출할 수 있다.In addition, the error image calculating unit may be regarded as a background when a difference value of the difference image is smaller than a threshold value by using a difference image between a previous frame and a current frame of the 2D image as information other than the depth, and as an object if larger than the threshold value. The error count can be calculated.
그리고, 상기 오류성 산출부는, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출할 수 있다.The error calculator may detect an error using a motion vector with information other than the depth. The error calculator may set a global motion vector in a block unit and move in a block unit. When the calculated motion vector value differs from the motion vector of the background by a predetermined amount or more, the error coefficient value may be calculated by considering the object as an object.
한편, 상술한 목적을 달성하기 위한 본 발명의 3차원 입체영상의 품질 분석 방법은, (a) 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 단계; (b) 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하여, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 단계; (c) 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 단계; (d) 상기 2차원 영상에 대한 깊이 정보 또는 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 단계; 및 (e) 상기 2차원 영상의 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하거나, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공하는 단계를 포함한다.On the other hand, the quality analysis method of the three-dimensional stereoscopic image of the present invention for achieving the above object, (a) inputting the original sequence image and depth map (depth map) sequence image for the two-dimensional image; (b) Depth information extracting depth values for each pixel per frame from the depth information of the two-dimensional image, and depth information indicating the depth map distribution according to the depth gray value for each extracted depth value for each frame Generating a histogram and analyzing the similarity between the depth information histogram and the uniform distribution histogram using a batcharya coefficient to generate a stereoscopic (DF) value; (c) generating parallax information using depth information of the 2D image, and using the depth information and parallax information, the range of parallax, the maximum value of the parallax absolute value, and the average value of parallax; Of the distance between the screen and the screen, the variance of the parallax, the variance of the screen and the distance square, the temporal complexity, and the average of the squares of the parallax differences. Obtaining seven coefficient values to produce a final stability coefficient (CF) value in a linear combination; (d) detecting an error of processing a background as an object or an error of processing an object as a background using depth information of the 2D image or information other than the depth information; And (e) calculating a total evaluation score by giving weights and constants to the three-dimensional, stability, and error coefficient values for each sequence image of the 2D image, or calculating the total evaluation score for each sequence image. Providing a list according to the ranking (Ranking).
한편, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 실행하는 프로그램을 CD나 USB 매체 등 컴퓨터로 읽을 수 있는 매체에 기록할 수 있다.On the other hand, the program for executing the quality analysis method of the three-dimensional stereoscopic image according to an embodiment of the present invention can be recorded in a computer-readable medium such as a CD or USB media.
상술한 바와 같이 본 발명의 3차원 입체영상의 품질 분석 장치 및 방법은, 3D 입체영상의 품질을 객관적으로 평가할 수 있다.As described above, the apparatus and method for quality analysis of 3D stereoscopic images of the present invention can objectively evaluate the quality of 3D stereoscopic images.
즉, 3D 입체영상의 품질을 가늠하는 한가지 요소인 입체감 중 depth level의 정도(깊이감)에 대한 품질을 수치로써 확인할 수 있고, 또한 품질을 가늠하는 요소인 안정성(편안감)에 대해 7 가지 계수 값을 산출해 평가할 수 있으며, 그리고 품질을 가늠하는 요소인 오류성에 대해 객관적으로 평가하여 3D 입체영상의 퀄리티(Quality)를 확인할 수 있다.In other words, the quality of the depth level (depth) of the three-dimensional image, which is one of the factors for measuring the quality of the 3D stereoscopic image, can be confirmed numerically, and the seven factors for the stability (comfort), which is the factor for measuring the quality, are measured. Values can be calculated and evaluated, and the quality of 3D stereoscopic images can be confirmed by objectively evaluating error, which is a factor for measuring quality.
도 1은 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치의 기능 블록을 개략적으로 나타낸 구성도이다.1 is a block diagram schematically showing a functional block of an apparatus for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 설명하기 위한 전체적인 동작 흐름도이다.2 is a flowchart illustrating an overall operation of a method for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 입체감 분석부의 제어 블록도이다.3 is a control block diagram of a stereoscopic analysis unit according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 입체감 분석부의 입체감 분석 방법을 설명하기 위한 동작 흐름도이다.4 is a flowchart illustrating a three-dimensional analysis method of the three-dimensional analysis unit according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따라 2차원 영상으로부터 생성한 각 프레임당 각 픽셀에 대한 깊이 값들의 예를 나타낸 도면이다.5 is a diagram illustrating examples of depth values for each pixel for each frame generated from a 2D image according to an exemplary embodiment of the present invention.
도 6은 본 발명의 실시예에 따라 하나의 프레임당 픽셀의 깊이값이 차지하는 분포도를 나타내는 히스토그램의 한 예를 도시한 도면이다.FIG. 6 is a diagram illustrating an example of a histogram showing a distribution chart occupied by a depth value of a pixel per frame according to an exemplary embodiment of the present invention.
도 7은 본 발명의 실시예에 따라 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값으로 나타낸 예를 도시한 도면이다.7 is a diagram illustrating an example in which the similarity between the depth information histogram and the uniform distribution histogram is shown in three-dimensional values according to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따라 산출된 입체값을 기준으로 3차원 입체영상의 하나의 프레임에 대한 입체감이 좋은 예와 나쁜 예를 나타낸 도면이다.FIG. 8 is a diagram illustrating examples of good and bad stereoscopic feelings for one frame of a 3D stereoscopic image based on the stereoscopic values calculated according to an embodiment of the present invention.
도 9는 본 발명의 실시예에 따른 안정성 분석부의 기능 블록을 개략적으로 나타낸 것이다.9 schematically illustrates a functional block of a stability analyzer according to an embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 안정성 분석부의 안정성 분석 방법을 설명하기 위한 동작 흐름도이다.10 is a flowchart illustrating a method for analyzing stability of a stability analyzer according to an exemplary embodiment of the present invention.
도 11은 본 발명의 실시예에 따른 시차의 범위(Range)와 시차의 최대값(Max)을 설명하기 위한 도면이다.FIG. 11 is a diagram for describing a range of parallax and a maximum value of parallax according to an embodiment of the present invention.
도 12는 본 발명의 실시예에 따른 시차의 평균값과 스크린 사이의 거리를 설명하기 위한 도면이다.12 is a diagram for describing a distance between an average value of parallax and a screen according to an exemplary embodiment of the present invention.
도 13은 본 발명의 실시예에 따른 시차의 분산(Spatial Complexity)을 설명하기 위한 도면이다.FIG. 13 is a diagram illustrating a spatial complexity of parallax according to an embodiment of the present invention. FIG.
도 14는 본 발명의 실시예에 따른 깊이 위치에 관한 계수 값을 산출하는 예를 설명하기 위한 도면이다.14 is a view for explaining an example of calculating a coefficient value regarding a depth position according to an embodiment of the present invention.
도 15는 본 발명의 실시예에 따른 오류성 분석부의 기능 블록을 개략적으로 나타낸 것이다.15 schematically illustrates a functional block of an error analysis unit according to an embodiment of the present invention.
도 16은 본 발명의 실시예에 따른 오류성 분석부의 오류성 분석 방법을 설명하기 위한 동작 흐름도이다.16 is a flowchart illustrating an error analysis method of an error analysis unit according to an exemplary embodiment of the present invention.
도 17은 본 발명의 실시예에 따른 2차원 영상에 대해 깊이 값을 이용하여 배경과 객체로 분리하는 예를 나타낸 도면이다. 17 is a diagram illustrating an example of separating a background into an object using a depth value with respect to a 2D image according to an exemplary embodiment of the present invention.
도 18은 수동 변환 영상과 자동 변환 영상에 대해 깊이 값을 이용해 객체 부분과 배경 부분으로 분리한 예를 나타낸 도면이다.FIG. 18 is a diagram illustrating an example of dividing an object portion and a background portion by using depth values for a manually converted image and an automatically converted image.
도 19는 본 발명의 실시예에 따라 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하는 예를 나타낸 도면이다.19 illustrates an example of using a difference image between a previous frame and a current frame of a 2D image according to an embodiment of the present invention.
도 20은 본 발명의 실시예에 따른 배경 부분에서 차영상의 값이 임계값보다 큼에 따라 깊이 역전으로 간주하여 오류를 검출하는 예를 나타낸 도면이다.20 is a diagram illustrating an example of detecting an error by considering a depth inversion as a value of a difference image is greater than a threshold value in a background part according to an exemplary embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치의 기능 블록을 개략적으로 나타낸 구성도이다.1 is a block diagram schematically showing a functional block of an apparatus for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 장치(100)는, 입력부(110), 입체감 분석부(120), 안정성 분석부(130), 오류성 분석부(140), 분석 결과부(150) 및 출력부(160) 등을 포함한다.Referring to FIG. 1, the apparatus 100 for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention may include an input unit 110, a stereoscopic analysis unit 120, a stability analysis unit 130, and an error analysis unit ( 140, an analysis result unit 150, an output unit 160, and the like.
입력부(110)는 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보 시퀀스 이미지를 입력한다. 이때, 한 폴더 내에 시퀀스 이미지의 파일명 끝에 "_001, _002, _003, …" 처럼 순차적인 번호가 붙여져 있을 때, 그 폴더 내의 이미지를 모두 불러와 입력한다.The input unit 110 inputs an original sequence image and a depth information sequence image for a 2D image. At this time, when a sequential number such as "_001, _002, _003, ..." is attached to the end of the file name of the sequence image in one folder, all the images in the folder are loaded and input.
입체감 분석부(120)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 정보에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 분석하여 입체값(QM Factor)을 생성한다. 이때, 입체값이 예를 들면 0.3 이하는 저급, 0.3 ~ 0.8 사이는 중급, 0.8 이상은 고급 입체감을 가지고 있다고 볼 수 있다.The stereoscopic analysis unit 120 extracts depth values for each pixel of each frame as shown in FIG. 5 from a depth map of the 2D image, and extracts depth gray for each extracted depth information for each frame. Depth histogram showing depth map distribution according to (depth gray) values, and the similarity between depth map histogram and uniform distribution histogram is calculated by Bhattacharyya Coefficient. ) To generate a QM factor. At this time, it can be seen that the stereoscopic value is lower than 0.3, for example, intermediate between 0.3 and 0.8, and higher than three-dimensional has a high three-dimensional effect.
안정성 분석부(130)는 2차원 영상에 대한 깊이 지도(depth map)를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다.The stability analyzer 130 generates parallax information using a depth map of the 2D image, and a range of parallax that affects stability of the 3D stereoscopic image using depth information and parallax information. (Range), the maximum value of the parallax absolute value (Max), the distance between the mean value of the parallax and the screen (Average), the spatial complexity of the parallax, the variance of the screen and the distance squared (Depth Position), the variance of the parallax difference Seven factors, such as Temporal Complexity and the mean of the square of the parallax difference, are obtained, and the final stability coefficient (CF) is generated by linear combination.
오류성 분석부(140)는 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전(Depth map reverse)의 오류를 검출한다.The error analysis unit 140 separates the depth information for each frame into a background part and an object part using the depth value, and processes the object in the background based on the threshold value. Detect an error in depth map reverse that treats the background as an object.
분석 결과부(150)는 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성 등의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 1(나쁨) 부터 5(좋음)까지 총 평가 점수를 산출해 디스플레이 하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공한다. 즉, 분석 결과부(150)는 최종적인 품질 결과값에 대해 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력한다.The analysis result unit 150 gives a weight and a constant for each coefficient value such as stereoscopic feeling, stability, and error for each sequence image when converting a 2D image into a 3D stereoscopic image, thereby giving 1 (bad) The total evaluation score is calculated and displayed from 5 to (good), and the total evaluation score for each sequence image is provided as a list according to the ranking. That is, the analysis result unit 150 outputs the total evaluation score QM by calculating the linear combination of the three-dimensional effect and the stability according to the following equation 1 for the final quality result value.
수학식 1
Figure PCTKR2012009003-appb-M000001
Equation 1
Figure PCTKR2012009003-appb-M000001
여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타낸다. 또한, 는 가중치(coefficient)를 나타내는 것으로 3D 영상의 입체값에 대한 계수값과 3D 영상의 안정성에 대한 계수값을 나타내며 수학식12 내지 수학식14와 같은 방식으로 얻을 수 있고, 는 상수(costant)를 나타내는 것으로 최종 결과로 총 평가 점수가 0 ~ 5점 사이가 나올 수 있도록 일정 값을 더하여 값을 조정하기 위해 정한 값을 나타낸다. 이때, 입체값의 경우 시차(parallax)를 증가시키다 보면 입체감이 더 이상 좋아지지 않는 지점이 발생하므로, 분석 결과부(150)는 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하게 된다.Here, QM represents a total total evaluation score of the 3D image, DF represents a stereoscopic value of the 3D image, and CF represents a stability coefficient value of the 3D image. In addition, denotes a weight (coefficient) represents a coefficient value for the stereoscopic value of the 3D image and a coefficient value for the stability of the 3D image can be obtained in the same manner as in Equations 12 to 14, and is a cost The final result indicates a value determined to adjust the value by adding a certain value so that the total evaluation score is between 0 and 5 points. In this case, in the case of the stereoscopic value, when the parallax increases, the point where the stereoscopic feeling no longer improves is generated, and the analysis result unit 150 analyzes the histogram stereoscopic value and the parallax according to the following equation (2) for the stereoscopic value DF. parallax) is determined by the logarithm of the product.
수학식 2
Figure PCTKR2012009003-appb-M000002
Equation 2
Figure PCTKR2012009003-appb-M000002
출력부(160)는 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프 등으로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트 등을 화면 상에 출력한다. 이때, 출력부(160)는 시퀀스 이미지에 대한 각각의 점수를 Polar Graph로 나타내어 각각의 프레임에 대한 점수를 사용자가 한 눈에 식별할 수 있도록 한다.The output unit 160 outputs coefficient values related to stereoscopic feeling, stability, and error for each sequence image on the screen as numerical values and graphs, and lists the total evaluation scores for each sequence image and the rank of each total evaluation score. And so on. At this time, the output unit 160 displays each score for the sequence image in a polar graph so that the user can identify the score for each frame at a glance.
도 2는 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 설명하기 위한 전체적인 동작 흐름도이다.2 is a flowchart illustrating an overall operation of a method for analyzing quality of a 3D stereoscopic image according to an exemplary embodiment of the present invention.
도 2를 참조하면, 3차원 입체영상의 품질 분석 장치(100)는, 먼저 입력부(110)를 통해 원본 시퀀스 이미지(Raw sequence image)와 깊이지도 시퀀스 이미지(depth map sequence image)를 입력받는다(S210).Referring to FIG. 2, the apparatus 100 for analyzing quality of a 3D stereoscopic image first receives a raw sequence image and a depth map sequence image through the input unit 110 (S210). ).
이에, 입체감 분석부(120)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 정보에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 분석하여 입체값(QM Factor)을 생성한다(S220).Accordingly, the 3D analysis unit 120 extracts depth values for each pixel of each frame as shown in FIG. 5 from a depth map of the 2D image, and extracts depth information for each extracted frame. Create a depth information histogram that shows the depth map distribution according to the depth gray value, and calculate the similarity between the depth map histogram and the uniform distribution histogram. Analyze using Bhattacharyya Coefficient to generate a three-dimensional value (QM Factor) (S220).
또한, 안정성 분석부(130)는 2차원 영상에 대한 깊이 지도(depth map)를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다(S230).In addition, the stability analysis unit 130 generates parallax information using a depth map of the 2D image, and the parallax affecting the stability of the 3D stereoscopic image using the depth information and the parallax information. Range, the maximum value of the parallax absolute value (Max), the average value of the parallax and the distance between the screen (Average), the spatial complexity of the parallax, the variance of the screen and the distance squared (Depth Position), the parallax difference Seven factors, such as Temporal Complexity and the mean of the square of the parallax difference, are obtained, and the final stability coefficient (CF) is generated by linear combination (S230).
즉, 안전성 분석부(130)는 사용자가 안정성에 대한 버튼을 클릭하면, 안정성 내 계수(Factor)들에 대한 프레임들의 평균 결과값의 WeightSum을 계산하여 출력하고, 각 프레임마다의 결과 값은 텍스트 파일로 저장하여 각 프레임에 대한 결과 값도 볼 수 있도록 한다.That is, when the user clicks the button for stability, the safety analysis unit 130 calculates and outputs a WeightSum of the average result value of the frames for the factors in the stability, and the result value for each frame is a text file. Save it so that you can see the result for each frame.
또한, 오류성 분석부(140)는 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전(Depth map reverse)에 대한 오류값을 생성한다(S240).In addition, the error analysis unit 140 separates the depth information for each frame into a background part and an object part using the depth value, and sets the background of the object based on the threshold value. In operation S240, an error value for depth map reverse, which is processed as or is processed as an object, is generated.
즉, 오류성 분석부(140)는 깊이 역전을 검출하였을 때 썸네일(sumnail) 이미지로 역전된 깊이 지도를 출력하고, 오류가 있을 경우 사용자로 하여금 UI(User Interface)를 통해 해당 프레임을 선택하여 그 결과값만 제외할 수 있도록 하며, 역전된 부분은 어느 위치에 얼마만큼의 영역이 역전되었는지 8*8 픽셀 단위의 흰색 블록으로 표시한다. 이때, 하나의 프레임에서 전체 블록수 대비 흰색 블록의 비율을 점수화하여 오류값으로 생성하고, 하나의 프레임에 15 블록 이상의 역전 현상이 존재할 때 해당 프레임 영상의 이상을 표시하며, 각 프레임에 임계값 이상의 역전 현상이 일어난 프레임을 오류 프레임으로 표시할 수 있다.That is, when the depth reversal is detected, the error analysis unit 140 outputs a depth map inverted as a thumbnail image, and if there is an error, the user selects a corresponding frame through the UI (User Interface) Only the result value can be excluded, and the inverted part shows how many areas are inverted and where they are inverted by white blocks of 8 * 8 pixels. In this case, the ratio of the white blocks to the total number of blocks in one frame is scored to generate an error value, and when there is more than 15 blocks of inversion in one frame, the abnormality of the corresponding frame image is displayed, and each frame has a threshold value or more. The frame in which the reverse phenomenon occurs can be displayed as an error frame.
이어, 분석 결과부(150)는 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성에 대한 값에 각각의 가중치와 상수(Constant)를 주어 1(나쁨) 부터 5(좋음)까지 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공한다(S250).Subsequently, the analysis result unit 150 calculates a total evaluation score from 1 (bad) to 5 (good) by giving weights and constants to respective values of stereoscopic sense, stability, and error for each sequence image. The total evaluation score for each sequence image is provided as a list according to a ranking (S250).
즉, 분석 결과부(150)는 각 시퀀스 이미지에 대한 입체감과 안정성 및 오류성에 대한 결과 값을 수치와 그래프 등으로 출력하고, 원본 시퀀스 이미지와 Depth 시퀀스 이미지를 썸네일로 출력하며, 입체감과 오류성에 대한 결과 썸네일을 출력한다.That is, the analysis result unit 150 outputs the result values of the three-dimensional feeling, stability and error of each sequence image in numerical values and graphs, and outputs the original sequence image and the depth sequence image as thumbnails, and Print the resulting thumbnail.
따라서, 사용자는 원본 시퀀스 이미지에 대해서 입체감과 안정성, 오류성에 대해 각각의 값을 확인할 수 있고, 전체적인 품질에 관한 총 평가 점수를 확인할 수 있다.Therefore, the user can check each value of the stereoscopic sense, stability and error of the original sequence image, and can check the total evaluation score on the overall quality.
[ 입체감 분석부의 상세 구성 및 동작 ][Detailed Structure and Operation of Stereoscopic Analysis]
도 3은 본 발명의 실시예에 따른 입체감 분석부의 제어 블록도이다. 3 is a control block diagram of a stereoscopic analysis unit according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 본 발명의 입체감 분석부(120)는, 히스토그램(histogram) 생성부(310), 입체값 산출부(320), 입체값 저장부(330)를 포함한다. As shown in FIG. 3, the stereoscopic analysis unit 120 of the present invention includes a histogram generator 310, a stereoscopic value calculator 320, and a stereoscopic value storage unit 330.
여기서, 2차원 영상에 대한 각 프레임당 깊이 정보는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하여 얻은 것이다. 깊이 지도는 2차원 영상에 대한 프레임당 각 픽셀의 깊이값(depth value)들을 저장한 데이터 구조이다. 도 5는 본 발명의 실시예에 따라 2차원 영상으로부터 생성한 각 프레임당 각 픽셀에 대한 깊이 값들의 예를 나타낸 도면이다. 도 5에 도시된 바와 같이, 입체감 분석부(120)는 깊이지도로부터 (가)와 같이 프레임당 각 픽셀에 대한 깊이값들을 추출하고, 추출한 각 픽셀에 대한 깊이값들을 (나)와 같이 각 프레임별로 구분하여 임시로 저장한다. 이때, 입체감 분석부(120)는 생성한 깊이정보를 임시로 저장하기 위한 저장 기능을 갖는다.Here, the depth information for each frame of the 2D image is obtained by extracting depth values for each pixel of each frame as shown in FIG. 5 from the depth map of the 2D image. The depth map is a data structure that stores depth values of each pixel per frame for the 2D image. 5 is a diagram illustrating examples of depth values for each pixel for each frame generated from a 2D image according to an exemplary embodiment of the present invention. As shown in FIG. 5, the 3D analysis unit 120 extracts depth values for each pixel per frame from the depth map as shown in (A), and extracts depth values for each extracted pixel as shown in (B). Save by temporarily. At this time, the three-dimensional analysis unit 120 has a storage function for temporarily storing the generated depth information.
히스토그램 생성부(310)는 추출된 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성한다. 즉, 히스토그램 생성부(120)는 도 6에 도시된 바와 같이 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하여 가로축으로 하고, 하나의 프레임에서 각 깊이 값이 얼마나 분포되어 있는지를 나타내는 분포도를 세로축으로 하는 히스토그램을 생성하는 것이다. 도 6은 본 발명의 실시예에 따라 하나의 프레임당 픽셀의 깊이값이 차지하는 분포도를 나타내는 히스토그램의 한 예를 도시한 도면이다.The histogram generator 310 generates a depth information histogram representing a depth map distribution according to the depth gray value with respect to the extracted depth information per frame. That is, the histogram generator 120 converts the depth values of each pixel per frame into depth gray values of 0 to 255 as the horizontal axis, as shown in FIG. 6, and sets each depth value in one frame. The histogram with the vertical axis showing the distribution of how much is distributed. FIG. 6 is a diagram illustrating an example of a histogram showing a distribution chart occupied by a depth value of a pixel per frame according to an exemplary embodiment of the present invention.
입체값 산출부(320)는 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용해 산출하여 입체값(DF)으로 출력한다. 여기서, 균등 분포 히스토그램은 입체감이 높게 나타나도록 깊이지도의 깊이 값이 다양하게 분포된 이상적인 깊이 정보 히스토그램을 의미한다. 따라서, 본 발명의 입체감 분석부(120)는 모든 각 프레임당 픽셀의 깊이 정보 히스토그램과 비교하기 위한 기준이 되는 균등 분포 히스토그램을 저장하고 있다.The stereoscopic value calculator 320 calculates the similarity between the depth map histogram and the uniform distribution histogram using a Battacharyya Coefficient, and outputs the similarity between the depth map histogram and the stereoscopic value DF. Here, the equal distribution histogram means an ideal depth information histogram in which the depth values of the depth map are variously distributed so that a three-dimensional appearance is high. Accordingly, the stereoscopic analysis unit 120 of the present invention stores an equal distribution histogram which is a reference for comparing with the depth information histogram of each pixel per frame.
즉, 입체값 산출부(320)는 깊이 정보 히스토그램과 균등 분포 히스토그램 값들의 총합이 각각 1이 되도록 픽셀의 개수로 나누어 정규화(Normalization)하고, 바타차리야 계수를 이용하여 다음 수학식3에 따라 깊이 정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값(DFHistogram)으로 산출하는 것이다.That is, the stereoscopic value calculating unit 320 normalizes the number of pixels so that the sum of the depth information histogram and the uniform distribution histogram values is 1, and normalizes the depth information according to the following equation (3) using the Batcharya coefficient. The similarity between the information histogram and the uniform distribution histogram is calculated as a three-dimensional value (DFHistogram).
수학식 3
Figure PCTKR2012009003-appb-M000003
Equation 3
Figure PCTKR2012009003-appb-M000003
수학식3에서, 는 정규화 된(Normalized) 깊이 정보 히스토그램의 i번째 인덱스(index)의 값이고, 는 정규화 된 균등분포 히스토그램의 i번째 인덱스(index)의 값을 나타낸다.In Equation 3, is a value of the i-th index of the normalized depth information histogram, and is a value of the i-th index of the normalized uniformly distributed histogram.
여기서, 바타차리야 계수는 이전 프레임과 현재 프레임을 비교하여 두 프레임 간의 색상의 유사성을 찾아내어 최대로 유사한 픽셀들을 이전 프레임과 동일한 픽셀들로 인식하여 추적하는 것으로, -1에서 1까지의 값을 가지며, 1에 가까울수록 두 프레임 간 높은 상호 연관성을 갖고, -1에 가까울수록 연관성이 적다. 즉, 입체값이 1에 가까울수록 서로 유사하고, -1에 가까울수록 서로 다르다는 것이다.Here, the Batcharya coefficient compares the previous frame with the current frame, finds the color similarity between the two frames, and recognizes and tracks the most similar pixels as the same pixels as the previous frame. The closer to 1, the higher the correlation between the two frames, and the closer to -1, the lower the correlation. That is, the closer the stereoscopic value is to 1, the more similar it is, and the closer to -1, the different.
도 4는 본 발명의 실시예에 따른 입체감 분석부의 입체감 분석 방법을 설명하기 위한 동작 흐름도이다.4 is a flowchart illustrating a three-dimensional analysis method of the three-dimensional analysis unit according to an embodiment of the present invention.
먼저, 본 발명의 실시예에 따른 입체감 분석부(120)는 입력부(110)를 통해 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S410).First, the stereoscopic analysis unit 120 according to an embodiment of the present invention receives depth information for each frame of the 2D image through the input unit 110 (S410).
이때, 입체감 분석부(120)는 2차원 영상의 깊이지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 임시로 저장한다.At this time, the 3D analysis unit 120 extracts depth values for each pixel per frame from the depth map of the 2D image, and extracts depth values for each extracted pixel for each frame. Save it temporarily.
이어, 입체감 분석부(120)는 입력부(110)를 통해 입력받은 각 프레임당 깊이 정보에 대해, 히스토그램 생성부(310)를 통해 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성한다(S420).Subsequently, the three-dimensional analysis unit 120 performs depth map distribution according to depth gray values through the histogram generator 310 with respect to depth information for each frame received through the input unit 110. A depth information histogram is generated (S420).
즉, 히스토그램 생성부(310)는 도 6에 도시된 바와 같이 프레임당 각 픽셀의 깊이 값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하여 가로축으로 하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값이 얼마나 분포되어 있는지를 나타내는 분포도를 세로축으로 하는 깊이 정보 히스토그램을 생성하는 것이다.That is, the histogram generator 310 converts the depth values of each pixel per frame into depth gray values of 0 to 255 values as shown in FIG. 6, and sets the horizontal axis, and in each frame in one frame. It is to generate a depth information histogram with a vertical axis indicating a distribution of depth gray values.
이어, 입체감 분석부(120)는 입체값 산출부(320)를 통해 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(QM Factor)으로 산출한다(S430).Subsequently, the stereoscopic analysis unit 120 determines the similarity between the depth map histogram and the uniform distribution histogram through the stereoscopic value calculator 320 using the Bhattacharyya Coefficient. It calculates it as a value (QM Factor) (S430).
이때, 입체값 산출부(320)는 깊이정보 히스토그램과 균등분포 히스토그램 값들의 총합이 각각 1이 되도록 픽셀의 개수로 나누어 정규화(Normalization)하고, 바타차리야 계수를 이용하여 수학식1과 같이 정규화 한 깊이정보 히스토그램의 각 인덱스 값과 정규화 한 균등분포 히스토그램의 각 인덱스 값을 곱하여 루트를 취한 값들을 모두 합하여, 도 7에 도시된 바와 같이 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값(DFHistogram)으로 산출하는 것이다. 도 7은 본 발명의 실시예에 따라 깊이정보 히스토그램과 균등분포 히스토그램의 유사도를 입체값으로 나타낸 예를 도시한 도면이다.At this time, the three-dimensional value calculation unit 320 is normalized by the number of pixels so that the sum of the depth information histogram and the equal distribution histogram value is 1, respectively, and normalized as shown in Equation 1 by using the Batcharya coefficient. By multiplying each index value of the depth information histogram by each index value of the normalized uniform distribution histogram and adding the roots together, as shown in FIG. 7, the similarity of the depth information histogram and the uniform distribution histogram as a three-dimensional value (DFHistogram). To calculate. 7 is a diagram illustrating an example in which the similarity between the depth information histogram and the uniform distribution histogram is shown in three-dimensional values according to an embodiment of the present invention.
즉, 입체값 산출부(320)는 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화한다. 여기서, 전체 픽셀(Total)은 예를 들면, 1920*1080의 Full HD이면 2,073,600 픽셀이라 할 수 있다. 깊이정보 히스토그램의 i번째 값의 정규화(x[i])는 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출할 수 있다.That is, the stereoscopic value calculator 320 normalizes the frequency of the depth map histogram by dividing the frequency by the number of pixels. In this case, the total pixel total may be 2,073,600 pixels, for example, in 1920 * 1080 Full HD. The normalization (x [i]) of the i-th value of the depth information histogram may be calculated by dividing the i-th value of the depth information histogram by all pixel values according to Equation 4 below.
수학식 4
Figure PCTKR2012009003-appb-M000004
Equation 4
Figure PCTKR2012009003-appb-M000004
따라서, 정규화 한 깊이정보 히스토그램 값의 i번째부터 255까지의 합은 1이라 할 수 있으며, 0부터 255까지의 깊이 그레이(depth gray) 값에 대해, 정규화 된(Normalized) 깊이정보 히스토그램의 1번째 인덱스(index)의 값(x1)과 정규화 된 균등분포 히스토그램의 1번째 인덱스(index)의 값(y1)을 곱하여 루트를 취한 값과, 정규화 된 깊이정보 히스토그램의 2번째 인덱스(index)의 값(x2)과 정규화 된 균등분포 히스토그램의 2번째 인덱스(index)의 값(y2)을 곱하여 루트를 취한 값, 동일한 과정으로 정규화 된 깊이정보 히스토그램의 256번째 인덱스(index)의 값(x256)과 정규화 된 균등분포 히스토그램의 256번째 인덱스(index)의 값(y256)을 곱하여 루트를 취한 값을 모두 합하여 입체값(DFHistogram)을 산출하게 되는 것이다.Therefore, the sum from i th to 255 of the normalized depth histogram value is 1, and the first index of the normalized depth histogram for the depth gray value from 0 to 255. The rooted value is multiplied by the value of (index) (x1) and the value of the first index (y1) of the normalized uniform distribution histogram, and the value of the second index (x2) of the normalized depth information histogram (x2). ) Is multiplied by the value of the second index (y2) of the normalized uniform distribution histogram, and the root is obtained, and the value of the 256th index (x256) of the depth histogram normalized by the same process (x256) By multiplying the value of the 256th index (y256) of the distribution histogram, the rooted values are added together to calculate the stereoscopic value (DFHistogram).
그리고, 입체감 분석부(120)는 입체값 산출부(320)를 통해 산출된 각 프레임당 입체값을 도 8에 도시된 바와 같이 화면 상에 디스플레이하거나, 이후에 사용하기 위해 입체값 저장부(330)에 저장한다(S440).The stereoscopic analysis unit 120 displays the stereoscopic value for each frame calculated by the stereoscopic value calculating unit 320 on the screen as shown in FIG. 8, or the stereoscopic value storage unit 330 for later use. Save to (S440).
즉, 입체값 산출부(320)는 수학식1과 같이 산출한 각 프레임당 입체값을 해당 프레임 및 히스토그램과 함께 화면 상에 출력함으로써, 사용자가 도 8에 도시된 바와 같이 입체감이 좋은 예와 입체감이 나쁜 예로 구분할 수 있다. 도 8은 본 발명의 실시예에 따라 산출된 입체값을 기준으로 3차원 입체영상의 하나의 프레임에 대한 입체감이 좋은 예와 나쁜 예를 나타낸 도면이다.That is, the stereoscopic value calculator 320 outputs the stereoscopic values for each frame, calculated as shown in Equation 1, on the screen together with the frame and the histogram, so that the user has a good stereoscopic effect and stereoscopic effect as shown in FIG. 8. This is a bad example. FIG. 8 is a diagram illustrating examples of good and bad stereoscopic feelings for one frame of a 3D stereoscopic image based on the stereoscopic values calculated according to an embodiment of the present invention.
따라서, 본 발명의 실시예에 따른 입체감 분석부(120)에 의하면, 3D 입체영상이 얼마나 좋은 입체감을 가지고 있는지를 수치로써 확인할 수 있다.Therefore, according to the stereoscopic analysis unit 120 according to an embodiment of the present invention, it can be confirmed by numerical value how good the 3D stereoscopic image has a stereoscopic feeling.
[ 안정성 분석부의 상세 구성과 동작 ][Detailed Configuration and Operation of Stability Analysis Unit]
도 9는 본 발명의 실시예에 따른 안정성 분석부의 기능 블록을 개략적으로 나타낸 것이다.9 schematically illustrates a functional block of a stability analyzer according to an embodiment of the present invention.
안정성 분석부(130)는 입력부(110)를 통해 원본 시퀀스 이미지와 깊이지도 시퀀스 이미지를 입력받으면, 입력된 깊이지도 시퀀스 이미지를 깊이정보 저장부(910)에 저장한다. When the stability analysis unit 130 receives the original sequence image and the depth map sequence image through the input unit 110, the stability analysis unit 130 stores the input depth map sequence image in the depth information storage unit 910.
즉, 깊이정보 저장부(910)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 (가)와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 (나)와 같이 각 프레임별로 구분하여 저장하는 기능을 갖는다.That is, the depth information storage unit 910 extracts the depth values for each pixel per frame from the depth map of the 2D image as shown in FIG. 5, and the depth for each extracted pixel. It has a function to store values separately for each frame as shown in (b).
이어, 시차정보 생성부(920)는 이렇게 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성한다. 사람은 2 개의 눈을 통해 사물의 입체감이나 거리감을 인지한다. 하나의 사물을 볼 때, 2 개의 눈을 통해 각각 다른 영상이 생성되고 이러한 영상을 적절히 합성함으로써 사람은 사물의 입체감이나 거리감을 인지하게 된다. 따라서, 3차원 입체영상은 이러한 사람의 인지 특성을 고려하여 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성하게 된다. 이러한 눈의 시각적 차이가 바로 시차이며, 깊이 지도를 이용하여 시차를 생성한다. Subsequently, the parallax information generator 920 generates parallax information using the generated depth map. A person perceives the three-dimensional or distance of an object through two eyes. When looking at an object, different images are generated through two eyes, and by appropriately synthesizing the images, a person perceives a three-dimensional sense or a sense of distance of the object. Accordingly, the 3D stereoscopic image generates two images in consideration of visual differences between left and right eyes from one 2D image in consideration of the cognitive characteristics of the person. This visual difference between the eyes is parallax, and creates a parallax using a depth map.
이어, 안정성 산출부(930)는 깊이 정보와 시차 정보를 이용해 3차원 입체영상의 안정성에 영향을 미치는 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement) 등 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성한다.Subsequently, the stability calculator 930 uses depth information and parallax information to determine the range of parallax that affects the stability of the 3D stereoscopic image, the maximum value of the parallax absolute value, the average value of the parallax, and the screen. Seven factors: distance, spatial complexity, variance of screen and distance squares, temporal complexity, and mean movement squared ) Is then used to generate the final coefficient of stability (CF) by linear combination.
도 10은 본 발명의 실시예에 따른 안정성 분석부의 안정성 분석 방법을 설명하기 위한 동작 흐름도이다.10 is a flowchart illustrating a method for analyzing stability of a stability analyzer according to an exemplary embodiment of the present invention.
먼저, 본 발명의 실시예에 따른 안정성 분석부(130)는 입력부(110)를 통해 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S1010).First, the stability analyzer 130 according to an embodiment of the present invention receives depth information for each frame of the 2D image through the input unit 110 (S1010).
이때, 안정성 분석부(130)는 2차원 영상의 깊이 지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장한다.In this case, the stability analysis unit 130 extracts depth values for each pixel per frame from the depth map of the 2D image, and extracts the depth values for each extracted pixel for each frame. Save separately.
이어, 안정성 분석부(130)는 각 프레임당 깊이 지도를 이용하여 시차정보 생성부(920)를 통해 시차(parallax) 정보를 생성한다(S1020).Subsequently, the stability analyzer 130 generates parallax information through the parallax information generator 920 using the depth map for each frame (S1020).
즉, 시차정보 생성부(920)는 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성할 때 이용하는 눈의 시각적 차이에 관한 시차 정보를 생성하는 것이다.That is, the parallax information generation unit 920 generates parallax information about visual differences of eyes used when generating two images considering visual differences between left and right eyes from one 2D image.
이어, 안정성 분석부(130)는 깊이 정보와 시차 정보를 이용해 안정성 산출부(930)를 통해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수(Factor)값을 산출한다(S1030).Subsequently, the stability analyzer 130 uses the depth information and the parallax information to determine the range of parallax, the maximum value of the parallax absolute value, the average value of the parallax, and the distance between the screens through the stability calculator 930. Average, Spatial Complexity, Depth Position of the Screen and Distance Squares, Temporal Complexity, and Seven Movements on the Mean Square of the Parallax Difference. The value is calculated (S1030).
즉, 안정성 산출부(930)는 첫번째 계수 값으로 다음 수학식5에 따라 시차의 범위(Range)에 관한 계수 값(CFRange)을 산출한다.That is, the stability calculator 930 calculates the coefficient value CFRange of the range of parallax according to Equation 5 as the first coefficient value.
수학식 5
Figure PCTKR2012009003-appb-M000005
Equation 5
Figure PCTKR2012009003-appb-M000005
여기서, 시차의 범위(Range)는 도 11에 도시된 바와 같이 각 프레임(frame) 별 깊이 지도(depth map)의 스크린(Screen)을 기준으로 디스패러티(disparity)의 값이 앞쪽으로 가장 많이 나온 값을 max(스크린 값을 0이라 할 때 disparity 값이 마이너스(-) 값 중 가장 큰 값), 뒤쪽으로 가장 많이 들어간 값을 min(disparity값이 플러스(+) 값으로 가장 큰 값)으로 한다. Range 값이 클수록 시차 폭이 크므로 안정성에 영향을 미칠 수 있다.Herein, the range of parallax is the value where the disparity is most forwarded based on the screen of the depth map for each frame, as shown in FIG. 11. Let max be the maximum value of the negative (-) value of the disparity value when the screen value is 0, and min (the largest value of the disparity value as the positive value). The larger the range value, the larger the parallax width, which may affect stability.
또한, disp(x,y)는 원 영상의 x,y 좌표값이 좌영상에서 얼마만큼 이동했는가에 대한 값으로, 깊이정보(depth map)의 x,y 좌표의 gray 값을 256(총 depth의 gray level 값)에서 뺀 값(256-depthmap(x,y좌표 gray값)에 스크린 면의 gray 값을 뺀 값[(256-depthmap(x,y좌표 gray값))-Screen면의 gray 값]이 그 정보가 된다. 즉 스크린 면을 기준으로 얼마만큼 좌, 우 영상의 차가 존재하는가에 대한 정보이다. 도 11은 본 발명의 실시예에 따른 시차의 범위(Range)와 시차의 최대값(Max)을 설명하기 위한 도면이다.Also, disp (x, y) is a value of how much the x, y coordinate values of the original image are moved in the left image, and the gray value of the x, y coordinates of the depth map is 256 (the total depth of the image). subtracted from the gray level value (256-depthmap (x, y coordinate gray value) minus the gray value of the screen surface [(256-depthmap (x, y coordinate gray value))-screen gray value]) That is, information on how much difference between left and right images exists based on the screen surface Figure 11 is a range of parallax and a maximum value of parallax according to an embodiment of the present invention. It is a figure for explaining.
또한, 안정성 측정부(150)는 두번째 계수 값으로 다음 수학식6에 따라 시차 절대값의 최대값(Max)에 관한 계수 값(CFMax)을 산출한다.In addition, the stability measuring unit 150 calculates the coefficient value CFMax regarding the maximum value Max of the parallax absolute value according to Equation 6 as the second coefficient value.
수학식 6
Figure PCTKR2012009003-appb-M000006
Equation 6
Figure PCTKR2012009003-appb-M000006
여기서, 최대값(MAX)은 도 11에 도시된 바와 같이 각 frame 별 depth map에서 스크린(Screen)을 기준으로 disparity의 값이 앞쪽으로 가장 많이 나온 값(disp(x,y)값 즉 마이너스(-) 값을 가지므로 절대값을 적용함) 중 가장 큰 값을 나타낸다. MAX 값이 클수록 스크린보다 앞으로 많이 영상이 나와 보이므로 안정성에 영향을 줄 수 있다.Here, as shown in FIG. 11, the maximum value MAX is a value in which a disparity has the most forward value based on a screen in the depth map for each frame (disp (x, y), that is, negative (−). ) Value, so the absolute value is applied.) The higher the MAX value, the more images appear ahead of the screen, which can affect stability.
또한, 안정성 산출부(930)는 세번째 계수 값으로 다음 수학식7에 따라 도 12에 도시된 바와 같이 시차의 평균값과 스크린 사이의 거리(Average)에 관한 계수 값(CFaverage)을 산출한다. In addition, the stability calculator 930 calculates a coefficient value CFaverage of the distance between the average value of the parallax and the screen as shown in FIG. 12 as the third coefficient value.
수학식 7
Figure PCTKR2012009003-appb-M000007
Equation 7
Figure PCTKR2012009003-appb-M000007
여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서의 차가 없기 때문에 제로(0)이다.Here, dispdisplay represents a disp. Value in a display and is zero because there is no difference in the screen.
이때, 도 12는 본 발명의 실시예에 따른 시차의 평균값과 스크린 사이의 거리를 설명하기 위한 도면이다. 도 12에 도시된 바와 같이 Average 값이 클수록 스크린 면에서 멀어지므로 안정성에 영향을 줄 수 있다. 또한, 절대값을 뺄 경우 Average 값이 마이너스(-) 값이 될 경우 스크린 면보다 앞으로 튀어나오는 영역이 많다는 것으로 안정성에 좋지 않은 영향을 미친다. 여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서 차가 없기 때문에 제로(0)이다.12 is a diagram illustrating a distance between an average value of parallax and a screen according to an exemplary embodiment of the present invention. As shown in FIG. 12, the larger the Average value, the farther from the screen surface may affect stability. In addition, when the absolute value is subtracted, if the Average value becomes negative (-), the area that protrudes more than the screen surface has a bad effect on stability. Here, dispdisplay represents the disp. Value in the display and is zero because there is no difference in the screen.
또한, 안정성 산출부(930)는 네번째 계수 값으로 다음 수학식8에 따라 도 13에 도시된 바와 같이 시차의 분산(Spatial Complexity)에 관한 계수 값(CFSpatialComplexity)을 산출한다.In addition, the stability calculator 930 calculates a coefficient value CFSpatialComplexity as a fourth coefficient value with respect to spatial complexity as shown in FIG. 13 according to Equation 8 below.
수학식 8
Figure PCTKR2012009003-appb-M000008
Equation 8
Figure PCTKR2012009003-appb-M000008
여기서, E(disp(x,y))는 (x,y) 좌표의 Average 면에서의 디스패러티(disp.) 값을 나타내며, 시차의 분산은 도 13에 도시된 바와 같이 Average 면에서의 분산값으로, 평균값 면(Average point)에서 조밀하게 분산되어 있을수록 같은 영상(Average 면에서 분산값이 큰 영상)보다 어지러움이 감소될 수 있다. 도 13은 본 발명의 실시예에 따른 시차의 분산(Spatial Complexity)을 설명하기 위한 도면이다. Here, E (disp (x, y)) represents a disparity value in the average plane of (x, y) coordinates, and the dispersion of parallax is a dispersion value in the average plane as shown in FIG. As the density is more densely distributed in the average point, dizziness may be reduced than in the same image (the image having a large dispersion value in the average point). FIG. 13 is a diagram illustrating a spatial complexity of parallax according to an embodiment of the present invention. FIG.
또한, 안정성 산출부(930)는 다섯번째 계수 값으로 다음 수학식9에 따라 도 14에 도시된 바와 같이 깊이 위치(Depth Point)에 관한 계수 값(CFDepthPosition)을 산출한다.In addition, the stability calculator 930 calculates the coefficient value CFDepthPosition regarding the depth position as shown in FIG. 14 as the fifth coefficient value.
수학식 9
Figure PCTKR2012009003-appb-M000009
Equation 9
Figure PCTKR2012009003-appb-M000009
여기서, dispdisplay는 스크린(display)에서의 디스패러티(disp.) 값을 나타내는 것으로, 스크린에서 차가 없기 때문에 제로(0)이다.Here, dispdisplay represents the disp. Value in the display and is zero because there is no difference in the screen.
즉, 깊이 위치(Depth Position)에 관한 계수 값(CFDepthPosition)은 도 14에 도시된 바와 같이 스크린으로부터 오브젝트 거리 제곱의 분산값이다. 도 14는 본 발명의 실시예에 따른 깊이 위치에 관한 계수 값을 산출하는 예를 설명하기 위한 도면이다.That is, the coefficient value CFDepthPosition for the depth position is a variance value of the object distance squared from the screen as shown in FIG. 14. 14 is a view for explaining an example of calculating a coefficient value regarding a depth position according to an embodiment of the present invention.
또한, 안정성 산출부(930)는 여섯번째 계수 값으로 다음 수학식10에 따라 시차 차이의 분산(Temporal Complexity)에 관한 계수 값(CFTemporalComplexity)을 산출한다.In addition, the stability calculator 930 calculates a coefficient value (CFTemporalComplexity) regarding the variance of the parallax difference according to Equation 10 as the sixth coefficient value.
수학식 10
Figure PCTKR2012009003-appb-M000010
Equation 10
Figure PCTKR2012009003-appb-M000010
여기서, dispi(x,y)는 현재 i 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내고, dispi-1(x,y)는 이전 i-1 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내며, diff(x,y)는 현재 i 프레임의 시차 값과 이전 i-1 프레임의 시차 값과의 차이(diff.) 값을 나타내며, E(diff(x,y))는 스크린 면에서의 시차들의 차이(diff.) 값을 나타낸다.Where dispi (x, y) represents the disparity value of the (x, y) coordinate in the current i frame, and dispi-1 (x, y) represents (x, y in the previous i-1 frame Diff (x, y) represents the difference (diff.) Between the parallax value of the current i frame and the disparity value of the previous i-1 frame, and E (diff (x) , y)) represents the difference (diff.) value of parallaxes on the screen side.
또한, 안정성 산출부(930)는 일곱번째 계수 값으로 다음 수학식11에 따라 시차 차이의 제곱의 평균(Scene Movement)에 관한 계수 값(CFSceneMovement)을 산출한다.In addition, the stability calculator 930 calculates the coefficient value CFSceneMovement regarding the mean (Scene Movement) of the square of the parallax difference according to Equation 11 as the seventh coefficient value.
수학식 11
Figure PCTKR2012009003-appb-M000011
Equation 11
Figure PCTKR2012009003-appb-M000011
여기서, dispi(x,y)는 현재 i 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내고, dispi-1(x,y)는 이전 i-1 프레임에서의 (x,y) 좌표의 시차(disp.) 값을 나타내며, diff(x,y)는 현재 i 프레임의 시차 값과 이전 i-1 프레임의 시차 값과의 차이(diff.) 값을 나타낸다.Where dispi (x, y) represents the disparity value of the (x, y) coordinate in the current i frame, and dispi-1 (x, y) represents (x, y in the previous i-1 frame ) Shows the disparity value of the coordinate, and diff (x, y) indicates the difference between the disparity value of the current i frame and the disparity value of the previous i-1 frame.
이어, 안정성 산출부(930)는 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF:Compatibility Factor)을 산출한다(S1040). Subsequently, the stability calculator 930 linearly combines the seven coefficient values according to Equation 12 to calculate a final stability factor (CF) for one frame (S1040).
수학식 12
Figure PCTKR2012009003-appb-M000012
Equation 12
Figure PCTKR2012009003-appb-M000012
여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.Here, ω1 to ω7 represent weight values for seven coefficient values.
이때, 안정성 분석부(130)는 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출한다. 즉, 안정성 산출부(930)는 Least Mean Square 방법을 통해 주관적인 평가와 상관도가 높도록 선형조합의 가중치 계수(coefficient)를 결정한다. In this case, the stability analyzer 130 calculates seven coefficient values according to Equation 10 for each frame for all the frames in the same process of calculating the stability coefficient value CF for one frame, for all the frames. The total stability factor is obtained by arranging the seven coefficient values of each frame according to the following equation (13) (Total Compatibility Factor; TCF). Calculate a weighting factor X value (ω1 to ω7) arranged with weights ω values. That is, the stability calculator 930 determines the weight coefficient of the linear combination so that the correlation with the subjective evaluation is high by means of the Least Mean Square method.
수학식 13
Figure PCTKR2012009003-appb-M000013
Equation 13
Figure PCTKR2012009003-appb-M000013
수학식 14
Figure PCTKR2012009003-appb-M000014
Equation 14
Figure PCTKR2012009003-appb-M000014
여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.Here, X represents a weighting coefficient value consisting of a 7x1 matrix, S represents a matrix vector for Nx1 subjective evaluation, and N represents the number of frames.
따라서, 본 발명의 실시예에 따른 안정성 분석부(130)에 의하면, 3D 입체영상이 얼마나 좋은 안정성(편안감)을 가지고 있는지를 수치로써 확인할 수 있다.Therefore, according to the stability analysis unit 130 according to an embodiment of the present invention, it can be confirmed by numerical value how good stability (comfort) of the 3D stereoscopic image.
[ 오류성 분석부의 상세 구성 및 동작 ][Detailed Configuration and Operation of Error Analysis Unit]
도 15는 본 발명의 실시예에 따른 오류성 분석부의 기능 블록을 개략적으로 나타낸 것이다.15 schematically illustrates a functional block of an error analysis unit according to an embodiment of the present invention.
오류성 분석부(140)는 입력부(110)를 통해 원본 시퀀스 이미지와 깊이지도 시퀀스 이미지를 입력받으면, 입력된 깊이지도 시퀀스 이미지를 깊이정보 저장부(1510)에 저장한다. When the error analysis unit 140 receives the original sequence image and the depth map sequence image through the input unit 110, the error analysis unit 140 stores the input depth map sequence image in the depth information storage unit 1510.
즉, 깊이정보 저장부(1510)는 2차원 영상에 대한 깊이 지도(depth map)로부터 도 5에 도시된 (가)와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 (나)와 같이 각 프레임별로 구분하여 저장하는 것이다.That is, the depth information storage unit 1510 extracts depth values for each pixel per frame from the depth map of the 2D image as shown in FIG. 5, and the depth for each extracted pixel. The values are divided and stored for each frame as shown in (b).
이어, 시차정보 생성부(1520)는 이렇게 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성한다. 3차원 입체영상은 사람의 인지 특성을 고려하여 하나의 2차원 영상으로부터 좌, 우 눈의 시각적 차이를 고려한 2 개의 영상을 생성하게 된다. 이러한 눈의 시각적 차이가 바로 시차이며, 깊이 지도를 이용하여 시차를 생성한다. Subsequently, the parallax information generation unit 1520 generates parallax information using the generated depth map. The 3D stereoscopic image generates two images in consideration of visual differences between left and right eyes from one 2D image in consideration of human cognitive characteristics. This visual difference between the eyes is parallax, and creates a parallax using a depth map.
오류성 산출부(1530)는 생성된 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경(background) 부분과 객체(object) 부분으로 분리하고, 임계값에 근거해 객체를 배경으로 처리하거나, 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성한다.The error calculator 1530 divides the generated depth information for each frame into a background part and an object part by using a depth value, and sets an object based on a threshold value. Error coefficients for depth inversion or background processing as objects.
이때, 오류성 산출부(1530)는, 깊이 정보에 대한 각각의 수평 라인(Horizontal Line)에서 객체의 깊이 값이 배경의 깊이 값보다 큰 것을 이용해 배경과 객체를 분리한다.In this case, the error calculator 1530 separates the background and the object by using the object having a depth value greater than that of the background in each horizontal line of depth information.
또한, 오류성 산출부(1530)는 깊이 정보에서 수평 라인(Horizontal Line)별로 예를 들면, 배경의 깊이 값을 임계값으로 설정하여, 수평 라인(Horizontal Line)별로 임계값보다 큰 것을 객체로 간주하여 배경과 객체를 분리할 수 있다.In addition, the error calculator 1530 sets the depth value of the background as a threshold value for each horizontal line in the depth information, and considers the object larger than the threshold value for each horizontal line as the object. To separate the objects from the background.
또한, 오류성 산출부(1530)는 분리된 객체 부분 중 배경에 대한 깊이 값이 존재함에 따라 객체를 배경으로 처리하는 깊이 역전을 검지해 오류 계수값을 산출한다.In addition, the error calculator 1530 detects a depth reversal for processing the object in the background as the depth value of the background among the separated object parts, and calculates an error count value.
또한, 오류성 산출부(1530)는 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출할 수 있다. 여기서, 깊이 이외의 정보는 2차원 영상의 차영상을 이용하는 것으로서, 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하는 것이다. 이는 카메라의 이동이 매우 동적이지 않는다고 가정하면, 배경 부분은 거의 변화가 없고 객체 부분만 변화가 있기 때문에, 배경 부분의 차 영상의 값은 작고, 객체 부분의 차 영상의 값은 상대적으로 큰 것을 이용하는 것이다. 따라서, 오류성 산출부(1530)는 배경 부분에서 차 영상의 값이 임계값보다 큰 부분이 존재하면 깊이 역전으로 간주하여 오류 계수값을 산출하게 된다.In addition, the error calculator 1530 may detect a depth reversal of processing the background as an object using information other than the depth in the separated background to calculate an error coefficient value. Here, the information other than the depth is to use the difference image of the 2D image, and if the difference value of the difference image is smaller than the threshold value using the difference image of the previous frame and the current frame of the 2D image, it is regarded as the background, If it is large, it is regarded as an object. This assumes that the movement of the camera is not very dynamic. Since the background part is almost unchanged and only the object part is changed, the value of the difference image of the background part is small and the value of the difference image of the object part is relatively large. will be. Accordingly, the error calculator 1530 calculates an error count value by considering the depth inversion when a part of the background image having a difference value greater than the threshold exists in the background part.
그리고, 오류성 산출부(1530)는 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하게 된다.The error calculator 1530 may detect an error using a motion vector with information other than depth. The error calculation unit 1530 sets a global motion vector in a block unit and sets a block unit in a block unit. When the calculated motion vector value is more than a predetermined distance from the motion vector of the background, the motion vector is regarded as an object and an error coefficient value is calculated.
도 16은 본 발명의 실시예에 따른 오류성 분석부의 오류성 분석 방법을 설명하기 위한 동작 흐름도이다.16 is a flowchart illustrating an error analysis method of an error analysis unit according to an exemplary embodiment of the present invention.
도 16을 참조하면, 본 발명의 실시예에 따른 오류성 분석부(140)는, 먼저, 입력부(110)를 통해 도 5에 도시된 바와 같이 2차원 영상에 대한 각 프레임당 깊이 정보를 입력받는다(S1610).Referring to FIG. 16, the error analysis unit 140 according to an embodiment of the present invention first receives depth information for each frame of a 2D image through the input unit 110 as shown in FIG. 5. (S1610).
즉, 오류성 분석부(140)는 2차원 영상의 깊이지도(depth map)로부터 도 5에 도시된 바와 같이 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 깊이정보 저장부(1510)에 저장한다. That is, the error analysis unit 140 extracts depth values for each pixel per frame from the depth map of the 2D image, and extracts the depth values for each pixel from each frame as shown in FIG. 5. The data is stored in the depth information storage unit 1510.
이어, 오류성 분석부(140)는, 각 프레임당 깊이 정보에 대해, 오류성 산출부(1530)를 통해 깊이(depth) 값을 이용하여 도 17에 도시된 바와 같이 배경(background) 부분과 객체(object) 부분으로 분리한다(S1620). 도 17은 본 발명의 실시예에 따른 2차원 영상에 대해 깊이 값을 이용하여 배경과 객체로 분리하는 예를 나타낸 도면이다. 도 18은 수동 변환 영상과 자동 변환 영상에 대해 깊이 값을 이용해 객체 부분과 배경 부분으로 분리한 예를 보여준다.Subsequently, the error analysis unit 140 uses the depth value through the error calculation unit 1530 for depth information for each frame, as shown in FIG. 17, as shown in FIG. 17. It is separated into the (object) part (S1620). 17 is a diagram illustrating an example of separating a background into an object using a depth value with respect to a 2D image according to an exemplary embodiment of the present invention. 18 illustrates an example of separating the object part and the background part by using depth values for the manually converted image and the automatically converted image.
도 17의 (a)는 3차원 입체영상을 생성하기 위한 좌 영상의 한 프레임을 나타낸 것이고, 도 17의 (b)는 (a)의 영상을 깊이 지도로 나타낸 것이다. FIG. 17A illustrates a frame of a left image for generating a 3D stereoscopic image, and FIG. 17B illustrates a depth map of the image of FIG.
일반적으로 객체를 나타내는 픽셀들의 밝기는, 도 17의 (b)에 도시한 바와 같이, 배경을 나타내는 픽셀들의 밝기보다 밝으므로, 객체를 나타내는 픽셀들의 깊이 정보는 배경을 나타내는 픽셀들의 깊이 정보보다 큰 것을 알 수 있다. In general, since the brightness of the pixels representing the object is brighter than the brightness of the pixels representing the background, as shown in FIG. 17B, the depth information of the pixels representing the object is greater than the depth information of the pixels representing the background. Able to know.
그러나, A 영역은 깊이 정보가 크지만 배경에 포함되어야 하며, B 영역은 깊이 정보가 작지만 객체에 포함되어야 하는 영역이다.However, area A should be included in the background although the depth information is large, and area B should be included in the object although the depth information is small.
도 17의 (a) 영상을 수동변환하여 깊이 지도를 생성하면 도 18의 (a)가 되고, 자동변환하여 깊이 지도를 생성하면 도 18의 (b)가 된다. 각각의 깊이 지도의 깊이 정보를 이용하여 객체와 배경으로 분리하면 도 18의 (a') 및 (b')가 된다.When the depth map is generated by manually converting the image of FIG. 17A, the depth map is illustrated in FIG. 18A, and the depth map is automatically generated when the depth map is automatically converted to FIG. 18B. If the object and the background are separated by using the depth information of each depth map, it becomes (a ') and (b') of FIG.
즉, 깊이 정보만으로 각각의 픽셀을 배경 또는 객체로 자동 변환하게 되면, 도 17의 A 영역은 배경으로 분리되어야 함에도 깊이 정보가 크기 때문에 객체로 잘못 분리되고, B 영역은 객체로 분리되어야 함에도 깊이 정보가 작기 때문에 배경으로 잘못 분리될 수 있다.That is, when each pixel is automatically converted into a background or an object only by the depth information, the area A of FIG. 17 is incorrectly separated into an object because the depth information is large although the area A should be separated into the background, and the area B may be separated into an object. Because of its small size, it can be incorrectly separated into the background.
따라서, 자동 변환한 도 18의 (b') 영상과 수동 변환한 도 18의 (a') 영상을 비교하면 일부 영역(도 17의 A, B)에서 깊이 역전이 발생하여 객체와 배경이 잘못 분리되는 것을 알 수 있다.Therefore, when comparing the automatically converted image of FIG. 18 (b ') and the manually converted image of FIG. 18 (a'), depth inversion occurs in some areas (A and B of FIG. 17), thereby incorrectly separating an object and a background. It can be seen that.
즉, 오류성 산출부(1530)는, 2차원 영상의 깊이 정보에 대한 각각의 수평 라인(Horizontal Line)에서 객체의 깊이 값이 배경의 깊이 값보다 큰 것을 이용해 배경과 객체를 분리하는 것이다.That is, the error calculator 1530 separates the background and the object by using the object having a depth value greater than that of the background in each horizontal line of depth information of the 2D image.
또한, 오류성 산출부(1530)는, 깊이 정보에서 수평 라인(Horizontal Line)별로 임계값을 설정하고, 수평 라인(Horizontal Line)별 배경과 객체에 대한 깊이 값 중 임계값보다 큰 것을 객체로 간주하여 배경과 객체를 분리할 수 있다.In addition, the error calculator 1530 sets a threshold value for each horizontal line in the depth information, and considers the object larger than a threshold value among the depth values for the background and the object for each horizontal line. To separate the objects from the background.
또한, 오류성 산출부(1530)는, 깊이 이외의 정보로 도 19에 도시된 바와 같이 이전 영상(프레임)과 현재 영상(프레임)의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여, 배경이 객체로 처리되거나, 객체가 배경으로 처리된 오류를 검출할 수 있다. 도 19는 본 발명의 실시예에 따라 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하는 예를 나타낸 도면이다.Also, as shown in FIG. 19, the error calculating unit 1530 uses the difference image between the previous image (frame) and the current image (frame) as information other than the depth, and if the difference image value is smaller than the threshold value. If it is regarded as a background and if it is larger than the threshold, it can be regarded as an object, so that the background is treated as an object or an error in which the object is processed as a background can be detected. 19 illustrates an example of using a difference image between a previous frame and a current frame of a 2D image according to an embodiment of the present invention.
구체적으로, 도 19의 (a) 영상은 현재 프레임 영상이고, 도 19의 (b) 영상은 이전 프레임 영상이고, 도 19의 (c)영상은 현재 프레임 영상에서 이전 프레임 영상을 뺀 차 영상을 나타낸다.Specifically, the image (a) of FIG. 19 is a current frame image, the image (b) of FIG. 19 is a previous frame image, and the image (c) of FIG. 19 represents a difference image obtained by subtracting the previous frame image from the current frame image. .
차 영상(도 19의 (c) 영상)은 객체의 이동에 따라, 객체(사람)의 외곽선 부분이 현재 프레임과 이전 프레임을 비교할 때 차이가 발생하고, 이 부분에서 깊이 정보의 차이가 발생되므로 밝은 색으로 표시되는 것을 알 수 있다.The difference image (Fig. 19 (c) image) is a difference occurs when the outline portion of the object (person) compares the current frame and the previous frame in accordance with the movement of the object, the difference in depth information occurs in this portion It can be seen that it is displayed in color.
오류성 산출부(1530)는 객체/배경 분리수단에서 분리된 객체 또는 배경과 차영상에서 생성된 차 영상의 깊이 지도를 비교하여 깊이 역전이 발생하는 영역을 추출한다.The error calculator 1530 extracts an area where depth reversal occurs by comparing a depth map of an object or a background separated by the object / background separation unit and a difference image generated from the difference image.
이어, 오류성 분석부(140)는, 오류성 산출부(1530)를 통해 객체가 배경으로 처리되거나, 배경이 객체로 처리된 깊이 역전을 검지하여 오류 계수값을 산출한다(S1630).Subsequently, the error analysis unit 140 detects a depth reversal through which the object is processed as the background or the background is processed as the object through the error calculation unit 1530 (S1630).
즉, 오류성 산출부(1530)는, 분리된 객체 부분 중 배경에 대한 깊이 값이 존재함에 따라 도 20에 도시된 바와 같이 배경과 객체가 분리된 영상(a)에서 객체가 배경으로 처리된 깊이 역전(원 안쪽 부분)을 검지해 오류 계수값을 산출하게 된다. That is, the error calculator 1530 may determine the depth in which the object is processed as the background in the image (a) in which the background and the object are separated as shown in FIG. 20, as the depth value of the background exists among the separated object parts. The reversal (inner circle) is detected and the error count is calculated.
또한, 오류성 분석부(140)는, 분리된 배경 부분에서 깊이 이외의 정보로 차 영상을 이용하여 배경이 객체로 처리된 오류를 검출할 수 있다. 즉, 오류성 분석부(140)는, 카메라 이동이 매우 동적이지 않다면 배경 부분은 거의 변화가 없고 객체 부분만 영상의 변화가 있으므로, 배경 부분의 차 영상(b)의 값은 작고 객체(object) 부분의 값은 상대적으로 큰 것을 이용해 도 20에 도시된 바와 같이 배경 부분(검은색 부분)에서 차영상(b)의 값이 임계값보다 큰 부분이 존재하면 깊이 역전으로 간주하여 오류를 검출하게 되는 것이다. 도 20의 (c)는 배경 부분에서 차영상(b)의 값이 임계값보다 큼에 따라 깊이 역전(B)으로 간주하여 오류를 검출하는 예를 나타낸 도면이다.In addition, the error analysis unit 140 may detect an error in which the background is processed as an object by using the difference image as information other than the depth in the separated background part. That is, the error analysis unit 140, if the camera movement is not very dynamic, since the background portion is almost unchanged and only the object portion has a change in the image, the value of the difference image (b) of the background portion is small and the object (object) As shown in FIG. 20, when the value of the portion is greater than the threshold value in the background portion (black portion) as shown in FIG. 20, the value of the portion is regarded as depth inversion, and an error is detected. will be. FIG. 20C is a diagram illustrating an example of detecting an error by considering the depth inversion B as the value of the difference image b is larger than the threshold value in the background part.
즉, 오류성 분석부(140)는, 도 20에 도시한 바와 같이, 객체/배경으로 분리된 객체 또는 배경 영상인 (a) 영상과 차 영상인 (b) 영상을 비교한다. That is, as shown in FIG. 20, the error analysis unit 140 compares the (a) image, which is the object or background image separated into the object / background, and the (b) image, which is the difference image.
오류성 분석부(140)는 차 영상(도 20의 (b) 영상)으로부터 객체의 외곽선을 추정하고, 객체 내에 포함되는 픽셀 중 배경으로 분리된 픽셀을 깊이 역전에 발생하는 영역(도 20의 (c) 영상의 B 영역)으로 검출한다.The error analysis unit 140 estimates the outline of the object from the difference image (image (b) of FIG. 20), and generates an area in which a pixel separated from the background included in the object is inverted in depth (FIG. c) B area of the image).
오류성 분석부(140)는 객체 내에 포함되는 픽셀 중 배경으로 분리된 픽셀을 깊이 역전에 발생하는 영역으로 검출할 때, 분리된 객체를 구성하는 픽셀에 대응되는 차 영상 픽셀의 깊이 정보가 깊이 역전 임계값 미만인 픽셀을 깊이 역전이 발생하는 영역으로 추출하고, 분리된 배경을 구성하는 픽셀에 대응되는 차 영상 픽셀의 깊이 정보가 깊이 역전 임계값 이상인 픽셀을 깊이 역전이 발생하는 영역으로 추출한다.When the error analysis unit 140 detects a pixel separated into a background among the pixels included in the object as an area occurring in the depth reversal, the depth information of the difference image pixel corresponding to the pixel constituting the separated object is inverted depth. Pixels less than the threshold value are extracted to an area where depth inversion occurs, and pixels having depth information of a difference image pixel corresponding to pixels constituting the separated background greater than or equal to the depth inversion threshold are extracted to an area where depth inversion occurs.
또한, 3차원 입체영상의 오류성 분석부(140)는 움직임 벡터를 이용하여 깊이 역전이 발생하는 영역을 검출할 수 있다. In addition, the error analysis unit 140 of the 3D stereoscopic image may detect a region where depth inversion occurs using a motion vector.
움직임 벡터 산출은 프레임을 블록 단위로 구분하고, 블록의 움직임 벡터를 산출하며, 오류성 분석부(140)는 산출한 움직임 벡처를 사용하여, 분리된 배경을 구성하는 블록의 움직임 벡터가 기준 움직임 벡터보다 큰 블록을 깊이 역전이 발생하는 영역으로 추출한다.The motion vector calculation divides the frame into block units, calculates a motion vector of the block, and the error analysis unit 140 uses the calculated motion vector to determine whether the motion vector of the block constituting the separated background is a reference motion vector. The larger block is extracted to the area where depth reversal occurs.
따라서, 깊이 정보만을 이용하여 각 픽셀을 배경 또는 객체로 분리한 경우의 오류를 차 영상 또는 움직임 벡터를 이용하여 검출할 수 있고, 오류가 검출된 영역을 재분리할 수 있다.Therefore, an error in the case where each pixel is separated into a background or an object using only depth information may be detected using a difference image or a motion vector, and the region in which the error is detected may be re-separated.
그리고, 오류성 분석부(140)는, 깊이 이외의 정보로 움직임 벡터를 이용하여 오류를 검출하게 되는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터가 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류를 검출하게 된다.In addition, the error analysis unit 140 detects an error using a motion vector with information other than depth. The error analysis unit 140 sets a global motion vector in a block unit and sets a block unit. When the calculated motion vector differs from the background motion vector by a certain degree, the motion vector is regarded as an object and an error is detected.
이어, 오류성 분석부(140)는, 오류 검출을 화면 상에 디스플레이하거나 저장부 등에 저장한다(S1640).Subsequently, the error analysis unit 140 displays the error detection on the screen or stores the error detection unit in operation S1640.
따라서, 본 발명의 실시예에 따른 오류성 분석부(140)에 의하면, 3D 입체영상의 품질을 가늠하는 한가지 요소인 오류성에 대한 품질을 객관적으로 평가함으로써 3D 입체영상의 퀄리티(Quality)를 확인할 수 있다.Therefore, according to the error analysis unit 140 according to an embodiment of the present invention, the quality of the 3D stereoscopic image can be confirmed by objectively evaluating the quality of the error, which is one factor for measuring the quality of the 3D stereoscopic image. have.
한편, 본 발명의 실시예에 따른 3차원 입체영상의 품질 분석 방법을 실행하는 프로그램을 CD나 USB 매체 등 컴퓨터로 읽을 수 있는 매체에 기록할 수 있다.On the other hand, the program for executing the quality analysis method of the three-dimensional stereoscopic image according to an embodiment of the present invention can be recorded in a computer-readable medium such as a CD or USB media.
본 발명의 실시예에 의하면, 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 3차원 영상이 얼마나 좋은 입체감을 가지고 있는지에 관한 입체감의 정도를 수치로 표시하도록 하고, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하며, 깊이 정보에 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법을 실현할 수 있다.According to an embodiment of the present invention, using the depth map generated when converting a two-dimensional image to a three-dimensional stereoscopic image, the degree of three-dimensionality as to how good the three-dimensional image has a three-dimensional image as a numerical value Display and determine how severe the visual fatigue is by obtaining seven factor values that affect the stability of 3D stereoscopic images, and whether there is no error processing the object as the background or the background as the object in the depth information. An apparatus and method for analyzing quality of a 3D stereoscopic image may be implemented to allow an objective quality evaluation to be performed.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art will appreciate that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the above-described embodiments are to be understood as illustrative in all respects and not as restrictive. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.
본 발명은 2차원 영상을 3차원 입체영상으로 변환할 때 생성한 깊이 정보(Depth map)를 이용하여, 3차원 영상이 얼마나 좋은 입체감을 가지고 있는지에 관한 입체감의 정도를 수치로 표시하거나, 3차원 입체영상의 안정성에 영향을 미치는 7가지 계수(Factor) 값을 구하여 시각적 피로도는 얼마나 심한지를 표시하거나, 깊이 정보에 객체를 배경으로 처리하거나 배경을 객체로 처리하는 오류는 없는지에 대한 객관적인 품질 평가를 수행할 수 있도록 하는, 3차원 입체영상의 품질 분석 장치 및 방법에 이용할 수 있다.The present invention uses a depth map generated when converting a two-dimensional image to a three-dimensional stereoscopic image, and displays the degree of three-dimensionality as to how good the three-dimensional image has a three-dimensional image, or three-dimensionally. Seven factor values that affect the stability of stereoscopic images are obtained to indicate how severe the visual fatigue is, or to provide an objective quality assessment of whether there is no error in processing the background or object in the depth information. It can be used in the apparatus and method for analyzing quality of 3D stereoscopic images.

Claims (27)

  1. 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 입력부; An input unit for inputting an original sequence image and a depth map sequence image of a 2D image;
    상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하며, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 입체감 분석부; Extract depth values for each pixel per frame from the depth information of the 2D image, and generate a depth information histogram indicating a depth map distribution map according to depth gray values for the extracted depth values for each frame. A three-dimensional analysis unit configured to generate a three-dimensional (DF) value by analyzing the similarity between the depth information histogram and the equal distribution histogram using a batcharya coefficient;
    상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 분석부;Create parallax information using depth information on the 2D image, and use the depth information and parallax information between the range of parallax, the maximum value of parallax absolute value, the average value of parallax and the screen Seven coefficients for Average, Spatial Complexity, Depth Position of Screen and Distance Square, Temporal Complexity, and Mean Movement Square of Parallax Difference A stability analyzer for generating a final stability coefficient (CF) value by obtaining a linear combination;
    상기 2차원 영상에 대한 깊이 정보를 이용하거나, 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 오류성 분석부;An error analysis unit that detects an error of processing a background as an object or an error of processing an object as a background by using depth information of the 2D image or using information other than the depth information;
    상기 2차원 영상을 3차원 입체영상으로 변환할 때 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하며, 각 시퀀스 이미지에 대한 총 평가 점수를 가지고 순위(Ranking)에 따라 리스트로 제공하는 분석 결과부; 및When converting the 2D image into a 3D stereoscopic image, the total evaluation score is calculated by giving weights and constants to the values of the stereoscopic sense, stability, and error of the sequence images for each sequence image. An analysis result unit having a total evaluation score and providing the list according to a ranking; And
    상기 각 시퀀스 이미지에 대해 입체감과 안정성 및 오류성에 관한 계수 값을 화면 상에 수치와 그래프로 출력하며, 각 시퀀스 이미지에 대한 총 평가 점수 및 각 총 평가 점수의 순위에 따른 리스트를 화면 상에 출력하는 출력부;Coefficient values for stereoscopic feeling, stability, and error are output on the screen as numerical values and graphs for each sequence image, and a list according to the total evaluation score and the ranking of each total evaluation score for each sequence image is output on the screen. An output unit;
    를 포함하는 3차원 입체영상의 품질 분석 장치.3D stereoscopic image quality analysis apparatus comprising a.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 분석 결과부는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력하는 것을 특징으로 하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The analysis result unit is a three-dimensional, characterized in that for outputting the total evaluation score (QM) by calculating a linear combination of the three-dimensional sense and stability with respect to the total evaluation score according to the following equation (1) 3D image quality analysis device.
    [수학식 1][Equation 1]
    Figure PCTKR2012009003-appb-I000007
    Figure PCTKR2012009003-appb-I000007
    여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며, 는 가중치(coefficient)를 나타내며, 는 상수(costant)를 나타낸다. Here, QM represents the total total evaluation score of the 3D image, DF represents the stereoscopic value of the 3D image, CF represents the stability coefficient value of the 3D image, represents the weight, and represents the cost. Indicates.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 분석 결과부는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.And the analysis result unit determines the stereoscopic value DF as a logarithm of a histogram stereoscopic value and a parallax product according to Equation 2 below.
    [수학식 2][Equation 2]
    Figure PCTKR2012009003-appb-I000008
    Figure PCTKR2012009003-appb-I000008
  4. 제 1 항에 있어서,The method of claim 1,
    상기 입체감 분석부는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 히스토그램 생성부; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 입체값 산출부를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The stereoscopic analysis unit may include: a histogram generator configured to generate a depth information histogram indicating a depth map distribution according to a depth gray value with respect to the depth information per frame; And a stereoscopic value calculation unit configured to calculate a stereoscopic value (DF) by using a batatacharyya coefficient for the similarity between the depth map histogram and the uniform distribution histogram. 3D stereoscopic image quality analysis device.
  5. 제 4 항에 있어서,The method of claim 4, wherein
    상기 히스토그램 생성부는, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The histogram generator converts depth values of each pixel per frame into depth gray values of 0 to 255, and generates a depth information histogram representing a distribution of depth gray values for each pixel in one frame. 3D stereoscopic image quality analysis device, characterized in that.
  6. 제 4 항에 있어서,The method of claim 4, wherein
    상기 입체값 산출부는, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The stereoscopic value calculation unit normalizes the frequency of the depth map histogram by dividing the frequency by the number of pixels, and performs the following mathematical expression on the normalization (x [i]) of the i th value of the depth information histogram. And an i-th value of the depth information histogram is calculated by dividing the entire pixel value according to Equation 4.
    [수학식 4][Equation 4]
    Figure PCTKR2012009003-appb-I000009
    Figure PCTKR2012009003-appb-I000009
  7. 제 1 항에 있어서,The method of claim 1,
    상기 안정성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 안정성 산출부;The stability analysis unit may include: a depth information storage unit for extracting depth values for each pixel per frame from a depth map of the 2D image, and storing the extracted depth values for each pixel for each frame; A parallax information generation unit generating parallax information using the generated depth map; And a stability calculator configured to obtain seven coefficient values using the depth information and parallax information, and generate a final stability coefficient (CF) value by linear combination.
    를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.3D stereoscopic image quality analysis apparatus comprising a.
  8. 제 7 항에 있어서,The method of claim 7, wherein
    상기 안정성 산출부는 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The stability calculator calculates a final stability coefficient (CF) for one frame by linear combination of the seven coefficient values according to Equation 12 below. Device.
    [수학식 12][Equation 12]
    Figure PCTKR2012009003-appb-I000010
    Figure PCTKR2012009003-appb-I000010
    여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.Here, ω1 to ω7 represent weight values for seven coefficient values.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 안정성 산출부는, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The stability calculation unit calculates seven coefficient values according to Equation 10 for each frame for all the frames in the same process of calculating the stability coefficient value CF for one frame. The total stability factor (TCF) is obtained by arranging the branch coefficient values as the number of frames according to the following equation (13), and the weight (ω) for the seven coefficient values for each frame according to the following equation (14). A quality analysis apparatus for a three-dimensional stereoscopic image, characterized by calculating a weighting coefficient (X) values arranged from the values (ω1 to ω7).
    [수학식 13][Equation 13]
    Figure PCTKR2012009003-appb-I000011
    Figure PCTKR2012009003-appb-I000011
    [수학식 14][Equation 14]
    Figure PCTKR2012009003-appb-I000012
    Figure PCTKR2012009003-appb-I000012
    여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.Here, X represents a weighting coefficient value consisting of a 7x1 matrix, S represents a matrix vector for Nx1 subjective evaluation, and N represents the number of frames.
  10. 제 1 항에 있어서,The method of claim 1,
    상기 오류성 분석부는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 깊이정보 저장부; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 시차정보 생성부; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 오류성 산출부;The error analysis unit extracts depth values for each pixel per frame from a depth map of the 2D image, and stores the depth information for each frame by dividing the depth values for each pixel. ; A parallax information generation unit generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. An error calculation unit;
    를 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.3D stereoscopic image quality analysis apparatus comprising a.
  11. 제 10 항에 있어서,The method of claim 10,
    상기 오류성 산출부는, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The error calculating unit divides the depth information per frame into a background part and an object part using a depth value, and processes the background as an object using information other than depth in the separated background part. Detecting depth reversal to calculate the error coefficient value of the three-dimensional stereoscopic image analysis device.
  12. 제 10 항에 있어서,The method of claim 10,
    상기 오류상 산출부는, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The error image calculation unit uses the difference image between the previous frame and the current frame of the 2D image as information other than the depth to regard the background as a value when the difference image is smaller than a threshold value, and to regard the object as an object when the difference value is larger than the threshold value. 3D stereoscopic image quality analysis device, characterized in that for calculating an error coefficient value.
  13. 제 10 항에 있어서,The method of claim 10,
    상기 오류성 산출부는, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 장치.The error calculator may detect an error using a motion vector using information other than the depth. The error calculation unit may set a global motion vector in a block unit, and set the motion vector in a block unit. And calculating an error coefficient value when the calculated motion vector value differs from the background motion vector by a predetermined amount, and calculates an error coefficient value.
  14. (a) 2차원 영상에 대한 원본 시퀀스 이미지와 깊이정보(depth map) 시퀀스 이미지를 입력하는 단계; (a) inputting an original sequence image and a depth map sequence image for the 2D image;
    (b) 상기 2차원 영상에 대한 깊이 정보로부터 각 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출된 각 프레임당 깊이 값들에 대해 깊이 그레이(depth gray) 값에 따른 깊이지도 분포도를 나타내는 깊이 정보 히스토그램을 생성하여, 깊이 정보 히스토그램과 균등 분포 히스토그램의 유사도를 바타차리야 계수를 이용해 분석하여 입체(DF) 값을 생성하는 단계; (b) Depth information extracting depth values for each pixel per frame from the depth information of the two-dimensional image, and depth information indicating the depth map distribution according to the depth gray value for each extracted depth value for each frame Generating a histogram and analyzing the similarity between the depth information histogram and the uniform distribution histogram using a batcharya coefficient to generate a stereoscopic (DF) value;
    (c) 상기 2차원 영상에 대한 깊이 정보를 이용하여 시차(parallax) 정보를 생성하고, 깊이 정보와 시차 정보를 이용해 시차의 범위(Range), 시차 절대값의 최대값(Max), 시차의 평균값과 스크린 사이의 거리(Average), 시차의 분산(Spatial Complexity), 스크린과 거리 제곱의 분산값(Depth Position), 시차 차이의 분산(Temporal Complexity), 시차 차이의 제곱의 평균(Scene Movement)에 관한 7가지 계수 값을 구하여 선형 조합으로 최종적인 안정성 계수(CF) 값을 생성하는 단계;(c) generating parallax information using depth information of the 2D image, and using the depth information and parallax information, the range of parallax, the maximum value of the parallax absolute value, and the average value of parallax; Of the distance between the screen and the screen, the variance of the parallax, the variance of the screen and the distance square, the temporal complexity, and the average of the squares of the parallax differences. Obtaining seven coefficient values to produce a final stability coefficient (CF) value in a linear combination;
    (d) 상기 2차원 영상에 대한 깊이 정보 또는 상기 깊이 정보 이외의 정보를 이용해, 배경(background)을 객체(object)로 처리하는 오류나 객체를 배경으로 처리하는 오류를 검출하는 단계; 및(d) detecting an error of processing a background as an object or an error of processing an object as a background using depth information of the 2D image or information other than the depth information; And
    (e) 상기 2차원 영상의 각 시퀀스 이미지에 대한 입체감과 안정성, 오류성의 계수 값에 대해 각각의 가중치와 상수(Constant)를 주어 총 평가 점수를 산출하거나, 각 시퀀스 이미지에 대한 총 평가 점수를 순위(Ranking)에 따라 리스트로 제공하는 단계; (e) calculate the total evaluation score by giving weights and constants to the values of the three-dimensional, stability, and error coefficients for each sequence image of the 2D image, or rank the total evaluation score for each sequence image Providing as a list according to (Ranking);
    를 포함하는 3차원 입체영상의 품질 분석 방법.Quality analysis method of the three-dimensional stereoscopic image comprising a.
  15. 제 14 항에 있어서,The method of claim 14,
    상기 (e) 단계는, 상기 총 평가 점수에 대해, 다음 수학식1에 따라 입체감과 안정성의 선형 조합(linear combination)으로 산출하여 총 평가 점수(QM)를 출력하는 것을 특징으로 하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.In the step (e), the total evaluation score is calculated as a linear combination of three-dimensional feeling and stability according to the following Equation 1, characterized in that the output of the total evaluation score (QM), characterized in that 3D stereoscopic image quality analysis method.
    [수학식 1][Equation 1]
    Figure PCTKR2012009003-appb-I000013
    Figure PCTKR2012009003-appb-I000013
    여기서, QM은 3D 영상의 종합적인 총 평가 점수를 나타내고, DF는 3D 영상의 입체값을 나타내며, CF는 3D 영상의 안정성 계수값을 나타내며, 는 가중치(coefficient)를 나타내며, 는 상수(costant)를 나타낸다. Here, QM represents the total total evaluation score of the 3D image, DF represents the stereoscopic value of the 3D image, CF represents the stability coefficient value of the 3D image, represents the weight, and represents the cost. Indicates.
  16. 제 15 항에 있어서,The method of claim 15,
    상기 (e) 단계는, 상기 입체값 DF에 대해 다음 수학식2에 따라 히스토그램 입체값과 시차(parallax) 곱의 로그함수로 결정하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.In the step (e), the stereoscopic value DF is determined by a logarithm function of a histogram stereoscopic value and a parallax (parallax) product according to Equation 2 below.
    [수학식 2][Equation 2]
    Figure PCTKR2012009003-appb-I000014
    Figure PCTKR2012009003-appb-I000014
  17. 제 14 항에 있어서,The method of claim 14,
    상기 (b) 단계는, 상기 각 프레임당 깊이 정보에 대해, 깊이 그레이(depth gray) 값에 따른 깊이지도(depth map) 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 (가) 과정; 및 상기 깊이 정보 히스토그램(depth map histogram)과 균등 분포 히스토그램(uniform distribution histogram)의 유사도를 바타차리야 계수(Bhattacharyya Coefficient)를 이용하여 입체값(DF)을 산출하는 (나) 과정을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.The step (b) may include: (a) generating a depth information histogram indicating a depth map distribution according to depth gray values for the depth information per frame; And (b) calculating a similarity between the depth map histogram and the uniform distribution histogram by using a battacharyya coefficient. Quality analysis method of 3D stereoscopic images.
  18. 제 17 항에 있어서,The method of claim 17,
    상기 (가) 과정은, 프레임당 각 픽셀의 깊이값들을 0 내지 255 값들의 깊이 그레이(depth gray) 값으로 전환하고, 하나의 프레임에서 각 픽셀에 대한 깊이 그레이 값의 분포도를 나타내는 깊이 정보 히스토그램을 생성하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.In step (a), the depth information of each pixel per frame is converted into a depth gray value of 0 to 255 values, and a depth information histogram representing a distribution of depth gray values for each pixel in one frame is obtained. Quality analysis method of the three-dimensional stereoscopic image, characterized in that for generating.
  19. 제 17 항에 있어서,The method of claim 17,
    상기 (나) 과정은, 상기 깊이 정보 히스토그램(depth map histogram)의 빈도수를 전체 픽셀(pixel)의 개수로 나누어 정규화하며, 상기 깊이 정보 히스토그램의 i번째 값의 정규화(x[i])에 대해 다음 수학식4에 따라 깊이정보 히스토그램의 i번째 값을 전체 픽셀 값으로 나누어 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.In the step (b), the frequency of the depth map histogram is normalized by dividing the frequency of the depth map histogram by the number of pixels, and for the normalization (x [i]) of the i th value of the depth information histogram, And analyzing the i th value of the depth information histogram by the total pixel value according to Equation 4 to calculate the quality of the 3D stereoscopic image.
    [수학식 4][Equation 4]
    Figure PCTKR2012009003-appb-I000015
    Figure PCTKR2012009003-appb-I000015
  20. 제 14 항에 있어서,The method of claim 14,
    상기 (c) 단계는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 (가) 과정; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 (나) 과정; 및 상기 깊이 정보와 시차 정보를 이용해 7가지 계수(Factor)값을 구하여 선형 조합(Linear Combination)으로 최종적인 안정성 계수(CF) 값을 생성하는 (다) 과정;In the step (c), the depth values of each pixel per frame are extracted from the depth map of the 2D image, and the depth values of the extracted pixels are divided and stored for each frame. process; (B) generating parallax information using the generated depth map; And (c) generating final coefficients of stability (CF) by linear combination by obtaining seven factor values using the depth information and parallax information.
    을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.Quality analysis method of a three-dimensional stereoscopic image comprising a.
  21. 제 20 항에 있어서,The method of claim 20,
    상기 (다) 과정은, 상기 7가지 계수 값들을 다음 수학식12에 따라 선형 조합(Linear Combination)하여 하나의 프레임에 대한 최종적인 안정성 계수 값(CF)을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.In the step (c), the three-dimensional stereoscopic image may be obtained by linearly combining the seven coefficient values according to Equation 12 to calculate a final stability coefficient value CF for one frame. Quality analysis method.
    [수학식 12][Equation 12]
    Figure PCTKR2012009003-appb-I000016
    Figure PCTKR2012009003-appb-I000016
    여기서, ω1~ω7은 7가지 각 계수 값들에 대한 가중치 값을 나타낸다.Here, ω1 to ω7 represent weight values for seven coefficient values.
  22. 제 21 항에 있어서,The method of claim 21,
    상기 (다) 과정은, 하나의 프레임에 대한 안정성 계수 값(CF)을 산출하는 동일한 과정으로 모든 프레임에 대해 각 프레임마다 수학식10에 따라 7가지 계수 값들을 산출하여, 모든 프레임에 대한 각 프레임의 7가지 계수 값들을 다음 수학식13에 따라 프레임의 갯수대로 배열한 총 안정성 계수를 생성하고(Total Compatibility Factor; TCF), 이를 다음 수학식14에 따라 각 프레임 별 7가지 계수 값들에 대한 가중치(ω) 값들로 배열된(ω1~ω7) 가중치 계수(X) 값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.Step (c) is the same process of calculating the stability coefficient value CF for one frame, and calculates seven coefficient values according to Equation 10 for each frame for every frame, and calculates each frame for every frame. The total stability factor (TCF) is arranged by arranging the seven coefficient values of the frame according to the following equation (13) (Total Compatibility Factor; TCF), and the weights of the seven coefficient values for each frame according to the following equation (14) and a weighting factor (X) value arranged from (ω) values (ω1 to ω7).
    [수학식 13][Equation 13]
    Figure PCTKR2012009003-appb-I000017
    Figure PCTKR2012009003-appb-I000017
    [수학식 14][Equation 14]
    Figure PCTKR2012009003-appb-I000018
    Figure PCTKR2012009003-appb-I000018
    여기서, X는 7x1 행렬로 이루어진 가중치 계수 값을 나타내고, S는 Nx1 주관적 평가에 관한 행렬 벡터를 나타내며, N은 프레임의 갯수를 나타낸다.Here, X represents a weighting coefficient value consisting of a 7x1 matrix, S represents a matrix vector for Nx1 subjective evaluation, and N represents the number of frames.
  23. 제 14 항에 있어서,The method of claim 14,
    상기 (d) 단계는, 상기 2차원 영상에 대한 깊이 지도(depth map)로부터 프레임당 각 픽셀에 대한 깊이 값들을 추출하고, 추출한 각 픽셀에 대한 깊이 값들을 각 프레임별로 구분하여 저장하는 (가) 과정; 상기 생성된 깊이 지도를 이용하여 시차(parallax) 정보를 생성하는 (나) 과정; 및 상기 2차원 영상에 대한 각 프레임당 깊이(depth) 값을 이용하거나, 상기 깊이 정보 이외의 정보를 이용하여, 객체를 배경으로 처리하거나 배경을 객체로 처리하는 깊이 역전에 대한 오류 계수값을 생성하는 (다) 과정;In the step (d), the depth values of each pixel per frame are extracted from the depth map of the 2D image, and the depth values of each extracted pixel are divided and stored for each frame. process; (B) generating parallax information using the generated depth map; And generating error coefficient values for depth reversal of processing an object as a background or processing a background as an object by using a depth value for each frame for the 2D image or using information other than the depth information. (C) process of doing;
    을 포함하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.Quality analysis method of a three-dimensional stereoscopic image comprising a.
  24. 제 23 항에 있어서,The method of claim 23,
    상기 (다) 과정은, 상기 각 프레임당 깊이 정보에 대해, 그 깊이(depth) 값을 이용하여 배경 부분과 객체 부분으로 분리하고, 분리된 배경 부분에서 깊이 이외의 정보를 이용하여 배경을 객체로 처리하는 깊이 역전을 검지해 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.In the step (c), the depth information for each frame is divided into a background part and an object part using a depth value, and the background is converted into an object using information other than depth in the separated background part. A quality analysis method for a 3D stereoscopic image, characterized by detecting a depth reversal to be processed and calculating an error coefficient value.
  25. 제 23 항에 있어서,The method of claim 23,
    상기 (다) 과정은, 상기 깊이 이외의 정보로 2차원 영상의 이전 프레임과 현재 프레임의 차영상을 이용하여 차영상의 값이 임계값보다 작으면 배경으로 간주하고, 임계값보다 크면 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.In the step (c), the difference between the previous frame and the current frame of the 2D image is different from the depth. The method of claim 3, wherein the error coefficient value is calculated.
  26. 제 23 항에 있어서,The method of claim 23,
    상기 (다) 과정은, 상기 깊이 이외의 정보로 움직임 벡터를 이용해 오류를 검출할 수 있는데, 블록(Block) 단위로 배경의 움직임(Global Motion) 벡터를 설정하고, 블록(Block) 단위로 움직임 벡터를 산출하여, 산출한 움직임 벡터 값이 배경의 움직임 벡터와 일정 이상 차이가 발생하는 경우 객체로 간주하여 오류 계수값을 산출하는 것을 특징으로 하는 3차원 입체영상의 품질 분석 방법.In the step (c), an error may be detected using a motion vector with information other than the depth, and a motion vector of a background is set in units of blocks, and the motion vectors are units of blocks. And calculating an error coefficient value when the calculated motion vector value differs from the background motion vector by a predetermined amount as an object, and calculates an error coefficient value.
  27. 제 14 항 내지 제 23 항에 있는 3차원 입체영상의 품질 분석 방법을 실행하기 위한 프로그램을 기록한, 컴퓨터로 읽을 수 있는 매체.A computer readable medium having recorded thereon a program for executing the quality analysis method of the three-dimensional stereoscopic image according to claim 14.
PCT/KR2012/009003 2012-01-10 2012-10-30 Device and method for analyzing quality of three-dimensional stereoscopic image WO2013105720A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120002873A KR101393621B1 (en) 2012-01-10 2012-01-10 Method and system for analyzing a quality of three-dimensional image
KR10-2012-0002873 2012-01-10

Publications (1)

Publication Number Publication Date
WO2013105720A1 true WO2013105720A1 (en) 2013-07-18

Family

ID=48781642

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/009003 WO2013105720A1 (en) 2012-01-10 2012-10-30 Device and method for analyzing quality of three-dimensional stereoscopic image

Country Status (2)

Country Link
KR (1) KR101393621B1 (en)
WO (1) WO2013105720A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104394403A (en) * 2014-11-04 2015-03-04 宁波大学 A compression-distortion-oriented stereoscopic video quality objective evaluating method
CN107645661A (en) * 2017-09-21 2018-01-30 北京牡丹电子集团有限责任公司数字电视技术中心 A kind of assessment method and system for wearing display device video image comfort level
CN108492275A (en) * 2018-01-24 2018-09-04 浙江科技学院 Based on deep neural network without with reference to stereo image quality evaluation method
CN109429051A (en) * 2017-07-12 2019-03-05 天津大学 Based on multiple view feature learning without reference stereoscopic video quality method for objectively evaluating
CN109523506A (en) * 2018-09-21 2019-03-26 浙江大学 The complete of view-based access control model specific image feature enhancing refers to objective evaluation method for quality of stereo images
CN112954313A (en) * 2021-02-09 2021-06-11 方玉明 Method for calculating perception quality of panoramic image

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102080611B1 (en) * 2013-09-26 2020-02-25 엘지디스플레이 주식회사 Device and method of generating a new image for multi-view autostereoscopic image display
CN111836038B (en) * 2019-04-17 2023-02-28 北京地平线机器人技术研发有限公司 Method and device for determining imaging quality, storage medium and electronic equipment
KR20210076660A (en) 2019-12-16 2021-06-24 연세대학교 산학협력단 Method and Apparatus for Stereoscopic Image Quality Assessment Based on Convolutional Neural Network
CN112712477A (en) * 2020-12-21 2021-04-27 东莞埃科思科技有限公司 Depth image evaluation method and device of structured light module

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245451A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Stereoscopic image evaluating device
JP2003018619A (en) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd Three-dimensional image evaluation apparatus and display using the same
JP2005142819A (en) * 2003-11-06 2005-06-02 Univ Waseda Stereoscopic video evaluation device and stereoscopic video tuner
KR20110134147A (en) * 2010-06-08 2011-12-14 에스케이플래닛 주식회사 Method and apparatus for impoving stereoscopic image error
KR20110139020A (en) * 2010-06-22 2011-12-28 연세대학교 산학협력단 Fatigue evaluation method and apparatus for 3d video based on depth map

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101332628B1 (en) * 2011-11-23 2013-11-25 에스케이플래닛 주식회사 Method and system for measuring a quality of three-dimensional image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245451A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Stereoscopic image evaluating device
JP2003018619A (en) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd Three-dimensional image evaluation apparatus and display using the same
JP2005142819A (en) * 2003-11-06 2005-06-02 Univ Waseda Stereoscopic video evaluation device and stereoscopic video tuner
KR20110134147A (en) * 2010-06-08 2011-12-14 에스케이플래닛 주식회사 Method and apparatus for impoving stereoscopic image error
KR20110139020A (en) * 2010-06-22 2011-12-28 연세대학교 산학협력단 Fatigue evaluation method and apparatus for 3d video based on depth map

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104394403A (en) * 2014-11-04 2015-03-04 宁波大学 A compression-distortion-oriented stereoscopic video quality objective evaluating method
CN104394403B (en) * 2014-11-04 2016-04-27 宁波大学 A kind of stereoscopic video quality method for objectively evaluating towards compression artefacts
CN109429051A (en) * 2017-07-12 2019-03-05 天津大学 Based on multiple view feature learning without reference stereoscopic video quality method for objectively evaluating
CN109429051B (en) * 2017-07-12 2020-08-18 天津大学 Non-reference stereo video quality objective evaluation method based on multi-view feature learning
CN107645661A (en) * 2017-09-21 2018-01-30 北京牡丹电子集团有限责任公司数字电视技术中心 A kind of assessment method and system for wearing display device video image comfort level
CN108492275A (en) * 2018-01-24 2018-09-04 浙江科技学院 Based on deep neural network without with reference to stereo image quality evaluation method
CN108492275B (en) * 2018-01-24 2020-08-18 浙江科技学院 No-reference stereo image quality evaluation method based on deep neural network
CN109523506A (en) * 2018-09-21 2019-03-26 浙江大学 The complete of view-based access control model specific image feature enhancing refers to objective evaluation method for quality of stereo images
CN109523506B (en) * 2018-09-21 2021-03-26 浙江大学 Full-reference stereo image quality objective evaluation method based on visual salient image feature enhancement
CN112954313A (en) * 2021-02-09 2021-06-11 方玉明 Method for calculating perception quality of panoramic image

Also Published As

Publication number Publication date
KR101393621B1 (en) 2014-05-12
KR20130081835A (en) 2013-07-18

Similar Documents

Publication Publication Date Title
WO2013105720A1 (en) Device and method for analyzing quality of three-dimensional stereoscopic image
WO2012064106A2 (en) Method and apparatus for video stabilization by compensating for view direction of camera
WO2020032354A1 (en) Method, storage medium and apparatus for converting 2d picture set to 3d model
WO2015160207A1 (en) System and method for detecting region of interest
WO2013168998A1 (en) Apparatus and method for processing 3d information
WO2013081435A1 (en) 3d image display device and method
WO2013085193A1 (en) Apparatus and method for enhancing user recognition
WO2021206284A1 (en) Depth estimation method and system using cycle gan and segmentation
WO2018093100A1 (en) Electronic apparatus and method for processing image thereof
WO2015126044A1 (en) Method for processing image and electronic apparatus therefor
WO2020013631A1 (en) Method and device for encoding three-dimensional image, and method and device for decoding three-dimensional image
WO2016126083A1 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
WO2019022509A1 (en) Device and method for providing content
WO2017007166A1 (en) Projected image generation method and device, and method for mapping image pixels and depth values
WO2021006482A1 (en) Apparatus and method for generating image
WO2012157887A2 (en) Apparatus and method for providing 3d content
WO2021145713A1 (en) Apparatus and method for generating virtual model
WO2015080498A1 (en) Method for detecting human body through depth information analysis and apparatus for analyzing depth information for user body detection
WO2022092451A1 (en) Indoor location positioning method using deep learning
WO2013042889A1 (en) Method and device for performing segmentation in medical images
WO2018070793A1 (en) Method, apparatus, and recording medium for processing image
WO2021133139A1 (en) Electronic apparatus and control method thereof
WO2020149527A1 (en) Apparatus and method for encoding in structured depth camera system
WO2022065981A1 (en) Video processing device and method
WO2022108001A1 (en) Method for controlling electronic device by recognizing motion at edge of field of view (fov) of camera, and electronic device therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12865123

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12865123

Country of ref document: EP

Kind code of ref document: A1