KR101417712B1 - Rendering correction method for 3D image - Google Patents

Rendering correction method for 3D image Download PDF

Info

Publication number
KR101417712B1
KR101417712B1 KR1020140013107A KR20140013107A KR101417712B1 KR 101417712 B1 KR101417712 B1 KR 101417712B1 KR 1020140013107 A KR1020140013107 A KR 1020140013107A KR 20140013107 A KR20140013107 A KR 20140013107A KR 101417712 B1 KR101417712 B1 KR 101417712B1
Authority
KR
South Korea
Prior art keywords
area
frame
error
image
rendering
Prior art date
Application number
KR1020140013107A
Other languages
Korean (ko)
Inventor
지승찬
Original Assignee
지승찬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지승찬 filed Critical 지승찬
Priority to KR1020140013107A priority Critical patent/KR101417712B1/en
Application granted granted Critical
Publication of KR101417712B1 publication Critical patent/KR101417712B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method for correcting rendering of a 3D image, and more specifically, to a method for correcting rendering of a 3D image, which is capable of automatically searching and correcting an error generated in the other frame rendered in a process of rendering each frame of a 2D image to synthesize a 3D image.

Description

3D 영상의 렌더링 보정방법{Rendering correction method for 3D image}[0001] Rendering correction method for 3D image [0002]

본 발명은 3D 영상의 렌더링 보정방법에 관한 것으로, 더욱 상세하게는 2D 영상의 각 프레임을 렌더링하여 3D 영상으로 합성하는 과정에서 렌더링된 타측 프레임에 발생된 오류를 자동으로 검색 및 보정할 수 있는 3D 영상의 렌더링 보정방법에 관한 것이다. The present invention relates to a 3D image rendering and correction method, and more particularly, to a 3D image rendering method and a 3D image rendering method, which are capable of automatically detecting and correcting errors generated in a rendered frame in a process of rendering each frame of a 2D image, And more particularly, to a rendering correction method for an image.

디지털 기술이 고도로 발전하고, 방송과 통신의 융합으로 방송 매체가 다양해짐에 따라 디지털 기술의 특성을 이용한 방송 관련 부가 서비스들이 새롭게 선보이고 있다. 현재 TV와 같은 영상 서비스의 발전 방향은 고화질과 대화면으로 가고 있으나, 아직까지 2D 영상 컨텐츠만을 제공하기 때문에 현재의 영상 컨텐츠를 통해서 시청자는 입체감을 느낄 수 없다.With the development of digital technology and the diversification of broadcasting media by the convergence of broadcasting and communication, additional services related to broadcasting using the characteristics of digital technology are newly introduced. Currently, the development direction of video services such as TV is going to be high-definition and large-screen, but since 2D image contents are still provided, viewers can not feel stereoscopic effect through current image contents.

이에 따라 점진적으로 입체 영상의 필요성이 대두되고 있는 실정이나 아직까지 입체 영상의 컨텐츠가 많이 부족한 실정이다. 입체 영상 처리기술은 차세대 정보통신 서비스 분야의 핵심 기술로서, 정보산업 사회로의 발달과 더불어 기술개발 경쟁이 치열한 최첨단 기술이다. 이러한 입체 영상 처리기술은 멀티미디어 응용에서 고품질의 영상 서비스를 제공하기 위해 필수적인 요소이며, 오늘날에는 이러한 정보통신 분야뿐만 아니라 방송, 의료, 교육, 군사, 게임, 가상현실 등 그 응용분야가 매우 다양화되고 있다.As a result, the necessity of stereoscopic image is increasing gradually, but the contents of the stereoscopic image have not been enough yet. Stereoscopic image processing technology is a core technology in the next generation information and communication service field, and it is a cutting-edge technology in which competition for technology development is intense along with development in the information industry society. Such stereoscopic image processing technology is an essential element for providing high quality image service in multimedia applications. Today, the application fields such as broadcasting, medical treatment, education, military, game and virtual reality are diversified as well as the information communication field have.

따라서 종래에는 2D영상이나 이미지를 3D영상이나 이미지로서 변환시켜 다양한 분야에서 적용할 수 있는 기술들이 제안되었다. 예를 들면, 특허공개 제2011-013142호(2011.12.14일 공개)는 깊이맵 정보를 이용한 입체 영상변환방법에 대한 기술을 제안하였고, 특허등록 제1291071호(2013.07.24 등록)는 입체 영상 컨텐츠를 출력하는 과정에서 깊이 맵 정보의 오류로 인해 입체감 저하가 나타나지 않도록 하는 입체 영상 오류 개선 방법 및 장치를 제안하였다. Accordingly, in the past, techniques for converting 2D images or images into 3D images or images and applying them to various fields have been proposed. For example, Patent Publication No. 2011-013142 (published on December 14, 2011) proposes a technique for a stereoscopic image conversion method using depth map information, and patent registration No. 1291071 (registered on March 23, 2013) A method and an apparatus for improving a stereoscopic image error are proposed in which the stereoscopic effect is not caused by an error of the depth map information.

그러나 이와 같은 종래기술은 2D 영상을 3D 영상으로 전환하는 과정은 프레임간의 시간차에 따른 시차를 양안 시차로 전환하여 입체효과를 부여하는 방식으로 3D 영상물을 제작한 것으로 수평운동을 하는 프레임에 대해서는 입체감 형성이 유리하지만, 정지해 있는 배경이나 사물에 대해서는 입체감 형성을 위한 정보를 충분히 제공하지 않는다.However, in the conventional technique, a process of converting a 2D image into a 3D image is performed by converting a parallax according to a time difference between frames into a binocular parallax to give a stereoscopic effect. In the case of a horizontally moving frame, This advantage, however, does not provide enough information for stereoscopic effect formation for a stationary background or object.

특히 종래에는 2D 이미지에서 일측 프레임을 깊이맵(Depth map)으로 변환시킨 뒤에 렌더링하여 일측프레임에서 시점이 이동되는 타측프레임을 생성하고, 상기 일측프레임과 타측프레임을 합성하여 3D 영상으로 변환시켰다. 하지만, 종래에는 상기와 같은 일측프레임의 렌더링과정에서 일측프레임에 포함된 객체를 표현하는 픽셀이 이동되면서 깨지기 때문에 타측 프레임에서 늘어지도록 보이는 홀(A', 도 7b 참조)이 발생된다. 따라서 종래에는 일측 프레임의 렌더링으로 생성된 타측프레임에 발생된 홀의 보정작업이 필요하나, 종래에는 작업자가 육안으로서 홀을 확인하고, 수작업으로 보정해야되기 때문에 작업이 장시간 소요되는 문제점이 있었다. In particular, conventionally, one side frame is transformed into a depth map in a 2D image, and then another side frame in which a viewpoint is shifted in one side frame is rendered, and the one side frame and the other side frame are synthesized and converted into a 3D image. Conventionally, however, in the rendering process of one frame as described above, since a pixel representing an object included in one frame is moved and broken, a hole A '(see FIG. Therefore, in the related art, it is necessary to correct the hole generated in the other frame generated by rendering the one frame. However, conventionally, the operator has to check the hole as the naked eye and manually correct the hole.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 2D 영상의 일측프레임을 렌더링(Rendering)하여 출력시킨 타측 프레임에 발생된 오류를 자동으로 검색 및 보정 할 수 있는 3D 영상의 렌더링 보정방법에 관한 것이다. SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide a method and apparatus for automatically detecting and correcting errors generated in a second frame rendered by rendering one frame of a 2D image, And a rendering correction method of the 3D image.

본 발명은 상기와 같은 목적을 달성하기 위하여 하기와 같은 실시예를 포함한다. The present invention includes the following embodiments in order to achieve the above object.

본 발명에 따른 3D 영상의 렌더링 보정방법의 바람직한 실시예는 2D영상에서 일측 프레임을 출력하는 일측프레임 출력단계; 상기 일측프레임에서 각 객체간 거리를 명암으로서 표현하는 깊이 맵(Depth map)을 생성 및 출력하는 깊이맵 출력단계; 상기 깊이맵과 일측 프레임을 렌더링하여 타측프레임을 생성 및 출력하는 우측프레임 출력단계; 상기 타측프레임의 객체를 일측프레임과 비교하여 동일 객체 여부를 흑과 백으로서 표현하는 채널이미지를 생성 및 출력하는 채널이미지출력단계; 상기 채널이미지에서 상기 일측프레임에서 포함되지 않은 객체가 확인되면, 오류영역의 감지신호를 출력하는 검수단계; 및 상기 검수단계에서 오류영역이 확인되면, 상기 오류영역의 경계선을 기준선으로 설정하여 동일 객체를 포함하는 영역을 대칭 복사하여 상기 오류영역에 붙이기 하는 오류보정단계를 포함하고, 상기 오류보정단계는 상기 채널이미지에서 흑과 백의 경계선을 기준선으로 설정하는 기준선 설정단계; 상기 오류영역의 면적을 산출하는 오류영역 산출단계; 상기 기준선을 중심으로 상기 오류영역과 대칭된 위치에서 동일 객체를 표현하는 객체가 포함된 복사영역을 설정하는 복사영역 설정단계; 상기 복사영역 설정단계에서 설정된 복사영역을 대칭 복사하여 상기 오류영역에 붙이기를 실행하는 복사단계; 및 상기 복사단계 이후 상기 타측프레임을 저장하는 저장단계를 포함한다. A preferred embodiment of the 3D image rendering correction method according to the present invention is a one-frame output step of outputting one frame in a 2D image; A depth map output step of generating and outputting a depth map representing a distance between each object in the one frame; A right frame output step of rendering the depth map and the one frame and generating and outputting the other frame; A channel image output step of generating and outputting a channel image in which an object of the other frame is compared with one frame to represent the same object as black and white; A checking step of outputting a detection signal of an error area when an object not included in the one frame is identified in the channel image; And an error correction step of, if the error area is identified in the verification step, setting the boundary line of the error area as a reference line and symmetrically copying the area including the same object to the error area, A baseline setting step of setting a boundary between black and white as a reference line in the channel image; An error area calculating step of calculating an area of the error area; A copy area setting step of setting a copy area including an object representing the same object at a position symmetrical with the error area around the baseline; A copying step of mirroring the copy area set in the copy area setting step and attaching the copied area to the error area; And a storing step of storing the other frame after the copying step.

삭제delete

삭제delete

삭제delete

본 발명의 다른 실시예에 있어서, 상기 복사단계는 상기 오류영역과 복사영역의 면적을 비교하는 비교단계; 및 상기 비교단계 이후에 상기 복사영역의 면적이 적은 것으로 판단되면, 상기 복사영역을 반복하여 복사 및 붙이기 하는 단계를 더 포함하는 것을 특징으로 한다. In another embodiment of the present invention, the copying step may include: a comparison step of comparing areas of the error area and the copy area; And repeatedly copying and pasting the copy area if it is determined that the area of the copy area is small after the comparing step.

본 발명은 2D영상의 각 프레임을 렌더링(Rendering)하는 과정에서 발생되는 오류를 자동으로 검사하고 보정할 수 있어 작업시간을 단축할 수 있고, 작업자의 편의를 향상시킬 수 있는 효과가 있다. The present invention is capable of automatically checking and correcting an error occurring in the process of rendering each frame of a 2D image, thereby shortening the working time and improving the convenience of the operator.

도 1은 본 발명에 따른 3D 영상의 렌더링 보정방법의 개요를 설명하기 위한 도면,
도 2는 본 발명에 따른 3D 영상의 렌더링 보정시스템을 도시한 블럭도,
도 3은 본 발명에 따른 3D 영상의 렌더링 보정방법을 도시한 순서도,
도 4는 본 발명에 따른 3D 영상의 렌더링 보정방법에서 오류보정단계를 도시한 순서도,
도 5는 2D 영상에서 추출된 좌측프레임을 도시한 사진,
도 6은 좌측프레임의 깊이맵을 도시한 사진,
도 7a는 우측프레임을 도시한 사진,
도 7b는 도 7a의 일부 확대사진,
도 8은 우측프레임의 채널이미지를 도시한 사진,
도 9는 우측프레임의 보정영역을 도시한 도면이다.
1 is a diagram for explaining an outline of a rendering correction method for a 3D image according to the present invention,
FIG. 2 is a block diagram illustrating a rendering correction system of a 3D image according to the present invention.
3 is a flowchart illustrating a rendering correction method of a 3D image according to the present invention.
4 is a flowchart showing an error correction step in a 3D image rendering correction method according to the present invention;
5 is a diagram showing a left frame extracted from a 2D image,
6 is a photograph showing the depth map of the left frame,
7A is a photograph showing the right frame,
Figure 7b is a partial enlarged view of Figure 7a,
8 is a photograph showing the channel image of the right frame,
9 is a view showing a correction area of a right frame.

이하에서는 본 발명에 따른 3D 영상의 렌더링 보정방법의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. Hereinafter, a preferred embodiment of a 3D image rendering correction method according to the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 3D 영상의 렌더링 보정방법의 개요를 설명하기 위한 도면이다. 1 is a diagram for explaining an outline of a 3D image rendering and correction method according to the present invention.

도 1을 참조하면, 본 발명에 따른 3D 영상의 렌더링 보정방법은 2D 영상에서 이미지로서 일측프레임을 추출하고, 상기 일측프레임에 포함된 객체의 픽셀을 이동시켜 다른 시점에서 보여지는 타측프레임을 생성 및 합성하여 3D 영상으로 변환시킨다. 1, a 3D image rendering correction method according to the present invention includes extracting one frame as an image in a 2D image, moving pixels of the object included in the one frame, generating and displaying another frame, Synthesized and converted into a 3D image.

이때 2D 영상의 일측프레임은 렌더링 과정을 거쳐 타 시점에서 보여지는 타측프레임을 생성한다. 여기서 상기 일측프레임과 타측프레임은 렌더링 이후에 2D 영상에서 추출된 프레임의 픽셀의 이동방향에 따라서 좌측프레임과 우측프레임으로 명명된다. At this time, one frame of the 2D image is subjected to a rendering process, and another frame shown at the other view is generated. Here, the one frame and the other frame are named as a left frame and a right frame according to the moving direction of the pixels of the frame extracted from the 2D image after the rendering.

이하에서는 렌더링 이전의 프레임을 좌측프레임, 렌더링 이후의 프레임을 우측프레임으로 칭한다. Hereinafter, a frame before rendering is referred to as a left frame, and a frame after rendering is referred to as a right frame.

상기 좌측프레임은 명암차에 의하여 각 객체간의 거리차를 표현하는 깊이맵(Depth map)을 참조하여 렌더링을 통하여 우측 프레임으로 변환된다. 이때 렌더링은 깊이맵에 의한 명암차에 따라서 좌측프레임을 구성하는 각각의 픽셀을 일방향으로 이동시켜 상기 우측프레임을 생성한다. 여기서 상기 우측 프레임의 각 객체는 렌더링 과정에서 픽셀이 손상되어 홀(A')(도 7b 참조)이 발생된다. The left frame is transformed into a right frame through rendering by referring to a depth map expressing a difference in distance between the objects by the lightness difference. At this time, the rendering generates the right frame by moving each pixel constituting the left frame in one direction according to the difference in brightness by the depth map. Here, each object of the right frame is damaged in the rendering process, resulting in a hole A '(see FIG. 7B).

따라서 본 발명은 상기와 같은 홀(A')이 발생된 오류 영역을 자동으로 검수 및 보정하기 위하여 좌측프레임과 우측프레임을 상호 비교하여 일치되지 않은 객체의 포함여부를 오류영역을 설정하고, 상기 오류영역과 대칭된 위치에서 동일한 객체가 포함된 영역이 존재하면 해당 영역을 대칭 복사하여 상기 오류영역에 붙이기(Paste) 한다. 여기서 본 발명은 상기 오류영역의 검수와 대칭복사 과정이 자동으로 이루어지는 것을 특징으로 한다. Accordingly, in order to automatically check and correct an error area in which the hole A 'is generated, the present invention compares the left frame and the right frame so as to set an error area as to whether or not an object that is not matched is included, If an area including the same object exists at a position symmetrical with the area, the area is mirrored and pasted to the error area. Here, the present invention is characterized in that the verification and symmetry of the error region are automatically performed.

상세한 구성은 도 2를 참조하여 설명한다. 도 2는 본 발명에 따른 3D 영상의 렌더링 보정시스템을 도시한 블럭도이다. The detailed configuration will be described with reference to Fig. 2 is a block diagram illustrating a rendering correction system of a 3D image according to the present invention.

도 2를 참조하면, 본 발명에 따른 3D 영상의 렌더링 보정시스템은 조작명령을 출력하는 입력부(11)와, 2D 영상의 프레임을 렌더링하는 렌더링부(12)와, 상기 렌더링부(12)에서 출력된 우측프레임에서 오류발생여부를 검수하는 검수부(13)와, 상기 검수부(13)에서 감지된 오류 영역을 대칭 복사하여 보정하는 보정부(14)와, 좌측프레임과 우측프레임을 저장하는 데이타베이스(15)와, 상기 입력부(11)의 조작명령에 따라서 상기 렌더링부(12)를 제어하여 좌측프레임을 참조하여 우측프레임을 생성하고, 상기 검수부(13)의 검수신호에 따라서 상기 보정부(14)를 제어하는 제어부(16)와, 디스플레이(17)를 포함한다.Referring to FIG. 2, a rendering correction system for a 3D image according to the present invention includes an input unit 11 for outputting an operation command, a rendering unit 12 for rendering a 2D image frame, A correcting unit 13 for checking whether an error has occurred in the right frame of the frame, a correcting unit 14 for symmetrically correcting the error region detected by the accepting unit 13, data for storing a left frame and a right frame, And controls the rendering unit 12 according to an operation command of the input unit 11 to generate a right frame with reference to the left frame, A control unit 16 for controlling the display unit 14, and a display 17.

상기 입력부(11)는 사용자가 조작하는 키의 조합에 의한 명령어를 상기 제어부(16)에 인가한다. 여기서 상기 입력부(11)는 상기 데이타베이스(15)에 저장된 2D영상에서 산출된 좌측프레임과 깊이맵(Depth map)의 선택 및 상기 렌더링부(12)의 구동명령을 출력한다. The input unit 11 applies a command to the control unit 16 by a combination of keys operated by a user. Here, the input unit 11 selects a left frame and a depth map calculated from the 2D image stored in the database 15, and outputs a driving instruction of the rendering unit 12.

상기 렌더링부(12)는 우측프레임을 생성하는 쉬프트모듈(121)과, 채널이미지를 생성하는 채널모듈(122)과, 상기 좌측프레임의 깊이맵을 생성하는 깊이모듈(123)을 포함한다. The rendering unit 12 includes a shift module 121 for generating a right frame, a channel module 122 for generating a channel image, and a depth module 123 for generating a depth map of the left frame.

상기 깊이모듈(123)은 상기 2D 영상에서 선택된 프레임을 흑백이미지로서 거리를 명암으로 표현하는 깊이맵(Depth map)으로 변환시킨다. The depth module 123 converts a selected frame of the 2D image into a depth map representing a distance as a black and white image.

상기 쉬프트모듈(121)은 상기 좌측프레임에 포함된 각각의 객체를 우측방향으로 이동시켜 우측프레임을 표현하는 이미지를 생성한다. 여기서 상기 우측프레임은 상기 좌측프레임의 객체를 상기 깊이맵에서 표현된 거리차를 참조한 픽셀(Pixel)의 이동으로 완성된다. The shift module 121 generates an image representing the right frame by moving each object included in the left frame to the right. Here, the right frame is completed by moving a pixel of the left frame referring to the distance difference represented by the depth map.

상기 채널모듈(122)은 상기 우측프레임과 좌측프레임의 객체를 비교하여 차이가 발생된 객체를 흑과 백으로 표현하는 채널이미지를 생성한다. 이때 상기 채널이미지는 상기 좌측프레임과 우측프레임을 상호 비교하여 동일한 영역을 백색으로 표현하고, 양측 프레임간에 서로 다른 영역이 포함된다면 흑색으로 표현한다. 즉, 상기 채널이미지는 상기 좌측프레임과 우측프레임간에 상호 동일한 데이타(예를 들면, 픽셀)를 포함하고 있는지를 비교하여 그 차이를 흑색으로 표시한다. The channel module 122 compares the objects of the right frame and the left frame, and generates a channel image that represents the difference object in black and white. At this time, the channel image is represented by white when the left frame and the right frame are compared with each other, and when the different areas are included between the two frames, the channel image is expressed in black. That is, the channel image compares the left frame and the right frame with each other to see whether they contain the same data (e.g., pixels), and displays the difference in black.

하지만, 상기 채널이미지는 상술한 바와 반대로 좌측프레임과 우측프레임에 모두 포함된 동일 객체를 흑색, 차이가 발생된 객체를 백색으로 표현함도 가능하다. 이와 같은 흑과 백의 설정은 설계자와 작업자의 선택에 따른 것으로 다양한 실시예중 어느 하나에 해당된다. However, the channel image may be black in the same object included in both the left frame and the right frame as opposed to the above, and the object in which the difference is generated may be expressed in white. The setting of black and white according to the choice of designer and operator corresponds to any one of various embodiments.

상기 검수부(13)는 상기 채널모듈(122)에서 출력된 채널이미지에서 흑색 또는 백색으로 표시되는 영역의 존재 여부를 확인하여 상기 제어부(16)에 인가한다. The acceptance unit 13 confirms whether there is a black or white region in the channel image output from the channel module 122 and applies the same to the controller 16.

여기서 상기 채널이미지는 샹술한 바와 같이 2D 영상의 프레임에서 일방향으로 이동되어 생성된 프레임의 이미지간에 객체를 비교하여 그 차이를 흑과 백으로서 표현된다. 따라서 상기 검수부(13)는 상기 채널이미지에서 흑색으로 표시되는 영역이 발생됨을 감지하여 상기 제어부(16)에 인가한다. Here, the channel image is shifted in one direction in a frame of a 2D image, and the object is compared between the images of the generated frame, and the difference is expressed as black and white. Therefore, the acceptance unit 13 senses that a region displayed in black is generated in the channel image, and applies the sensed region to the controller 16.

상기 보정부(14)는 상기 제어부(16)의 제어에 의하여 상기 채널이미지에서 흑색으로 표시된 영역을 상기 우측프레임에서 확인하고, 해당 영역의 픽셀을 대칭복하여 오류를 보정한다. 이때 상기 보정부(14)는 상기 홀(A')이 발생된 영역의 면적과 그 영역을 확인하고, 설정된 기준선을 중심으로 상기 오류영역과 대칭된 위치에서 오류가 발생되지 않은 영역을 복사영역(A2, 도 9참조)으로 설정하고, 상기 복사영역의 픽셀을 대칭 복사하여 오류를 보정한다. 즉, 상기 보정부는 상기 오류영역의 대칭된 위치의 영역을 복사(대칭복사)하여 홀(A')이 발생된 오류영역(A1, 도 9참조)에 붙이기(Paste)를 실행하여 보정한다. Under the control of the control unit 16, the correcting unit 14 corrects an error by confirming an area indicated by black in the channel image in the right frame, and by symmetrically correcting pixels in the corresponding area. At this time, the correcting unit 14 confirms the area of the area where the hole A 'is generated and its area, and a region where no error has occurred at a position symmetric with the error area with respect to the set reference line is referred to as a copy area A2, see Fig. 9), and corrects the error by symmetrically copying the pixels of the copy area. That is, the correction unit corrects the area of the symmetric position of the error area by copying (symmetric copying) and pasting the area of the symmetric position of the error area to the error area A1 (see FIG. 9) where the hole A 'is generated.

상기 제어부(16)는 상기 입력부(11)의 선택명령이 인가되면, 상기 데이타베이스(15)에 저장된 2D 영상으로부터 산출되는 좌측프레임을 선택하여 디스플레이(17)에 출력하고, 이후 렌더링 명령이 인가되면 상기 렌더링부(12)를 제어하여 우측프레임과 채널이미지를 각각 생성하도록 한다. 아울러 상기 제어부(16)는 상기 검수부(13)의 검수신호가 수신되면 상기 보정부(14)를 제어하여 홀(A')이 발생된 오류영역을 보정하도록 제어한다. The control unit 16 selects a left frame calculated from the 2D image stored in the database 15 and outputs the selected left frame to the display 17 when the selection command of the input unit 11 is applied, And controls the rendering unit 12 to generate a right frame and a channel image, respectively. The control unit 16 controls the correcting unit 14 to correct the error area in which the hole A 'is generated when the acceptance signal of the accepting unit 13 is received.

아울러 상기 제어부(16)는 상기 디스플레이(17)를 제어하여 상기 좌측프레임과 우측프레임, 깊이맵, 채널이미지를 각각 출력하도록 제어한다. In addition, the controller 16 controls the display 17 to output the left frame, the right frame, the depth map, and the channel image, respectively.

본 발명은 상기와 같은 구성을 포함하며, 이하에서는 본 발명에 따른 3D 영상의 렌더링 보정방법은 도 3 내지 도 9를 참조하여 상세히 설명한다. The present invention includes the above-described configuration. Hereinafter, a method of rendering and correcting a 3D image according to the present invention will be described in detail with reference to FIG. 3 to FIG.

도 3은 본 발명에 따른 3D 영상의 렌더링 보정방법을 도시한 순서도이다. 3 is a flowchart illustrating a rendering correction method of a 3D image according to the present invention.

도 3을 참조하면, 2D 영상의 프레임을 이미지로 출력하는 2D영상의 좌측프레임 출력단계(S11)와, 상기 2D 영상의 좌측 프레임의 깊이맵을 출력하는 깊이맵 출력단계(S12)와, 깊이맵과 2D 프레임을 렌더링하여 우측프레임을 출력하는 우측프레임 출력단계(S13)와, 상기 우측프레임의 채널이미지를 산출하는 채널이미지출력단계(S14)와, 상기 채널이미지와 우측프레임을 비교하여 홀(A')이 발생된 오류영역(A1, 도 9참조)을 검수하는 검수단계(S15)와, 상기 검수단계(S15)에서 확인된 오류영역의 기준선을 중심으로 대칭복사하여 보정하는 오류보정단계(S16)를 포함한다. 3, a left frame output step S11 for outputting a 2D image frame as an image, a depth map output step S12 for outputting a depth map of a left frame of the 2D image, A right frame output step (S13) of rendering a 2D frame and outputting a right frame, a channel image output step (S14) of calculating a channel image of the right frame, comparing the channel image with a right frame, (S15) for inspecting the error region (A1) (see FIG. 9) where the error region is generated, and an error correction step (S16) for symmetrically correcting the error region, ).

상기 좌측프레임 출력단계(S11)는 2D 영상에서 추출된 좌측프레임을 출력하는 단계이다. 상기 입력부(11)는 사용자의 조작에 의하여 2D 영상의 프레임을 이미지로 변환시킨 좌측프레임의 선택신호를 인가한다. 따라서 상기 제어부(16)는 상기 입력부(11)의 제어신호를 수신하여 상기 데이타베이스(15)에 저장된 좌측프레임을 디스플레이(17)에 출력한다. 상기 좌측프레임은 도 5에 도시된 바와 같다. The left frame output step S11 is a step of outputting the left frame extracted from the 2D image. The input unit 11 applies a selection signal of a left frame obtained by converting a frame of a 2D image into an image by a user's operation. Accordingly, the control unit 16 receives the control signal of the input unit 11 and outputs the left frame stored in the database 15 to the display 17. The left frame is as shown in Fig.

상기 깊이맵 출력단계(S12)는 상기 제어부(16)에서 상기 렌더링부(12)를 제어하여 상기 좌측프레임을 깊이맵으로 변환시킨다. 여기서 상기 깊이맵은 상기 좌측프레임을 흑백이미지로 변환하여 명암에 의한 거리차를 표현하는 이미지로서 도 6에 도시된 바와 같다. 따라서 상기 제어부(16)는 상기 입력부(11)의 명령이 인가되면, 상기 렌더링부(12)를 제어하여 상기 좌측프레임의 깊이맵을 생성한다. 상기 렌더링부(12)는 상기 제어부(16)의 제어에 의하여 깊이모듈(123)을 구동시켜 상기 좌측프레임를 깊이맵으로 변환하여 디스플레이(17)에 출력한다. In the depth map output step S12, the control unit 16 controls the rendering unit 12 to convert the left frame into a depth map. The depth map is as shown in FIG. 6 as an image expressing the distance difference by light and dark by converting the left frame into a monochrome image. Accordingly, when the command of the input unit 11 is applied, the controller 16 controls the rendering unit 12 to generate a depth map of the left frame. The rendering unit 12 drives the depth module 123 under the control of the control unit 16, converts the left frame into a depth map, and outputs the depth map to the display 17.

상기 깊이맵은 도 6에 도시된 바와 같이, 도 5의 좌측프레임에 포함된 각각의 객체를 흑백으로 표현하되, 각 객체간의 거리를 명암차로 표현하는 흑백이미지이다. As shown in FIG. 6, the depth map is a black-and-white image in which each object included in the left frame of FIG. 5 is expressed in black and white, and the distances between the objects are represented by a contrast.

상기 우측프레임출력단계(S13)는 상기 제어부(16)가 상기 렌더링부(12)를 제어하여 상기 깊이맵과 좌측프레임을 렌더링시켜 우측프레임을 생성하는 단계이다. 여기서 상기 렌더링부(12)는 상기 제어부(16)의 제어에 의하여 상기 쉬프트모듈(121)의 구동으로 상기 좌측프레임의 객체를 표현하는 픽셀을 우측으로 이동시켜 우측프레임을 생성한다. 이때 상기 쉬프트모듈(121)은 상기 깊이맵의 명암차에 따른 각 객체간의 거리차를 유지하면서 각 픽셀을 우측으로 이동시켜 도 7a와 도 7b에서 도시된 바와 같은 우측프레임을 생성한다. 상기 제어부(16)는 상기 렌더링부(12)에 의해 생성된 우측프레임을 상기 디스플레이(17)에 출력한다. In the right frame output step S13, the controller 16 controls the rendering unit 12 to render the depth map and the left frame to generate a right frame. The rendering unit 12 generates the right frame by moving the pixel representing the object of the left frame to the right by driving the shift module 121 under the control of the controller 16. At this time, the shift module 121 generates right frames as shown in FIGS. 7A and 7B by moving each pixel to the right while maintaining a difference in distance between objects according to the difference in brightness of the depth map. The control unit 16 outputs the right frame generated by the rendering unit 12 to the display 17. [

상기 채널이미지출력단계(S14)는 상기 제어부(16)가 상기 렌더링부(12)를 제어하여 상기 우측프레임과 좌측프레임의 객체를 비교하여 상기 좌측프레임에서 포함되어 있지 않은 객체를 흑과 백중 어느 하나로서 표현하는 채널이미지를 생성하는 단계이다. 상기 채널모듈(122)은 상기 제어부(16)의 제어에 의하여 상기 우측프레임을 흑백이미지로 변환시키되, 상기 좌측프레임과 동일한 객체는 백색으로 표현하고, 좌측프레임과 차이가 있는 객체(예를 들면, 새로운 객체나 형상의 차이가 있는 객체)를 흑색으로 표시한다. 상기 채널이미지는 도 8과 도 9에 도시된 바와 같다. In the channel image output step S14, the controller 16 controls the rendering unit 12 to compare the objects of the right frame and the left frame to determine whether the objects not included in the left frame are either black or white As shown in FIG. The channel module 122 converts the right frame into a monochrome image under the control of the controller 16, the same object as the left frame is expressed in white, and the object having a difference from the left frame (for example, A new object or an object with a difference in shape) is displayed in black. The channel image is as shown in FIGS. 8 and 9. FIG.

상기 검수단계(S15)는 상기 검수부(13)가 제어부(16)의 제어에 의해 채널이미지출력단계에서 생성된 채널이미지에서 흑색으로 표시된 영역을 확인하는 단계이다. 상기 채널이미지는 좌측프레임과 우측프레임간의 동일객체를 백색, 서로 다른 객체를 흑색으로 표현하도록 설정되었다. 따라서 상기 채널이미지는 좌측프레임과 우측프레임에서 상호 동일한 객체를 백색으로 표시하고, 서로 다른 객체라면 흑색으로 표시한다. 이와 같은 채널이미지는 도 8에서 일예로 도시되었다. 상기 검수부(13)는 상기 채널이미지에서 흑색으로 표현되는 객체의 존재여부 및 그 영역을 확인한다. The verification step S15 is a step in which the verification unit 13 confirms a region indicated by black in the channel image generated in the channel image output step under the control of the control unit 16. [ The channel image is set to represent the same object between the left frame and the right frame as white, and the different objects as black. Accordingly, the channel image displays the same objects in the left frame and the right frame in white, and displays different objects in black. Such a channel image is shown in FIG. 8 as an example. The acceptance unit 13 confirms whether there is an object represented by black in the channel image and its area.

상기 홀(A')은 도 7a와 도 7b에서 일 예가 소개되었다. 즉, 좌측프레임은 상기 렌더링 단계에서 각각의 픽셀이 이동되는 과정에서 오류가 발생되어 도 7b의 확대된 영역과 같이 늘어진 것처럼 보인다. 홀(A')은 좌측프레임에 없었던 객체이나 렌더링 과정에서 우측프레임에 추가된 것이기에 상기 채널이미지에서 흑색으로 표시된다. An example of the hole A 'has been introduced in Figs. 7A and 7B. That is, an error occurs in the process of moving each pixel in the rendering step and the left frame appears to be stretched like the enlarged area of FIG. 7B. The hole A 'is displayed in black in the channel image since it is an object that was not in the left frame or added to the right frame in the rendering process.

상기 오류보정단계(S16)는 상기 제어부(16)가 상기 검수단계(S15)에서 우측프레임에 홀(A')이 발생됨이 감지되면 상기 보정부(14)를 제어하여 오류 영역(A1)을 보정하는 단계이다. 상기 오류보정단계(S16)는 하기의 도 4와 도 9를 참조하여 설명한다. 여기서 도 9는 도 7a와 도 7b와 도 8의 'A'영역의 복구과정을 일예로서 도시한 것이다. The error correcting step S16 is a step of correcting the error area A1 by controlling the correcting part 14 when the control part 16 detects that the hole A 'is generated in the right frame in the verification step S15 . The error correction step S16 will be described below with reference to FIG. 4 and FIG. Here, FIG. 9 shows an example of the repair process of the area 'A' in FIGS. 7A, 7B and 8 as an example.

도 4는 본 발명에 따른 3D 영상의 렌더링 보정방법에서 오류보정단계를 도시한 순서도이다. 4 is a flowchart illustrating an error correction step in a 3D image rendering correction method according to the present invention.

도 4를 참조하면, 상기 오류보정단계는 상기 채널이미지에서 흑과 백의 경계선을 기준선(C)(도 9참조)으로 설정하는 기준선 설정단계(S161)와, 상기 홀(A')이 발생된 오류영역(A1)의 면적을 산출하는 오류영역 산출단계(S162)와, 상기 오류영역 산출단계(S162)에서 산출된 영역과 동일한 면적을 갖는 복사영역(A2)을 설정하는 복사영역 설정단계(S163)와, 상기 복사영역 설정단계(S163)에서 설정된 복사영역(A2)을 복사하여 상기 오류영역(A1)에 붙이는 복사단계(S164)와, 상기 복사단계(S164) 이후 보정된 우측프레임을 저장하는 저장단계(S165)를 포함한다. Referring to FIG. 4, the error correction step may include a reference line setting step S161 of setting a boundary line between black and white in the channel image as a reference line C (see FIG. 9), an error An error area calculating step (S162) of calculating an area of the area (A1); a copy area setting step (S163) of setting a copy area (A2) having the same area as the area calculated in the error area calculating step (S162) A copying step S164 of copying the copy area A2 set in the copy area setting step S163 and attaching the copy area A2 to the error area A1; and a copying step S164 of storing the right frame corrected after the copying step S164 Step S165.

상기 기준선 설정단계(S161)는 상기 보정부(14)에서 기준선(C)을 설정하는 단계이다. 상기 보정부(14)는, 도 9에 도시된 바와 같이, 상기 채널이미지에서 흑색으로 표현된 영역과 백색으로 표현된 영역의 경계선을 기준선(C)으로 설정한다. The reference line setting step S161 is a step of setting the reference line C in the correcting unit 14. As shown in FIG. 9, the correcting unit 14 sets the boundary line between the area represented by black and the area represented by white in the channel image as the reference line C.

상기 오류영역 산출단계(S162)는 상기 보정부(14)에서 상기 채널이미지에서 흑색으로 표현된 영역의 면적을 산출하는 단계이다. 상기 오류영역(A1)은 픽셀 데이타의 오류가 발생된 전체 영역의 면적에 해당된다. The error region calculation step S162 is a step of calculating the area of the area represented by black in the channel image by the correction unit 14. [ The error area A1 corresponds to the area of the entire area where the error of the pixel data occurs.

상기 복사영역 설정단계(S163)는 상기 보정부(14)에서 상기 오류영역 산출단계(S162)에서 산출된 영역과 동일한 면적을 갖는 복사영역(A2)을 설정하는 단계이다. 여기서 상기 복사영역(A2)은 상기 기준선(C)을 중심으로 상기 오류영역(A1)과 동일한 픽셀 데이타를 갖는 영역(좌측프레임에서 동일 객체를 갖는 영역)이다. 보다 상세히 설명하자면, 상기 복사영역(A2)은 우측프레임 또는 좌측프레임에서 상기 오류영역(A1)과 동일 객체 중에서 설정된다. The copying area setting step S163 is a step of setting the copying area A2 having the same area as the area calculated in the error area calculating step S162 in the correcting part 14. The copy area A2 is a region having the same pixel data as the error area A1 (the area having the same object in the left frame) around the reference line C as the center. More specifically, the copy area A2 is set in the right frame or the left frame among the same objects as the error area A1.

상기 복사단계(S164)는 상기 복사영역(A2)을 복사하여 상기 오류영역(A1)에 붙이는 단계이다. 상기 보정부(14)는 상기 기준선(C)을 중심으로 상기 오류영역(A1)과 대칭되어 상기 오류영역(A1)과 동일 객체가 표현된 영역중에서 복사영역(A2)을 설정하고, 상기 복사영역(A2)의 픽셀을 복사하여 상기 오류영역(A1)에 붙이기를 실행한다. The copying step S164 is a step of copying the copy area A2 and attaching the copy area A2 to the error area A1. The correcting unit 14 sets a copy area A2 among the areas symmetric with the error area A1 with respect to the reference line C to express the same object as the error area A1, (A2) is copied and pasted to the error area (A1).

만약, 상기 오류영역(A1)과 동일 픽셀로서 표현되는 객체의 면적이 상기 오류영역(A1)에 비하여 좁은 면적을 이룬다면, 상기 복사단계(S164)를 반복하여 실행하는 것이 바람직하다. If the area of the object represented by the same pixel as the error area A1 is smaller than the error area A1, it is preferable to repeat the copying step S164.

즉, 상기 복사단계(S164)는 오류영역(A1)보다 복사영역(A2)의 면적이 적다면, 반복하여 상기 복사영역의 픽셀을 상기 오류영역에 복사 및 붙이기를 실행한다. That is, if the area of the copy area A2 is smaller than the error area A1, the copying step S164 repeatedly copies and pastes the pixels of the copy area into the error area.

이를 위하여 상기 복사단계(S164)는 상기 오류영역(A1)과 복사영역(A2)의 면적을 비교하는 비교단계(도시되지 않음)와, 상기 비교단계(도시되지 않음) 이후에 상기 복사영역의 면적이 적다면, 반복하여 붙이기를 실행하는 붙이기단계(도시되지 않음)를 더 포함하는 것이 바람직하다. To this end, the copying step S164 includes a comparison step (not shown) for comparing the area of the error area A1 with the area of the copy area A2, and an area of the copy area after the comparison step (not shown) It is preferable to further include a pasting step (not shown) for performing repetitive pasting.

상기 비교단계는 상기 보정부(14)가 상기 기준선(C)을 중심으로 상기 좌측프레임을 참조하여 상기 오류영역(A1)과 대칭된 위치의 동일한 픽셀을 갖는 복사영역(A2)의 면적을 산출하고, 상기 복사영역(A2)의 면적과 오류영역(A1)의 면적을 비교하는 단계이다.In the comparing step, the correcting unit 14 refers to the left frame around the reference line C to calculate an area of the copying area A2 having the same pixel at a position symmetrical to the error area A1 , And comparing the area of the copy area A2 with the area of the error area A1.

상기 붙이기단계는 상기 비교단계에서 상기 복사영역(A2)의 면적이 오류영역(A1)보다 많거나 동일하다면 상술한 바와 같이 복사후 붙이기를 실행하고, 또는 복사영역(A2)의 전체 면적이 오류영역(A1)보다 적다면, 상기 오류영역(A1)이 다 채워질 때까지 반복하여 붙이기를 실행한다. If the area of the copy area A2 is greater than or equal to the error area A1 in the comparison step, the copying and pasting is performed as described above, or if the entire area of the copy area A2 is the error area (A1), it is repeatedly performed until the error area A1 is filled up.

상기 저장단계(S165)는 상기 보정부(14)가 상기 복사단계(S164)에서 오류영역(A1)이 상기 복사영역(A2)의 붙이기가 완료되면, 상기 우측프레임을 상기 데이타베이스(15)에 저장하는 단계이다. 아울러 상기 제어부(16)는 상기 보정부(14)의 오류보정단계(S16)의 실행결과를 상기 디스플레이(17)에 출력한다. In the storing step S165, when the correcting unit 14 has completed the pasting of the copying area A2 with the error area A1 in the copying step S164, . In addition, the controller 16 outputs the execution result of the error correction step S16 of the correction unit 14 to the display 17.

이와 같이 본 발명은 2D 영상의 렌더링 과정에서 발생되는 오류를 자동으로 검수 및 복구함에 따라 작업자의 작업시간을 줄이고, 업무의 난이도를 낮출 수 있어 작업효율을 높일 수 있다. As described above, according to the present invention, since an error generated in the 2D image rendering process is automatically checked and restored, the work time of the operator can be reduced, and the degree of difficulty of the work can be reduced.

이상에서 본 발명은 기재된 구체 예에 대해서 상세히 설명하였지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims.

11 : 입력부 12 : 렌더링부
13 : 검수부 14 : 보정부
15 : 데이타베이스 16 : 제어부
17 : 디스플레이 121 : 쉬프트모듈
122 : 채널모듈 123 : 깊이모듈
A1 : 오류영역 A2 : 복사영역
C : 기준선
11: input unit 12: rendering unit
13: acceptance unit 14:
15: Database 16:
17: Display 121: Shift module
122: channel module 123: depth module
A1: Error area A2: Copy area
C: Baseline

Claims (5)

삭제delete 삭제delete 2D영상에서 일측 프레임을 출력하는 일측프레임 출력단계;
상기 일측프레임에서 각 객체간 거리를 명암으로서 표현하는 깊이 맵(Depth map)을 생성 및 출력하는 깊이맵 출력단계;
상기 깊이맵과 일측 프레임을 렌더링하여 타측프레임을 생성 및 출력하는 우측프레임 출력단계;
상기 타측프레임의 객체를 일측프레임과 비교하여 동일 객체 여부를 흑과 백으로서 표현하는 채널이미지를 생성 및 출력하는 채널이미지출력단계;
상기 채널이미지에서 상기 일측프레임에서 포함되지 않은 객체가 확인되면, 오류영역의 감지신호를 출력하는 검수단계; 및
상기 검수단계에서 오류영역이 확인되면, 상기 오류영역의 경계선을 기준선으로 설정하여 동일 객체를 포함하는 영역을 대칭 복사하여 상기 오류영역에 붙이기 하는 오류보정단계를 포함하고,
상기 오류보정단계는
상기 채널이미지에서 흑과 백의 경계선을 기준선으로 설정하는 기준선 설정단계;
상기 오류영역의 면적을 산출하는 오류영역 산출단계;
상기 기준선을 중심으로 상기 오류영역과 대칭된 위치에서 동일 객체를 표현하는 객체가 포함된 복사영역을 설정하는 복사영역 설정단계;
상기 복사영역 설정단계에서 설정된 복사영역을 대칭 복사하여 상기 오류영역에 붙이기를 실행하는 복사단계; 및
상기 복사단계 이후 상기 타측프레임을 저장하는 저장단계를 포함하는 3D 영상의 렌더링 보정방법.
A one-frame output step of outputting one frame from the 2D image;
A depth map output step of generating and outputting a depth map representing a distance between each object in the one frame;
A right frame output step of rendering the depth map and the one frame and generating and outputting the other frame;
A channel image output step of generating and outputting a channel image in which an object of the other frame is compared with one frame to represent the same object as black and white;
A checking step of outputting a detection signal of an error area when an object not included in the one frame is identified in the channel image; And
And an error correction step of, if the error area is identified in the verification step, setting the boundary line of the error area as a reference line, and mirroring the area including the same object and attaching the area to the error area,
The error correction step
A reference line setting step of setting a boundary between black and white as a reference line in the channel image;
An error area calculating step of calculating an area of the error area;
A copy area setting step of setting a copy area including an object representing the same object at a position symmetrical with the error area around the baseline;
A copying step of mirroring the copy area set in the copy area setting step and attaching the copied area to the error area; And
And storing the other frame after the copying step.
삭제delete 제3항에 있어서, 상기 복사단계는
상기 오류영역과 복사영역의 면적을 비교하는 비교단계; 및
상기 비교단계 이후에 상기 복사영역의 면적이 적은 것으로 판단되면, 상기 복사영역을 반복하여 복사 및 붙이기 하는 단계를 더 포함하는 것을 특징으로 하는 3D 영상의 렌더링 보정방법.
4. The method of claim 3, wherein the copying step
A comparison step of comparing the area of the error area with the area of the copy area; And
Further comprising the step of repeatedly copying and pasting the copy area if it is determined that the area of the copy area is small after the comparing step.
KR1020140013107A 2014-02-05 2014-02-05 Rendering correction method for 3D image KR101417712B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140013107A KR101417712B1 (en) 2014-02-05 2014-02-05 Rendering correction method for 3D image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140013107A KR101417712B1 (en) 2014-02-05 2014-02-05 Rendering correction method for 3D image

Publications (1)

Publication Number Publication Date
KR101417712B1 true KR101417712B1 (en) 2014-07-08

Family

ID=51741731

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140013107A KR101417712B1 (en) 2014-02-05 2014-02-05 Rendering correction method for 3D image

Country Status (1)

Country Link
KR (1) KR101417712B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160141222A (en) * 2015-05-29 2016-12-08 주식회사 크레펀 E-Commerce System And Method Through Actual Reality Feeling Contents Include Virture Reality Contents

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101089344B1 (en) * 2010-07-26 2011-12-02 주식회사 에이스엠이 Method for transforming mono image to 3d image using the depth map generated by equalizing technique
KR20130008746A (en) * 2011-07-13 2013-01-23 삼성전자주식회사 3d image processing apparatus, implementation method thereof, and computer-readable storage medium thereof
KR20130021127A (en) * 2011-08-22 2013-03-05 삼성전자주식회사 Image processing apparatus and control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101089344B1 (en) * 2010-07-26 2011-12-02 주식회사 에이스엠이 Method for transforming mono image to 3d image using the depth map generated by equalizing technique
KR20130008746A (en) * 2011-07-13 2013-01-23 삼성전자주식회사 3d image processing apparatus, implementation method thereof, and computer-readable storage medium thereof
KR20130021127A (en) * 2011-08-22 2013-03-05 삼성전자주식회사 Image processing apparatus and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160141222A (en) * 2015-05-29 2016-12-08 주식회사 크레펀 E-Commerce System And Method Through Actual Reality Feeling Contents Include Virture Reality Contents
KR101715841B1 (en) 2015-05-29 2017-03-15 주식회사 크레펀 E-Commerce System Through Actual Reality Feeling Contents Include Virture Reality Contents

Similar Documents

Publication Publication Date Title
EP2549762B1 (en) Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
KR101777875B1 (en) Stereoscopic image display and method of adjusting stereoscopic image thereof
KR101483660B1 (en) Method and apparatus for depth-related information propagation
CN102164299B (en) Image processing apparatus, image processing method, and reproducing device
US8606043B2 (en) Method and apparatus for generating 3D image data
Itoh et al. Semi-parametric color reproduction method for optical see-through head-mounted displays
US20050185048A1 (en) 3-D display system, apparatus, and method for reconstructing intermediate-view video
US9710955B2 (en) Image processing device, image processing method, and program for correcting depth image based on positional information
EP2728887B1 (en) Image processing apparatus and image processing method thereof
US20150022631A1 (en) Content-aware display adaptation methods and editing interfaces and methods for stereoscopic images
JP5669599B2 (en) Image processing apparatus and control method thereof
JP2013017182A (en) Three-dimensional image conversion device, realization method therefor, and recording medium therefor
JP2013021695A (en) Three-dimensional image conversion apparatus, implementation method thereof, and storage medium thereof
TW201445977A (en) Image processing method and image processing system
US20110084966A1 (en) Method for forming three-dimension images and related display module
CN112118435A (en) Multi-projection fusion method and system for special-shaped metal screen
US20100149319A1 (en) System for projecting three-dimensional images onto a two-dimensional screen and corresponding method
CN111787240B (en) Video generation method, apparatus and computer readable storage medium
US8995752B2 (en) System for making 3D contents provided with visual fatigue minimization and method of the same
JP4940024B2 (en) Information processing apparatus, motion vector generation program, and interpolated image generation program
JP5904754B2 (en) Information processing system, information processing apparatus, control method therefor, and program
KR101417712B1 (en) Rendering correction method for 3D image
KR101650381B1 (en) apparatus and method for compensating 3D image
CN103297791A (en) Video display apparatus and video display method
CN103458258A (en) Image processing method and apparatus

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee