KR101181962B1 - Apparatus for transforming 3d image and the method therefor - Google Patents

Apparatus for transforming 3d image and the method therefor Download PDF

Info

Publication number
KR101181962B1
KR101181962B1 KR1020090130415A KR20090130415A KR101181962B1 KR 101181962 B1 KR101181962 B1 KR 101181962B1 KR 1020090130415 A KR1020090130415 A KR 1020090130415A KR 20090130415 A KR20090130415 A KR 20090130415A KR 101181962 B1 KR101181962 B1 KR 101181962B1
Authority
KR
South Korea
Prior art keywords
image
depth
stereoscopic
key frame
tracking
Prior art date
Application number
KR1020090130415A
Other languages
Korean (ko)
Other versions
KR20110073702A (en
Inventor
허기택
박찬종
이은태
Original Assignee
동신대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동신대학교산학협력단 filed Critical 동신대학교산학협력단
Priority to KR1020090130415A priority Critical patent/KR101181962B1/en
Publication of KR20110073702A publication Critical patent/KR20110073702A/en
Application granted granted Critical
Publication of KR101181962B1 publication Critical patent/KR101181962B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 원본 영상을 이용하여 각 장면 및 객체 단위로 시차를 갖는 입체 영상으로 제작해 주는 3D 입체영상 변환장치 및 변환방법에 관한 것이다.The present invention relates to a 3D stereoscopic image converting apparatus and a conversion method for producing a stereoscopic image having parallax for each scene and object unit using an original image.

본 발명에 3D 입체영상 변환장치는 2D영상을 입체감이 있는 3D영상으로 변환장치에 있어서, 영상을 수집하는 영상수집장치와; 상기 영상수집 장치에서 수집한 영상을 각 장면 및 객체 단위로 시차를 갖는 입체영상으로 제작하는 3D 입체 영상 저작도구가 탑재된 서버와; 상기 서버에서 처리한 영상을 출력하는 영상표시장치를 포함하여 구성된다.In the present invention, the 3D stereoscopic image converting apparatus comprises: a 2D image converting apparatus to a 3D image having a stereoscopic feeling, comprising: an image collecting apparatus for collecting images; A server equipped with a 3D stereoscopic image authoring tool for producing a stereoscopic image having parallax for each scene and object unit from the image collected by the image collecting device; And an image display device for outputting an image processed by the server.

이러한 구성에 의하여 본 발명은 반자동 입체변환 소프트웨어로 2D 영상을 장면 단위로 작업 할 수 있으며 입체영상 생성의 가장 중요한 깊이지도 생성을 객체 단위로 3D 공간상에서 사용자 입력을 통해 손쉽게 깊이를 줄 수 있고, 객체 표면의 볼륨 처리 및 양/음시차를 설정할 수 있는 UI를 제공함으로써 사실감 있는 깊이 지도를 제작 할 수 있다. With this configuration, the present invention can work with 2D video scene by unit with semi-automatic 3D conversion software, and the most important depth map generation of 3D video creation can be easily given depth through user input in 3D space. By providing a UI that can set the volume and surface / positive disparity of the surface, it is possible to produce realistic depth maps.

또한, 프로젝트 관리를 통해 작업 과정의 중간 생성물을 저장하여 필요 시 후 보정을 위한 수작업을 손쉽게 할 수 있는 효과를 제공한다. Project management also saves intermediate artifacts in the workflow, making it easy to make manual corrections when needed.

2D, 3D변환, 객체분할, 객체 트래킹, 깊이 지도, 객체 볼륨, 저작도구 2D, 3D transformation, object segmentation, object tracking, depth map, object volume, authoring tool

Description

3D 입체영상 변환장치 및 변환방법{APPARATUS FOR TRANSFORMING 3D IMAGE AND THE METHOD THEREFOR}3D stereoscopic image conversion device and conversion method {APPARATUS FOR TRANSFORMING 3D IMAGE AND THE METHOD THEREFOR}

본 발명은 2D 영상을 3D 영상으로 변환하는 저작도구에 관한 것으로, 특히 원본 영상을 이용하여 각 장면 및 객체 단위로 시차를 갖는 입체 영상으로 제작해 주는 3D 입체영상 변환장치 및 변환방법에 관한 것이다.The present invention relates to an authoring tool for converting a 2D image into a 3D image, and more particularly, to a 3D stereoscopic image converting apparatus and a conversion method for producing a stereoscopic image having parallax for each scene and object unit using an original image.

일반적으로, 3D 입체 영상 기술은 기존의 2D 평면 영상과는 달리 사람이 느끼는 실제 영상과 유사하여 시각정보의 질적 수준을 몇 차원 높여 주는 새로운 개념의 실감 영상미디어로서 차세대 디지털 영상문화를 주도하게 될 것으로 전망된다. 또한, 차세대 실감 정보통신 서비스의 총아로 사회 선진화와 더불어 수요 및 기술개발 경쟁이 치열한 고도화 기술로서 향후 2D TV를 비롯하여 정보통신, 방송, 의료, 영화, 게임, 애니메이션 등과 같은 기존의 모든 산업 제품 개발에 응용되는 핵심기술로 자리매김을 할 것으로 전망되고 있다.In general, 3D stereoscopic imaging technology will lead the next generation of digital visual culture as a new concept of realistic visual media that enhances the quality of visual information by several dimensions, unlike real 2D plane images. Is viewed. In addition, as the next generation of real-world information and communication service, advanced technology with fierce social advancement and competition for demand and technology development is expected to develop 2D TV and all existing industrial products such as information and communication, broadcasting, medical, film, game, animation, etc. It is expected to establish itself as a core technology applied.

한편, 3D TV는 기존 2D TV에 깊이 영상을 더하여 실감영상을 구현하는 것으로 2012년 이후 본격적인 가정에서의 3D TV 실감방송 시대를 맞아 입체콘텐츠의 절대부족이 예상된다.On the other hand, 3D TV is to realize a realistic image by adding a depth image to the existing 2D TV, the absolute lack of stereoscopic content is expected in the era of 3D TV realistic broadcasting at home since 2012.

그러나, 3D TV 실감방송용 입체 컨텐츠의 제작은 많은 비용과 시간, 관련 촬영 및 편집장비 등의 투입이 이루어져야 하기 때문에 단기간에 많은 콘텐츠를 제작하기 어려움이 있다.또한, 현재 기술로는 기존 영상물을 2D에서 3D로 변환하여 상용가능한 고품질의 영상물을 제공하기가 힘들뿐만 아니라 수작업이 동원되는 등 변환에 많은 시간과 비용이 소요된다. However, it is difficult to produce a lot of content in a short time because the production of 3D content for 3D TV realistic broadcasting requires a lot of cost, time, and related shooting and editing equipment. Not only is it difficult to provide high-quality video that is commercially available by converting to 3D, but it also takes a lot of time and money to convert such as manual labor.

따라서, 영상을 자유롭게 편집 및 저장시킬 수 있고, 효율적으로 고품질의 입체 컨텐츠를 확보할 수 있는 2D 영상변환 저작도구가 필요한 실정이다.Accordingly, there is a need for a 2D image conversion authoring tool capable of freely editing and storing images and efficiently securing high quality stereoscopic contents.

상기와 같은 문제점을 해결하기 위하여, 본 발명은 기존 2D 영상(정지 및 동영상)을 입력으로 받아들여 변환해 줄 수 있는 저작도구를 개발하는 것으로 이를 위해 깊이를 주고자 하는 오브젝트의 추출, 추출된 오브젝트의 트래킹, 추출된 오브젝트의 깊이부여 및 깊이 맵 생성, 생성된 깊이 맵의 트래킹 등의 기술을 사용하는 3D 입체영상 변환장치 및 변환방법을 제공하는데 있다.In order to solve the above problems, the present invention develops an authoring tool that can take an existing 2D image (still and moving image) as an input and convert the extracted object to give a depth for this purpose. The present invention provides a 3D stereoscopic image converting apparatus and a converting method using techniques such as tracking, extracting depth of an object, generating depth maps, and tracking generated depth maps.

본 발명에 따른 3D 입체영상 변환장치는 2D영상을 입체감이 있는 3D영상으로 변환장치에 있어서, 영상을 수집하는 영상수집장치와; 상기 영상수집 장치에서 수집한 영상을 각 장면 및 객체 단위로 시차를 갖는 입체영상으로 제작하는 3D 입체 영상 저작도구가 탑재된 서버와; 상기 서버에서 처리한 영상을 출력하는 영상표시장치를 포함하여 구성된다.A 3D stereoscopic image converting apparatus according to the present invention comprises: a 2D image converting apparatus to a 3D image having a stereoscopic feeling, comprising: an image collecting apparatus for collecting images; A server equipped with a 3D stereoscopic image authoring tool for producing a stereoscopic image having parallax for each scene and object unit from the image collected by the image collecting device; And an image display device for outputting an image processed by the server.

상기 3D 입체영상 저작도구는 상기 2D 영상을 장면 단위로 작업할 수 있는 것을 특징으로 한다.The 3D stereoscopic image authoring tool may work on the 2D image in a scene unit.

상기 3D 입체영상 저작도구는 상기 입체영상의 깊이지도 생성을 객체 단위로 할 수 있는 것을 특징으로 한다.The 3D stereoscopic image authoring tool may generate the depth map of the stereoscopic image on an object basis.

상기 3D 입체영상 저작도구는 객체 표면의 볼륨 처리 및 양음시차를 설정할 수 있는 것을 특징으로 한다.The 3D stereoscopic authoring tool is characterized in that it is possible to set the volume processing and positive parallax of the object surface.

본 발명에 따른 3D 입체영상 변환방법은 2D 영상을 입체감이 있는 3D 영상으로 변환하는 방법에 있어서, 영상수집장치에서 2D 또는 3D 영상을 수집하는 제 1 단계와; 3D 입체영상 저작도구가 탑재된 서버에서 상기 영상수집 장치에서 수집한 영상을 시차를 갖는 입체영상으로 변환하는 제 2 단계와; 상기 서버에서 처리한 후 영상표시장치에 처리된 영상을 출력하는 제 3 단계를 포함하여 구성된다.A 3D stereoscopic image conversion method according to the present invention includes a method for converting a 2D image into a 3D image having a stereoscopic feeling, comprising: a first step of collecting a 2D or 3D image in an image collecting device; A second step of converting the image collected by the image acquisition apparatus into a stereoscopic image having parallax in a server equipped with a 3D stereoscopic image authoring tool; And a third step of outputting the processed image to the image display apparatus after processing in the server.

상기 제 2 단계는, 신규 작업 파일 또는 프로젝트를 오픈하는 단계와; 상기 영상수집장치에서 수집한 영상에서 키 프레임(Key Frame)을 선택하는 단계와; 상기 선택된 키 프레임에 따라 기존의 자동 변환방법을 이용하여 객체 및 깊이 정보를 자동으로 추출한 후 입체영상으로 변환하는 단계를 포함하여 구성되는 것을 특징으로 한다.The second step may include opening a new work file or project; Selecting a key frame from an image collected by the image collecting device; And extracting the object and the depth information automatically using a conventional automatic conversion method according to the selected key frame and converting the same into a stereoscopic image.

상기 제 2 단계는, 신규 작업 파일 또는 프로젝트를 오픈하는 A 단계와; 상기 영상수집장치에서 수집한 영상에서 키 프레임(Key Frame)을 선택하는 B 단계와; 상기 선택된 키 프레임에서 각 객체의 영역을 분할 및 병합하는 C 단계와; 상기 키 프레임을 트래킹하는 D 단계와; 상기 키 프레임의 깊이 정보를 수집하는 E 단계; 및 상기 깊이 정보를 이용하여 시차 영상을 생성하는 F 단계를 포함하여 구성되는 것을 특징으로 한다.The second step includes: A step of opening a new work file or project; Selecting a key frame from an image collected by the image collecting device; Dividing and merging regions of each object in the selected key frame; Tracking the key frame; E step of collecting depth information of the key frame; And an F step of generating a parallax image using the depth information.

상기 C 단계는, 상기 키 프레임 선택한 후 윈도우 창의 MeanShift Tool의 Region Segmentation 메뉴를 이용하여 영역 분할 결과를 조절하는 단계와; 상기 영역 분할 결과의 각 객체 영역에서 잘못된 객체 영역을 편집하는 단계와; 드로잉 도구를 이용하여 편집된 상기 영역 분할 결과에서 잘못된 객체 영역을 병합하는 단계와; Lasso 도구를 이용하여 상기 객체 영역의 윤곽 포인트 선택 및 자동 윤곽선을 검출하는 단계를 포함하여 구성되는 것을 특징으로 한다.The step C may include adjusting a region segmentation result using a region segmentation menu of a MeanShift Tool after selecting the key frame; Editing an invalid object region in each object region of the region division result; Merging a wrong object region in the region division result edited using a drawing tool; And detecting the contour point of the object region and detecting the automatic contour using the Lasso tool.

상기 D 단계는, 상기 키 프레임의 객체를 객체 리스트에 추가하는 단계와; 상기 객체 영역의 윤곽 포인트로 초기 객체 윤곽을 자동으로 설정하는 단계와; 상기 키 프레임을 기준으로 객체 윤곽을 트래킹하는 단계와; 상기 객체 윤곽 트래킹 후 생성된 객체 윤곽 포인트를 편집하는 단계를 포함하여 구성되는 것을 특징으로 한다.The step D may include adding an object of the key frame to an object list; Automatically setting an initial object contour to the contour point of the object area; Tracking an object contour based on the key frame; And editing an object contour point generated after the object contour tracking.

상기 E 단계는, 상기 영상에 대한 레이블(Label) 이미지를 생성하는 단계와; 상기 생성된 레이블 이미지를 이용하여 깊이 정보를 수집하는 단계와; 상기 수집한 깊이 정보를 이용하여 깊이 테이블에 저장하는 단계와; 상기 깊이 테이블에 입력한 깊이 정보로 트래킹 하여 전체 영상의 깊이 지도를 생성하는 단계를 포함하여 구성되는 것을 특징으로 한다.The step E may include generating a label image for the image; Collecting depth information using the generated label image; Storing the collected depth information in a depth table; And tracking the depth information input to the depth table to generate a depth map of the entire image.

상기 F 단계는, 상기 깊이 지도를 이용하여 입체 영상 출력 방법을 선택하는 단계를 포함하여 구성되는 것을 특징으로 한다.The step F may include selecting a stereoscopic image output method using the depth map.

본 발명에 따른 3D 입체영상 변환장치 및 변환방법은 반자동 입체변환 소프트웨어로 2D 영상을 장면 단위로 작업 할 수 있으며 입체영상 생성의 가장 중요한 깊이지도 생성을 객체 단위로 3D 공간상에서 사용자 입력을 통해 손쉽게 깊이를 줄 수 있고, 객체 표면의 볼륨 처리 및 양/음시차를 설정할 수 있는 UI를 제공함으로써 사실감 있는 깊이 지도를 제작 할 수 있다. 3D stereoscopic image converting apparatus and conversion method according to the present invention is a semi-automatic stereoscopic conversion software can work 2D image by scene unit, and the most important depth map generation of 3D image generation in object unit easily through user input in 3D space By providing a UI that can set the volume and positive / negative disparity of the object surface, it is possible to create a realistic depth map.

또한, 프로젝트 관리를 통해 작업 과정의 중간 생성물을 저장하여 필요 시 후 보정을 위한 수작업을 손쉽게 할 수 있는 효과를 제공한다. Project management also saves intermediate artifacts in the workflow, making it easy to make manual corrections when needed.

이하, 첨부된 도면 및 실시 예를 통해 본 발명의 실시 예를 구체적으로 살펴보면 다음과 같다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings and embodiments.

도 1은 본 발명의 실시 예에 따른 3D 입체영상 변환장치를 나타낸 도면이다.1 is a view showing a 3D stereoscopic image converting apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 3D 입체영상 변환장치는 2D영상을 입체감이 있는 3D영상으로 변환장치에 있어서, 영상을 수집하는 영상수집장치(100)와, 영상수집 장치(100)에서 수집한 영상을 시차를 갖는 입체영상으로 제작하는 3D 입체 영상 저작도구(106)가 탑재된 서버(102)와, 서버(102)에서 처리한 영상을 출력하는 영상표시장치(104)를 포함하여 구성된다.Referring to FIG. 1, a 3D stereoscopic image converting apparatus according to an embodiment of the present invention includes a 2D image converting apparatus into a 3D image having a stereoscopic sense, and includes an image collecting apparatus 100 and an image collecting apparatus 100. Server 102 equipped with a 3D stereoscopic image authoring tool 106 for producing a stereoscopic image with parallax, and an image display device 104 for outputting an image processed by the server 102. It is configured by.

영상수집장치(100)는 적어도 하나의 카메라와 같은 장치를 이용하여 수집하고자 하는 영상을 수집할 수 있도록 구비된다. 이때, 영상수집장치(100)는 수집한 영상을 서버(102)에서 처리할 수 있도록 avi, wmv, asf, mpeg 등과 같은 영상 파일 포멧 형식의 영상파일로 저장한 후 서버(102)에 전송한다.The image collecting apparatus 100 is provided to collect an image to be collected by using a device such as at least one camera. In this case, the image collecting apparatus 100 stores the collected image as an image file in an image file format such as avi, wmv, asf, mpeg, and transmits the collected image to the server 102.

서버(102)는 영상수집장치(100)에서 수집한 영상파일을 수신받아 처리할 수 있도록 구비된다. 여기서, 서버(102)는 수신된 영상파일을 3D 입체영상 저작도구(106)를 이용하여 3D 입체 영상으로 변환한다. 이때, 서버(102)에 탑재된 3D 입체 영상 저작도구(106)는 영상수집장치(100)에서 수집한 영상을 장면 단위로 작업할 수 있 수 있으며, 영상의 입체영상의 깊이지도 생성시 객체 단위로 생성할 수 있다. 또한, 3D 입체영상 저작도구는 객체 표면의 볼륨 처리 및 양음시차를 설정할 수 있다.The server 102 is provided to receive and process image files collected by the image collecting apparatus 100. Here, the server 102 converts the received image file into a 3D stereoscopic image using the 3D stereoscopic image authoring tool 106. In this case, the 3D stereoscopic image authoring tool 106 mounted on the server 102 may work on the image collected by the image capturing apparatus 100 in a scene unit, and when generating a depth map of the stereoscopic image of the image, Can be generated as In addition, the 3D stereoscopic authoring tool may set volume processing and positive parallax on an object surface.

3D 입체영상 저작도구(106)의 메인 프레임은 도 2에 도시된 바와 같이 객체 분할관련 뷰(110)와, 깊이 설정관련 뷰(144)와, 레프트 영상 생성 뷰(152) 및 영상 시퀀스 관련 뷰(200)를 포함하여 구성된다.As shown in FIG. 2, the main frame of the 3D stereoscopic authoring tool 106 includes an object segmentation related view 110, a depth setting related view 144, a left image generating view 152, and an image sequence related view ( 200).

먼저, 객체 분할 관련 뷰(Object Extraction View)(110)는 Region Segmentation(120), Merge(122), Draw(124), Eraser(126), 브러쉬 크기 설정 버튼(128), Region 체크박스(130), Drawing Tool 및 Lasso Tool을 포함하여 구성된다.First, the Object Extraction View 110 includes a Region Segmentation 120, a Merge 122, a Draw 124, an Eraser 126, a Brush Size Set button 128, and a Region checkbox 130. It includes a drawing tool and a lasso tool.

Region Segmentation(120)은, 도 4에 도시된 바와 같이, 선택 파라미터 설정 다이얼로그(132)의 Hs(The spatial radius of the widow), Hr(The range radius of the window), M(The munumum density a region may have in the resulting segmented image)을 조절하여 영상 프레임의 영역 분할 결과를 조절한다.As shown in FIG. 4, the region segment 120 may include the spatial radius of the window (Hs), the range radius of the window (Hr), and the munumum density a region of the selection parameter setting dialog 132. may have in the resulting segmented image).

Merge(122)는 영역 분할 결과에서 분할된 영역 중 잘못된 영역을 마우스 드 래그로 병합하여 객체를 선정한다.Merge 122 selects an object by merging the wrong area among the divided areas with the mouse drag in the region division result.

Draw(124)는 Merge(122)로 병합시 자연스럽지 못한 영역을 편집한다.Draw 124 edits an unnatural area upon merging with Merge 122.

Eraser(126)는 Merge(122)로 병합 및 Draw(124)로 편집하였음에도 자연스럽지 못한 부분을 삭제한다.Eraser 126 merges with Merge 122 and deletes portions that are not natural even though edited with Draw 124.

브러쉬 크기 설정 버튼(128)은 Draw(124)와 Eraser(126) 사용시 브러쉬의 크기를 선택적으로 변경할 수 있다.The brush size setting button 128 may selectively change the size of the brush when using the Draw 124 and the Eraser 126.

Region 체크박스(130)는 선택된 영역을 확인하기 위해 사용한다.The Region checkbox 130 is used to identify the selected region.

객체의 윤곽을 찾는 Drawing Tool은 Clustering Region(134)과 Draw Region(136)으로 구분한다.The drawing tool that finds the outline of an object is divided into a clustering region (134) and a draw region (136).

Clustering Region(134)은 MeanShift Tool에서 미리 영상을 분할한 상태에서 마우스 드래그로 객체의 윤곽 영역을 병합한다.The clustering region 134 merges the contour region of the object by dragging the mouse while dividing the image in advance in the MeanShift Tool.

Draw Region(136)은 MeanShift Tool에서 미리 영상을 분할한 상태에서 마우스 드래그로 브러쉬 영역만큼 관심영역을 그려 나간다.The draw region 136 draws the region of interest as much as the brush region by dragging the mouse in the state of dividing the image in advance in the MeanShift Tool.

Lasso Tool의 Lasso는 마우스로 객체 윤곽을 이동하면서 윤곽 포인트를 선택하나 자동으로 윤곽선을 검출할 수 있다.Lasso of the Lasso Tool selects the contour point while moving the object outline with the mouse, but can automatically detect the outline.

Object List(138)는 윤곽을 설정하고자 하는 객체를 insert 버튼(140)을 이용하여 객체 리스트에 등록시키거나 Delete 버튼(142)을 이용하여 삭제한다.The object list 138 registers the object to be contoured to the object list using the insert button 140 or deletes the object using the delete button 142.

깊이를 제어하기 위한 깊이 설정 관련 뷰(144)는 Set Depth Information 버튼(146), Depth Edithing 버튼(148), Get DepthMap 버튼(150)을 포함하여 구성된다.The depth setting related view 144 for controlling the depth includes a Set Depth Information button 146, a Depth Edithing button 148, and a Get DepthMap button 150.

Set Depth Information 버튼(146)은 클릭시 선택된 해당 프레임의 깊이를 설정하기 위한 다이얼로그 화면이 오픈(Open)된다. 이때, 깊이 설정 다이얼 로그 화면은, 도 5에 도시된 바와 같이, 브러쉬를 이용해 반경(Radious), 압력(Pressure), 밀도(DEnsity)를 설정하여 객체에 볼륨을 주는 Brush Tool 체크박스(232)와, 볼륨을 반대로 주기 위한 Negative 체크박스(234)와, Min 값과 Max 값을 넣어 선택된 객체 또는 영역에 기울기를 줄기 위한 Gradiention Tool(236)과, 객체의 깊이를 조절할 수 있는 Layer Depth(238)와, Zero Parallax 값을 조절할 수 있는 Zero Parallax 스크롤바(240)와, 관심객체를 선택할 수 있는 Selection 버튼(242)과, 객체 내 임의 영역을 선택할 수 있는 Path Selection Tool(244)과, 모든 객체의 깊이를 0으로 설정하기 위한 Initialize 버튼(246)과, 선택된 개체의 Base 깊이 값으로 세팅 Vol Init 버튼(248)과, 선택된 객체의 깊이값을 평균 깊이값으로 설정하는 Averaging 버튼(250)과, 편집된 전체 깊이값을 확인하는 Get Depth 버튼(252) 및 Undo, Redo 기능을 하는 Undo, Redo 버튼(254, 256)을 포함하여 구성된다.The Set Depth Information button 146 opens a dialog screen for setting the depth of the selected frame when clicked. At this time, the depth setting dialog screen, as shown in Figure 5, the Brush Tool check box 232 to give a volume to the object by setting the radius (Radious), pressure (Pressure), density (DEnsity) using a brush and A negative checkbox (234) to reverse the volume, a Gradiention Tool (236) to tilt the selected object or region by entering Min and Max values, a Layer Depth (238) to adjust the depth of the object, , The Zero Parallax scroll bar 240 for adjusting Zero Parallax values, the Selection button 242 for selecting objects of interest, the Path Selection Tool 244 for selecting an arbitrary area within an object, and the depth of all objects. Initialize button 246 for setting to 0, Vol Init button 248 for setting the base depth value of the selected object, Averaging button 250 for setting the depth value of the selected object to the average depth value, and edited whole Get Depth to check the depth value It comprises a button 252 and the Undo and Redo buttons 254 and 256 serving as Undo and Redo.

Depth Edithing 버튼(148)은 깊이 지도를 수정하고 싶을 때 클릭하여 깊이 설정 다이얼 로그 화면에서 작업을 수행한다.Depth Edithing button 148 clicks to modify the depth map to perform an operation on the depth setting dialog screen.

Get DepthMap 버튼(150)은 클릭시 깊이 지도를 얻을 수 있다.The Get DepthMap button 150 may obtain a depth map when clicked.

깊이 지도과 양/음의 시차를 설정할 수 있는 Left view Control(152)은 Depth Level,Zero Parallax을 포함하여 구성된다.Left view control 152 that can set depth map and positive / negative parallax includes Depth Level and Zero Parallax.

Depth Level은 깊이 지도가 8bit로 256가지 값을 갖음에 따라, 256가지의 레벨로 설정된 레벨을 다운시키는 역할을 한다. 이때, Depth Level의 계산식은 New Depth Value = 256/DelthLevel 이다.Depth Level plays a role of bringing down the level set to 256 levels as the depth map has 256 values with 8 bits. At this time, the calculation formula of Depth Level is New Depth Value = 256 / DelthLevel.

Zero Parallax는 양/음의 시차를 설정하기 위한 것으로 Zero Parallax의 값이 128일 경우 깊이 지도에서 128 이하의 값은 양시차를 주고, 128이상의 값은 음의 시차를 준다. 이것은 모니터 안쪽 또는 바깥쪽으로 돌아가거나 튀어나오게 보이는 효과를 준다.Zero Parallax is for setting up positive / negative parallax. When the value of Zero Parallax is 128, the value below 128 gives positive parallax and the value above 128 gives negative parallax. This has the effect of turning or popping out of or out of the monitor.

영상을 트래킹하기 위한 영상 시퀀스 관련 뷰(200)는, 도 6에 도시된 바와 같이, Contour Tracking과 Depth Tracking으로 구분된다.An image sequence related view 200 for tracking an image is divided into contour tracking and depth tracking, as shown in FIG. 6.

Contour Tracking은 Inintialization 버튼, Init F Tracking 버튼, Init B Tracking번튼, F Tracking버튼, B Tracking 버튼 및 Contour Copy를 포함하여 구성된다.Contour Tracking consists of an Inintialization button, Init F Tracking button, Init B Tracking button, F Tracking button, B Tracking button and Contour Copy.

Initialization 버튼(202)은 클릭시 Lasso Tool에서 설정한 윤곽 포인트를 이용하여 초기 객체 윤곽을 자동 설정한다.The initialization button 202 automatically sets the initial object outline using the contour point set in the Lasso Tool when clicked.

Init F Tracking 버튼(204)은 키 프레임을 기준으로 전방향 객체 윤곽을 트래킹한다.Init F Tracking button 204 tracks omnidirectional object contours based on key frames.

Init B Tracking 버튼(206)은 키 프레임을 기준으로 후방향 객체 윤곽을 트래킹 한다.Init B Tracking button 206 tracks backward object contours based on key frames.

F Tracking, B Tracking 버튼(208, 210)은 Init A Tracking 버튼(204)과 Init B Tracking 버튼(206)으로 객체 윤곽을 설정한 후 재 트래킹 할 수 있다. 이때, F Tracking, B Tracking 버튼(208, 210)은 키 프레임이 아닌 임의의 프레임에서 초기 추적된 객체 윤곽을 수정한 후 트래킹 할 수 있다.The F Tracking and B Tracking buttons 208 and 210 may retrack after setting the object outline with the Init A Tracking button 204 and the Init B Tracking button 206. In this case, the F Tracking and B Tracking buttons 208 and 210 may track after modifying the outline of the initially tracked object in an arbitrary frame instead of a key frame.

Contour Copy 버튼(212)은 각 프레임에 객체의 움직임이 없어 트래킹보다 복사가 필요한 경우 사용한다. The Contour Copy button 212 is used when copying is required rather than tracking because there is no movement of an object in each frame.

User Interval 체크박스(214)는 체크한 후 트래킹하고자 하는 프레임의 수를 빈칸에 입력하면 현재 프레임을 기준으로 트래킹 및 복사를 수행한다.The user interval check box 214 checks and inputs the number of frames to be tracked in the blank to perform tracking and copying based on the current frame.

BM Tracking 체크박스(216)는 Block Matching 방법을 적용하고 싶을 경우 사용한다. 기본 설정값은 Lucas-Kannade Tracking 방법을 사용한다.The BM Tracking checkbox 216 is used when a block matching method is to be applied. The default setting is the Lucas-Kannade Tracking method.

선택된 객체영역 내부에 배경부분 등 불필요한 부분을 제거하는 Extra points는 Select, Tracking, Reset 버튼을 포함하여 구성된다Extra points that remove unnecessary parts such as background parts inside the selected object area are configured to include Select, Tracking, and Reset buttons.

Select 버튼(218)은 Select 버튼 선택 후 마우스로 클릭하여 포인트를 설정하고 최종 윤곽을 얻을 때는 마우스 오른쪽 클릭을 하여 폐 영역을 만든다.The select button 218 sets the point by clicking with the mouse after selecting the select button and makes a closed area by right clicking when obtaining the final outline.

Tracking 버튼(220)은 트래킹 구간을 설정하여 폐 영역을 추적한다.The tracking button 220 sets a tracking section to track the closed area.

Reset 버튼(222)은 Extra Points 편집이 끝나면 설정을 리셋한다.The Reset button 222 resets the setting after the edit of the Extra Points.

깊이값을 트래킹하는 Depth Tracking은 Est. Depth 버튼, Block Depth 버튼 및 BackGround 체크박스를 포함하여 구성된다.Depth Tracking for tracking the depth value is Est. It consists of a Depth button, Block Depth button, and a BackGround checkbox.

Generate Label Image(224)는 깊이 지도를 설정하기 위한 라벨(Label) 이미지를 생성한다.Generate Label Image 224 generates a label image for setting the depth map.

Est. Depth 버튼(226)은 평균 깊이 값을 이용하여 깊이지도를 생성한다.Est. Depth button 226 generates a depth map using the average depth value.

Block Depth 버튼(228)은 블록을 기반으로 깊이 값을 예측하여 깊이지도를 생성한다.The block depth button 228 generates a depth map by predicting a depth value based on the block.

BackGround 체크박스(230)는 자동 생성된 배경 영상에 홀 채움에 적용하기 위해 사용한다. 특히, 배경의 움직임이 없는 장면에서 유용하다.The BackGround checkbox 230 is used to apply hole filling to the automatically generated background image. It is especially useful in scenes with no background movement.

영상표시장치(104)는 서버(102)에서 처리된 영상을 출력할 수 있도록 구비된다. 이때, 영상표시장치(104)는 전자종이(e-paper), 액정 표시패널(Liquid Crystal Display Panel), 전계방출 표시패널(Field Emission Display Panel), 플라즈마 표시패널(Plasma Display Panel) 및 발광 표시패널(Light Emitting Display Panel) 등이 있다.The image display device 104 is provided to output an image processed by the server 102. In this case, the image display device 104 includes an electronic paper, a liquid crystal display panel, a field emission display panel, a plasma display panel, and a light emitting display panel. (Light Emitting Display Panel).

도 7은 본 발명의 실시 예에 따른 3D 입체영상 변환장치의 변환과정을 나타낸 도면이다.7 is a diagram illustrating a conversion process of a 3D stereoscopic image conversion apparatus according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시 예에 따른 3D 입체영상 변환방법은 2D 영상을 입체감이 있는 3D 영상으로 변환하는 방법에 있어서,영상수집장치에서 2D 또는 3D 영상을 수집하는 제 1 단계와(S1), 3D 입체영상 저작도구가 탑재된 서버에서 상기 영상수집 장치에서 수집한 영상을 시차를 갖는 입체영상으로 변환하는 제 2 단계와(S2), 서버에서 처리한 후 영상표시장치에 처리된 영상을 표시하는 제 3 단계(S3)를 포함하여 구성된다.Referring to FIG. 7, the 3D stereoscopic image converting method according to an embodiment of the present invention is a method for converting a 2D image into a 3D image having a three-dimensional effect, the first step of collecting a 2D or 3D image by an image collecting device ( S1), a second step of converting the image collected by the image acquisition apparatus into a stereoscopic image having parallax in a server equipped with a 3D stereoscopic image authoring tool (S2), and the image processed by the image display apparatus after processing in the server; It is configured to include a third step (S3) to display.

먼저, 서버에 탑재되어 3D 입체영상 저작도구의 입체영상 변환방법은, 도 8에 도시된 바와 같이, 신규 작업 파일 또는 프로젝트를 오픈하는 A 단계와(S10), 영상수집장치에서 수집한 영상에서 키 프레임(Key Frame)을 선택하는 B 단계와(S12), 선택된 키 프레임에서 각 객체의 영역을 분할 및 병합하는 C 단계와(S14), 키 프레임을 트래킹하는 D 단계와(S16), 키 프레임의 깊이 정보를 수집하는 E 단계(S18) 및 깊이 정보를 이용하여 시차 영상을 생성하는 F 단계(S20)를 포 함하여 구성된다.First, the stereoscopic image conversion method of the 3D stereoscopic image authoring tool mounted on the server, as shown in Figure 8, the step A of opening a new work file or project (S10), the key from the image collected by the image acquisition device Step B of selecting a frame (S12), step C of dividing and merging the area of each object in the selected key frame (S14), step D of tracking a key frame (S16), and E step (S18) of collecting depth information and F step (S20) of generating a parallax image using the depth information is configured.

여기서, 선택된 키 프레임에서 각 객체의 영역을 분할 및 병합하는 C 단계(S14)는, 도 9에 도시된 바와 같이, 키 프레임 선택한 후 윈도우 창의 MeanShift Tool의 Region Segmentation 메뉴를 이용하여 영역 분할 결과를 조절하는 단계(S30)와, 영역 분할 결과의 각 객체 영역에서 잘못된 객체 영역을 편집하는 단계(S32)와, 드로잉 도구를 이용하여 편집된 상기 영역 분할 결과에서 잘못된 객체 영역을 병합하는 단계(S34)와, Lasso 도구를 이용하여 상기 객체 영역의 윤곽 포인트 선택 및 자동 윤곽선을 검출하는 단계(S36)를 포함하여 구성된다.Here, in step S14 of dividing and merging the regions of each object in the selected key frame, as shown in FIG. Step (S30), editing the wrong object area in each object area of the area division result (S32), merging the wrong object area in the area division result edited using a drawing tool (S34); And detecting the contour point of the object region and detecting the automatic contour using the Lasso tool (S36).

먼저, 키 프레임 선택한 후 윈도우 창의 MeanShift Tool의 Region Segmentation 버튼을 이용하여 객체 영역 분할 결과를 조절하는 단계(S30)는, 도 10에 도시된 바와 같이, 메인 프레임의 Region Segmentation을 선택하여 파라미터 설정 다이얼로그의 Hs(The spatial radius of the widow), Hr(The range radius of the window), M(The munumum density a region may have in the resulting segmented image) 스크롤바를 조절하여, 도 11에 도시된 바와 같이, 영역 분할 결과를 조절한다.First, after selecting a key frame and adjusting the object region segmentation result by using the Region Segmentation button of the MeanShift Tool in the window window (S30), as shown in FIG. 10, the region segment of the main frame is selected to display the parameter setting dialog. The spatial radius of the widow (Hs), the range radius of the window (Hr), and the munumum density a region may have in the resulting segmented image (M) scroll bar are adjusted, as shown in FIG. Adjust the results.

이어, 영역 분할 결과의 각 객체 영역에서 잘못된 객체 영역을 편집하는 단계(S32)는, 도 12에 도시된 바와 같이, Merge 버튼 클릭 후 마우스 드래그로 분할된 영역을 병합하여 객체 선정한다. 그리고, 병합이 자연스럽지 못한 부분은 Draw로 편집한다. Subsequently, in step S32 of editing an invalid object region in each object region of the region segmentation result, object division is selected by merging the divided regions by clicking the Merge button and dragging the mouse as illustrated in FIG. 12. And, if the merge is not natural, edit it with Draw.

이어, 도 13에 도시된 바와 같이, Drawing Tool인 Clustering Region과 Draw region을 이용하여 객체의 윤각을 편집한다. 또한, Lasso Tool을 이용하여, 도 14에 도시된 바와 같이, 객체 윤곽을 마우스 드레그 및 클릭으로 이동하면서 객체 윤곽 포인트 선택 및 윤곽선을 자동으로 검출한다.Subsequently, as illustrated in FIG. 13, the wheel angle of the object is edited using a clustering region and a draw region, which are drawing tools. In addition, using the Lasso Tool, as shown in FIG. 14, object outline point selection and outline detection are automatically detected while moving the object outline with mouse drag and click.

키 프레임을 트래킹하는 D 단계(S16)는, 도 15에 도시된 바와 같이, 키 프레임의 객체를 객체 리스트에 추가하는 단계(S40)와, 객체 영역의 윤곽 포인트로 초기 객체 윤곽을 자동으로 설정하는 단계(S42)와, 키 프레임을 기준으로 객체 윤곽을 트래킹하는 단계(S44)와, 객체 윤곽 트래킹 후 생성된 객체 윤곽 포인트를 편집하는 단계(S46)를 포함하여 구성된다.In step S16 of tracking the key frame, as illustrated in FIG. 15, the step S40 of adding an object of the key frame to the object list and automatically setting the initial object contour to the contour point of the object area are performed. Step S42, tracking the object contour based on the key frame (S44), and editing the object contour point generated after the object contour tracking (S46).

먼저, 키 프레임의 객체를 객체 리스트에 추가하는 단계(S40)는, 도 16에 도시된 바와 같이, 객체의 윤곽을 설정하기 위해서 먼저 메인 프레임에 있는 객체 리스트에 객체를 추가 시켜야 한다.First, in step S40 of adding an object of a key frame to an object list, in order to set an outline of an object, an object must be added to an object list of a main frame.

이어, 객체 영역의 윤곽 포인트로 초기 객체 윤곽을 자동으로 설정하는 단계(S42)는, 도 17에 도시된 바와 같이, 영상 시퀀스 관련 창의 Initialization 버튼을 클릭하여 Lasso Tool에서 설정한 윤곽 포인트로 초기 객체 윤곽을 자동 설정한다.Subsequently, in step S42, the initial object outline is automatically set to the outline point of the object region. As shown in FIG. 17, the initial object outline is set to the outline point set by the Lasso Tool by clicking the Initialization button of the image sequence related window. Is set automatically.

이어, 키 프레임을 기준으로 객체 윤곽을 트래킹하는 단계(S44)는, 도 18에 도시된 바와 같이, 키프레임을 기준으로 전방향 혹은 후방향으로 객체 윤곽을 트래킹 한다.Subsequently, in step S44 of tracking the object outline based on the key frame, the object outline is tracked forward or backward based on the key frame.

이어, 객체 윤곽 트래킹 후 생성된 객체 윤곽 포인트를 편집하는 단계(S46)는 도 19에 도시된 바와 같이, 선택된 프레임에서 잘못 예측된 객체 윤곽 포인트를 마우스를 움직여, 도 20에 도시된 바와 같이, 객체의 윤곽을 바로잡아 편집한다.Subsequently, in step S46 of editing the object contour point generated after the object contour tracking, as shown in FIG. 20, the object is moved by moving the mouse to an object contour point that is incorrectly predicted in the selected frame. Straighten and edit the outline of the.

이어, 도 21에 도시된 바와 같이, Extra points를 이용하여 선택된 객체영역 내부에 배경부분 등 불필요한 부분을 제거한다.Next, as shown in FIG. 21, unnecessary parts such as a background part are removed in the selected object area using extra points.

이어, 도 22에 도시된 바와 같이, 객체에 마우스 오른쪽 버튼을 클릭하여 Insert Point 또는 Delete Point 메뉴를 이용하여 윤곽 포인트를 추가 또는 삭제 할 수 있다.Subsequently, as illustrated in FIG. 22, the contour point may be added or deleted using the Insert Point or Delete Point menu by right-clicking on the object.

키 프레임의 깊이 정보를 수집하는 E 단계(S18)는, 도 23에 도시된 바와 같이, 영상에 대한 레이블(Label) 이미지를 생성하는 단계(S50)와, 생성된 레이블 이미지를 이용하여 깊이 정보를 수집하는 단계(S52)와, 수집한 깊이 정보를 이용하여 깊이 테이블에 저장하는 단계(S54)와, 깊이 테이블에 입력한 깊이 정보로 트래킹 하여 전체 영상의 깊이 지도를 생성하는 단계(S56)를 포함하여 구성된다.E step (S18) of collecting the depth information of the key frame, as shown in Figure 23, generating a label image for the image (S50), and using the generated label image depth information Collecting (S52), storing the collected depth information in the depth table (S54), and tracking the depth information input to the depth table to generate a depth map of the entire image (S56). It is configured by.

영상에 대한 레이블(Label) 이미지를 생성하는 단계(S50)는, 도 24에 도시된 바와 같이, Generate Label Image 버튼을 이용하여 레이블 이미지를 생성한다.Generating a label image for the image (S50), as shown in Figure 24, generates a label image using the Generate Label Image button.

생성된 레이블 이미지를 이용하여 깊이 정보를 수집하는 단계(S52)는 메인 프레임의 Set Depth Information 클릭시 깊이 설정 다이얼 로그 화면에서 분할된 객체들을 3D 공간상에서 깊이 값 조절을 할 수 있다.In the collecting of depth information by using the generated label image (S52), when the set depth information is clicked on the main frame, the depth values may be adjusted in 3D space on the divided objects in the depth setting dialog screen.

도 25 내지 도 33은 깊이 설정 다이얼 로그 화면의 객체 선택의 Selection과, Brush Tool, Gradiention Tool, Layer Depth, Zero Parallax, Path selection Tool, initialize, VOL Int을 통해 깊이 설정이 변경되는 것을 나타낸 도면이다.25 to 33 are diagrams illustrating that the depth setting is changed through selection of an object selection on a depth setting dialog screen and a brush tool, gradient tool, layer depth, zero parallax, path selection tool, initialize, and VOL int.

수집한 깊이 정보를 이용하여 깊이 테이블에 저장하는 단계(S54)는 장면내 객체의 깊이 변화를 설정해 주기 위해, 도 34에 도시된 바와 같이 첫 프레임의 깊이 값과 도 35에 도시된 바와 같이 마지막 프레임의 깊이 값을 입력시키고, 도 36에 도시된 바와 같이, Peak 프레임에서의 깊이 값을 설정한 후 Calculate 버튼을 클릭시, 도 37에 도시된 바와 같이, 전체 깊이 값들이 자동으로 계산될 수 있도록 설정한다.The step S54 of storing the collected depth information in the depth table is to set the depth change of the object in the scene, as shown in FIG. 34, and the last frame as shown in FIG. 35. 36, the depth value in the Peak frame is set as shown in FIG. 36, and when the Calculate button is clicked, as shown in FIG. 37, the total depth values are set to be automatically calculated. do.

깊이 테이블에 입력한 깊이 정보로 트래킹하여 전체 영상의 깊이 지도를 생성하는 단계(S56)은, 도 38에 도시된 바와 같이, Depth Tracking의 Est. Depth 트래킹과, Block Depth 트래킹 및 BackGround를 이용하여 깊이 지도를 생성한다.The step S56 of tracking the depth information input to the depth table to generate a depth map of the entire image may include estimating Depth Tracking. Depth tracking, Block Depth tracking, and BackGround are used to create depth maps.

장면 내 모든 프레임에 대해 깊이 지도가 예측되면, 도 39에 도시된 바와 같이, Left View Control의Depth Level과 ZeroParallax 등을 설정해 주고, 도 40에 도시된 바와 같이, 파일 입출력 메뉴의 Render as의 입체영상 출력 방법을 선택한다. 이때, 출력 방식은 입체 동영상 및 Tga 시퀀스 형태로 할 수 있다.When the depth map is predicted for all frames in the scene, as shown in FIG. 39, the depth level and zeropararx of the left view control are set, and as shown in FIG. 40, the stereoscopic image of the Render as in the file input / output menu. Select the output method. In this case, the output method may be a stereoscopic video and a Tga sequence.

도 41은 본 발명의 실시 예에 따른 작업시 생성되는 프로젝트 폴더 내의 파일형식을 나타낸 도면이다.41 is a view showing a file format in a project folder created at the time of working according to an embodiment of the present invention.

도 41을 참조하면, 작업시 중간 생성물인 객체 마스크, 깊이지도, 깊이레벨만큼 Shift 된 영상, Hole Filling 된 영상, 포인트 정보 등이 프로젝트 폴더 내에 자동 저장된다. 이때, 프로젝트 폴더 내 파일 이름형식은 object 마스크 파일 이름형식은 object[객체번호]_f[프레임번호].bmp, 객체 포인트 정보 파일 이름형식은 point[객체번호]_f[프레임번호].txt, 깊이 맵 파일 이름형식은 DepthImage[프레임번호].bmp, 깊이정보 이름형식은 DepthInfo_[프레임 번호].txt 및 레이어 영상 파 이 이름형식은 LayerImage[프레임번호].bmp으로 구성된다.Referring to FIG. 41, an object mask, a depth map, an image shifted by a depth level, a hole filled image, point information, etc., which are intermediate products during operation, are automatically stored in a project folder. At this time, the file name format in the project folder is object mask file name format is object [object number] _f [frame number] .bmp, and the object point information file name format is point [object number] _f [frame number] .txt and depth map. The file name format consists of DepthImage [frame number] .bmp, the depth information name format DepthInfo_ [frame number] .txt and the layer image file name format consists of LayerImage [frame number] .bmp.

이와 같이 구성된 3D 입체영상 변환장치 및 변환방법은 반자동 입체변환 소프트웨어로 2D 영상을 장면 단위로 작업 할 수 있으며 입체영상 생성의 가장 중요한 깊이지도 생성을 객체 단위로 3D 공간상에서 사용자 입력을 통해 손쉽게 깊이를 줄 수 있고, 객체 표면의 볼륨 처리 및 양/음시차를 설정할 수 있는 UI를 제공함으로써 사실감 있는 깊이 지도를 제작 할 수 있다. The 3D stereoscopic image converting device and the conversion method configured as described above are semi-automatic stereoscopic conversion software that can work 2D images on a scene basis, and the most important depth map generation of 3D images is easily performed by user input in 3D space. You can create a realistic depth map by providing a UI to set the volume and positive / negative difference of the object surface.

또한, 프로젝트 관리를 통해 작업 과정의 중간 생성물을 저장하여 필요 시 후 보정을 위한 수작업을 손쉽게 할 수 있는 효과를 제공한다. Project management also saves intermediate artifacts in the workflow, making it easy to make manual corrections when needed.

이상에서 설명한 본 발명은 상술한 실시 예 및 첨부된 도면에 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 종래의 지식을 가진 자에게 있어 명백할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. Will be clear to those who have knowledge of.

도 1은 본 발명의 실시 예에 따른 3D 입체영상 변환장치를 나타낸 도면.1 is a view showing a 3D stereoscopic image converting apparatus according to an embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 3D 입체 영상 저작도구를 나타낸 도면.2 is a view showing a 3D stereoscopic image authoring tool according to an embodiment of the present invention.

도 3은 본 발명의 실시 예에 따른 3D 입체 영상 저작도구를 나타낸 도면.3 is a view showing a 3D stereoscopic image authoring tool according to an embodiment of the present invention.

도 4는 본 발명의 실시 예에 따른 3D 입체 영상 저작도구의 Region Segmentation 다이얼 로그를 나타낸 도면.4 is a diagram illustrating a region segment dialog of a 3D stereoscopic authoring tool according to an embodiment of the present invention.

도 5는 본 발명의 실시 예에 따른 3D 입체 영상 저작 도구의 깊이 설정 다이얼 로그를 나타낸 도면.5 is a diagram illustrating a depth setting dialog of a 3D stereoscopic image authoring tool according to an embodiment of the present invention.

도 6은 본 발명의 실시 예에 따른 영상을 트래킹하기 위한 영상 시퀀스 관련 뷰를 나타낸 도면.6 is a view showing an image sequence related view for tracking an image according to an embodiment of the present invention.

도 7은 본 발명의 실시 예에 따른 3D 입체영상 변환장치의 변환과정을 나타낸 순서도.7 is a flowchart illustrating a conversion process of a 3D stereoscopic image conversion apparatus according to an embodiment of the present invention.

도 8은 본 발명의 실시 예에 따른 3D 입체영상 저작도구의 입체영상 변환방법을 나타내 순서도.8 is a flowchart illustrating a method of converting a stereoscopic image of a 3D stereoscopic image authoring tool according to an embodiment of the present invention.

도 9는 본 발명의 실시 예에 따른 키 프레임에서 각 객체의 영역을 분할 및 병합하는 과정을 나타낸 순서도.9 is a flowchart illustrating a process of dividing and merging regions of each object in a key frame according to an embodiment of the present invention.

도 10은 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체 영역 분할 결과를 조절하기 위한 뷰를 나타낸 도면.10 is a view showing a view for adjusting the object region segmentation result in the 3D stereoscopic authoring tool according to an embodiment of the present invention.

도 11은 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체 영역 분할 결과를 나타낸 도면.11 is a view showing the object region segmentation result in the 3D stereoscopic authoring tool according to an embodiment of the present invention.

도 12는 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체 영역 병합 결과를 나타낸 도면.12 is a view showing a result of merging object regions in a 3D stereoscopic authoring tool according to an embodiment of the present invention.

도 13은 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체의 윤곽을 편집하는 것을 나타낸 도면.FIG. 13 is a diagram illustrating editing an outline of an object in a 3D stereoscopic authoring tool according to an embodiment of the present invention. FIG.

도 14는 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체의 윤곽 포인트 선택 및 검출하는 도면.14 is a diagram for selecting and detecting contour points of an object in a 3D stereoscopic authoring tool according to an embodiment of the present invention.

도 15는 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 프레임을 트래킹하는 과정을 나타낸 순서도.15 is a flowchart illustrating a process of tracking a frame in a 3D stereoscopic authoring tool according to an embodiment of the present invention.

도 16은 본 발명의 실시 예에 따른 객체 리스트 추가 창을 나타낸 도면.16 is a diagram illustrating an object list adding window according to an embodiment of the present invention.

도 17은 본 발명의 실시 예에 따른 초기 개체 윤곽을 자동으로 설정하는 것을 나타낸 도면.17 is a diagram illustrating automatically setting an initial object outline according to an embodiment of the present invention.

도 18은 본 발명의 실시 예에 따른 키 프레임을 기준으로 전후방 트래킹 하는 것을 나타낸 도면.18 is a diagram illustrating back and forth tracking based on a key frame according to an embodiment of the present invention.

도 19는 본 발명의 실시 예에 따른 잘못 예측된 윤곽 포인트를 나타낸 도면.19 illustrates a wrongly predicted contour point according to an embodiment of the present invention.

도 20은 본 발명의 실시 예에 따른 잘못 예측된 윤곽 포인트를 편집하는 것을 나타낸 도면.20 illustrates editing an incorrectly predicted contour point according to an embodiment of the present invention.

도 21은 본 발명의 실시 예에 따른 객체영역 내부에 불필요한 부분을 제거하는 것을 나타낸 도면.FIG. 21 is a diagram illustrating removing unnecessary portions inside an object area according to an exemplary embodiment of the present invention. FIG.

도 22는 본 발명의 실시 예에 따른 윤곽 포인트를 추가, 삭제하는 것을 나타낸 도면.22 is a diagram illustrating adding and deleting contour points according to an embodiment of the present invention.

도 23은 본 발명의 실시 예에 따른 깊이 정보를 수집하는 과정을 나타내 순서도.23 is a flowchart illustrating a process of collecting depth information according to an embodiment of the present invention.

도 24는 본 발명의 실시 예에 따른 레이블 이미지를 생성하는 것을 나타낸 도면.24 illustrates generating a label image according to an embodiment of the present invention.

도 25 내지 도 33은 본 발명의 실시 예에 따른 깊이 설정 다이얼 로그 화면의 각 버튼별 영상의 변화를 나타낸 도면.25 to 33 are views illustrating changes of images for each button of the depth setting dialog screen according to an embodiment of the present invention.

도 34 내지 도 37은 본 발명의 실시 예에 따른 깊이 테이블에 값을 입력시켜 깊이 지도가 생성되는 것을 나타낸 도면.34 to 37 are diagrams illustrating that a depth map is generated by inputting a value into a depth table according to an embodiment of the present invention.

도 38은 본 발명의 실시 예에 따른 전체 영상의 깊이 지도를 생성하여 깊이 지도를 생성하는 도면.38 is a diagram of generating a depth map by generating a depth map of the entire image according to an embodiment of the present invention.

도 39는 본 발명의 실시 예에 따른 좌측 영상 생성과정을 나타낸 도면.39 is a diagram illustrating a left image generation process according to an embodiment of the present invention.

도 40은 본 발명의 실시 예에 따른 입체영상의 출력 방법을 나타낸 도면.40 is a diagram illustrating a method of outputting a stereoscopic image according to an embodiment of the present invention.

도 41은 본 발명의 실시 예에 따른 프로젝트 파일의 구성을 나타낸 도면.41 is a view showing the configuration of a project file according to an embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100 : 영상수집장치 102 : 서버100: image acquisition apparatus 102: server

104 : 영상표시장치 106 : 3D 입체영상 저작도구104: image display device 106: 3D stereoscopic image authoring tool

Claims (11)

삭제delete 삭제delete 삭제delete 삭제delete 2D 영상을 입체감이 있는 3D 영상으로 변환하는 방법에 있어서,In the method for converting a 2D video into a 3D video with a three-dimensional effect, 영상수집장치에서 2D 또는 3D 영상을 수집하는 제 1 단계와, 3D 입체영상 저작도구가 탑재된 서버에서 상기 영상수집 장치에서 수집한 영상을 시차를 갖는 입체영상으로 변환하는 제 2 단계와, 상기 서버에서 처리한 후 영상표시장치에 처리된 영상을 출력하는 제 3 단계를 포함하되,A first step of collecting a 2D or 3D image in the image collecting apparatus; a second step of converting the image collected by the image collecting apparatus into a stereoscopic image having parallax in a server equipped with a 3D stereoscopic image authoring tool; Including a third step of outputting the processed image to the image display apparatus after processing in, 상기 제 2 단계는,The second step, 신규 작업 파일 또는 프로젝트를 오픈하는 단계와;Opening a new work file or project; 상기 영상수집장치에서 수집한 영상에서 키 프레임(Key Frame)을 선택하는 단계와;Selecting a key frame from an image collected by the image collecting device; 상기 선택된 키 프레임에 따라 기존의 자동 변환방법을 이용하여 객체 및 깊이 정보를 자동으로 추출한 후 입체영상으로 변환하는 단계를 포함하여 구성되는 것을 특징으로 하는 3D 입체영상 변환방법.And extracting the object and the depth information automatically using the existing automatic conversion method according to the selected key frame and converting the same into a stereoscopic image. 삭제delete 제 5 항에 있어서,6. The method of claim 5, 상기 제 2 단계는,The second step, 신규 작업 파일 또는 프로젝트를 오픈하는 A 단계와;A step of opening a new work file or project; 상기 영상수집장치에서 수집한 영상에서 키 프레임(Key Frame)을 선택하는 B 단계와;Selecting a key frame from an image collected by the image collecting device; 상기 선택된 키 프레임에서 각 객체의 영역을 분할 및 병합하는 C 단계와;Dividing and merging regions of each object in the selected key frame; 상기 키 프레임을 트래킹하는 D 단계와; Tracking the key frame; 상기 키 프레임의 깊이 정보를 수집하는 E 단계; 및E step of collecting depth information of the key frame; And 상기 깊이 정보를 이용하여 시차 영상을 생성하는 F 단계를 포함하여 구성되는 것을 특징으로 하는 3D 입체영상 변환방법.And a step F of generating a parallax image by using the depth information. 제 7 항에 있어서,The method of claim 7, wherein 상기 C 단계는,The step C, 상기 키 프레임 선택한 후 윈도우 창의 MeanShift Tool의 Region Segmentation 메뉴를 이용하여 영역 분할 결과를 조절하는 단계와;Adjusting the segmentation result by using a region segmentation menu of a MeanShift Tool after selecting the key frame; 상기 영역 분할 결과의 각 객체 영역에서 잘못된 객체 영역을 편집하는 단계와;Editing an invalid object region in each object region of the region division result; 드로잉 도구를 이용하여 편집된 상기 영역 분할 결과에서 잘못된 객체 영역을 병합하는 단계와;Merging a wrong object region in the region division result edited using a drawing tool; Lasso 도구를 이용하여 상기 객체 영역의 윤곽 포인트 선택 및 자동 윤곽선을 검출하는 단계를 포함하여 구성되는 것을 특징으로 하는 3D 입체영상 변환방법.3. The method of claim 1, further comprising detecting contour points of the object region and detecting automatic contours using an Lasso tool. 제 8 항에 있어서,9. The method of claim 8, 상기 D 단계는,The step D, 상기 키 프레임의 객체를 객체 리스트에 추가하는 단계와;Adding an object of the key frame to an object list; 상기 객체 영역의 윤곽 포인트로 초기 객체 윤곽을 자동으로 설정하는 단계와;Automatically setting an initial object contour to the contour point of the object area; 상기 키 프레임을 기준으로 객체 윤곽을 트래킹하는 단계와;Tracking an object contour based on the key frame; 상기 객체 윤곽 트래킹 후 생성된 객체 윤곽 포인트를 편집하는 단계를 포함하여 구성되는 것을 특징으로 하는 3D 입체영상 변환방법.And editing an object contour point generated after the object contour tracking. 제 9 항에 있어서,The method of claim 9, 상기 E 단계는,The step E, 상기 영상에 대한 레이블(Label) 이미지를 생성하는 단계와;Generating a label image for the image; 상기 생성된 레이블 이미지를 이용하여 깊이 정보를 수집하는 단계와;Collecting depth information using the generated label image; 상기 수집한 깊이 정보를 이용하여 깊이 테이블에 저장하는 단계와;Storing the collected depth information in a depth table; 상기 깊이 테이블에 입력한 깊이 정보로 트래킹 하여 전체 영상의 깊이 지도를 생성하는 단계를 포함하여 구성되는 것을 특징으로 하는 3D 입체영상 변환방법.And generating a depth map of the entire image by tracking with the depth information input to the depth table. 제 10 항에 있어서,11. The method of claim 10, 상기 F 단계는,The F step, 상기 깊이 지도를 이용하여 입체 영상 출력 방법을 선택하는 단계를 포함하여 구성되는 것을 특징으로 하는 3D 입체영상 변환방법.3D stereoscopic image conversion method comprising the step of selecting a stereoscopic image output method using the depth map.
KR1020090130415A 2009-12-24 2009-12-24 Apparatus for transforming 3d image and the method therefor KR101181962B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090130415A KR101181962B1 (en) 2009-12-24 2009-12-24 Apparatus for transforming 3d image and the method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090130415A KR101181962B1 (en) 2009-12-24 2009-12-24 Apparatus for transforming 3d image and the method therefor

Publications (2)

Publication Number Publication Date
KR20110073702A KR20110073702A (en) 2011-06-30
KR101181962B1 true KR101181962B1 (en) 2012-09-11

Family

ID=44404184

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090130415A KR101181962B1 (en) 2009-12-24 2009-12-24 Apparatus for transforming 3d image and the method therefor

Country Status (1)

Country Link
KR (1) KR101181962B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11004257B1 (en) 2019-11-04 2021-05-11 Lg Electronics Inc. Method and apparatus for image conversion
KR20230032995A (en) 2021-08-31 2023-03-07 단국대학교 산학협력단 System for processing 3d image and method for generating 3d model using the same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120127992A (en) * 2011-05-16 2012-11-26 삼성전자주식회사 Apparatus and method for converting 2d content into 3d content, and computer-readable storage medium thereof
KR101851630B1 (en) * 2011-08-29 2018-06-11 엘지전자 주식회사 Mobile terminal and image converting method thereof
CN102655597A (en) * 2011-11-23 2012-09-05 上海华博信息服务有限公司 Display system capable of carrying out real-time dynamic regulation on stereoscopic video parallax curve
KR101285111B1 (en) * 2012-02-01 2013-07-17 (주)리얼디스퀘어 Conversion device for two dimensional image to three dimensional image, and method thereof
KR102143944B1 (en) * 2013-09-27 2020-08-12 엘지디스플레이 주식회사 Method of adjusting three-dimensional effect and stereoscopic image display using the same
KR101400168B1 (en) * 2014-03-14 2014-05-28 (주)금성보안 Three-dimensional virtual security control system using 360 degree stereoscopic camera, and method thereof
KR101652719B1 (en) 2015-06-26 2016-09-01 주식회사 가이스트코리아 System for supporting the authoring tool for 3d contents

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260591A (en) * 2003-02-26 2004-09-16 Amita Technology Kk Stereoscopic image display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260591A (en) * 2003-02-26 2004-09-16 Amita Technology Kk Stereoscopic image display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11004257B1 (en) 2019-11-04 2021-05-11 Lg Electronics Inc. Method and apparatus for image conversion
KR20230032995A (en) 2021-08-31 2023-03-07 단국대학교 산학협력단 System for processing 3d image and method for generating 3d model using the same

Also Published As

Publication number Publication date
KR20110073702A (en) 2011-06-30

Similar Documents

Publication Publication Date Title
KR101181962B1 (en) Apparatus for transforming 3d image and the method therefor
CN109479098B (en) Multi-view scene segmentation and propagation
CN111050210B (en) Method of performing operations, video processing system, and non-transitory computer readable medium
US20200234397A1 (en) Automatic view mapping for single-image and multi-view captures
US8842730B2 (en) Methods and systems for digitally re-mastering of 2D and 3D motion pictures for exhibition with enhanced visual quality
KR102121707B1 (en) Object digitization
JP4896230B2 (en) System and method of object model fitting and registration for transforming from 2D to 3D
CN105191287B (en) Replace the method and computer program of the object in video flowing
CN102741879B (en) Method for generating depth maps from monocular images and systems using the same
KR101370718B1 (en) Method and apparatus for 2d to 3d conversion using panorama image
US20200258309A1 (en) Live in-camera overlays
WO2012058490A2 (en) Minimal artifact image sequence depth enhancement system and method
KR20100095465A (en) Segmentation of image data
JP2008513882A (en) Video image processing system and video image processing method
JP2008276410A (en) Image processor and method
Schmeing et al. Depth image based rendering
US20110149039A1 (en) Device and method for producing new 3-d video representation from 2-d video
EP2656315B1 (en) System and method for minimal iteration workflow for image sequence depth enhancement
JP2020091745A (en) Imaging support device and imaging support method
KR100960694B1 (en) System and Method for matting multi-view image, Storage medium storing the same
JP5307051B2 (en) Stereoscopic image adjusting apparatus and adjusting method
KR20140058744A (en) A system for stereoscopic images with hole-filling and method thereof
Zhang et al. Coherent video generation for multiple hand-held cameras with dynamic foreground
KR20110070678A (en) Device and method for new 3d video representation from 2d video
CN110460908B (en) Method for generating each frame of picture when video is generated

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160307

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160905

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170927

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180829

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190917

Year of fee payment: 8