KR101181962B1 - Apparatus for transforming 3d image and the method therefor - Google Patents
Apparatus for transforming 3d image and the method therefor Download PDFInfo
- Publication number
- KR101181962B1 KR101181962B1 KR1020090130415A KR20090130415A KR101181962B1 KR 101181962 B1 KR101181962 B1 KR 101181962B1 KR 1020090130415 A KR1020090130415 A KR 1020090130415A KR 20090130415 A KR20090130415 A KR 20090130415A KR 101181962 B1 KR101181962 B1 KR 101181962B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth
- stereoscopic
- key frame
- tracking
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 원본 영상을 이용하여 각 장면 및 객체 단위로 시차를 갖는 입체 영상으로 제작해 주는 3D 입체영상 변환장치 및 변환방법에 관한 것이다.The present invention relates to a 3D stereoscopic image converting apparatus and a conversion method for producing a stereoscopic image having parallax for each scene and object unit using an original image.
본 발명에 3D 입체영상 변환장치는 2D영상을 입체감이 있는 3D영상으로 변환장치에 있어서, 영상을 수집하는 영상수집장치와; 상기 영상수집 장치에서 수집한 영상을 각 장면 및 객체 단위로 시차를 갖는 입체영상으로 제작하는 3D 입체 영상 저작도구가 탑재된 서버와; 상기 서버에서 처리한 영상을 출력하는 영상표시장치를 포함하여 구성된다.In the present invention, the 3D stereoscopic image converting apparatus comprises: a 2D image converting apparatus to a 3D image having a stereoscopic feeling, comprising: an image collecting apparatus for collecting images; A server equipped with a 3D stereoscopic image authoring tool for producing a stereoscopic image having parallax for each scene and object unit from the image collected by the image collecting device; And an image display device for outputting an image processed by the server.
이러한 구성에 의하여 본 발명은 반자동 입체변환 소프트웨어로 2D 영상을 장면 단위로 작업 할 수 있으며 입체영상 생성의 가장 중요한 깊이지도 생성을 객체 단위로 3D 공간상에서 사용자 입력을 통해 손쉽게 깊이를 줄 수 있고, 객체 표면의 볼륨 처리 및 양/음시차를 설정할 수 있는 UI를 제공함으로써 사실감 있는 깊이 지도를 제작 할 수 있다. With this configuration, the present invention can work with 2D video scene by unit with semi-automatic 3D conversion software, and the most important depth map generation of 3D video creation can be easily given depth through user input in 3D space. By providing a UI that can set the volume and surface / positive disparity of the surface, it is possible to produce realistic depth maps.
또한, 프로젝트 관리를 통해 작업 과정의 중간 생성물을 저장하여 필요 시 후 보정을 위한 수작업을 손쉽게 할 수 있는 효과를 제공한다. Project management also saves intermediate artifacts in the workflow, making it easy to make manual corrections when needed.
2D, 3D변환, 객체분할, 객체 트래킹, 깊이 지도, 객체 볼륨, 저작도구 2D, 3D transformation, object segmentation, object tracking, depth map, object volume, authoring tool
Description
본 발명은 2D 영상을 3D 영상으로 변환하는 저작도구에 관한 것으로, 특히 원본 영상을 이용하여 각 장면 및 객체 단위로 시차를 갖는 입체 영상으로 제작해 주는 3D 입체영상 변환장치 및 변환방법에 관한 것이다.The present invention relates to an authoring tool for converting a 2D image into a 3D image, and more particularly, to a 3D stereoscopic image converting apparatus and a conversion method for producing a stereoscopic image having parallax for each scene and object unit using an original image.
일반적으로, 3D 입체 영상 기술은 기존의 2D 평면 영상과는 달리 사람이 느끼는 실제 영상과 유사하여 시각정보의 질적 수준을 몇 차원 높여 주는 새로운 개념의 실감 영상미디어로서 차세대 디지털 영상문화를 주도하게 될 것으로 전망된다. 또한, 차세대 실감 정보통신 서비스의 총아로 사회 선진화와 더불어 수요 및 기술개발 경쟁이 치열한 고도화 기술로서 향후 2D TV를 비롯하여 정보통신, 방송, 의료, 영화, 게임, 애니메이션 등과 같은 기존의 모든 산업 제품 개발에 응용되는 핵심기술로 자리매김을 할 것으로 전망되고 있다.In general, 3D stereoscopic imaging technology will lead the next generation of digital visual culture as a new concept of realistic visual media that enhances the quality of visual information by several dimensions, unlike real 2D plane images. Is viewed. In addition, as the next generation of real-world information and communication service, advanced technology with fierce social advancement and competition for demand and technology development is expected to develop 2D TV and all existing industrial products such as information and communication, broadcasting, medical, film, game, animation, etc. It is expected to establish itself as a core technology applied.
한편, 3D TV는 기존 2D TV에 깊이 영상을 더하여 실감영상을 구현하는 것으로 2012년 이후 본격적인 가정에서의 3D TV 실감방송 시대를 맞아 입체콘텐츠의 절대부족이 예상된다.On the other hand, 3D TV is to realize a realistic image by adding a depth image to the existing 2D TV, the absolute lack of stereoscopic content is expected in the era of 3D TV realistic broadcasting at home since 2012.
그러나, 3D TV 실감방송용 입체 컨텐츠의 제작은 많은 비용과 시간, 관련 촬영 및 편집장비 등의 투입이 이루어져야 하기 때문에 단기간에 많은 콘텐츠를 제작하기 어려움이 있다.또한, 현재 기술로는 기존 영상물을 2D에서 3D로 변환하여 상용가능한 고품질의 영상물을 제공하기가 힘들뿐만 아니라 수작업이 동원되는 등 변환에 많은 시간과 비용이 소요된다. However, it is difficult to produce a lot of content in a short time because the production of 3D content for 3D TV realistic broadcasting requires a lot of cost, time, and related shooting and editing equipment. Not only is it difficult to provide high-quality video that is commercially available by converting to 3D, but it also takes a lot of time and money to convert such as manual labor.
따라서, 영상을 자유롭게 편집 및 저장시킬 수 있고, 효율적으로 고품질의 입체 컨텐츠를 확보할 수 있는 2D 영상변환 저작도구가 필요한 실정이다.Accordingly, there is a need for a 2D image conversion authoring tool capable of freely editing and storing images and efficiently securing high quality stereoscopic contents.
상기와 같은 문제점을 해결하기 위하여, 본 발명은 기존 2D 영상(정지 및 동영상)을 입력으로 받아들여 변환해 줄 수 있는 저작도구를 개발하는 것으로 이를 위해 깊이를 주고자 하는 오브젝트의 추출, 추출된 오브젝트의 트래킹, 추출된 오브젝트의 깊이부여 및 깊이 맵 생성, 생성된 깊이 맵의 트래킹 등의 기술을 사용하는 3D 입체영상 변환장치 및 변환방법을 제공하는데 있다.In order to solve the above problems, the present invention develops an authoring tool that can take an existing 2D image (still and moving image) as an input and convert the extracted object to give a depth for this purpose. The present invention provides a 3D stereoscopic image converting apparatus and a converting method using techniques such as tracking, extracting depth of an object, generating depth maps, and tracking generated depth maps.
본 발명에 따른 3D 입체영상 변환장치는 2D영상을 입체감이 있는 3D영상으로 변환장치에 있어서, 영상을 수집하는 영상수집장치와; 상기 영상수집 장치에서 수집한 영상을 각 장면 및 객체 단위로 시차를 갖는 입체영상으로 제작하는 3D 입체 영상 저작도구가 탑재된 서버와; 상기 서버에서 처리한 영상을 출력하는 영상표시장치를 포함하여 구성된다.A 3D stereoscopic image converting apparatus according to the present invention comprises: a 2D image converting apparatus to a 3D image having a stereoscopic feeling, comprising: an image collecting apparatus for collecting images; A server equipped with a 3D stereoscopic image authoring tool for producing a stereoscopic image having parallax for each scene and object unit from the image collected by the image collecting device; And an image display device for outputting an image processed by the server.
상기 3D 입체영상 저작도구는 상기 2D 영상을 장면 단위로 작업할 수 있는 것을 특징으로 한다.The 3D stereoscopic image authoring tool may work on the 2D image in a scene unit.
상기 3D 입체영상 저작도구는 상기 입체영상의 깊이지도 생성을 객체 단위로 할 수 있는 것을 특징으로 한다.The 3D stereoscopic image authoring tool may generate the depth map of the stereoscopic image on an object basis.
상기 3D 입체영상 저작도구는 객체 표면의 볼륨 처리 및 양음시차를 설정할 수 있는 것을 특징으로 한다.The 3D stereoscopic authoring tool is characterized in that it is possible to set the volume processing and positive parallax of the object surface.
본 발명에 따른 3D 입체영상 변환방법은 2D 영상을 입체감이 있는 3D 영상으로 변환하는 방법에 있어서, 영상수집장치에서 2D 또는 3D 영상을 수집하는 제 1 단계와; 3D 입체영상 저작도구가 탑재된 서버에서 상기 영상수집 장치에서 수집한 영상을 시차를 갖는 입체영상으로 변환하는 제 2 단계와; 상기 서버에서 처리한 후 영상표시장치에 처리된 영상을 출력하는 제 3 단계를 포함하여 구성된다.A 3D stereoscopic image conversion method according to the present invention includes a method for converting a 2D image into a 3D image having a stereoscopic feeling, comprising: a first step of collecting a 2D or 3D image in an image collecting device; A second step of converting the image collected by the image acquisition apparatus into a stereoscopic image having parallax in a server equipped with a 3D stereoscopic image authoring tool; And a third step of outputting the processed image to the image display apparatus after processing in the server.
상기 제 2 단계는, 신규 작업 파일 또는 프로젝트를 오픈하는 단계와; 상기 영상수집장치에서 수집한 영상에서 키 프레임(Key Frame)을 선택하는 단계와; 상기 선택된 키 프레임에 따라 기존의 자동 변환방법을 이용하여 객체 및 깊이 정보를 자동으로 추출한 후 입체영상으로 변환하는 단계를 포함하여 구성되는 것을 특징으로 한다.The second step may include opening a new work file or project; Selecting a key frame from an image collected by the image collecting device; And extracting the object and the depth information automatically using a conventional automatic conversion method according to the selected key frame and converting the same into a stereoscopic image.
상기 제 2 단계는, 신규 작업 파일 또는 프로젝트를 오픈하는 A 단계와; 상기 영상수집장치에서 수집한 영상에서 키 프레임(Key Frame)을 선택하는 B 단계와; 상기 선택된 키 프레임에서 각 객체의 영역을 분할 및 병합하는 C 단계와; 상기 키 프레임을 트래킹하는 D 단계와; 상기 키 프레임의 깊이 정보를 수집하는 E 단계; 및 상기 깊이 정보를 이용하여 시차 영상을 생성하는 F 단계를 포함하여 구성되는 것을 특징으로 한다.The second step includes: A step of opening a new work file or project; Selecting a key frame from an image collected by the image collecting device; Dividing and merging regions of each object in the selected key frame; Tracking the key frame; E step of collecting depth information of the key frame; And an F step of generating a parallax image using the depth information.
상기 C 단계는, 상기 키 프레임 선택한 후 윈도우 창의 MeanShift Tool의 Region Segmentation 메뉴를 이용하여 영역 분할 결과를 조절하는 단계와; 상기 영역 분할 결과의 각 객체 영역에서 잘못된 객체 영역을 편집하는 단계와; 드로잉 도구를 이용하여 편집된 상기 영역 분할 결과에서 잘못된 객체 영역을 병합하는 단계와; Lasso 도구를 이용하여 상기 객체 영역의 윤곽 포인트 선택 및 자동 윤곽선을 검출하는 단계를 포함하여 구성되는 것을 특징으로 한다.The step C may include adjusting a region segmentation result using a region segmentation menu of a MeanShift Tool after selecting the key frame; Editing an invalid object region in each object region of the region division result; Merging a wrong object region in the region division result edited using a drawing tool; And detecting the contour point of the object region and detecting the automatic contour using the Lasso tool.
상기 D 단계는, 상기 키 프레임의 객체를 객체 리스트에 추가하는 단계와; 상기 객체 영역의 윤곽 포인트로 초기 객체 윤곽을 자동으로 설정하는 단계와; 상기 키 프레임을 기준으로 객체 윤곽을 트래킹하는 단계와; 상기 객체 윤곽 트래킹 후 생성된 객체 윤곽 포인트를 편집하는 단계를 포함하여 구성되는 것을 특징으로 한다.The step D may include adding an object of the key frame to an object list; Automatically setting an initial object contour to the contour point of the object area; Tracking an object contour based on the key frame; And editing an object contour point generated after the object contour tracking.
상기 E 단계는, 상기 영상에 대한 레이블(Label) 이미지를 생성하는 단계와; 상기 생성된 레이블 이미지를 이용하여 깊이 정보를 수집하는 단계와; 상기 수집한 깊이 정보를 이용하여 깊이 테이블에 저장하는 단계와; 상기 깊이 테이블에 입력한 깊이 정보로 트래킹 하여 전체 영상의 깊이 지도를 생성하는 단계를 포함하여 구성되는 것을 특징으로 한다.The step E may include generating a label image for the image; Collecting depth information using the generated label image; Storing the collected depth information in a depth table; And tracking the depth information input to the depth table to generate a depth map of the entire image.
상기 F 단계는, 상기 깊이 지도를 이용하여 입체 영상 출력 방법을 선택하는 단계를 포함하여 구성되는 것을 특징으로 한다.The step F may include selecting a stereoscopic image output method using the depth map.
본 발명에 따른 3D 입체영상 변환장치 및 변환방법은 반자동 입체변환 소프트웨어로 2D 영상을 장면 단위로 작업 할 수 있으며 입체영상 생성의 가장 중요한 깊이지도 생성을 객체 단위로 3D 공간상에서 사용자 입력을 통해 손쉽게 깊이를 줄 수 있고, 객체 표면의 볼륨 처리 및 양/음시차를 설정할 수 있는 UI를 제공함으로써 사실감 있는 깊이 지도를 제작 할 수 있다. 3D stereoscopic image converting apparatus and conversion method according to the present invention is a semi-automatic stereoscopic conversion software can work 2D image by scene unit, and the most important depth map generation of 3D image generation in object unit easily through user input in 3D space By providing a UI that can set the volume and positive / negative disparity of the object surface, it is possible to create a realistic depth map.
또한, 프로젝트 관리를 통해 작업 과정의 중간 생성물을 저장하여 필요 시 후 보정을 위한 수작업을 손쉽게 할 수 있는 효과를 제공한다. Project management also saves intermediate artifacts in the workflow, making it easy to make manual corrections when needed.
이하, 첨부된 도면 및 실시 예를 통해 본 발명의 실시 예를 구체적으로 살펴보면 다음과 같다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings and embodiments.
도 1은 본 발명의 실시 예에 따른 3D 입체영상 변환장치를 나타낸 도면이다.1 is a view showing a 3D stereoscopic image converting apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 3D 입체영상 변환장치는 2D영상을 입체감이 있는 3D영상으로 변환장치에 있어서, 영상을 수집하는 영상수집장치(100)와, 영상수집 장치(100)에서 수집한 영상을 시차를 갖는 입체영상으로 제작하는 3D 입체 영상 저작도구(106)가 탑재된 서버(102)와, 서버(102)에서 처리한 영상을 출력하는 영상표시장치(104)를 포함하여 구성된다.Referring to FIG. 1, a 3D stereoscopic image converting apparatus according to an embodiment of the present invention includes a 2D image converting apparatus into a 3D image having a stereoscopic sense, and includes an
영상수집장치(100)는 적어도 하나의 카메라와 같은 장치를 이용하여 수집하고자 하는 영상을 수집할 수 있도록 구비된다. 이때, 영상수집장치(100)는 수집한 영상을 서버(102)에서 처리할 수 있도록 avi, wmv, asf, mpeg 등과 같은 영상 파일 포멧 형식의 영상파일로 저장한 후 서버(102)에 전송한다.The
서버(102)는 영상수집장치(100)에서 수집한 영상파일을 수신받아 처리할 수 있도록 구비된다. 여기서, 서버(102)는 수신된 영상파일을 3D 입체영상 저작도구(106)를 이용하여 3D 입체 영상으로 변환한다. 이때, 서버(102)에 탑재된 3D 입체 영상 저작도구(106)는 영상수집장치(100)에서 수집한 영상을 장면 단위로 작업할 수 있 수 있으며, 영상의 입체영상의 깊이지도 생성시 객체 단위로 생성할 수 있다. 또한, 3D 입체영상 저작도구는 객체 표면의 볼륨 처리 및 양음시차를 설정할 수 있다.The
3D 입체영상 저작도구(106)의 메인 프레임은 도 2에 도시된 바와 같이 객체 분할관련 뷰(110)와, 깊이 설정관련 뷰(144)와, 레프트 영상 생성 뷰(152) 및 영상 시퀀스 관련 뷰(200)를 포함하여 구성된다.As shown in FIG. 2, the main frame of the 3D
먼저, 객체 분할 관련 뷰(Object Extraction View)(110)는 Region Segmentation(120), Merge(122), Draw(124), Eraser(126), 브러쉬 크기 설정 버튼(128), Region 체크박스(130), Drawing Tool 및 Lasso Tool을 포함하여 구성된다.First, the
Region Segmentation(120)은, 도 4에 도시된 바와 같이, 선택 파라미터 설정 다이얼로그(132)의 Hs(The spatial radius of the widow), Hr(The range radius of the window), M(The munumum density a region may have in the resulting segmented image)을 조절하여 영상 프레임의 영역 분할 결과를 조절한다.As shown in FIG. 4, the
Merge(122)는 영역 분할 결과에서 분할된 영역 중 잘못된 영역을 마우스 드 래그로 병합하여 객체를 선정한다.Merge 122 selects an object by merging the wrong area among the divided areas with the mouse drag in the region division result.
Draw(124)는 Merge(122)로 병합시 자연스럽지 못한 영역을 편집한다.Draw 124 edits an unnatural area upon merging with Merge 122.
Eraser(126)는 Merge(122)로 병합 및 Draw(124)로 편집하였음에도 자연스럽지 못한 부분을 삭제한다.Eraser 126 merges with Merge 122 and deletes portions that are not natural even though edited with Draw 124.
브러쉬 크기 설정 버튼(128)은 Draw(124)와 Eraser(126) 사용시 브러쉬의 크기를 선택적으로 변경할 수 있다.The brush
Region 체크박스(130)는 선택된 영역을 확인하기 위해 사용한다.The
객체의 윤곽을 찾는 Drawing Tool은 Clustering Region(134)과 Draw Region(136)으로 구분한다.The drawing tool that finds the outline of an object is divided into a clustering region (134) and a draw region (136).
Clustering Region(134)은 MeanShift Tool에서 미리 영상을 분할한 상태에서 마우스 드래그로 객체의 윤곽 영역을 병합한다.The
Draw Region(136)은 MeanShift Tool에서 미리 영상을 분할한 상태에서 마우스 드래그로 브러쉬 영역만큼 관심영역을 그려 나간다.The
Lasso Tool의 Lasso는 마우스로 객체 윤곽을 이동하면서 윤곽 포인트를 선택하나 자동으로 윤곽선을 검출할 수 있다.Lasso of the Lasso Tool selects the contour point while moving the object outline with the mouse, but can automatically detect the outline.
Object List(138)는 윤곽을 설정하고자 하는 객체를 insert 버튼(140)을 이용하여 객체 리스트에 등록시키거나 Delete 버튼(142)을 이용하여 삭제한다.The
깊이를 제어하기 위한 깊이 설정 관련 뷰(144)는 Set Depth Information 버튼(146), Depth Edithing 버튼(148), Get DepthMap 버튼(150)을 포함하여 구성된다.The depth setting
Set Depth Information 버튼(146)은 클릭시 선택된 해당 프레임의 깊이를 설정하기 위한 다이얼로그 화면이 오픈(Open)된다. 이때, 깊이 설정 다이얼 로그 화면은, 도 5에 도시된 바와 같이, 브러쉬를 이용해 반경(Radious), 압력(Pressure), 밀도(DEnsity)를 설정하여 객체에 볼륨을 주는 Brush Tool 체크박스(232)와, 볼륨을 반대로 주기 위한 Negative 체크박스(234)와, Min 값과 Max 값을 넣어 선택된 객체 또는 영역에 기울기를 줄기 위한 Gradiention Tool(236)과, 객체의 깊이를 조절할 수 있는 Layer Depth(238)와, Zero Parallax 값을 조절할 수 있는 Zero Parallax 스크롤바(240)와, 관심객체를 선택할 수 있는 Selection 버튼(242)과, 객체 내 임의 영역을 선택할 수 있는 Path Selection Tool(244)과, 모든 객체의 깊이를 0으로 설정하기 위한 Initialize 버튼(246)과, 선택된 개체의 Base 깊이 값으로 세팅 Vol Init 버튼(248)과, 선택된 객체의 깊이값을 평균 깊이값으로 설정하는 Averaging 버튼(250)과, 편집된 전체 깊이값을 확인하는 Get Depth 버튼(252) 및 Undo, Redo 기능을 하는 Undo, Redo 버튼(254, 256)을 포함하여 구성된다.The Set
Depth Edithing 버튼(148)은 깊이 지도를 수정하고 싶을 때 클릭하여 깊이 설정 다이얼 로그 화면에서 작업을 수행한다.Depth
Get DepthMap 버튼(150)은 클릭시 깊이 지도를 얻을 수 있다.The Get
깊이 지도과 양/음의 시차를 설정할 수 있는 Left view Control(152)은 Depth Level,Zero Parallax을 포함하여 구성된다.
Depth Level은 깊이 지도가 8bit로 256가지 값을 갖음에 따라, 256가지의 레벨로 설정된 레벨을 다운시키는 역할을 한다. 이때, Depth Level의 계산식은 New Depth Value = 256/DelthLevel 이다.Depth Level plays a role of bringing down the level set to 256 levels as the depth map has 256 values with 8 bits. At this time, the calculation formula of Depth Level is New Depth Value = 256 / DelthLevel.
Zero Parallax는 양/음의 시차를 설정하기 위한 것으로 Zero Parallax의 값이 128일 경우 깊이 지도에서 128 이하의 값은 양시차를 주고, 128이상의 값은 음의 시차를 준다. 이것은 모니터 안쪽 또는 바깥쪽으로 돌아가거나 튀어나오게 보이는 효과를 준다.Zero Parallax is for setting up positive / negative parallax. When the value of Zero Parallax is 128, the value below 128 gives positive parallax and the value above 128 gives negative parallax. This has the effect of turning or popping out of or out of the monitor.
영상을 트래킹하기 위한 영상 시퀀스 관련 뷰(200)는, 도 6에 도시된 바와 같이, Contour Tracking과 Depth Tracking으로 구분된다.An image sequence
Contour Tracking은 Inintialization 버튼, Init F Tracking 버튼, Init B Tracking번튼, F Tracking버튼, B Tracking 버튼 및 Contour Copy를 포함하여 구성된다.Contour Tracking consists of an Inintialization button, Init F Tracking button, Init B Tracking button, F Tracking button, B Tracking button and Contour Copy.
Initialization 버튼(202)은 클릭시 Lasso Tool에서 설정한 윤곽 포인트를 이용하여 초기 객체 윤곽을 자동 설정한다.The
Init F Tracking 버튼(204)은 키 프레임을 기준으로 전방향 객체 윤곽을 트래킹한다.Init
Init B Tracking 버튼(206)은 키 프레임을 기준으로 후방향 객체 윤곽을 트래킹 한다.Init
F Tracking, B Tracking 버튼(208, 210)은 Init A Tracking 버튼(204)과 Init B Tracking 버튼(206)으로 객체 윤곽을 설정한 후 재 트래킹 할 수 있다. 이때, F Tracking, B Tracking 버튼(208, 210)은 키 프레임이 아닌 임의의 프레임에서 초기 추적된 객체 윤곽을 수정한 후 트래킹 할 수 있다.The F Tracking and
Contour Copy 버튼(212)은 각 프레임에 객체의 움직임이 없어 트래킹보다 복사가 필요한 경우 사용한다. The
User Interval 체크박스(214)는 체크한 후 트래킹하고자 하는 프레임의 수를 빈칸에 입력하면 현재 프레임을 기준으로 트래킹 및 복사를 수행한다.The user
BM Tracking 체크박스(216)는 Block Matching 방법을 적용하고 싶을 경우 사용한다. 기본 설정값은 Lucas-Kannade Tracking 방법을 사용한다.The
선택된 객체영역 내부에 배경부분 등 불필요한 부분을 제거하는 Extra points는 Select, Tracking, Reset 버튼을 포함하여 구성된다Extra points that remove unnecessary parts such as background parts inside the selected object area are configured to include Select, Tracking, and Reset buttons.
Select 버튼(218)은 Select 버튼 선택 후 마우스로 클릭하여 포인트를 설정하고 최종 윤곽을 얻을 때는 마우스 오른쪽 클릭을 하여 폐 영역을 만든다.The
Tracking 버튼(220)은 트래킹 구간을 설정하여 폐 영역을 추적한다.The
Reset 버튼(222)은 Extra Points 편집이 끝나면 설정을 리셋한다.The
깊이값을 트래킹하는 Depth Tracking은 Est. Depth 버튼, Block Depth 버튼 및 BackGround 체크박스를 포함하여 구성된다.Depth Tracking for tracking the depth value is Est. It consists of a Depth button, Block Depth button, and a BackGround checkbox.
Generate Label Image(224)는 깊이 지도를 설정하기 위한 라벨(Label) 이미지를 생성한다.Generate
Est. Depth 버튼(226)은 평균 깊이 값을 이용하여 깊이지도를 생성한다.Est.
Block Depth 버튼(228)은 블록을 기반으로 깊이 값을 예측하여 깊이지도를 생성한다.The
BackGround 체크박스(230)는 자동 생성된 배경 영상에 홀 채움에 적용하기 위해 사용한다. 특히, 배경의 움직임이 없는 장면에서 유용하다.The
영상표시장치(104)는 서버(102)에서 처리된 영상을 출력할 수 있도록 구비된다. 이때, 영상표시장치(104)는 전자종이(e-paper), 액정 표시패널(Liquid Crystal Display Panel), 전계방출 표시패널(Field Emission Display Panel), 플라즈마 표시패널(Plasma Display Panel) 및 발광 표시패널(Light Emitting Display Panel) 등이 있다.The
도 7은 본 발명의 실시 예에 따른 3D 입체영상 변환장치의 변환과정을 나타낸 도면이다.7 is a diagram illustrating a conversion process of a 3D stereoscopic image conversion apparatus according to an embodiment of the present invention.
도 7을 참조하면, 본 발명의 실시 예에 따른 3D 입체영상 변환방법은 2D 영상을 입체감이 있는 3D 영상으로 변환하는 방법에 있어서,영상수집장치에서 2D 또는 3D 영상을 수집하는 제 1 단계와(S1), 3D 입체영상 저작도구가 탑재된 서버에서 상기 영상수집 장치에서 수집한 영상을 시차를 갖는 입체영상으로 변환하는 제 2 단계와(S2), 서버에서 처리한 후 영상표시장치에 처리된 영상을 표시하는 제 3 단계(S3)를 포함하여 구성된다.Referring to FIG. 7, the 3D stereoscopic image converting method according to an embodiment of the present invention is a method for converting a 2D image into a 3D image having a three-dimensional effect, the first step of collecting a 2D or 3D image by an image collecting device ( S1), a second step of converting the image collected by the image acquisition apparatus into a stereoscopic image having parallax in a server equipped with a 3D stereoscopic image authoring tool (S2), and the image processed by the image display apparatus after processing in the server; It is configured to include a third step (S3) to display.
먼저, 서버에 탑재되어 3D 입체영상 저작도구의 입체영상 변환방법은, 도 8에 도시된 바와 같이, 신규 작업 파일 또는 프로젝트를 오픈하는 A 단계와(S10), 영상수집장치에서 수집한 영상에서 키 프레임(Key Frame)을 선택하는 B 단계와(S12), 선택된 키 프레임에서 각 객체의 영역을 분할 및 병합하는 C 단계와(S14), 키 프레임을 트래킹하는 D 단계와(S16), 키 프레임의 깊이 정보를 수집하는 E 단계(S18) 및 깊이 정보를 이용하여 시차 영상을 생성하는 F 단계(S20)를 포 함하여 구성된다.First, the stereoscopic image conversion method of the 3D stereoscopic image authoring tool mounted on the server, as shown in Figure 8, the step A of opening a new work file or project (S10), the key from the image collected by the image acquisition device Step B of selecting a frame (S12), step C of dividing and merging the area of each object in the selected key frame (S14), step D of tracking a key frame (S16), and E step (S18) of collecting depth information and F step (S20) of generating a parallax image using the depth information is configured.
여기서, 선택된 키 프레임에서 각 객체의 영역을 분할 및 병합하는 C 단계(S14)는, 도 9에 도시된 바와 같이, 키 프레임 선택한 후 윈도우 창의 MeanShift Tool의 Region Segmentation 메뉴를 이용하여 영역 분할 결과를 조절하는 단계(S30)와, 영역 분할 결과의 각 객체 영역에서 잘못된 객체 영역을 편집하는 단계(S32)와, 드로잉 도구를 이용하여 편집된 상기 영역 분할 결과에서 잘못된 객체 영역을 병합하는 단계(S34)와, Lasso 도구를 이용하여 상기 객체 영역의 윤곽 포인트 선택 및 자동 윤곽선을 검출하는 단계(S36)를 포함하여 구성된다.Here, in step S14 of dividing and merging the regions of each object in the selected key frame, as shown in FIG. Step (S30), editing the wrong object area in each object area of the area division result (S32), merging the wrong object area in the area division result edited using a drawing tool (S34); And detecting the contour point of the object region and detecting the automatic contour using the Lasso tool (S36).
먼저, 키 프레임 선택한 후 윈도우 창의 MeanShift Tool의 Region Segmentation 버튼을 이용하여 객체 영역 분할 결과를 조절하는 단계(S30)는, 도 10에 도시된 바와 같이, 메인 프레임의 Region Segmentation을 선택하여 파라미터 설정 다이얼로그의 Hs(The spatial radius of the widow), Hr(The range radius of the window), M(The munumum density a region may have in the resulting segmented image) 스크롤바를 조절하여, 도 11에 도시된 바와 같이, 영역 분할 결과를 조절한다.First, after selecting a key frame and adjusting the object region segmentation result by using the Region Segmentation button of the MeanShift Tool in the window window (S30), as shown in FIG. 10, the region segment of the main frame is selected to display the parameter setting dialog. The spatial radius of the widow (Hs), the range radius of the window (Hr), and the munumum density a region may have in the resulting segmented image (M) scroll bar are adjusted, as shown in FIG. Adjust the results.
이어, 영역 분할 결과의 각 객체 영역에서 잘못된 객체 영역을 편집하는 단계(S32)는, 도 12에 도시된 바와 같이, Merge 버튼 클릭 후 마우스 드래그로 분할된 영역을 병합하여 객체 선정한다. 그리고, 병합이 자연스럽지 못한 부분은 Draw로 편집한다. Subsequently, in step S32 of editing an invalid object region in each object region of the region segmentation result, object division is selected by merging the divided regions by clicking the Merge button and dragging the mouse as illustrated in FIG. 12. And, if the merge is not natural, edit it with Draw.
이어, 도 13에 도시된 바와 같이, Drawing Tool인 Clustering Region과 Draw region을 이용하여 객체의 윤각을 편집한다. 또한, Lasso Tool을 이용하여, 도 14에 도시된 바와 같이, 객체 윤곽을 마우스 드레그 및 클릭으로 이동하면서 객체 윤곽 포인트 선택 및 윤곽선을 자동으로 검출한다.Subsequently, as illustrated in FIG. 13, the wheel angle of the object is edited using a clustering region and a draw region, which are drawing tools. In addition, using the Lasso Tool, as shown in FIG. 14, object outline point selection and outline detection are automatically detected while moving the object outline with mouse drag and click.
키 프레임을 트래킹하는 D 단계(S16)는, 도 15에 도시된 바와 같이, 키 프레임의 객체를 객체 리스트에 추가하는 단계(S40)와, 객체 영역의 윤곽 포인트로 초기 객체 윤곽을 자동으로 설정하는 단계(S42)와, 키 프레임을 기준으로 객체 윤곽을 트래킹하는 단계(S44)와, 객체 윤곽 트래킹 후 생성된 객체 윤곽 포인트를 편집하는 단계(S46)를 포함하여 구성된다.In step S16 of tracking the key frame, as illustrated in FIG. 15, the step S40 of adding an object of the key frame to the object list and automatically setting the initial object contour to the contour point of the object area are performed. Step S42, tracking the object contour based on the key frame (S44), and editing the object contour point generated after the object contour tracking (S46).
먼저, 키 프레임의 객체를 객체 리스트에 추가하는 단계(S40)는, 도 16에 도시된 바와 같이, 객체의 윤곽을 설정하기 위해서 먼저 메인 프레임에 있는 객체 리스트에 객체를 추가 시켜야 한다.First, in step S40 of adding an object of a key frame to an object list, in order to set an outline of an object, an object must be added to an object list of a main frame.
이어, 객체 영역의 윤곽 포인트로 초기 객체 윤곽을 자동으로 설정하는 단계(S42)는, 도 17에 도시된 바와 같이, 영상 시퀀스 관련 창의 Initialization 버튼을 클릭하여 Lasso Tool에서 설정한 윤곽 포인트로 초기 객체 윤곽을 자동 설정한다.Subsequently, in step S42, the initial object outline is automatically set to the outline point of the object region. As shown in FIG. 17, the initial object outline is set to the outline point set by the Lasso Tool by clicking the Initialization button of the image sequence related window. Is set automatically.
이어, 키 프레임을 기준으로 객체 윤곽을 트래킹하는 단계(S44)는, 도 18에 도시된 바와 같이, 키프레임을 기준으로 전방향 혹은 후방향으로 객체 윤곽을 트래킹 한다.Subsequently, in step S44 of tracking the object outline based on the key frame, the object outline is tracked forward or backward based on the key frame.
이어, 객체 윤곽 트래킹 후 생성된 객체 윤곽 포인트를 편집하는 단계(S46)는 도 19에 도시된 바와 같이, 선택된 프레임에서 잘못 예측된 객체 윤곽 포인트를 마우스를 움직여, 도 20에 도시된 바와 같이, 객체의 윤곽을 바로잡아 편집한다.Subsequently, in step S46 of editing the object contour point generated after the object contour tracking, as shown in FIG. 20, the object is moved by moving the mouse to an object contour point that is incorrectly predicted in the selected frame. Straighten and edit the outline of the.
이어, 도 21에 도시된 바와 같이, Extra points를 이용하여 선택된 객체영역 내부에 배경부분 등 불필요한 부분을 제거한다.Next, as shown in FIG. 21, unnecessary parts such as a background part are removed in the selected object area using extra points.
이어, 도 22에 도시된 바와 같이, 객체에 마우스 오른쪽 버튼을 클릭하여 Insert Point 또는 Delete Point 메뉴를 이용하여 윤곽 포인트를 추가 또는 삭제 할 수 있다.Subsequently, as illustrated in FIG. 22, the contour point may be added or deleted using the Insert Point or Delete Point menu by right-clicking on the object.
키 프레임의 깊이 정보를 수집하는 E 단계(S18)는, 도 23에 도시된 바와 같이, 영상에 대한 레이블(Label) 이미지를 생성하는 단계(S50)와, 생성된 레이블 이미지를 이용하여 깊이 정보를 수집하는 단계(S52)와, 수집한 깊이 정보를 이용하여 깊이 테이블에 저장하는 단계(S54)와, 깊이 테이블에 입력한 깊이 정보로 트래킹 하여 전체 영상의 깊이 지도를 생성하는 단계(S56)를 포함하여 구성된다.E step (S18) of collecting the depth information of the key frame, as shown in Figure 23, generating a label image for the image (S50), and using the generated label image depth information Collecting (S52), storing the collected depth information in the depth table (S54), and tracking the depth information input to the depth table to generate a depth map of the entire image (S56). It is configured by.
영상에 대한 레이블(Label) 이미지를 생성하는 단계(S50)는, 도 24에 도시된 바와 같이, Generate Label Image 버튼을 이용하여 레이블 이미지를 생성한다.Generating a label image for the image (S50), as shown in Figure 24, generates a label image using the Generate Label Image button.
생성된 레이블 이미지를 이용하여 깊이 정보를 수집하는 단계(S52)는 메인 프레임의 Set Depth Information 클릭시 깊이 설정 다이얼 로그 화면에서 분할된 객체들을 3D 공간상에서 깊이 값 조절을 할 수 있다.In the collecting of depth information by using the generated label image (S52), when the set depth information is clicked on the main frame, the depth values may be adjusted in 3D space on the divided objects in the depth setting dialog screen.
도 25 내지 도 33은 깊이 설정 다이얼 로그 화면의 객체 선택의 Selection과, Brush Tool, Gradiention Tool, Layer Depth, Zero Parallax, Path selection Tool, initialize, VOL Int을 통해 깊이 설정이 변경되는 것을 나타낸 도면이다.25 to 33 are diagrams illustrating that the depth setting is changed through selection of an object selection on a depth setting dialog screen and a brush tool, gradient tool, layer depth, zero parallax, path selection tool, initialize, and VOL int.
수집한 깊이 정보를 이용하여 깊이 테이블에 저장하는 단계(S54)는 장면내 객체의 깊이 변화를 설정해 주기 위해, 도 34에 도시된 바와 같이 첫 프레임의 깊이 값과 도 35에 도시된 바와 같이 마지막 프레임의 깊이 값을 입력시키고, 도 36에 도시된 바와 같이, Peak 프레임에서의 깊이 값을 설정한 후 Calculate 버튼을 클릭시, 도 37에 도시된 바와 같이, 전체 깊이 값들이 자동으로 계산될 수 있도록 설정한다.The step S54 of storing the collected depth information in the depth table is to set the depth change of the object in the scene, as shown in FIG. 34, and the last frame as shown in FIG. 35. 36, the depth value in the Peak frame is set as shown in FIG. 36, and when the Calculate button is clicked, as shown in FIG. 37, the total depth values are set to be automatically calculated. do.
깊이 테이블에 입력한 깊이 정보로 트래킹하여 전체 영상의 깊이 지도를 생성하는 단계(S56)은, 도 38에 도시된 바와 같이, Depth Tracking의 Est. Depth 트래킹과, Block Depth 트래킹 및 BackGround를 이용하여 깊이 지도를 생성한다.The step S56 of tracking the depth information input to the depth table to generate a depth map of the entire image may include estimating Depth Tracking. Depth tracking, Block Depth tracking, and BackGround are used to create depth maps.
장면 내 모든 프레임에 대해 깊이 지도가 예측되면, 도 39에 도시된 바와 같이, Left View Control의Depth Level과 ZeroParallax 등을 설정해 주고, 도 40에 도시된 바와 같이, 파일 입출력 메뉴의 Render as의 입체영상 출력 방법을 선택한다. 이때, 출력 방식은 입체 동영상 및 Tga 시퀀스 형태로 할 수 있다.When the depth map is predicted for all frames in the scene, as shown in FIG. 39, the depth level and zeropararx of the left view control are set, and as shown in FIG. 40, the stereoscopic image of the Render as in the file input / output menu. Select the output method. In this case, the output method may be a stereoscopic video and a Tga sequence.
도 41은 본 발명의 실시 예에 따른 작업시 생성되는 프로젝트 폴더 내의 파일형식을 나타낸 도면이다.41 is a view showing a file format in a project folder created at the time of working according to an embodiment of the present invention.
도 41을 참조하면, 작업시 중간 생성물인 객체 마스크, 깊이지도, 깊이레벨만큼 Shift 된 영상, Hole Filling 된 영상, 포인트 정보 등이 프로젝트 폴더 내에 자동 저장된다. 이때, 프로젝트 폴더 내 파일 이름형식은 object 마스크 파일 이름형식은 object[객체번호]_f[프레임번호].bmp, 객체 포인트 정보 파일 이름형식은 point[객체번호]_f[프레임번호].txt, 깊이 맵 파일 이름형식은 DepthImage[프레임번호].bmp, 깊이정보 이름형식은 DepthInfo_[프레임 번호].txt 및 레이어 영상 파 이 이름형식은 LayerImage[프레임번호].bmp으로 구성된다.Referring to FIG. 41, an object mask, a depth map, an image shifted by a depth level, a hole filled image, point information, etc., which are intermediate products during operation, are automatically stored in a project folder. At this time, the file name format in the project folder is object mask file name format is object [object number] _f [frame number] .bmp, and the object point information file name format is point [object number] _f [frame number] .txt and depth map. The file name format consists of DepthImage [frame number] .bmp, the depth information name format DepthInfo_ [frame number] .txt and the layer image file name format consists of LayerImage [frame number] .bmp.
이와 같이 구성된 3D 입체영상 변환장치 및 변환방법은 반자동 입체변환 소프트웨어로 2D 영상을 장면 단위로 작업 할 수 있으며 입체영상 생성의 가장 중요한 깊이지도 생성을 객체 단위로 3D 공간상에서 사용자 입력을 통해 손쉽게 깊이를 줄 수 있고, 객체 표면의 볼륨 처리 및 양/음시차를 설정할 수 있는 UI를 제공함으로써 사실감 있는 깊이 지도를 제작 할 수 있다. The 3D stereoscopic image converting device and the conversion method configured as described above are semi-automatic stereoscopic conversion software that can work 2D images on a scene basis, and the most important depth map generation of 3D images is easily performed by user input in 3D space. You can create a realistic depth map by providing a UI to set the volume and positive / negative difference of the object surface.
또한, 프로젝트 관리를 통해 작업 과정의 중간 생성물을 저장하여 필요 시 후 보정을 위한 수작업을 손쉽게 할 수 있는 효과를 제공한다. Project management also saves intermediate artifacts in the workflow, making it easy to make manual corrections when needed.
이상에서 설명한 본 발명은 상술한 실시 예 및 첨부된 도면에 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 종래의 지식을 가진 자에게 있어 명백할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. Will be clear to those who have knowledge of.
도 1은 본 발명의 실시 예에 따른 3D 입체영상 변환장치를 나타낸 도면.1 is a view showing a 3D stereoscopic image converting apparatus according to an embodiment of the present invention.
도 2는 본 발명의 실시 예에 따른 3D 입체 영상 저작도구를 나타낸 도면.2 is a view showing a 3D stereoscopic image authoring tool according to an embodiment of the present invention.
도 3은 본 발명의 실시 예에 따른 3D 입체 영상 저작도구를 나타낸 도면.3 is a view showing a 3D stereoscopic image authoring tool according to an embodiment of the present invention.
도 4는 본 발명의 실시 예에 따른 3D 입체 영상 저작도구의 Region Segmentation 다이얼 로그를 나타낸 도면.4 is a diagram illustrating a region segment dialog of a 3D stereoscopic authoring tool according to an embodiment of the present invention.
도 5는 본 발명의 실시 예에 따른 3D 입체 영상 저작 도구의 깊이 설정 다이얼 로그를 나타낸 도면.5 is a diagram illustrating a depth setting dialog of a 3D stereoscopic image authoring tool according to an embodiment of the present invention.
도 6은 본 발명의 실시 예에 따른 영상을 트래킹하기 위한 영상 시퀀스 관련 뷰를 나타낸 도면.6 is a view showing an image sequence related view for tracking an image according to an embodiment of the present invention.
도 7은 본 발명의 실시 예에 따른 3D 입체영상 변환장치의 변환과정을 나타낸 순서도.7 is a flowchart illustrating a conversion process of a 3D stereoscopic image conversion apparatus according to an embodiment of the present invention.
도 8은 본 발명의 실시 예에 따른 3D 입체영상 저작도구의 입체영상 변환방법을 나타내 순서도.8 is a flowchart illustrating a method of converting a stereoscopic image of a 3D stereoscopic image authoring tool according to an embodiment of the present invention.
도 9는 본 발명의 실시 예에 따른 키 프레임에서 각 객체의 영역을 분할 및 병합하는 과정을 나타낸 순서도.9 is a flowchart illustrating a process of dividing and merging regions of each object in a key frame according to an embodiment of the present invention.
도 10은 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체 영역 분할 결과를 조절하기 위한 뷰를 나타낸 도면.10 is a view showing a view for adjusting the object region segmentation result in the 3D stereoscopic authoring tool according to an embodiment of the present invention.
도 11은 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체 영역 분할 결과를 나타낸 도면.11 is a view showing the object region segmentation result in the 3D stereoscopic authoring tool according to an embodiment of the present invention.
도 12는 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체 영역 병합 결과를 나타낸 도면.12 is a view showing a result of merging object regions in a 3D stereoscopic authoring tool according to an embodiment of the present invention.
도 13은 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체의 윤곽을 편집하는 것을 나타낸 도면.FIG. 13 is a diagram illustrating editing an outline of an object in a 3D stereoscopic authoring tool according to an embodiment of the present invention. FIG.
도 14는 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 객체의 윤곽 포인트 선택 및 검출하는 도면.14 is a diagram for selecting and detecting contour points of an object in a 3D stereoscopic authoring tool according to an embodiment of the present invention.
도 15는 본 발명의 실시 예에 따른 3D 입체영상 저작도구에서 프레임을 트래킹하는 과정을 나타낸 순서도.15 is a flowchart illustrating a process of tracking a frame in a 3D stereoscopic authoring tool according to an embodiment of the present invention.
도 16은 본 발명의 실시 예에 따른 객체 리스트 추가 창을 나타낸 도면.16 is a diagram illustrating an object list adding window according to an embodiment of the present invention.
도 17은 본 발명의 실시 예에 따른 초기 개체 윤곽을 자동으로 설정하는 것을 나타낸 도면.17 is a diagram illustrating automatically setting an initial object outline according to an embodiment of the present invention.
도 18은 본 발명의 실시 예에 따른 키 프레임을 기준으로 전후방 트래킹 하는 것을 나타낸 도면.18 is a diagram illustrating back and forth tracking based on a key frame according to an embodiment of the present invention.
도 19는 본 발명의 실시 예에 따른 잘못 예측된 윤곽 포인트를 나타낸 도면.19 illustrates a wrongly predicted contour point according to an embodiment of the present invention.
도 20은 본 발명의 실시 예에 따른 잘못 예측된 윤곽 포인트를 편집하는 것을 나타낸 도면.20 illustrates editing an incorrectly predicted contour point according to an embodiment of the present invention.
도 21은 본 발명의 실시 예에 따른 객체영역 내부에 불필요한 부분을 제거하는 것을 나타낸 도면.FIG. 21 is a diagram illustrating removing unnecessary portions inside an object area according to an exemplary embodiment of the present invention. FIG.
도 22는 본 발명의 실시 예에 따른 윤곽 포인트를 추가, 삭제하는 것을 나타낸 도면.22 is a diagram illustrating adding and deleting contour points according to an embodiment of the present invention.
도 23은 본 발명의 실시 예에 따른 깊이 정보를 수집하는 과정을 나타내 순서도.23 is a flowchart illustrating a process of collecting depth information according to an embodiment of the present invention.
도 24는 본 발명의 실시 예에 따른 레이블 이미지를 생성하는 것을 나타낸 도면.24 illustrates generating a label image according to an embodiment of the present invention.
도 25 내지 도 33은 본 발명의 실시 예에 따른 깊이 설정 다이얼 로그 화면의 각 버튼별 영상의 변화를 나타낸 도면.25 to 33 are views illustrating changes of images for each button of the depth setting dialog screen according to an embodiment of the present invention.
도 34 내지 도 37은 본 발명의 실시 예에 따른 깊이 테이블에 값을 입력시켜 깊이 지도가 생성되는 것을 나타낸 도면.34 to 37 are diagrams illustrating that a depth map is generated by inputting a value into a depth table according to an embodiment of the present invention.
도 38은 본 발명의 실시 예에 따른 전체 영상의 깊이 지도를 생성하여 깊이 지도를 생성하는 도면.38 is a diagram of generating a depth map by generating a depth map of the entire image according to an embodiment of the present invention.
도 39는 본 발명의 실시 예에 따른 좌측 영상 생성과정을 나타낸 도면.39 is a diagram illustrating a left image generation process according to an embodiment of the present invention.
도 40은 본 발명의 실시 예에 따른 입체영상의 출력 방법을 나타낸 도면.40 is a diagram illustrating a method of outputting a stereoscopic image according to an embodiment of the present invention.
도 41은 본 발명의 실시 예에 따른 프로젝트 파일의 구성을 나타낸 도면.41 is a view showing the configuration of a project file according to an embodiment of the present invention.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
100 : 영상수집장치 102 : 서버100: image acquisition apparatus 102: server
104 : 영상표시장치 106 : 3D 입체영상 저작도구104: image display device 106: 3D stereoscopic image authoring tool
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090130415A KR101181962B1 (en) | 2009-12-24 | 2009-12-24 | Apparatus for transforming 3d image and the method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090130415A KR101181962B1 (en) | 2009-12-24 | 2009-12-24 | Apparatus for transforming 3d image and the method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110073702A KR20110073702A (en) | 2011-06-30 |
KR101181962B1 true KR101181962B1 (en) | 2012-09-11 |
Family
ID=44404184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090130415A KR101181962B1 (en) | 2009-12-24 | 2009-12-24 | Apparatus for transforming 3d image and the method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101181962B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11004257B1 (en) | 2019-11-04 | 2021-05-11 | Lg Electronics Inc. | Method and apparatus for image conversion |
KR20230032995A (en) | 2021-08-31 | 2023-03-07 | 단국대학교 산학협력단 | System for processing 3d image and method for generating 3d model using the same |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120127992A (en) * | 2011-05-16 | 2012-11-26 | 삼성전자주식회사 | Apparatus and method for converting 2d content into 3d content, and computer-readable storage medium thereof |
KR101851630B1 (en) * | 2011-08-29 | 2018-06-11 | 엘지전자 주식회사 | Mobile terminal and image converting method thereof |
CN102655597A (en) * | 2011-11-23 | 2012-09-05 | 上海华博信息服务有限公司 | Display system capable of carrying out real-time dynamic regulation on stereoscopic video parallax curve |
KR101285111B1 (en) * | 2012-02-01 | 2013-07-17 | (주)리얼디스퀘어 | Conversion device for two dimensional image to three dimensional image, and method thereof |
KR102143944B1 (en) * | 2013-09-27 | 2020-08-12 | 엘지디스플레이 주식회사 | Method of adjusting three-dimensional effect and stereoscopic image display using the same |
KR101400168B1 (en) * | 2014-03-14 | 2014-05-28 | (주)금성보안 | Three-dimensional virtual security control system using 360 degree stereoscopic camera, and method thereof |
KR101652719B1 (en) | 2015-06-26 | 2016-09-01 | 주식회사 가이스트코리아 | System for supporting the authoring tool for 3d contents |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004260591A (en) * | 2003-02-26 | 2004-09-16 | Amita Technology Kk | Stereoscopic image display device |
-
2009
- 2009-12-24 KR KR1020090130415A patent/KR101181962B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004260591A (en) * | 2003-02-26 | 2004-09-16 | Amita Technology Kk | Stereoscopic image display device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11004257B1 (en) | 2019-11-04 | 2021-05-11 | Lg Electronics Inc. | Method and apparatus for image conversion |
KR20230032995A (en) | 2021-08-31 | 2023-03-07 | 단국대학교 산학협력단 | System for processing 3d image and method for generating 3d model using the same |
Also Published As
Publication number | Publication date |
---|---|
KR20110073702A (en) | 2011-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101181962B1 (en) | Apparatus for transforming 3d image and the method therefor | |
CN109479098B (en) | Multi-view scene segmentation and propagation | |
CN111050210B (en) | Method of performing operations, video processing system, and non-transitory computer readable medium | |
US20200234397A1 (en) | Automatic view mapping for single-image and multi-view captures | |
US8842730B2 (en) | Methods and systems for digitally re-mastering of 2D and 3D motion pictures for exhibition with enhanced visual quality | |
KR102121707B1 (en) | Object digitization | |
JP4896230B2 (en) | System and method of object model fitting and registration for transforming from 2D to 3D | |
CN105191287B (en) | Replace the method and computer program of the object in video flowing | |
CN102741879B (en) | Method for generating depth maps from monocular images and systems using the same | |
KR101370718B1 (en) | Method and apparatus for 2d to 3d conversion using panorama image | |
US20200258309A1 (en) | Live in-camera overlays | |
WO2012058490A2 (en) | Minimal artifact image sequence depth enhancement system and method | |
KR20100095465A (en) | Segmentation of image data | |
JP2008513882A (en) | Video image processing system and video image processing method | |
JP2008276410A (en) | Image processor and method | |
Schmeing et al. | Depth image based rendering | |
US20110149039A1 (en) | Device and method for producing new 3-d video representation from 2-d video | |
EP2656315B1 (en) | System and method for minimal iteration workflow for image sequence depth enhancement | |
JP2020091745A (en) | Imaging support device and imaging support method | |
KR100960694B1 (en) | System and Method for matting multi-view image, Storage medium storing the same | |
JP5307051B2 (en) | Stereoscopic image adjusting apparatus and adjusting method | |
KR20140058744A (en) | A system for stereoscopic images with hole-filling and method thereof | |
Zhang et al. | Coherent video generation for multiple hand-held cameras with dynamic foreground | |
KR20110070678A (en) | Device and method for new 3d video representation from 2d video | |
CN110460908B (en) | Method for generating each frame of picture when video is generated |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160307 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160905 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170927 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180829 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190917 Year of fee payment: 8 |