KR102260519B1 - 3D stereoscopic image conversion method - Google Patents

3D stereoscopic image conversion method Download PDF

Info

Publication number
KR102260519B1
KR102260519B1 KR1020210025201A KR20210025201A KR102260519B1 KR 102260519 B1 KR102260519 B1 KR 102260519B1 KR 1020210025201 A KR1020210025201 A KR 1020210025201A KR 20210025201 A KR20210025201 A KR 20210025201A KR 102260519 B1 KR102260519 B1 KR 102260519B1
Authority
KR
South Korea
Prior art keywords
image
still image
stereoscopic image
still
image conversion
Prior art date
Application number
KR1020210025201A
Other languages
Korean (ko)
Inventor
김재형
Original Assignee
(주)에이피피커뮤니케이션즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에이피피커뮤니케이션즈 filed Critical (주)에이피피커뮤니케이션즈
Priority to KR1020210025201A priority Critical patent/KR102260519B1/en
Application granted granted Critical
Publication of KR102260519B1 publication Critical patent/KR102260519B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Abstract

The present invention relates to a 3D stereoscopic image conversion method, by making a certain mark on each object in the process of producing a stereoscopic image, the positional relationship of each object can be accurately identified based on the same, and each object has an accurate positional relationship and can be converted into a 3D stereoscopic image as the stereoscopic image is converted into a 3D image based on this.

Description

3차원 입체영상 변환방법 {3D stereoscopic image conversion method}3D stereoscopic image conversion method {3D stereoscopic image conversion method}

본 발명은 3차원 입체영상 변환방법에 관한 것으로, 더욱 상세하게는 입체영상을 제작하는 과정에서 각 객체에 일정한 표식을 함으로서, 이를 기준으로 각 객체의 위치관계를 정확히 파악할 수 있으며, 이를 바탕으로 상기 입체영상을 3D영상으로 변환함에 따라 각 객체가 정확한 위치관계를 가지고 3D입체영상으로 변환할 수 있는 3차원 입체영상 변환방법에 관한 것이다.The present invention relates to a 3D stereoscopic image conversion method, and more particularly, by marking each object in a process of producing a stereoscopic image, it is possible to accurately grasp the positional relationship of each object based on this, and based on this It relates to a 3D stereoscopic image conversion method in which each object can be converted into a 3D stereoscopic image with an accurate positional relationship by converting a stereoscopic image into a 3D image.

최근 기술의 발전으로 3D 디스플레이(3D Display)의 보급이 증가함에 따라 사용자들의 3D 영상에 대한 요구도 증가하고 있다. 이에 따라 부족한 3D 영상을 제공하기 위하여, 기존의 2D 영상을 3D 영상으로 변환하는 방법이 많이 사용되고 있다. 그러나 상기와 같은 2D 영상의 3D 변환 작업은 복잡하고 정교하므로, 보통 수작업으로 이루어지는 경우가 많고, 따라서 전문적인 인력과 많은 작업 시간이 필요한 문제점이 있다. 따라서 최근에는 자동으로 영상을 변환하기 위한 도구가 개발되고 있는 상황이다.With the recent development of technology, as the spread of 3D displays increases, users' demands for 3D images are also increasing. Accordingly, in order to provide an insufficient 3D image, a method of converting an existing 2D image into a 3D image is widely used. However, since the 3D conversion of the 2D image as described above is complex and sophisticated, it is usually performed manually, and thus, there is a problem in that a professional manpower and a lot of work time are required. Therefore, recently, a tool for automatically converting an image is being developed.

한편, 입체 영상 생성은 배경과 객체를 분리(segmentation)를 하고 분리된 객체에 깊이 값을 부여하거나 3D 객체를 생성하여 2차원 영상과 맞추는(fitting)방식으로 깊이 지도(depth map)를 얻는다. 깊이 지도나 3D 객체를 이용하여 렌더링(rendering)하여 좌우 양안 영상을 생성한다. 이러한 객체 분리에서부터 입체 영상 생성까지의 작업은 효율적인 파이프라인 형태로 구성될 필요가 있으나, 현재 각 작업은 각각 다른 툴에서 수행되고 있는 실정이다. 따라서, 툴 간의 호환성이 지원되지 않거나, 혹은 포맷 지원이 되지 않는 경우에는 제작의 효율성과 품질이 떨어지는 문제가 있다.Meanwhile, in the stereoscopic image generation, a depth map is obtained by segmentation of a background and an object and assigning a depth value to the separated object or by creating a 3D object and fitting it with a 2D image. Left and right binocular images are generated by rendering using a depth map or a 3D object. The work from object separation to generation of a stereoscopic image needs to be configured in an efficient pipeline form, but each work is currently being performed by a different tool. Therefore, when compatibility between tools is not supported or format support is not supported, there is a problem in that the efficiency and quality of production are deteriorated.

또한, 종래의 3D입체영상 변환방법은 표현되는 인체의 상하 위치 및 크기 관계를 고려하여 단순히 이를 3D입체로 표현하고 있어 오류가 많이 발생하여 현실과의 괴리감이 커진다는 한계가 있다.In addition, the conventional 3D stereoscopic image conversion method simply expresses the 3D stereoscopic image in consideration of the vertical position and size relationship of the human body, so there is a limitation in that many errors occur and a sense of separation from reality increases.

한편, 전술한 배경 기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background technology is technical information that the inventor possessed for the derivation of the present invention or acquired during the derivation process of the present invention, and it cannot be said that it is necessarily known technology disclosed to the general public before the filing of the present invention .

한국등록특허 제10-1489586호Korean Patent Registration No. 10-1489586

본 발명의 일측면은 입체영상을 제작하는 과정에서 각 객체에 일정한 표식을 함으로서, 이를 기준으로 각 객체의 위치관계를 정확히 파악할 수 있으며, 이를 바탕으로 상기 입체영상을 3D영상으로 변환함에 따라 각 객체가 정확한 위치관계를 가지고 3D입체영상으로 변환할 수 있는 3차원 입체영상 변환방법을 제공한다.One aspect of the present invention is to mark each object in a certain way in the process of producing a stereoscopic image, so that the positional relationship of each object can be accurately identified based on this. Based on this, the stereoscopic image is converted into a 3D image, and each object is provides a 3D stereoscopic image conversion method that can be converted into a 3D stereoscopic image with an accurate positional relationship.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 3차원 입체영상 변환방법은, 입체영상 콘텐츠 제작을 위해 사전에 제작된 2차원 영상을 이용하여 3차원 입체영상을 생성한다.In the 3D stereoscopic image conversion method according to an embodiment of the present invention, a 3D stereoscopic image is generated by using a 2D image prepared in advance for producing stereoscopic image content.

상기 3차원 입체영상 변환방법은,The 3D stereoscopic image conversion method,

2차원 영상으로부터 소정 프레임 간격마다 정지 이미지를 추출하는 단계;extracting a still image at every predetermined frame interval from the two-dimensional image;

상기 정지 이미지를 구성하는 객체를 추출하고, 추출된 각각의 개체별로 특징점을 표시하는 단계;extracting an object constituting the still image and displaying a feature point for each extracted object;

상기 특징점을 이용하여 깊이 맵을 생성하는 단계; 및generating a depth map using the feature points; and

상기 깊이 맵을 이용하여 복수의 상기 정지 이미지 중 첫 번째 정지 이미지에 대한 입체영상을 생성하고, 상기 특징점의 후속 정지 이미지에 대한 입체영상을 생성하는 단계를 포함하며,generating a stereoscopic image of a first still image among a plurality of the still images by using the depth map, and generating a stereoscopic image of a subsequent still image of the feature point;

상기 정지 이미지를 구성하는 객체를 추출하고, 추출된 각각의 개체별로 특징점을 표시하는 단계는,Extracting the objects constituting the still image and displaying the feature points for each extracted object comprises:

소정 시간 구간동안 생성된 복수의 정지 이미지에 포함된 객체별 특징점의 이동량을 분석하여 움직임이 가장 적은 객체를 기준객체로 설정하고, 상기 정지 이미지에서 상기 기준객체를 제외한 나머지 객체를 비교객체로 설정하는 것을 특징으로 하고,By analyzing the movement amount of feature points for each object included in a plurality of still images generated during a predetermined time period, the object with the least movement is set as a reference object, and the remaining objects except for the reference object in the still image are set as comparison objects. characterized by,

상기 깊이 맵을 이용하여 복수의 상기 정지 이미지 중 첫 번째 정지 이미지에 대한 입체영상을 생성하고, 상기 특징점의 후속 정지 이미지에 대한 입체영상을 생성하는 단계는,generating a stereoscopic image for a first still image among a plurality of the still images using the depth map, and generating a stereoscopic image for a subsequent still image of the feature point,

상기 깊이 맵을 이용하여 제1 정지 이미지에 대한 3차원 영상을 생성하고,generating a 3D image of the first still image by using the depth map;

상기 기준객체와 제1 비교객체의 특징점 간 이격거리를 제1 거리정보로 설정하고, 상기 제1 비교객체와 가장 근접한 제2 비교객체의 특징점 간 이격거리를 제2 거리정보로 설정하여, 상기 제1 정지 이미지에서의 상기 제1 거리정보와 상기 제2 거리정보의 비율에 대한 상기 제2 정지 이미지에서의 상기 제1 거리정보와 상기 제2 거리정보의 비율의 변화량에 따라 제2 정지 이미지에 대한 3차원 영상을 생성하는 것을 특징으로 할 수 있다.The separation distance between the feature points of the reference object and the first comparison object is set as the first distance information, and the separation distance between the feature points of the first comparison object and the closest second comparison object is set as the second distance information. According to the amount of change of the ratio of the first distance information and the second distance information in the second still image to the ratio of the first distance information and the second distance information in the first still image, It may be characterized in that a 3D image is generated.

상술한 본 발명의 일측면에 따르면, 입체영상을 제작하는 과정에서 각 객체에 일정한 표식을 함으로서, 이를 기준으로 각 객체의 위치관계를 정확히 파악할 수 있으며, 이를 바탕으로 상기 입체영상을 3D영상으로 변환함에 따라 각 객체가 정확한 위치관계를 가지고 3D입체영상으로 변환될 수 있다.According to one aspect of the present invention described above, by making a certain mark on each object in the process of producing a stereoscopic image, the positional relationship of each object can be accurately identified based on this, and the stereoscopic image is converted into a 3D image based on this. Accordingly, each object can be converted into a 3D stereoscopic image with an accurate positional relationship.

도 1은 본 발명의 일 실시예에 따른 3차원 입체영상 변환방법의 개략적인 흐름이 도시된 순서도이다.
도 2 내지 도 4는 도 1의 3차원 입체영상 변환방법을 이용한 입체영상 변환 방법의 구체적인 일 예가 도시된 도면들이다.
1 is a flowchart illustrating a schematic flow of a 3D stereoscopic image conversion method according to an embodiment of the present invention.
2 to 4 are diagrams illustrating a specific example of a stereoscopic image conversion method using the 3D stereoscopic image conversion method of FIG. 1 .

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0023] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the following detailed description is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scope equivalents to those as claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 3차원 입체영상 변환방법의 개략적인 흐름이 도시된 도면이다.1 is a diagram showing a schematic flow of a 3D stereoscopic image conversion method according to an embodiment of the present invention.

본 발명에 따른 3차원 입체영상 변환방법은 2D 형태의 동영상을 3차원 입체영상으로 변환하는 기술에 관한 것으로, 영상변환 장치에 의해 수행될 수 있다.The 3D stereoscopic image conversion method according to the present invention relates to a technique for converting a 2D video into a 3D stereoscopic image, and may be performed by an image conversion apparatus.

여기서, 영상변환 장치는 PC와 같이 적어도 하나의 프로세서와 적어도 하나의 메모리를 포함하고, 후술하는 본 발명에 따른 3차원 입체영상 변환방법을 구성하는 각 단계를 수행하기 위한 소프트웨어(애플리케이션)이 미리 설치될 수 있다. 영상변환 장치는 프로세서와 메모리를 이용하여 소프트웨어(애플리케이션) 구동한다.Here, the image conversion apparatus includes at least one processor and at least one memory like a PC, and software (application) for performing each step of configuring the 3D stereoscopic image conversion method according to the present invention to be described later is installed in advance. can be The image conversion device is driven by software (application) using a processor and a memory.

구체적으로, 본 발명의 일 실시예에 따른 3차원 입체영상 변환방법은, 2차원 영상으로부터 소정 프레임 간격마다 정지 이미지를 추출하는 단계(S10), 상기 정지 이미지를 구성하는 객체를 추출하고, 추출된 각각의 개체별로 특징점을 표시하는 단계(S20), 상기 특징점을 이용하여 깊이 맵을 생성하는 단계(S30) 및 상기 깊이 맵을 이용하여 복수의 상기 정지 이미지 중 첫 번째 정지 이미지에 대한 입체영상을 생성하고(S40), 상기 특징점의 변화량에 기초하여 후속 정지 이미지에 대한 입체영상을 생성하는 단계(S50)를 포함한다.Specifically, the 3D stereoscopic image conversion method according to an embodiment of the present invention includes the steps of extracting a still image at every predetermined frame interval from a 2D image (S10), extracting an object constituting the still image, and extracting the extracted Displaying a feature point for each object (S20), generating a depth map using the feature point (S30), and generating a stereoscopic image for a first still image among a plurality of still images using the depth map and (S40), and generating a stereoscopic image of a subsequent still image based on the amount of change of the feature point (S50).

2차원 영상으로부터 소정 프레임 간격마다 정지 이미지를 추출하는 단계(S10)에서, 영상변환 장치는 2차원 영상을 구성하는 모든 프레임으로부터 정지 이미지를 추출하거나, 소정 프레임 간격마다(예컨대 5프레임) 정지 이미지를 추출할 수 있다.In the step (S10) of extracting a still image at every predetermined frame interval from the two-dimensional image, the image conversion apparatus extracts a still image from all frames constituting the two-dimensional image, or extracts a still image at a predetermined frame interval (eg, 5 frames) can be extracted.

S20 단계에서는 상기 정지 이미지를 구성하는 객체를 추출하고, 추출된 각각의 개체별로 특징점을 표시한다.In step S20, an object constituting the still image is extracted, and a feature point is displayed for each extracted object.

영상변환 장치는 기 공지된 다양한 영상 처리 기술 중 어느 하나를 이용하여 정지 이미지에 포함된 객체를 구분할 수 있으며, 이러한 영상 처리 기술은 이미 공지되어 널리 사용되고 있는 기술이므로 구체적은 설명은 생략하기로 한다.The image conversion apparatus can classify an object included in a still image by using any one of a variety of known image processing technologies, and since such image processing technology is already known and widely used, a detailed description thereof will be omitted.

이후, 영상변환 장치는 구분된 각각의 객체별로 특징점을 부여하여 표시할 수 있다. 예를 들어, 영상변환 장치는 객체별로 외곽선을 검출하고, 정지 이미지 내에서 소정 규격의 윈도우를 시프트시켜 객체별 외곽선의 변화량 또는 기울기를 이용하여 객체별로 특징점을 검출할 수 있다. 이 외에도, 영상변환 장치는 기 공지된 다양한 특징점 추출 알고리즘을 이용하여 영상 내의 객체별 특징점을 추출할 수 있다.Thereafter, the image conversion apparatus may display a characteristic point for each divided object. For example, the image conversion apparatus may detect an outline for each object, shift a window of a predetermined standard within a still image, and detect a feature point for each object using a change amount or a slope of the outline for each object. In addition to this, the image conversion apparatus may extract feature points for each object in the image by using various known feature point extraction algorithms.

이때, 영상변환 장치는 소정 시간 구간동안 생성된 복수의 정지 이미지에 포함된 객체별 특징점의 이동량을 분석하여 움직임이 가장 적은 객체를 기준객체로 설정하고, 상기 정지 이미지에서 상기 기준객체를 제외한 나머지 객체를 비교객체로 설정하는 것을 특징으로 한다.At this time, the image conversion apparatus analyzes the movement amount of the feature point for each object included in the plurality of still images generated for a predetermined time period, sets the object with the least movement as the reference object, and the remaining objects except the reference object in the still image. is set as a comparison object.

예컨대, 도 2에 도시된 바와 같이, 영상변환 장치는 0~2초 동안 생성된 복수의 정지 이미지를 분석하여, 특징점의 이동량이 가장 작은 객체를 검출하여 이를 기준 객체로 설정할 수 있다. 도시된 실시예에서, 영상변환 장치는 건물의 도어 부분에 표시된 제1 특징점(P1)을 기준객체로 설정할 수 있다.For example, as shown in FIG. 2 , the image conversion apparatus may analyze a plurality of still images generated for 0 to 2 seconds, detect an object with the smallest movement amount of a feature point, and set it as a reference object. In the illustrated embodiment, the image conversion apparatus may set the first feature point P1 displayed on the door part of the building as a reference object.

이후, 영상변환 장치는 정지 이미지에서 기준객체로 설정된 객체를 제외한 나머지 객체를 비교객체로 설정할 수 있다. 도시된 실시예에서는 남자와 여자가 각각 비교객체로 설정되며, 설정된 비교객체 각각에 대해서도 특징점(P2, P3)을 설정하여 표시할 수 있다.Thereafter, the image conversion apparatus may set the remaining objects except for the object set as the reference object in the still image as the comparison object. In the illustrated embodiment, male and female are respectively set as comparison objects, and feature points P2 and P3 may be set and displayed for each of the set comparison objects.

다음으로, 영상변환 장치는 특징점을 이용하여 깊이 맵을 생성할 수 있다(S30).Next, the image conversion apparatus may generate a depth map using the feature point (S30).

이 단계에서는 추출한 특징점의 깊이 정보를 계산한다. 영상변환 장치는 3차원 좌표(3D points)와 카메라 파라미터를 반복적으로 조정하여 재투영 에러(reprojection error)를 최소화하는 최적의 값을 찾을 수 있다. 이를 위해 영상변환 장치는 재투영 에러를 최소로 만드는 비용 함수를 기초로 카메라 궤적 정보(r, t)와 3차원 좌표(X)를 구한다. 여기서, 재투영 에러는 특정 이미지(i)의 특징점(j)에 해당하는 좌표(xij)와 이 좌표에 관계된 3차원 좌표를 카메라의 정규 좌표계로 투영한 값의 차이를 의미한다.In this step, depth information of the extracted feature points is calculated. The image conversion apparatus may find an optimal value that minimizes a reprojection error by repeatedly adjusting 3D coordinates (3D points) and camera parameters. To this end, the image conversion apparatus obtains camera trajectory information (r, t) and three-dimensional coordinates (X) based on a cost function that minimizes the re-projection error. Here, the re-projection error means a difference between a coordinate (xij) corresponding to the feature point (j) of a specific image (i) and a value obtained by projecting a three-dimensional coordinate related to this coordinate into the normal coordinate system of the camera.

이때, 영상변환 장치는 작은 움직임에서의 3차원 구조를 획득하여 카메라 외부 행렬(P)의 회전 행렬을 작은 각도 근사치로 나타낸다. 영상변환 장치는 선형보간법을 이용하여 회전 벡터를 선형으로 변환한다. 그리고 영상변환 장치는 선형 변환된 회전 벡터와 위치 벡터를 기초로 열마다 다른 회전 벡터와 위치벡터를 계산한다.At this time, the image conversion apparatus obtains a three-dimensional structure in a small motion and represents the rotation matrix of the camera external matrix P as a small angle approximation. The image conversion apparatus converts the rotation vector into a linear one using a linear interpolation method. And the image conversion apparatus calculates a different rotation vector and position vector for each column based on the linearly transformed rotation vector and position vector.

이러한 방법으로 획득한 특징점들의 깊이 정보를 기초로 영상 전체 픽셀의 깊이 정보를 복원한다. 영상변환 장치는 추출한 특징점들의 깊이 정보를 초기 깊이 정보로 사용하는 깊이 전파 방법(depth propagation method)을 이용하여 영상 전체의 깊이 정보를 획득할 수 있다.Depth information of all pixels of the image is restored based on the depth information of the feature points obtained in this way. The image conversion apparatus may acquire depth information of the entire image by using a depth propagation method using the depth information of the extracted feature points as initial depth information.

영상변환 장치는 영상 전체에 대한 깊이 정보 획득을 위해 영상의 색 정보와 특징점들의 3차원 좌표를 이용한다. 영상변환 장치는 비용 함수 E(D)를 기초로 비용 함수가 최소가 되는 깊이 벡터(D)를 계산한다.The image conversion apparatus uses the color information of the image and the three-dimensional coordinates of the feature points to obtain depth information for the entire image. The image conversion apparatus calculates a depth vector D at which the cost function is minimized based on the cost function E(D).

몇몇 다른 실시예에서, 영상변환 장치는 각각의 프레임을 분석하여 화면의 기울기, 오브젝트의 그림자, 화면 초점 및 오브젝트 패턴 중 적어도 하나 이상의 정보를 이용하여 깊이 맵 정보를 추정한다. 예를 들어서, 영상변환 장치는 프레임 내의 기울기를 이용하는 방식으로 프레임 내의 화면 하단에 위치하는 이미지가 가깝고 상단에 위치하는 이미지는 멀리 있는 것으로 판단하여 깊이 맵 정보를 추정할 수 있다. 또한, 영상변환 장치는 오브젝트의 그림자를 이용하는 방식으로 프레임 내의 오브젝트의 어두운 부분은 멀리 있고 밝은 부분은 가까이 있는 것으로 판단하여 깊이 맵 정보를 추정할 수 있다. 즉, 그림자는 항상 오브젝트보다 뒤에 있는 원리를 이용한 방식이다. In some other embodiments, the image conversion apparatus analyzes each frame and estimates depth map information using at least one or more of a screen tilt, an object shadow, a screen focus, and an object pattern. For example, the image conversion apparatus may estimate depth map information by determining that an image located at the bottom of the screen within the frame is close and an image located at the top of the frame is far by using a gradient within the frame. Also, the image conversion apparatus may estimate depth map information by determining that a dark part of an object in a frame is far away and a bright part is near by using the shadow of the object. In other words, the shadow is always behind the object and is a method using the principle.

또한, 영상변환 장치는 화면 초점을 이용하는 방식으로 선명한 물체는 앞에 있고 흐린 물체는 뒤에 있는 것으로 판단하여 깊이 맵 정보를 추정할 수 있다. 또한, 영상변환 장치는 오브젝트 패턴을 이용하는 방식으로 동일 유형의 패턴이 연속되어 나올 경우 패턴의 크기가 큰 것이 작은 것보다 앞에 있는 것으로 판단하여 깊이 맵 정보를 추정할 수 있다.In addition, the image conversion apparatus may estimate depth map information by determining that a clear object is in front and a blurred object is in the back by using the screen focus. In addition, when patterns of the same type are continuously generated by using an object pattern, the image conversion apparatus may determine that a larger pattern is in front of a smaller one and estimate depth map information.

이후, 영상변환 장치는 각각의 픽셀 별로 깊이 맵 정보만큼 X축 방향으로 이동시키는 기능을 수행한다. 영상변환 장치는 각각의 픽셀 별로 깊이 맵 정보만큼 가감산하여 좌측 시야용 이미지 및 우측 시야용 이미지가 렌더링되도록 하며, 각각의 픽셀 별로 깊이 맵 정보만큼 가산한 X축 픽셀 위치로 각각의 픽셀을 이동시키고, 가산된 픽셀이 좌측 시야용 이미지가 되도록 한다. 영상변환 장치는 프레임 내에 X축 좌표의 끝점인 픽셀 위치로부터 시작점인 픽셀 위치 방향으로 깊이 맵 정보를 순차 적용하여 좌측 시야용 이미지가 되도록 한다.Thereafter, the image conversion apparatus performs a function of moving the depth map information for each pixel in the X-axis direction. The image conversion device adds and subtracts depth map information for each pixel to render a left-view image and a right-view image, and moves each pixel to an X-axis pixel position added by depth map information for each pixel. , so that the added pixel becomes an image for the left field of view. The image conversion apparatus sequentially applies the depth map information from the pixel position, which is the end point of the X-axis coordinate, to the pixel position, which is the start point, in the frame to become an image for the left view.

또한, 영상변환 장치는 각각의 픽셀 별로 깊이 맵 정보만큼 감산한 X축 픽셀 위치로 각각의 픽셀을 이동시키고, 감산된 픽셀이 우측 시야용 이미지가 되도록 한다. 영상변환 장치는 프레임 내에 X축 좌표의 시작점의 픽셀 위치로부터 끝점의 픽셀 위치 방향으로 깊이 맵 정보를 순차 적용하여 우측 시야용 이미지가 되도록 한다. In addition, the image conversion apparatus moves each pixel to an X-axis pixel position subtracted by the depth map information for each pixel, and the subtracted pixel becomes an image for right viewing. The image conversion apparatus sequentially applies the depth map information from the pixel position of the start point of the X-axis coordinate in the direction of the pixel position of the end point in the frame to the image for the right view.

한편, 영상변환 장치는 각각의 프레임 중 현재 프레임과, 이전 또는 미래 프레임인 참조 프레임의 비교를 통해 움직임이 추정되는 오브젝트를 인식하고, 오브젝트에 해당하는 픽셀에 대해서 깊이 맵 정보만큼 X축 방향으로 이동시킨다. 여기서, 영상변환 장치는 프레임 내의 오브젝트 및 배경 모두에 대해 깊이 맵 정보를 적용하는 것이 바람직하나 본 발명의 일 실시예의 적용에 있어서, 프레임 내의 배경과 오브젝트를 분리하여 오브젝트에만 깊이 맵 정보를 적용할 수도 있다.On the other hand, the image conversion apparatus recognizes the object whose motion is estimated through comparison of the current frame and the reference frame that is the previous or future frame among each frame, and moves the pixel corresponding to the object in the X-axis direction by the depth map information. make it Here, the image conversion apparatus preferably applies the depth map information to both the object and the background in the frame, but in the application of an embodiment of the present invention, the depth map information may be applied only to the object by separating the background and the object in the frame. have.

이 외에도, 영상변환 장치는 기 공지된 다양한 기술을 이용하여 2차원 이미지에서 깊이 맵을 생성할 수 있다.In addition to this, the image conversion apparatus may generate a depth map from a two-dimensional image using various known techniques.

이후, 영상변환 장치는 깊이 맵을 이용하여 복수의 상기 정지 이미지 중 첫 번째 정지 이미지에 대한 입체영상을 생성한다.Thereafter, the image conversion apparatus generates a stereoscopic image of a first still image among the plurality of still images by using the depth map.

구체적으로, 영상변환 장치는 도 3에 도시된 바와 같이 기준객체의 특징점(P1)와 제1 비교객체의 특징점(P2) 간 이격거리를 제1 거리정보(D1a)로 설정하고, 상기 제1 비교객체(P2)와 가장 근접한 제2 비교객체의 특징점(P3) 간 이격거리를 제2 거리정보(D2a)로 설정한다. Specifically, as shown in FIG. 3 , the image conversion apparatus sets the separation distance between the feature point P1 of the reference object and the feature point P2 of the first comparison object as the first distance information D1a, and the first comparison A separation distance between the object P2 and the feature point P3 of the second comparison object closest to the object P2 is set as the second distance information D2a.

이때, 영상변환 장치는 도 3에 도시된 제1 정지 이미지에서의 상기 제1 거리정보와 상기 제2 거리정보의 비율을 산출하고, 도 4에 도시된 바와 같이 제1 정지 이미지 다음으로 추출되는 제2 정지 이미지에서의 상기 제1 거리정보(D1b)와 상기 제2 거리정보(D2b)의 비율을 산출한다.At this time, the image conversion apparatus calculates the ratio of the first distance information and the second distance information in the first still image shown in FIG. 3 , and as shown in FIG. 4 , the second extracted next to the first still image 2 A ratio of the first distance information D1b to the second distance information D2b in the still image is calculated.

이후, 영상변환 장치는 제1 정지 이미지와 제1 정지 이미지의 후속 이미지인 제2 정지 이미지 각각에서 산출된 비율(D1a : D2a과 D1b : D2b)의 변화량을 이용하여 제2 정지 이미지에 대한 3차원 영상을 생성한다.Thereafter, the image conversion apparatus uses the amount of change of the ratios (D1a: D2a and D1b: D2b) calculated from each of the first still image and the second still image that is a subsequent image of the first still image in three dimensions for the second still image. create an image

즉, 영상변환 장치는 첫 번째 정지 이미지를 깊이 맵을 이용하여 입체 영상으로 변환한 후, 후속 정지 이미지는 첫 번째 정지 이미지를 기준으로 특징점의 변화량만을 이용하여 입체 영상으로 변환함으로써 깊이 맵을 이용한 영상 변환에 소요되는 시간을 단축시킬 수 있을 뿐만 아니라, 입체영상을 제작하는 과정에서 각 객체에 일정한 표식을 함으로써 이를 기준으로 각 객체의 위치관계를 정확히 파악할 수 있으며, 이를 바탕으로 2차원 영상을 3D영상으로 변환함에 따라 각 객체가 정확한 위치관계를 가지고 3D입체영상으로 변환될 수 있도록 한다.That is, the image conversion apparatus converts the first still image into a three-dimensional image using the depth map, and then converts the subsequent still image into a three-dimensional image using only the change amount of the feature point based on the first still image, so that the image using the depth map Not only can the time required for conversion be reduced, but by marking each object in the process of producing a stereoscopic image, the positional relationship of each object can be accurately identified based on this, and based on this, a 2D image can be converted into a 3D image. , so that each object can be converted into a 3D stereoscopic image with an accurate positional relationship.

몇몇 다른 실시예에서, 영상변환 장치는 수집 대상 데이터 소스 모듈, 수집 대상 키워드 및 수집 대상 기간 중 적어도 어느 하나의 수집 기준을 설정하는 수집 관리 모듈; 수집 관리 모듈로부터 설정 받은 데이터 수집 기준에 따라 해당 데이터 소스 모듈로부터 빅데이터를 수집하여 데이터베이스 모듈에 저장하는 데이터 수집 모듈; 데이터베이스 모듈에 저장된 빅데이터의 형태소를 분석하여 형태소 별로 구분하고 형태소 분석 데이터를 생성하는 형태소 분석 모듈; 및 형태소 분석 데이터를 분산 병렬 처리 기반의 통계분석 알고리즘으로 처리하여 통계값을 산출하고 통계값에 따라 위크시그널을 출력하는 데이터 분석 모듈;을 포함하는 빅데이터 분석 기반의 위크시그널 도출 시스템(설명의 편의상 도면에는 도시하지 않음)을 이용하여 수신된 2차원 영상 중 법률에 저촉되는 불법 영상을 추출할 수 있다.In some other embodiments, the image conversion apparatus includes: a collection management module for setting at least one collection criterion of a collection target data source module, a collection target keyword, and a collection target period; a data collection module for collecting big data from the corresponding data source module according to the data collection standard set by the collection management module and storing it in the database module; a morpheme analysis module that analyzes morphemes of big data stored in the database module, classifies them by morpheme, and generates morpheme analysis data; and a data analysis module for calculating statistical values by processing morpheme analysis data with a distributed parallel processing-based statistical analysis algorithm and outputting a weak signal according to the statistical value; a big data analysis-based weak signal derivation system (for convenience of explanation) including; (not shown in the drawing) may be used to extract an illegal image that violates the law from among the received two-dimensional images.

여기서, 영상변환 장치는, 수신된 2차원 영상의 파일명을 의미를 갖는 형태소별로 구분한 형태소 분석 데이터를 생성하고, 상기 형태소 분석 데이터를 저장하는 분산 파일 시스템; 상기 분산 파일 시스템에 존재하는 형태소 분석 데이터를 SQL(structured query language)을 기반으로 처리할 수 있도록 가상화 데이터베이스 인터페이스를 제공하는 데이터 처리부; 및 상기 데이터 처리부가 제공하는 가상화 데이터베이스 인터페이스를 통해 통계분석 알고리즘을 실행하여, 상기 형태소 분석 데이터로부터 연도별 출현빈도수(instance frequencies), 연도별 단어-단어 간 동시 출연 건수, 연도별 출현빈도수 및 연도별 단어-단어 간 동시 출현 건수로부터 가공된 값들 중 적어도 하나 이상을 산출하는 통계 분석부를 포함할 수 있다.Here, the image conversion apparatus includes: a distributed file system for generating morpheme analysis data by dividing a file name of a received two-dimensional image by morphemes having a meaning, and storing the morpheme analysis data; a data processing unit providing a virtualized database interface to process morphological analysis data existing in the distributed file system based on SQL (structured query language); And by executing a statistical analysis algorithm through the virtualized database interface provided by the data processing unit, from the morpheme analysis data, the number of occurrence frequencies by year (instance frequencies) by year, the number of simultaneous appearances between words by year, the number of appearances by year and by year The word-to-words may include a statistical analysis unit for calculating at least one or more of the processed values from the number of simultaneous appearances.

그리고, 상기 통계 분석부는, 상기 통계 분석부는 상기 연도별 출현건수(instance frequencies) 및 단어-단어간 동시 발생건수에 기초하여 단어 별 발생건수 증가율을 산출할 수 있다.In addition, the statistical analysis unit, the statistical analysis unit may calculate the rate of increase in the number of occurrences per word based on the number of occurrences per year (instance frequencies) and the number of simultaneous occurrences between words.

또한, 상기 통계 분석부는, 상기 연도별 출현건수(instance frequencies)를 연도별 문서수로 나누어 문서당 상기 단어들의 연도별 출현 빈도수를 표준화하여 상기 단어들에 대한 표준화된 단어 별 출현 빈도수 증가율을 산 출할 수 있다.In addition, the statistical analysis unit divides the number of occurrences per year (instance frequencies) by the number of documents per year to standardize the number of appearances by year of the words per document to calculate a standardized increase rate of the frequency of appearance per word for the words. can

또한, 상기 통계 분석부는, 상기 단어-단어간 동시발생건수 매트릭스를 이용하여 단어 별 연결 정도 중심성 증가율을 산출하고, 상기 표준화된 단어 별 출현 빈도수 증가율 및 상기 연결 정도 중심성 증가율이 상위 일정 부분 이상인 단어 또는 하위 일정 부분 이하인 단어를 위크시그널로 도출할 수 있다.In addition, the statistical analysis unit calculates the increase rate of the degree of connection degree centrality for each word by using the word-word co-occurrence matrix, and the standardized increase rate of the frequency of appearance for each word and the increase rate of the degree of centrality of the connection degree are higher than a certain portion of the word or A word that is less than a certain lower part can be derived as a weak signal.

한편, 상기 데이터 수집 모듈은, 이미지, 동영상, 음성, 센서, GPS, GIS, M2M 데이터 중 적어도 어느 하나의 비정형 데이터를 포함하는 빅데이터를 수집할 수 있다.Meanwhile, the data collection module may collect big data including unstructured data of at least any one of image, video, voice, sensor, GPS, GIS, and M2M data.

이에 따라, 영상변환 장치는, 상술한 바와 같은 구성을 포함하는 위크시그널 도출 시스템을 통한 빅데이터 분석을 통해 합법적이지 않은 형태로 생성된 영상을 검출함으로써 변환된 입체영상의 신뢰도를 향상시킬 수 있다.Accordingly, the image conversion apparatus can improve the reliability of the converted stereoscopic image by detecting an image generated in an illegal form through big data analysis through the weak signal derivation system including the configuration as described above.

이와 같은, 3차원 입체영상 변환방법을 제공하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.The technology for providing such a 3D stereoscopic image conversion method may be implemented as an application or implemented in the form of program instructions that may be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium are specially designed and configured for the present invention, and may be known and available to those skilled in the computer software field.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the following claims. will be able

P1: 기준객체
P2, P3: 비교객체
P1: Reference object
P2, P3: comparison object

Claims (2)

입체영상 콘텐츠 제작을 위해 사전에 제작된 2차원 영상을 이용하여 3차원 입체영상을 생성하는, 3차원 입체영상 변환방법에 있어서,
상기 3차원 입체영상 변환방법은,
2차원 영상으로부터 소정 프레임 간격마다 정지 이미지를 추출하는 단계;
상기 정지 이미지를 구성하는 객체를 추출하고, 추출된 각각의 개체별로 특징점을 표시하는 단계;
상기 특징점을 이용하여 깊이 맵을 생성하는 단계; 및
상기 깊이 맵을 이용하여 복수의 상기 정지 이미지 중 첫 번째 정지 이미지인 제1 정지 이미지에 대한 입체영상을 생성하고, 상기 특징점의 변화량에 기초하여 후속 정지 이미지인 제2 정지 이미지에 대한 입체영상을 생성하는 단계를 포함하며,
상기 정지 이미지를 구성하는 객체를 추출하고, 추출된 각각의 개체별로 특징점을 표시하는 단계는,
소정 시간 구간동안 생성된 복수의 정지 이미지에 포함된 객체별 특징점의 이동량을 분석하여 움직임이 가장 적은 객체를 기준객체로 설정하고, 상기 정지 이미지에서 상기 기준객체를 제외한 나머지 객체를 비교객체로 설정하는 것을 특징으로 하고,
상기 깊이 맵을 이용하여 복수의 상기 정지 이미지 중 첫 번째 정지 이미지인 제1 정지 이미지에 대한 입체영상을 생성하고, 상기 특징점의 변화량에 기초하여 후속 정지 이미지인 제2 정지 이미지에 대한 입체영상을 생성하는 단계를 포함하며,
상기 깊이 맵을 이용하여 상기 제1 정지 이미지에 대한 3차원 영상을 생성하고,
상기 기준객체와 제1 비교객체의 특징점 간 이격거리를 제1 거리정보로 설정하고, 상기 제1 비교객체와 가장 근접한 제2 비교객체의 특징점 간 이격거리를 제2 거리정보로 설정하여, 상기 제1 정지 이미지에서의 상기 제1 거리정보와 상기 제2 거리정보의 비율에 대한 상기 제2 정지 이미지에서의 상기 제1 거리정보와 상기 제2 거리정보의 비율의 변화량에 따라 제2 정지 이미지에 대한 3차원 영상을 생성하는 것을 특징으로 하는, 3차원 입체영상 변환방법.

In the 3D stereoscopic image conversion method for generating a 3D stereoscopic image using a 2D image produced in advance for producing 3D video content, the method comprising:
The 3D stereoscopic image conversion method,
extracting a still image every predetermined frame interval from the two-dimensional image;
extracting an object constituting the still image and displaying a feature point for each extracted object;
generating a depth map using the feature points; and
A stereoscopic image is generated for a first still image that is a first still image among a plurality of the still images by using the depth map, and a stereoscopic image is generated for a second still image that is a subsequent still image based on the change amount of the feature point comprising the steps of
Extracting the objects constituting the still image and displaying the feature points for each extracted object comprises:
By analyzing the movement amount of the feature point for each object included in the plurality of still images generated for a predetermined time period, the object with the least movement is set as the reference object, and the remaining objects except the reference object in the still image are set as the comparison object. characterized by,
A stereoscopic image is generated for a first still image that is a first still image among a plurality of the still images by using the depth map, and a stereoscopic image is generated for a second still image that is a subsequent still image based on the change amount of the feature point comprising the steps of
generating a 3D image of the first still image by using the depth map;
The separation distance between the feature points of the reference object and the first comparison object is set as first distance information, and the separation distance between the feature points of the second comparison object closest to the first comparison object is set as the second distance information, According to the amount of change of the ratio of the first distance information and the second distance information in the second still image to the ratio of the first distance information and the second distance information in the first still image, A 3D stereoscopic image conversion method, characterized in that generating a 3D image.

삭제delete
KR1020210025201A 2021-02-25 2021-02-25 3D stereoscopic image conversion method KR102260519B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210025201A KR102260519B1 (en) 2021-02-25 2021-02-25 3D stereoscopic image conversion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210025201A KR102260519B1 (en) 2021-02-25 2021-02-25 3D stereoscopic image conversion method

Publications (1)

Publication Number Publication Date
KR102260519B1 true KR102260519B1 (en) 2021-06-03

Family

ID=76396808

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210025201A KR102260519B1 (en) 2021-02-25 2021-02-25 3D stereoscopic image conversion method

Country Status (1)

Country Link
KR (1) KR102260519B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110111335A (en) * 2010-04-02 2011-10-11 삼성전자주식회사 Method and apparatus for transmitting digital broadcasting content providing 2-dimensional content and 3-dimensional content, method and apparatus for receiving digital broadcasting content providing 2-dimensional content and 3-dimensional content
KR20110113923A (en) * 2010-04-12 2011-10-19 삼성전자주식회사 Image converting device and three dimensional image display device including the same
KR20130104691A (en) * 2012-03-15 2013-09-25 삼성전자주식회사 Apparatus and method for image processing
KR101489586B1 (en) 2013-08-06 2015-02-06 강원대학교산학협력단 Method for converting 3D image in mixed image and medium for recording the same
KR20200112678A (en) * 2019-03-20 2020-10-05 광운대학교 산학협력단 Observer trackable aerial three-dimensional display apparatus and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110111335A (en) * 2010-04-02 2011-10-11 삼성전자주식회사 Method and apparatus for transmitting digital broadcasting content providing 2-dimensional content and 3-dimensional content, method and apparatus for receiving digital broadcasting content providing 2-dimensional content and 3-dimensional content
KR20110113923A (en) * 2010-04-12 2011-10-19 삼성전자주식회사 Image converting device and three dimensional image display device including the same
KR20130104691A (en) * 2012-03-15 2013-09-25 삼성전자주식회사 Apparatus and method for image processing
KR101489586B1 (en) 2013-08-06 2015-02-06 강원대학교산학협력단 Method for converting 3D image in mixed image and medium for recording the same
KR20200112678A (en) * 2019-03-20 2020-10-05 광운대학교 산학협력단 Observer trackable aerial three-dimensional display apparatus and method thereof

Similar Documents

Publication Publication Date Title
US10977818B2 (en) Machine learning based model localization system
US20220012495A1 (en) Visual feature tagging in multi-view interactive digital media representations
US9299152B2 (en) Systems and methods for image depth map generation
CA2687213C (en) System and method for stereo matching of images
JP4938093B2 (en) System and method for region classification of 2D images for 2D-TO-3D conversion
US20200257862A1 (en) Natural language understanding for visual tagging
US6249285B1 (en) Computer assisted mark-up and parameterization for scene analysis
KR100931311B1 (en) Depth estimation device and its method for maintaining depth continuity between frames
US20200258309A1 (en) Live in-camera overlays
JP2019525515A (en) Multiview scene segmentation and propagation
KR101710444B1 (en) Depth Map Generating Apparatus and Method thereof
KR20050066400A (en) Apparatus and method for the 3d object tracking using multi-view and depth cameras
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
WO2012033768A2 (en) Efficient information presentation for augmented reality
KR100745691B1 (en) Binocular or multi-view stereo matching apparatus and its method using occlusion area detection
KR100560464B1 (en) Multi-view display system with viewpoint adaptation
JPWO2020179065A1 (en) Image processing equipment, image processing methods and programs
US20210225038A1 (en) Visual object history
Wuest et al. Tracking of industrial objects by using cad models
KR100926520B1 (en) Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation
CN113240734A (en) Vehicle straddle judgment method, device, equipment and medium based on aerial view
KR101511315B1 (en) Method and system for creating dynamic floating window for stereoscopic contents
KR102260519B1 (en) 3D stereoscopic image conversion method
EP2887261B1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant