KR20150091064A - Method and system for capturing a 3d image using single camera - Google Patents

Method and system for capturing a 3d image using single camera Download PDF

Info

Publication number
KR20150091064A
KR20150091064A KR1020157014402A KR20157014402A KR20150091064A KR 20150091064 A KR20150091064 A KR 20150091064A KR 1020157014402 A KR1020157014402 A KR 1020157014402A KR 20157014402 A KR20157014402 A KR 20157014402A KR 20150091064 A KR20150091064 A KR 20150091064A
Authority
KR
South Korea
Prior art keywords
image
picture
camera
cursors
feature points
Prior art date
Application number
KR1020157014402A
Other languages
Korean (ko)
Inventor
웨이 저우
린 두
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20150091064A publication Critical patent/KR20150091064A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • H04N13/0239
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T7/0046
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Abstract

단일의 카메라를 이용하여 3D 이미지를 캡쳐하는 방법은, 단일의 카메라에 의해 제 1 포지션에서의 우측 또는 좌측 이미지로서 제 1 이미지를 캡쳐하는 단계; 제 1 이미지의 특징점들을 추출하는 단계; 제 1 포지션과는 상이한 포지션에서 다른 쪽의 이미지로서 제 2 이미지를 찾기 위해 픽쳐를 촬영하는 단계; 픽쳐의 특징점들을 추출하는 단계; 제 1 이미지 및 픽쳐의 특징점들을 비교하는 단계; 2 개의 3D 커서들을 생성하는 단계로서, 커서들 중 하나는 제 2 이미지의 타겟 포지션을 나타내고, 다른 하나는 카메라의 현재 포지션을 나타내는, 생성하는 단계; 픽쳐에 2 개의 3D 커서들을 디스플레이하는 단계; 카메라를 이전 및 회전시킴으로써 현재 포지션을 나타내는 커서가 타겟 포지션을 나타내는 커서에 완전하게 오버랩할 때 제 2 이미지를 캡쳐하는 단계; 및 3D 이미지를 생성하기 위해 제 1 및 제 2 이미지들을 합성하는 단계를 포함한다.A method of capturing a 3D image using a single camera comprises capturing a first image as a right or left image in a first position by a single camera; Extracting feature points of the first image; Capturing a picture to find a second image as the other image in a position different from the first position; Extracting feature points of a picture; Comparing the feature points of the first image and the picture; Generating two 3D cursors, one of the cursors representing a target position of the second image and the other representing a current position of the camera; Displaying two 3D cursors on a picture; Capturing a second image when the cursor indicating the current position completely overlaps the cursor indicating the target position by moving and rotating the camera; And synthesizing the first and second images to produce a 3D image.

Figure pct00001
Figure pct00001

Description

단일의 카메라를 이용하여 3D 이미지를 캡쳐하는 방법 및 시스템{METHOD AND SYSTEM FOR CAPTURING A 3D IMAGE USING SINGLE CAMERA}TECHNICAL FIELD [0001] The present invention relates to a method and system for capturing a 3D image using a single camera,

본 발명은 단일의 카메라를 이용하여 3D 이미지를 캡쳐하는 방법 및 시스템에 관련된다. 보다 구체적으로, 본 발명은 3D 커서들을 이용함으로써 단일의 카메라를 이용하여 3D 이미지를 캡쳐하는 방법 및 시스템에 관련된다.The present invention relates to a method and system for capturing 3D images using a single camera. More particularly, the present invention relates to a method and system for capturing 3D images using a single camera by using 3D cursors.

19 세기에 3D 스테레오의 기본 아이디어가 나왔다. 우리의 두 눈은 우리 머리에서 대략 6.5 cm 이격되어 때문에, 각각의 눈은 우리가 보는 장면을 약간 상이한 시야각으로 보고 이는 상이한 시각들을 제공한다. 그 후, 우리의 뇌는 우리의 눈들로부터의 2 개의 뷰들에 기초하여 장면 내의 깊이감을 생성할 수 있다. 도 1 은 3D 스테레오스코픽 디스플레이들의 기본 개념을 설명하며, 여기에서, Z 는 인식되는 물체의 깊이이고, D 는 스크린에 대한 거리이며, 스크린 앞 (차) 에, 스크린 상 (컬럼) 에, 스크린 뒤 (나무) 에, 그리고 무한의 거리 (박스) 에 있는 것으로서 4 개의 물체들이 인식된다. 가장 최근의 3D 디스플레이들은 3D 스테레오 개념들에 기초하여 구성되며, 주요 차이는 2 개의 뷰들, 즉, 우안과 좌안에 대한 2 개의 뷰들 각각이 분리되는 방식에 있다.In the nineteenth century, the basic idea of 3D stereo came out. Since our two eyes are about 6.5 cm apart from our heads, each eye sees the scene we see as slightly different viewing angles, providing different views. After that, our brain can create a sense of depth in the scene based on two views from our eyes. Figure 1 illustrates the basic concept of 3D stereoscopic displays, where Z is the depth of the object to be recognized and D is the distance to the screen, in front of the screen (on the screen) (Tree), and the infinite distance (box), four objects are recognized. Most recent 3D displays are configured based on 3D stereo concepts, the main difference being in the way that two views, i.e., two views for the right eye and for the left eye, are separated.

이러한 원리에 기초하여, 스테레오 포토그래프를 촬상하는 많은 방법들이 존재한다. 현재, 가장 대중적인 방법들은 동일한 2 개의 카메라들을 이용하고 하나의 스테레오 카메라를 이용하는 것이다.Based on this principle, there are many ways to capture stereo photographs. Currently, the most popular methods are using the same two cameras and using a single stereo camera.

도 2 는 스테레오 포토그래프를 캡쳐하는 2 개의 카메라들을 이용하는 기본 방법을 예시한다. 2 개의 카메라들은 특정 거리만큼 분리되어 배치된다. 2 개의 포토그래프들은 2 개의 카메라들에 의해 동시에 촬상된다. 그 후, 현상한 후에, 사용자는 좌측 카메라에 의해 촬상된 포토를 사용자의 좌안으로 보고 우측 카메라에 의해 촬상된 포토를 사용자의 우안으로 본다. 그리고 사용자의 뇌는 사용자가 포토그래프를 촬상한 3D 공간을 실제 이미지화한다.Figure 2 illustrates a basic method of using two cameras to capture a stereo photo graph. The two cameras are spaced apart by a certain distance. The two photographed images are simultaneously captured by two cameras. Thereafter, after development, the user sees the photo captured by the left camera as the user's left eye and the photo captured by the right camera as the user's right eye. And the user 's brain realizes the 3D space where the user captured the photograph.

스테레오 카메라는 각각의 렌즈들에 대해 필름 프레임 또는 별도의 이미지 센서를 갖춘, 둘 이상의 렌즈들을 가진 카메라의 유형이다. 이는 카메라가 인간의 쌍안시를 시뮬레이션하는 것을 허용하며, 이에 따라 3차원 이미지들을 캡쳐하는 능력, 스테레오 포토그래피로서 알려진 프로세스를 제공한다. 스테레오 카메라들은 영화용의 3D 픽쳐들 및 스테레오 뷰들을 만드는데 이용될 수도 있다. 스테레오 카메라에서의 렌즈들 사이의 거리 (축간 거리) 는 얼마나 많은 3차원수를 원하는지 및 타겟이 얼마나 멀리 위치되어 있는지에 따라 정의된다.A stereo camera is a type of camera with two or more lenses, each with a film frame or a separate image sensor for each lens. This allows the camera to simulate human binocular vision, thus providing the ability to capture three-dimensional images, a process known as stereophotography. Stereo cameras can also be used to create 3D pictures and stereo views for movies. The distance between the lenses in a stereo camera (axis-to-axis distance) is defined by how many three-dimensional numbers are desired and how far the target is located.

이 방법들 모두는 2 개의 렌즈들을 필요로 하며, 사용자들은 전문가적인 사진촬상자이여야 한다. 그리고, 모바일 디바이스 상의 하드웨어 제한들로 인하여, 단일의 카메라를 가진 모바일 디바이스를 가진 통상의 사용자들은 3D 포토그래프를 어렵게 캡쳐한다. 모바일 디바이스 사용자들이 스테레오 3D 포토를 촬상하기를 원하면, 이들은 동일한 오브젝트의 2 개의 포토들을 촬상할 필요가 있다. 먼저, 오브젝트의 포토가 촬상된다. 그 후, 카메라는 약간 좌측 또는 우측으로 이동되어 제 2 포토가 촬상된다. 본 개시물의 나머지 부분에서는, 제 1 포토는 좌안에 대한 것이고 제 2 포토는 우안에 대한 것으로 본다. 마지막으로, 2 개의 픽쳐들이 컴퓨팅에 의해 스테레오 3D 이미지로 합성된다. 사용자들은 포스트 생성에 있어서 많은 시간과 에너지를 소요하지만, 종종 3D 포토의 효과가 충분하지 않다. 이들은 2 개의 포토들을 너무 주관적으로 촬상하기 때문에, 좌측 이미지와 우측 이미지는 거의 매칭하지 않고 3D 효과를 실현하지 못한다. 본 개시물은 모바일 디바이스용의 단일의 카메라를 이용하여 스테레오 3D 이미지를 캡쳐하는 방법을 제안한다. 본 시스템은 포스트 생성을 간략화하기 위해 좌측 이미지와 우측 이미지를 정확하게 촬상하고, 3D 픽쳐에 대한 보다 양호한 효과를 획득하도록 카메라맨을 보조할 것이다.All of these methods require two lenses, and users must be professional photographers. And, due to hardware limitations on mobile devices, ordinary users with mobile devices with a single camera can hardly capture 3D photographs. If mobile device users want to capture stereo 3D photos, they need to capture two photos of the same object. First, a photo of an object is picked up. Thereafter, the camera is slightly moved to the left or right to capture the second photo. In the remainder of this disclosure, the first port is for the left eye and the second port is for the right eye. Finally, the two pictures are composited into a stereo 3D image by computing. Users spend a lot of time and energy in creating posts, but often the effects of 3D photos are not enough. Since they photograph two photos too subjective, the left image and the right image hardly match, and the 3D effect can not be realized. This disclosure proposes a method of capturing a stereo 3D image using a single camera for a mobile device. The system will assist the cameraman to accurately capture the left and right images and to obtain a better effect on the 3D pictures to simplify post generation.

3차원의 착시를 생성하는 것은 우리의 눈이 특정 거리 만큼 분리되어 있다는 사실에 전적으로 의존한다. 각각의 눈이 약간 상이한 각도로부터 동일한 이미지 샷을 보고 있다면, 우리의 뇌가 이미지들을 합성할 때, 합성된 이미지는 3 차원을 나타낼 것이다. 이 원리에 따라, 본 발명은 단일의 카메라를 이용한 스테레오 3D 이미지들의 캡쳐를 위한 방법을 제공한다. 카메라는 좌측 이미지와 우측 이미지 각각을 캡쳐할 것이다. 카메라가 좌측 이미지를 캡쳐한 후, 시스템은 사용자들에 대해, 우측 이미지의 최상의 포지션에 대한 몇몇 프롬프트들을 제공한다. 사용자들은 프롬프트들에 따라 스테레오 이미지를 만들기 위해 합성을 위한 우측 이미지를 정확하게 캡쳐할 수 있다. 따라서, 본 발명은 스테레오 3D 이미지로 합성되기 위하여, 우측 이미지의 포지션에 대해 몇몇 프롬프트들을 제공하는 방법의 문제를 해결하도록 돕는다.Creating a three-dimensional illusion is entirely dependent on the fact that our eyes are separated by a certain distance. If each eye is looking at the same image shot from a slightly different angle, when our brain synthesizes the images, the synthesized image will show three dimensions. In accordance with this principle, the present invention provides a method for capturing stereo 3D images using a single camera. The camera will capture each of the left image and the right image. After the camera captures the left image, the system provides some prompts for the best position of the right image for the users. Users can accurately capture the right image for compositing to create a stereo image according to the prompts. Thus, the present invention helps to solve the problem of the method of providing some prompts for the position of the right image to be synthesized into a stereo 3D image.

관련 기술, US20100316282 는 제 1 픽쳐와 제 2 픽쳐, 및 제 1 픽쳐와 제 2 픽쳐 사이의 위치/방향의 변화들에 대한 정보에 기초하여 3D 이미지를 생성하는 방법을 개시한다.A related art, US20100316282, discloses a method of generating a 3D image based on information on position / direction changes between a first picture and a second picture, and between a first picture and a second picture.

본 발명은 단일의 카메라를 이용하여 3D 이미지를 캡쳐하는 방법을 개시한다. 스테레오스코픽 이미지를 캡쳐하기 위하여, 좌측 이미지와 우측 이미지의 특징점들을 매칭시키도록 단일의 카메라를 가진 모바일 디바이스에 이미지 프로세싱 기능이 추가된다.The present invention discloses a method of capturing a 3D image using a single camera. To capture a stereoscopic image, an image processing function is added to the mobile device with a single camera to match the left and right image feature points.

모바일 디바이스가 좌측 이미지를 캡쳐할 때, 시스템은 좌측 이미지의 특징점들을 추출할 것이다. 그 후, 모바일 디바이스가 우측 픽쳐를 촬영 (shoot) 하기 위해 이동할 때, 시스템은 우측 픽쳐의 특징점들을 추출할 것이다. 이하, 우측 픽쳐는 카메라가 디스플레이에 디스플레이하고 있는 픽쳐를 특정하고, 한편으로, 우측 이미지는 스테레오 3D 이미지 내에 합성될, 카메라에 의해 촬상된 이미지를 특정함을 주지해야 한다. 또한, "캡쳐"는 포토를 촬상할 때 이용되며, "촬영" 은 픽쳐를 디스플레이할 때 이용된다.When the mobile device captures the left image, the system will extract the feature points of the left image. Then, when the mobile device moves to shoot the right picture, the system will extract the feature points of the right picture. Hereinafter, it should be noted that the right picture specifies the picture the camera is displaying on the display, while the right image specifies the image picked up by the camera to be synthesized in the stereo 3D image. Also, "capture" is used when capturing a picture, and "capturing" is used when a picture is displayed.

이후, 시스템은 양방향 최대 정정 및 시차 제약에 기초한 특징점 매칭 방법을 이용하여, 오브젝트 사이즈를 분석하기 위하여 우측 픽쳐의 특징점 맵과 좌측 이미지의 특징점 맵을 비교한다. 2 개의 맵들에서의 오브젝트 사이즈가 동일하면, 이는 양쪽에 대한 뷰잉 거리가 동일함을 제안한다. 2 개의 맵들에서의 오브젝트 사이즈가 상이하면, 카메라는 2 개의 맵들에서의 오브젝트가 동일할 때까지 이동해야 한다. 또한, 시스템은 특징점 맵들 사이의 수직 디스패리티를 비교한다. 추가로, 카메라는 수직 디스페리티를 상쇄시키기 위해 이동 및 회전되어야 한다. 마지막으로, 사용자들은 스테레오 3D 이미지로의 정확한 합성을 위하여 우측 이미지를 캡쳐할 수 있을 것이다.Thereafter, the system compares the minutiae point map of the right picture with the minutiae map of the left image to analyze the object size, using the minutia matching method based on bidirectional maximum correction and time lag constraints. If the object sizes in the two maps are the same, this suggests that the viewing distances for both are the same. If the object sizes in the two maps are different, the camera must move until the objects in the two maps are the same. The system also compares the vertical disparity between feature point maps. In addition, the camera must be moved and rotated to offset the vertical disparity. Finally, users will be able to capture the right image for accurate compositing into a stereo 3D image.

본 발명의 일 양태에 따르면, 단일의 카메라를 이용한 3D 이미지를 생성하는 방법이 제공되며, 본 방법은, 단일의 카메라에 의해 제 1 포지션에서의 우측 또는 좌측 이미지로서 제 1 이미지를 캡쳐하는 단계; 제 1 이미지의 특징점들을 추출하는 단계; 제 1 포지션과는 상이한 포지션에서 다른 쪽의 이미지로서 제 2 이미지를 찾기 위해 픽쳐를 촬영하는 단계; 픽쳐의 특징점들을 추출하는 단계; 제 1 이미지 및 픽쳐의 특징점들을 비교하는 단계; 2 개의 3D 커서들을 생성하는 단계로서, 커서들 중 하나는 제 2 이미지의 타겟 포지션을 나타내고, 다른 하나는 카메라의 현재 포지션을 나타내는, 생성하는 단계; 픽쳐에 2 개의 3D 커서들을 디스플레이하는 단계; 카메라를 이전 및 회전시킴으로써 현재 포지션을 나타내는 커서가 타겟 포지션을 나타내는 커서에 완전하게 오버랩할 때 제 2 이미지를 캡쳐하는 단계; 및 3D 이미지를 생성하기 위해 제 1 및 제 2 이미지들을 합성하는 단계를 포함한다.According to one aspect of the present invention, there is provided a method of generating a 3D image using a single camera, the method comprising: capturing a first image as a right or left image at a first position by a single camera; Extracting feature points of the first image; Capturing a picture to find a second image as the other image in a position different from the first position; Extracting feature points of a picture; Comparing the feature points of the first image and the picture; Generating two 3D cursors, one of the cursors representing a target position of the second image and the other representing a current position of the camera; Displaying two 3D cursors on a picture; Capturing a second image when the cursor indicating the current position completely overlaps the cursor indicating the target position by moving and rotating the camera; And synthesizing the first and second images to produce a 3D image.

본 발명의 다른 양태에 따르면, 단일의 카메라를 이용한 3D 이미지를 생성하는 시스템이 제공되며, 본 시스템은, 단일의 카메라에 의해 제 1 포지션에서의 우측 또는 좌측 이미지로서 제 1 이미지를 캡쳐하는 수단; 제 1 이미지의 특징점들을 추출하는 수단; 제 1 포지션과는 상이한 포지션에서 다른 쪽의 이미지로서 제 2 이미지를 찾기 위해 픽쳐를 촬영하는 수단; 픽쳐의 특징점들을 추출하는 수단; 제 1 이미지 및 픽쳐의 특징점들을 비교하는 수단; 2 개의 3D 커서들을 생성하는 수단으로서, 커서들 중 하나는 제 2 이미지의 타겟 포지션을 나타내고, 다른 하나는 카메라의 현재 포지션을 나타내는, 생성하는 수단; 픽쳐에 2 개의 3D 커서들을 디스플레이하는 수단; 카메라를 이전 및 회전시킴으로써 현재 포지션을 나타내는 커서가 타겟 포지션을 나타내는 커서에 완전하게 오버랩할 때 제 2 이미지를 캡쳐하는 수단; 및 3D 이미지를 생성하기 위해 제 1 및 제 2 이미지들을 합성하는 수단을 포함한다.According to another aspect of the present invention there is provided a system for generating a 3D image using a single camera, the system comprising: means for capturing a first image as a right or left image in a first position by a single camera; Means for extracting feature points of the first image; Means for photographing a picture to find a second image as the other image in a position different from the first position; Means for extracting feature points of a picture; Means for comparing feature points of a first image and a picture; Means for generating two 3D cursors, one of the cursors representing a target position of the second image and the other representing a current position of the camera; Means for displaying two 3D cursors on a picture; Means for capturing a second image when the cursor representing the current position completely overlaps the cursor representing the target position by moving and rotating the camera; And means for compositing the first and second images to produce a 3D image.

본 발명의 이들 및 다른 양태들, 특징들, 및 이점들은, 첨부되는 도면들과 함께 다음의 상세한 설명으로부터 더욱 명백해질 것이다.
도 1 은 3D 스테레오스코픽 디스플레이들의 개념을 예시하는 예시적인 다이어그램이다.
도 2 는 스테레오 포토그래프를 캡쳐하기 위해 2 개의 카메라들을 이용하는 기본 방법을 예시하는 예시적인 다이어그램이다.
도 3a 내지 도 3e 는 본 발명의 일 실시형태에 따라 단일의 카메라를 이용하여 2 개의 이미지들을 캡쳐하는 단계들을 예시하는 예시적인 플로우차트를 도시한다.
도 4a 및 도 4b 는 본 발명의 일 실시형태에 따라 모바일 폰용 3D 이미지 캡쳐 시스템의 메인 단계들을 예시하는 예시적인 플로우차트를 도시한다.
도 5 는 본 발명의 일 실시형태에 따른 시스템의 예시적인 블록도를 예시하는 예시적인 플로우차트이다.
These and other aspects, features, and advantages of the present invention will become more apparent from the following detailed description when taken in conjunction with the accompanying drawings.
1 is an exemplary diagram illustrating the concept of 3D stereoscopic displays.
Figure 2 is an exemplary diagram illustrating a basic method of using two cameras to capture a stereo photo graph.
Figures 3A-3E illustrate an exemplary flow chart illustrating steps for capturing two images using a single camera in accordance with an embodiment of the present invention.
4A and 4B illustrate exemplary flow charts illustrating the main steps of a 3D image capture system for a mobile phone in accordance with an embodiment of the present invention.
5 is an exemplary flow chart illustrating an exemplary block diagram of a system according to an embodiment of the invention.

다음의 설명에서, 본 발명의 일 실시형태의 여러 양태들이 설명될 것이다. 설명을 위한 목적으로, 완전한 이해를 제공하기 위해 다양한 특정 구성들 및 세부사항들이 제시된다. 그러나, 본 발명은 여기에 개시된 특정 세부사항들 없이도 실시될 수도 있음이 당업자에게는 명백할 것이다.In the following description, various aspects of an embodiment of the present invention will be described. For purposes of explanation, various specific configurations and details are set forth in order to provide a thorough understanding. However, it will be apparent to one skilled in the art that the present invention may be practiced without the specific details disclosed herein.

본 발명은 사용자들이 단일의 카메라를 이용할 때 스테레오 3D 이미지를 합성하기 위한 제 2 이미지 캡쳐의 프롬프트들에 포커스를 맞춘다. 일반적으로, 2 개의 이미지들 사이의 포지션 디스패리티 데이터 및 시차 데이터를 획득하기 위한 특징점 매칭 방법을 이용하는 3D 이미지 캡쳐 시스템에 관련된다.The present invention focuses on the prompts of the second image capture to synthesize a stereo 3D image when users use a single camera. In general, it relates to a 3D image capture system that utilizes feature point matching methods to obtain position disparity data and parallax data between two images.

모바일 디바이스가 좌측 이미지를 캡쳐할 때, 시스템은 스테레오 3D 이미지에 대한 우측 이미지의 특징점들이 추론되도록 좌측 이미지의 특징점들을 추출할 것이다. 또한, 시스템은 사용자들에 대한 우측 이미지의 최상의 포지션을 위하여 몇몇 프롬프트들을 제공할 것이다. 사용자들은 포지션 데이터에 따라 스테레오 이미지 내에 합성하기 위한 우측 이미지를 정확하게 캡쳐할 수 있다. 사용자가 우측 이미지를 캡쳐할 때, 스크린에는 2 개의 3D 커서들이 존재한다. 하나는 우측 이미지의 타겟 포지션을 나타내고 다른 하나는 카메라의 현재 포지션을 나타낸다. 2 개의 3D 커서들이 오버랩할 때, 사용자들은 스테레오 3D 이미지로의 정확한 합성을 위하여 우측 이미지를 캡쳐할 것이다.When the mobile device captures the left image, the system will extract the feature points of the left image so that the feature points of the right image for the stereo 3D image are inferred. In addition, the system will provide some prompts for the best position of the right image for the users. Users can accurately capture the right image for compositing into the stereo image according to the position data. When the user captures the right image, there are two 3D cursors on the screen. One represents the target position of the right image and the other represents the current position of the camera. When the two 3D cursors overlap, the user will capture the right image for accurate compositing into the stereo 3D image.

카메라를 지닌 모바일 폰을 이용하여 2 개의 이미지들을 캡쳐하는 단계들은 도 3a 내지 도 3e 에 따라 다음과 같이 나타내어진다.The steps of capturing two images using a mobile phone having a camera are described as follows according to FIGS. 3A to 3E.

1. 사용자는 카메라를 지닌 모바일 폰을 이용하여 제 1 이미지를 캡쳐한다 (도 3a).1. A user captures a first image using a mobile phone having a camera (Fig. 3A).

2. 3 개의 심도 정보 아이콘들이 스크린에 디스플레이된다. 3 개의 아이콘들은 "스크린 앞", "스크린 상" 또는 "스크린 뒤"를 나타낸다. 사용자는 2 개의 이미지들의 시차에 대한, 사용자가 원하는 효과가 무엇인지에 기초하여 3 개의 아이콘들 중 하나를 선택한다 (도 3b).2. Three depth information icons are displayed on the screen. The three icons represent "front of screen", "on screen" or "behind screen". The user selects one of three icons based on what effect the user desires for the parallax of the two images (Fig. 3B).

3. 사용자는 모바일 폰을 우측으로 이동시켜 우측 이미지의 뷰를 찾는다 (도 3c).3. The user moves the mobile phone to the right to find a view of the right image (FIG. 3C).

4. 2 개의 3D 커서들이 스크린에 디스플레이된다. 하나는 캡쳐한 우측 이미지의 타겟 포지션을 나타내고 다른 하나는 카메라의 현재 포지션을 나타낸다. 사용자는 이전 및 회전을 통하여 2 개의 3D 커서들의 오버랩을 행한다 (도 3d).4. Two 3D cursors are displayed on the screen. One representing the target position of the captured right image and the other representing the current position of the camera. The user makes an overlap of two 3D cursors through the previous and the rotation (FIG. 3D).

5. 2 개의 3D 커서들이 오버랩할 때, 우측 이미지가 캡쳐된다 (도 3e).5. When the two 3D cursors overlap, the right image is captured (Figure 3e).

시스템 설명들 중 하나는 3D 커서들을 드라이브하기 위한 것으로서 다음과 같다.One of the system descriptions is for driving 3D cursors as follows.

1. 모바일 디바이스는 좌측 이미지를 캡쳐한다.1. The mobile device captures the left image.

2. 시스템은 제 1 이미지로서 좌측 이미지를 촬상하고 제 1 이미지의 특징점들을 추출한다.2. The system picks up the left image as the first image and extracts the minutiae points of the first image.

3. 3 개의 심도 정보 아이콘들이 스크린에 디스플레이된다. 3 개의 아이콘들은 "스크린 앞", "스크린 상" 및 "스크린 뒤"를 나타낸다. 사용자는 2 개의 이미지들의 시차에 대한, 사용자가 원하는 효과가 무엇인지에 기초하여 3 개의 아이콘들 중 하나를 선택한다.3. Three depth information icons are displayed on the screen. The three icons represent "front of screen", "on screen" and "behind screen". The user selects one of three icons based on what effect the user desires for the parallax of the two images.

4. 모바일 폰을 우측으로 이동하여, 우측 이미지의 뷰를 찾는다.4. Move the mobile phone to the right to find the right image view.

5. 시스템은 디스플레이에 디스플레이하는 우측 픽쳐의 특징점들을 추출한다.5. The system extracts the feature points of the right picture to display on the display.

6. 알려진 바와 같이, 최신 3D 디스플레이들은 3D 스테레오 개념들에 기초하여 구성되며 주요 차이는 좌안과 우안에 대한 2 개의 뷰들을 각각 분리시키는 방법에 있다. 따라서, 시스템은 특징점 매칭 방법을 이용하여 2 개의 픽쳐들 사이의 시차를 분석할 것이다.6. As is known, the latest 3D displays are based on 3D stereo concepts and the main difference is how to separate the two views for the left and right eyes, respectively. Thus, the system will analyze the parallax between the two pictures using a feature matching method.

7. 2 개의 3D 커서들이 2 개의 픽쳐들 사이의 시차를 조정하기 위하여 스크린에 디스플레이된다.7. Two 3D cursors are displayed on the screen to adjust the parallax between the two pictures.

8. 시스템은 양방향 최대 정정 및 시차 제약에 기초한 특징점 매칭 방법을 이용하여 특징점 맵, 즉, 좌측 이미지에 대한 오브젝트의 외부 경계를 표시하는 특징점들의 집합을, 우측 픽쳐에 대한 특징점 맵에 비교하고, 이에 의해 시스템은 양쪽 맵들에서의 오브젝트 사이즈들을 분석한다. 2 개의 맵들에서의 오브젝트 사이즈들이 동일하면, 이는 양쪽 픽쳐에 대한 뷰잉 거리가 동일함을 제안한다8. The system compares the feature point map, that is, the set of feature points that represent the outer boundary of the object with respect to the left image, to the feature point map for the right picture, using the feature point matching method based on bidirectional maximum correction and time- The system analyzes the object sizes in both maps. If the object sizes in the two maps are the same, this suggests that the viewing distances for both pictures are the same

9. 2 개의 3D 커서들이 스크린에 디스플레이된다. 2 개의 3D 커서들의 각각의 사이즈가 상이하면, 사용자는 양쪽 커서들의 사이즈들이 동일하게 될때까지 전방 또는 후방으로 카메라를 이동시켜야 한다. 이에 의해, 좌측 이미지와 우측 이미지 양쪽 모두에 대한 뷰잉 거리가 동일하게 될 것이다.9. Two 3D cursors are displayed on the screen. If the size of each of the two 3D cursors is different, the user must move the camera forward or backward until both cursors are the same size. Thereby, the viewing distances for both the left image and the right image will be the same.

10. 시스템은 특징점 맵들 사이의 수직 디스패리티를 비교한다.10. The system compares the vertical disparity between feature point maps.

11. 2 개의 3D 커서들은 이전 및 회전을 통하여 수직 디스패리티를 상쇄시키기 위하여 스크린에 디스플레이된다.11. Two 3D cursors are displayed on the screen to cancel the vertical disparity through previous and rotation.

12. 2 개의 3D 커서들이 오버랩하면, 우측 이미지가 캡쳐된다. 시스템은 우측 이미지를 제 2 이미지로서 촬상한다. 그 후, 시스템은 제 1 및 제 2 이미지들을 3D 스테레오 이미지 내에 정확하게 합성한다.12. When the two 3D cursors overlap, the right image is captured. The system captures the right image as the second image. The system then correctly composites the first and second images within the 3D stereo image.

모바일 폰에서 3D 이미지 캡쳐 시스템의 주요 단계들을 예시하는 플로우차트가 도 4a 및 도 4b 에 도시된다. 단계 401 에서 시작한다. 단계 403 에서, 사용자는 단일의 카메라에 의해 좌측 이미지를 캡쳐한다. 단계 405 에서, 3D 이미지 캡쳐 시스템은 좌측 이미지의 특징점들을 추출한다. 단계 407 에서, 3D 이미지 캡쳐 시스템은 사용자에게 3D 효과들을 제안하기 위하여 스크린에 3 개의 심도 정보 아이콘들을 디스플레이한다. 3 개의 아이콘들은 "스크린 앞", "스크린 상" 및 "스크린 뒤"를 나타낸다. 단계 409 에서, 사용자는 원하는 3D 효과를 획득하기 위해 3 개의 아이콘들 중 하나를 선택한다. 단계 411 에서, 사용자는 우측 이미지의 시야를 찾기 위해 카메라를 이동시킨다. 단계 413 에서, 3D 이미지 캡쳐 시스템은 디스플레이에 디스플레이되는 우측 픽쳐의 특징점들을 추출한다. 단계 415 에서, 3D 이미지 캡쳐 시스템은 이들의 특징점 맵들을 비교함으로써 좌측 이미지와 우측 픽쳐 사이의 시차를 분석한다. 단계 417 에서, 3D 이미지 캡쳐 시스템은 디스플레이에서의 시차 조정을 위하여 2 개의 3D 커서들을 디스플레이한다. 이들 중 하나는 우측 이미지의 타겟 포지션을 나타내고 다른 하나는 카메라의 현재 포지션을 나타낸다. 단계 419 에서, 심도 효과가 만족스러우면, 프로세스가 단계 421 로 진행한다. 단계 419 에서, 심도 효과가 만족스럽지 못하면, 프로세스가 단계 411 로 리턴한다. 단계 421 에서, 3D 이미지 시스템은 특징점 맵을 이용하여 좌측 이미지와 우측 픽쳐의 양쪽 모두에서의 오브젝트 사이즈들을 분석한다. 단계 423 에서, 3D 이미지 시스템은 좌측 이미지와 우측 픽쳐 양쪽 모두의 뷰잉 거리에 대하여 스크린에 3D 커서들을 디스플레이한다. 단계 425 에서, 2 개의 3D 커서들의 사이즈들이 동일하면, 프로세스는 단계 427 로 진행한다. 단계 425 에서, 2 개의 3D 커서들의 사이즈들이 동일하지 않으면, 프로세스는 단계 411 로 리턴한다. 단계 427 에서, 3D 이미지 시스템은 특징점 맵을 이용하여 좌측 이미지와 우측 픽쳐 양쪽 모두 사이의 수직 디스패리티를 비교한다. 단계 429 에서, 3D 이미지 시스템은 카메라의 이전 및 회전을 통하여 사용자가 수직 디스패리티를 상쇄시킬 수 있도록 2 개의 3D 커서들을 디스플레이한다. 단계 431 에서, 2 개의 3D 커서들이 오버랩하면, 프로세스가 단계 433 으로 진행한다. 단계 431 에서, 2 개의 3D 커서들이 오버랩하지 않으면, 프로세스가 단계 411 로 리턴한다. 단계 433 에서, 사용자는 2 개의 커서들이 오버랩하는 포지션에서 우측 이미지를 캡쳐한다. 단계 435 에서, 3D 이미지 시스템은 3D 이미지를 생성하기 위해 좌측 이미지와 우측 이미지들을 합성한다. 그 후, 단계 427 에서, 프로세스가 종료로 진행한다.Flow charts illustrating the main steps of a 3D image capture system in a mobile phone are shown in Figures 4A and 4B. Start at step 401. In step 403, the user captures the left image by a single camera. At step 405, the 3D image capture system extracts the feature points of the left image. At step 407, the 3D image capture system displays three depth information icons on the screen to suggest 3D effects to the user. The three icons represent "front of screen", "on screen" and "behind screen". In step 409, the user selects one of three icons to obtain the desired 3D effect. In step 411, the user moves the camera to find the view of the right image. In step 413, the 3D image capture system extracts the feature points of the right picture displayed on the display. In step 415, the 3D image capture system analyzes the parallax between the left image and the right picture by comparing their feature point maps. At step 417, the 3D image capture system displays two 3D cursors for the time difference adjustment in the display. One of them represents the target position of the right image and the other represents the current position of the camera. In step 419, if the depth effect is satisfactory, the process proceeds to step 421. In step 419, if the depth effect is not satisfactory, the process returns to step 411. In step 421, the 3D image system analyzes the object sizes in both the left image and the right picture using the feature point map. In step 423, the 3D imaging system displays the 3D cursors on the screen for the viewing distance of both the left and right pictures. In step 425, if the sizes of the two 3D cursors are equal, the process proceeds to step 427. In step 425, if the sizes of the two 3D cursors are not equal, the process returns to step 411. In step 427, the 3D imaging system compares the vertical disparity between the left image and the right picture using the feature point map. In step 429, the 3D imaging system displays two 3D cursors so that the user can offset the vertical disparity through previous movement and rotation of the camera. At step 431, if the two 3D cursors overlap, the process proceeds to step 433. At step 431, if the two 3D cursors do not overlap, the process returns to step 411. At step 433, the user captures the right image at the position where the two cursors overlap. At step 435, the 3D imaging system synthesizes the left and right images to produce a 3D image. Then, at step 427, the process proceeds to termination.

도 5 는 본 발명의 일 실시형태에 따른 시스템 (510) 의 예시적인 블록도를 예시한다. 시스템 (510) 은 모바일 폰, 컴퓨터 시스템, 테블릿, 포터블 게임, 스마트폰 등일 수도 있다. 시스템 (510) 은 CPU (Central Processing Unit)(511), 카메라 (512), 저장 장치 (513), 디스플레이 (514) 및 사용자 입력 모듈 (515) 을 포함한다. 메모리 (516), 이를 테면, RAM (Random Access Memory) 은 도 5 에 도시된 바와 같이, CPU (511) 에 접속될 수도 있다.5 illustrates an exemplary block diagram of a system 510 in accordance with one embodiment of the present invention. The system 510 may be a mobile phone, a computer system, a tablet, a portable game, a smart phone, or the like. The system 510 includes a central processing unit (CPU) 511, a camera 512, a storage device 513, a display 514 and a user input module 515. The memory 516, such as RAM (Random Access Memory), may be connected to the CPU 511, as shown in FIG.

카메라 (512) 는 단일의 렌즈에 의해 좌측 및 우측 이미지들을 캡쳐하기 위한 엘리먼트이다. CPU (511) 는 위에 설명된 바와 같은, 3D 이미지 캡쳐 시스템의 단계들을 프로세싱한다.Camera 512 is an element for capturing left and right images by a single lens. The CPU 511 processes the steps of the 3D image capture system, as described above.

디스플레이 (514) 는 시스템 (510) 의 사용자에게 텍스트, 이미지, 비디오 및 임의의 다른 컨텐츠를 시각적으로 제시하도록 구성된다. 디스플레이 (514) 는 3D 컨텐츠와 호환가능한 임의의 타입을 적용할 수도 있다.Display 514 is configured to visually present text, images, video, and any other content to a user of system 510. [ Display 514 may apply any type compatible with 3D content.

저장 장치 (513) 는 위에 설명된 바와 같이 3D 이미지를 생성하기 위해 프로세스를 구동하고 동작시키기 위해 CPU (511) 에 대한 소프트웨어 프로그램들 및 데이터를 저장하도록 구성된다.The storage device 513 is configured to store software programs and data for the CPU 511 to drive and operate the process to generate a 3D image as described above.

사용자 입력 모듈 (515) 은 문자들 또는 커맨드들을 입력하기 위한 키들 또는 버튼들을 포함할 수도 있고 키들 또는 버튼들에 의해 문자들 또는 커맨드들을 인식하기 위한 기능들을 또한 포함할 수도 있다. 사용자 입력 모듈 (515) 은 시스템의 사용 애플리케이션에 따라 시스템에서 생략될 수 있다.The user input module 515 may include keys or buttons for inputting characters or commands and may also include functions for recognizing characters or commands by keys or buttons. The user input module 515 may be omitted from the system depending on the application used in the system.

본 발명은 카메라를 지닌 모바일 폰들, 이를 테면, 모바일 폰, 테블릿 등에 적용될 수 있다. 멀티뷰 포토들은 본질적으로 일련의 인접하는 스테레오 포토들이기 때문에, 유사한 하드에어 및 소프트웨어 구성들에 의해 스테레오 뿐만 아니라 멀티뷰 포토들을 촬상할 수 있다.The present invention can be applied to mobile phones having cameras, such as mobile phones, tablets, and the like. Because the multi-view ports are essentially a series of adjacent stereo ports, similar multi-view ports as well as stereos can be imaged by similar hard air and software configurations.

본 원리들의 이들 및 다른 특징들 및 이점들은 여기에서의 교시들에 기초하여 해당 기술에서의 당업자에 의해 쉽게 확인될 수도 있다. 본 원리들의 교시들은 하드웨어, 소프트웨어, 펌웨어, 특수 목적 프로세서들 또는 이들의 조합의 여러 형태로 구현될 수도 있다.These and other features and advantages of these principles may be readily ascertained by one of ordinary skill in the art based on the teachings herein. The teachings of the present principles may be implemented in various forms of hardware, software, firmware, special purpose processors, or any combination thereof.

보다 바람직하게, 본 원리들의 교시들은 하드웨어 및 소프트웨어의 조합으로서 구현된다. 또한, 소프트웨어는 프로그램 저장 유닛 상에서 구현되는 유형으로 구현되는 애플리케이션 프로그램으로서 구현될 수도 있다. 애플리케이션 프로그램은 임의의 적절한 아키텍쳐를 포함하는 머신에 업데이트되어 머신에 의해 실행될 수도 있다. 바람직하게, 머신은 하드웨어를 갖는 컴퓨터 플랫폼, 이를 테면, 하나 이상의 중앙 처리 유닛들 ("CPU"), 랜덤 액세스 메모리 ("RAM"), 및 입력/출력 ("I/O") 인터페이스들 상에서 구현된다. 컴퓨터 플랫폼은 또한 오퍼레이팅 시스템 및 마이크로명령 코드를 포함할 수도 있다. 여기에 설명된 여러 프로세스들 및 기능들은 마이크로명령 코드의 일부, 또는 애플리케이션 프로그램의 일부 또는 이들의 임의의 조합일 수도 있으며, 이는 CPU 에 의해 실행될 수도 있다. 추가로, 여러 다른 주변 유닛들이 컴퓨터 플랫폼, 이를 테면, 추가적인 데이터 저장 유닛에 접속될 수도 있다.More preferably, the teachings of the present principles are implemented as a combination of hardware and software. The software may also be implemented as an application program implemented in a type implemented on a program storage unit. The application program may be updated by a machine including any suitable architecture and executed by the machine. Preferably, the machine is implemented on a computer platform having hardware, such as one or more central processing units ("CPU"), random access memory ("RAM"), and input / output ("I / O" do. The computer platform may also include an operating system and microinstruction code. The various processes and functions described herein may be part of the microinstruction code, part of the application program, or any combination thereof, which may be executed by the CPU. In addition, several other peripheral units may be connected to a computer platform, such as an additional data storage unit.

첨부된 도면에 묘사된 구성 시스템 컴포넌트들 및 방법들의 일부가 소프트웨어에서 바람직하게 구현되기 때문에, 시스템 컴포넌트들 또는 프로세스 기능 블록들 사이의 실제 접속들은 본 원리들이 프로그래밍된 방식에 의존하여 상이할 수도 있음을 또한 이해할 것이다. 여기에서의 교시들이 주어지면, 당해 기술 분야의 당업자는 본 원리들의 이들 및 유사한 구현들 또는 구성들을 고려할 수 있다.It is to be understood that the actual connections between system components or process functional blocks may differ depending on the manner in which the principles are programmed, since some of the constituent system components and methods depicted in the accompanying drawings are preferably implemented in software I will also understand. Given the teachings herein, those skilled in the art will be able to contemplate these and similar implementations or configurations of these principles.

예시된 실시형태들이 첨부된 도면을 참조로 여기에 설명되어 있지만, 본 원리들은 이들 정밀 실시형태들로 제한되지 않으며 여러 변경들 및 수정들이 본 원리들의 범위 또는 사상에 벗어남이 없이 해당 기술의 당업자에 의해 실시될 수도 있음을 이해할 것이다. 이러한 모든 변경들 및 수정들은 첨부된 청구항들에서 기술된 본 원리들의 범위 내에 포함되도록 의도된다.
Although the illustrated embodiments are described herein with reference to the accompanying drawings, it is to be understood that these principles are not limited to these precise embodiments and that various changes and modifications may be effected to the person skilled in the art without departing from the scope or spirit of the principles As will be understood by those skilled in the art. All such changes and modifications are intended to be included within the scope of the present principles as set forth in the appended claims.

Claims (10)

단일의 카메라를 이용하여 3D 이미지를 생성하는 방법으로서,
제 1 포지션에서 단일 카메라에 의해 제 1 이미지를 우측 이미지 또는 좌측 이미지로서 캡쳐하는 단계;
상기 제 1 이미지의 특징점들을 추출하는 단계;
상기 제 1 포지션과는 상이한 포지션에서 제 2 이미지를 다른 측 이미지로서 찾기 위해 픽쳐를 촬영 (shoot) 하는 단계;
상기 픽쳐의 특징점들을 추출하는 단계;
상기 제 1 이미지와 상기 픽쳐의 특징점들을 비교하는 단계;
2 개의 3D 커서들을 생성하는 단계로서, 상기 커서들 중 하나는 상기 제 2 이미지의 타겟 포지션을 나타내고, 다른 하나는 상기 카메라의 현재 포지션을 나타내는, 상기 2 개의 3D 커서들을 생성하는 단계;
상기 픽쳐에 2 개의 3D 커서들을 디스플레이하는 단계;
상기 카메라를 이전 및 회전시킴으로써, 상기 현재 포지션을 나타내는 커서가 상기 타겟 포지션을 나타내는 커서에 완전하게 오버랩할 때 상기 제 2 이미지를 캡쳐하는 단계; 및
3D 이미지를 생성하기 위해 상기 제 1 및 제 2 이미지들을 합성하는 단계를 포함하는, 3D 이미지를 생성하는 방법.
A method of generating a 3D image using a single camera,
Capturing a first image as a right image or a left image by a single camera in a first position;
Extracting feature points of the first image;
Shooting a picture to find the second image as a different side image at a position different from the first position;
Extracting feature points of the picture;
Comparing the first image and the feature points of the picture;
Generating two 3D cursors, one of the cursors representing a target position of the second image and the other representing a current position of the camera;
Displaying two 3D cursors on the picture;
Capturing the second image when the cursor indicating the current position completely overlaps the cursor indicating the target position by moving and rotating the camera; And
And combining the first and second images to produce a 3D image.
제 1 항에 있어서,
상기 비교하는 단계는 상기 제 1 이미지와 상기 픽쳐의 특징점 맵에서의 수직 디스패리티 및 오브젝트의 사이즈를 분석하는 단계를 포함하고,
상기 특징점 맵은 상기 제 1 이미지와 상기 픽쳐의 각각에서의 상기 오브젝트의 외부 경계선에 있는 특징점들을 표시하는, 3D 이미지를 생성하는 방법.
The method according to claim 1,
Wherein the comparing comprises analyzing the vertical disparity and the object size in the feature point map of the first image and the picture,
Wherein the feature point map displays feature points at an outer boundary of the object in each of the first image and the picture.
제 2 항에 있어서,
상기 제 1 및 제 2 이미지들의 시차에 대한 원하는 효과를 획득하기 위해 3 개의 심도 정보 아이콘들을 디스플레이하는 단계를 더 포함하며,
상기 3 개의 심도 정보 아이콘들은 각각 "스크린 앞", "스크린 상" 및 "스크린 뒤"를 표시하고,
타겟 3D 커서의 상기 포지션은 선택된 심도 아이콘의 3D 효과를 획득하도록 결정되는, 3D 이미지를 생성하는 방법.
3. The method of claim 2,
Further comprising displaying three depth information icons to obtain a desired effect on the parallax of the first and second images,
The three depth information icons each indicate "front of screen "," on screen ", and &
Wherein the position of the target 3D cursor is determined to obtain a 3D effect of the selected depth icon.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 2 개의 3D 커서들의 사이즈들이 동일하면, 상기 제 1 포지션 및 상기 포지션에 대한 뷰잉 거리들이 동일하고, 상기 2 개의 3D 커서들의 상기 사이즈들은 상기 카메라를 전방으로 또는 후방으로 이동시킴으로써 동일하게 되는, 3D 이미지를 생성하는 방법.
4. The method according to any one of claims 1 to 3,
Wherein the viewing distances for the first position and the position are the same when the sizes of the two 3D cursors are the same and the sizes of the two 3D cursors are the same by moving the camera forward or backward, How to create an image.
제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 제 1 이미지와 상기 픽쳐 사이의 상기 수직 디스패리티는 상기 카메라를 이전 및 회전시킴으로써 상쇄되는, 3D 이미지를 생성하는 방법.
5. The method according to any one of claims 1 to 4,
Wherein the vertical disparity between the first image and the picture is canceled by prior and rotating the camera.
단일의 카메라를 이용하여 3D 이미지를 생성하는 시스템으로서,
제 1 포지션에서 단일 카메라에 의해 제 1 이미지를 우측 이미지 또는 좌측 이미지로서 캡쳐하는 수단;
상기 제 1 이미지의 특징점들을 추출하는 수단;
상기 제 1 포지션과는 상이한 포지션에서 제 2 이미지를 다른 측 이미지로서 찾기 위해 픽쳐를 촬영하는 수단;
상기 픽쳐의 특징점들을 추출하는 수단;
상기 제 1 이미지와 상기 픽쳐의 특징점들을 비교하는 수단;
2 개의 3D 커서들을 생성하는 수단으로서, 상기 커서들 중 하나는 상기 제 2 이미지의 타겟 포지션을 나타내고, 다른 하나는 상기 카메라의 현재 포지션을 나타내는, 상기 2 개의 3D 커서들을 생성하는 수단;
상기 픽쳐에 2 개의 3D 커서들을 디스플레이하는 수단;
상기 카메라를 이전 및 회전시킴으로써, 상기 현재 포지션을 나타내는 커서가 상기 타겟 포지션을 나타내는 커서에 완전하게 오버랩할 때 상기 제 2 이미지를 캡쳐하는 수단; 및
3D 이미지를 생성하기 위해 상기 제 1 및 제 2 이미지들을 합성하는 수단을 포함하는, 3D 이미지를 생성하는 시스템.
A system for generating a 3D image using a single camera,
Means for capturing a first image as a right image or a left image by a single camera in a first position;
Means for extracting feature points of the first image;
Means for photographing a picture to look for a second image as a different side image in a position different from the first position;
Means for extracting feature points of the picture;
Means for comparing minutiae points of the first image and the picture;
Means for generating two 3D cursors, one of the cursors representing a target position of the second image and the other representing a current position of the camera;
Means for displaying two 3D cursors on the picture;
Means for capturing the second image when the cursor representing the current position completely overlaps the cursor representing the target position by moving and rotating the camera; And
And means for compositing said first and second images to produce a 3D image.
제 6 항에 있어서,
상기 비교하는 수단은 상기 제 1 이미지와 상기 픽쳐의 특징점 맵에서의 수직 디스패리티 및 오브젝트의 사이즈를 분석하는 수단을 포함하고,
상기 특징점 맵은 상기 제 1 이미지와 상기 픽쳐의 각각에서의 상기 오브젝트의 외부 경계선에 있는 특징점들을 표시하는, 3D 이미지를 생성하는 시스템.
The method according to claim 6,
Wherein the comparing means comprises means for analyzing the vertical disparity and the object size in the feature point map of the first image and the picture,
Wherein the feature point map displays feature points at an outer boundary of the object in each of the first image and the picture.
제 7 항에 있어서,
상기 제 1 및 제 2 이미지들의 시차에 대한 원하는 효과를 획득하기 위해 3 개의 심도 정보 아이콘들을 디스플레이하는 수단을 더 포함하며, 상기 3 개의 심도 정보 아이콘들은 각각 "스크린 앞", "스크린 상" 및 "스크린 뒤"를 표시하고,
타겟 3D 커서의 상기 포지션은 선택된 심도 아이콘의 3D 효과를 획득하도록 결정되는, 3D 이미지를 생성하는 시스템.
8. The method of claim 7,
Further comprising means for displaying three depth information icons to obtain a desired effect on the parallax of the first and second images, wherein the three depth information icons are respectively referred to as "before the screen,"" Screen back "is displayed,
Wherein the position of the target 3D cursor is determined to obtain a 3D effect of the selected depth icon.
제 6 항 내지 제 8 항 중 어느 한 항에 있어서,
상기 2 개의 3D 커서들의 사이즈들이 동일하면, 상기 제 1 포지션 및 상기 포지션에 대한 뷰잉 거리들이 동일하고, 상기 2 개의 3D 커서들의 상기 사이즈들은 상기 카메라를 전방으로 또는 후방으로 이동시킴으로써 동일하게 되는, 3D 이미지를 생성하는 시스템.
9. The method according to any one of claims 6 to 8,
Wherein the viewing distances for the first position and the position are the same when the sizes of the two 3D cursors are the same and the sizes of the two 3D cursors are the same by moving the camera forward or backward, A system for generating images.
제 6 항 내지 제 9 항 중 어느 한 항에 있어서,
상기 제 1 이미지와 상기 픽쳐 사이의 상기 수직 디스패리티는 상기 카메라를 이전 및 회전시킴으로써 상쇄되는, 3D 이미지를 생성하는 시스템.
10. The method according to any one of claims 6 to 9,
Wherein the vertical disparity between the first image and the picture is canceled by prior and rotating the camera.
KR1020157014402A 2012-11-30 2012-11-30 Method and system for capturing a 3d image using single camera KR20150091064A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/085613 WO2014082276A1 (en) 2012-11-30 2012-11-30 Method and system for capturing a 3d image using single camera

Publications (1)

Publication Number Publication Date
KR20150091064A true KR20150091064A (en) 2015-08-07

Family

ID=50827063

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157014402A KR20150091064A (en) 2012-11-30 2012-11-30 Method and system for capturing a 3d image using single camera

Country Status (6)

Country Link
US (1) US20150326847A1 (en)
EP (1) EP2926196A4 (en)
JP (1) JP2016504828A (en)
KR (1) KR20150091064A (en)
CN (1) CN104813230A (en)
WO (1) WO2014082276A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11453337B2 (en) 2019-11-19 2022-09-27 Samsung Electronics Co., Ltd. Method and apparatus with three-dimensional object display

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105306921A (en) * 2014-06-18 2016-02-03 中兴通讯股份有限公司 Three-dimensional photo shooting method based on mobile terminal and mobile terminal
US10531071B2 (en) * 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
CN106210705A (en) * 2016-09-21 2016-12-07 深圳市大族三维科技有限公司 A kind of mobile phone shooting method for processing video frequency
CN106534832A (en) * 2016-11-21 2017-03-22 深圳岚锋创视网络科技有限公司 Stereoscopic image processing method and system
CN106791782A (en) * 2016-12-19 2017-05-31 北京星辰美豆文化传播有限公司 The image pickup method of the stereo-picture based on single camera, device and electronic equipment
US20200128224A1 (en) * 2018-10-18 2020-04-23 Brian W. Bush Computer implemented method of capturing stereo images using single lens optics of any smart device without the use of any additional hardware

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244727A (en) * 2002-02-13 2003-08-29 Pentax Corp Stereoscopic image pickup system
US7466336B2 (en) * 2002-09-05 2008-12-16 Eastman Kodak Company Camera and method for composing multi-perspective images
GB2405764A (en) * 2003-09-04 2005-03-09 Sharp Kk Guided capture or selection of stereoscopic image pairs.
US7656429B2 (en) * 2004-02-04 2010-02-02 Hewlett-Packard Development Company, L.P. Digital camera and method for in creating still panoramas and composite photographs
TWI411870B (en) * 2009-07-21 2013-10-11 Teco Elec & Machinery Co Ltd Stereo image generating method and system
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
JP2013062557A (en) * 2010-01-14 2013-04-04 Panasonic Corp Digital imaging apparatus and 3d imaging method
JP4911230B2 (en) * 2010-02-01 2012-04-04 カシオ計算機株式会社 Imaging apparatus, control program, and control method
US9635251B2 (en) * 2010-05-21 2017-04-25 Qualcomm Incorporated Visual tracking using panoramas on mobile devices
JP5641200B2 (en) * 2010-05-28 2014-12-17 ソニー株式会社 Image processing apparatus, image processing method, image processing program, and recording medium
US8933996B2 (en) * 2010-06-30 2015-01-13 Fujifilm Corporation Multiple viewpoint imaging control device, multiple viewpoint imaging control method and computer readable medium
JP5539514B2 (en) * 2010-06-30 2014-07-02 富士フイルム株式会社 Imaging apparatus, program, and imaging method
KR101731343B1 (en) * 2010-07-14 2017-04-28 엘지전자 주식회사 Mobile terminal and method for controlling thereof
US9344701B2 (en) * 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
US8605136B2 (en) * 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
KR101688153B1 (en) * 2010-08-11 2016-12-20 엘지전자 주식회사 Method for editing three dimensional image and mobile terminal using this method
KR20120015165A (en) * 2010-08-11 2012-02-21 엘지전자 주식회사 Method for controlling depth of image and mobile terminal using this method
JP4763847B1 (en) * 2010-08-30 2011-08-31 楽天株式会社 Image conversion apparatus, image processing apparatus, and image processing system
TWI433530B (en) * 2010-11-01 2014-04-01 Ind Tech Res Inst Camera system and image-shooting method with guide for taking stereo photo and method for automatically adjusting stereo photo
KR20120054746A (en) * 2010-11-22 2012-05-31 삼성전자주식회사 Method and apparatus for generating three dimensional image in portable communication system
US9530192B2 (en) * 2011-06-30 2016-12-27 Kodak Alaris Inc. Method for determining stereo quality score and automatically improving the quality of stereo images
US20130121559A1 (en) * 2011-11-16 2013-05-16 Sharp Laboratories Of America, Inc. Mobile device with three dimensional augmented reality
US20130155049A1 (en) * 2011-12-15 2013-06-20 Luugi Marsan Multiple hardware cursors per controller
US20130163854A1 (en) * 2011-12-23 2013-06-27 Chia-Ming Cheng Image processing method and associated apparatus
US9639959B2 (en) * 2012-01-26 2017-05-02 Qualcomm Incorporated Mobile device configured to compute 3D models based on motion sensor data
US8259161B1 (en) * 2012-02-06 2012-09-04 Google Inc. Method and system for automatic 3-D image creation
US20130293686A1 (en) * 2012-05-03 2013-11-07 Qualcomm Incorporated 3d reconstruction of human subject using a mobile device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11453337B2 (en) 2019-11-19 2022-09-27 Samsung Electronics Co., Ltd. Method and apparatus with three-dimensional object display

Also Published As

Publication number Publication date
EP2926196A4 (en) 2016-08-24
WO2014082276A1 (en) 2014-06-05
CN104813230A (en) 2015-07-29
EP2926196A1 (en) 2015-10-07
JP2016504828A (en) 2016-02-12
US20150326847A1 (en) 2015-11-12

Similar Documents

Publication Publication Date Title
CN109615703B (en) Augmented reality image display method, device and equipment
EP3328064B1 (en) Method and device for controlling electronic device and computer-readable storage medium
KR20150091064A (en) Method and system for capturing a 3d image using single camera
US20110216160A1 (en) System and method for creating pseudo holographic displays on viewer position aware devices
WO2015192547A1 (en) Method for taking three-dimensional picture based on mobile terminal, and mobile terminal
JP2014506026A (en) Portrait image synthesis from multiple images captured by a portable device
CN106228530B (en) A kind of stereography method, device and stereo equipment
CN110636276B (en) Video shooting method and device, storage medium and electronic equipment
JP6057570B2 (en) Apparatus and method for generating stereoscopic panoramic video
TW201351959A (en) Method of stereo 3D image synthesis and related camera
TWI584050B (en) Panoramic stereoscopic image synthesis method, apparatus and mobile terminal
CN108616733B (en) Panoramic video image splicing method and panoramic camera
CN104599317A (en) Mobile terminal and method for achieving 3D (three-dimensional) scanning modeling function
WO2017174029A1 (en) Mobile phone having three-dimensional photographing function
US20080273082A1 (en) Picture processing apparatus, picture recording apparatus, method and program thereof
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
JP2018033107A (en) Video distribution device and distribution method
US9767580B2 (en) Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images
CN113225480A (en) Image acquisition method, image acquisition device, electronic equipment and medium
WO2017174033A1 (en) Device and method for three-dimensional image capturing and imaging
TWI542194B (en) Three-dimensional image processing system, apparatus and method for the same
Mori et al. An overview of augmented visualization: observing the real world as desired
CN106713893B (en) Mobile phone 3D solid picture-taking methods
TW201926251A (en) Panoramic camera, image processing system, and image processing method
CN113890984B (en) Photographing method, image processing method and electronic equipment

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid