KR101417024B1 - Method for capturing 3D image using camera - Google Patents

Method for capturing 3D image using camera Download PDF

Info

Publication number
KR101417024B1
KR101417024B1 KR1020070119642A KR20070119642A KR101417024B1 KR 101417024 B1 KR101417024 B1 KR 101417024B1 KR 1020070119642 A KR1020070119642 A KR 1020070119642A KR 20070119642 A KR20070119642 A KR 20070119642A KR 101417024 B1 KR101417024 B1 KR 101417024B1
Authority
KR
South Korea
Prior art keywords
image
frame
depth
camera
present
Prior art date
Application number
KR1020070119642A
Other languages
Korean (ko)
Other versions
KR20090053027A (en
Inventor
홍정하
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020070119642A priority Critical patent/KR101417024B1/en
Publication of KR20090053027A publication Critical patent/KR20090053027A/en
Application granted granted Critical
Publication of KR101417024B1 publication Critical patent/KR101417024B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 카메라를 이용한 3D 영상 구현 방법에 관한 것이다. 본 발명은 한 프레임을 촬영하는 제1단계, 해당 프레임에서 고주파 성분을 추출하는 제2단계, 심도를 변화시키는 제3단계, 제1단계 내지 제3단계를 일정 횟수 반복하는 제4단계, 추출된 고주파 성분을 하나의 프레임에 구현하여 디스플레이하는 제5단계를 구비한다. 본 발명에 의하면 카메라 모듈에서 별도의 장치없이 용이하게 3D 영상을 구현할 수 있는 효과가 있다.The present invention relates to a 3D image implementation method using a camera. The present invention includes a first step of photographing one frame, a second step of extracting a high frequency component from the frame, a third step of varying the depth of field, a fourth step of repeating the first to third steps a predetermined number of times, And a fifth step of implementing and displaying the high frequency components in one frame. According to the present invention, a 3D image can be easily implemented without a separate device in a camera module.

카메라, 3D, 3차원, 입체, 디스플레이, 프레임, 고주파, 심도. Camera, 3D, 3D, stereoscopic, display, frame, high frequency, depth.

Description

카메라를 이용한 3D 영상 획득 방법 {Method for capturing 3D image using camera}[0001] The present invention relates to a method for capturing 3D images using a camera,

본 발명은 카메라를 이용한 3D 영상 구현 방법에 관한 것이다. The present invention relates to a 3D image implementation method using a camera.

일반적으로 입체영상은 2차원적(2D) 평면이미지를 3차원적(3D) 실상과 비슷한 느낌을 주도록 부수적인 도구를 사용하거나, 물리적인 힘으로 영상을 조작하여 착시를 통해 원근감이나 공간감이 사람에게 느껴지도록 하는 영상기법이다. In general, stereoscopic images can be generated by using ancillary tools to give a similar feeling to a two-dimensional (2D) plane image as a three-dimensional (3D) image, or by manipulating the image with physical force, It is a video technique that makes you feel.

이러한 3차원(3D) 입체영상을 실현하는데는 근본적으로 인간이 두 개의 눈을 가지고 있다는 사실에 근거하며, 인간이 사물을 입체로 인식하는 원리는 수평적으로 이격되어 위치한 두 눈이 각기 다른 각도에서 망막을 통하여 사물을 받아들이고 전기신호화하여 대뇌로 전달되어 합성됨으로써 가능하다 This three-dimensional (3D) stereoscopic image is fundamentally based on the fact that human beings have two eyes, and the principle that human beings perceive objects as three-dimensional is that two eyes located horizontally spaced from each other at different angles It is possible to receive things through the retina and to synthesize them by electrical signaling to the cerebrum

현재 3D 입체영상 구현방식으로 가장 보편적인 방식은 안경을 이용한 양안식 입체영상이다. 도 1은 종래 3D 영상 구현 방식을 설명하기 위한 도면이다. 도 1 (a)는 안경을 이용한 양안식 입체영상 구현방식을 보여주는 도면이다. 도 1 (a)에서 사용자는 안경(10)를 통해 평판 디스플레이(20)를 시청하면 3D 영상을 볼 수 있 다. 도 1 (b)에서는 LCD 패널(21)과 3D 위상변조필터(23)로 구성된 평판 디스플레이(20) 구조를 보여주고 있다.Currently, the most common way to implement 3D stereoscopic images is binocular stereoscopic images using glasses. 1 is a view for explaining a conventional 3D image implementation method. 1 (a) is a diagram showing a binocular stereoscopic image realization method using glasses. In FIG. 1 (a), a user can view a 3D image when viewing the flat panel display 20 through the glasses 10. 1B shows a structure of a flat panel display 20 including an LCD panel 21 and a 3D phase-modulated filter 23. As shown in FIG.

도 1과 같은 방식을 적청방식이라고 하는데 좌측영상에서 필터링한 적색영상과 우측영상에서 필터링한 청색영상을 양 또는 음의 시차가 나도록 한 영상으로 합성하고, 합성된 영상신호를 디스플레이한다. 그러면, 사용자는 왼쪽 눈에는 적색필터, 오른쪽 눈에는 청색필터를 통하여 필터링된 영상을 보게 되어 입체영상을 즐길 수 있게 된다. 이러한 입체영상을 제작하기 위해서는 적어도 1대 이상의 카메라 또는 1개 이상의 렌즈가 붙은 특수카메라나 기타 영상장치로 양거리 편차각도가 있는 장면을 개별로 촬영한 다음, 촬영한 이미지를 구성 및 편집하는 방식으로 진행된다. 1, a red image filtered in the left image and a blue image filtered in the right image are synthesized into an image having a positive or negative parallax, and the synthesized image signal is displayed. Then, the user can see the filtered image through the red filter on the left eye and the blue filter on the right eye, thereby enjoying the stereoscopic image. In order to produce such a stereoscopic image, at least one camera or a special camera with one or more lenses, or other imaging device, photographs a scene having a deviation angle at each position separately and then constructs and edits the photographed image do.

그러나, 종래 3D 영상 구현 방식은 안경과 같은 부가 장치가 필요하고, 영상이 이중으로 보이거나 장시간 시청하면 어지러움이 발생하는 등의 문제점이 있다. 또한, 3D 디스플레이 장치와 구현에 필요한 기타 영상장치가 필요하기 때문에 산업상 이용하는데 한계가 있다. However, in the conventional 3D image realization method, an additional device such as a spectacle is required, and there is a problem that when an image is seen as a double image or when it is viewed for a long time, dizziness occurs. In addition, 3D display devices and other imaging devices necessary for their implementation are required, which limits their use in industry.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 카메라 모듈에서 부가적인 장비없이 간단하고 용이하게 3D 영상을 획득하는 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method for acquiring 3D images easily and easily without additional equipment in a camera module.

이와 같은 목적을 달성하기 위한 본 발명은 한 프레임을 촬영하는 제1단계, 해당 프레임에서 고주파 성분을 추출하는 제2단계, 심도를 변화시키는 제3단계, 제1단계 내지 제3단계를 일정 횟수 반복하는 제4단계, 추출된 고주파 성분을 하나의 프레임에 구현하여 디스플레이하는 제5단계를 구비한다.According to an aspect of the present invention, there is provided a method of generating a high-frequency image, the method including: a first step of capturing one frame; a second step of extracting a high-frequency component from the frame; a third step of varying depth; And a fifth step of displaying and implementing the extracted high-frequency components in one frame.

본 발명에 의하면 카메라 모듈에서 별도의 장치없이 용이하게 3D 영상을 획득할 수 있는 효과가 있다. 즉, 종래에는 3D 영상을 구현하기 위하여 특수제작된 안경이나 특수한 디스플레이 장치가 필요했으나, 본 발명에서는 이동통신단말기 등에 장착된 카메라 모듈을 이용하여 간단하게 3D 영상을 구현할 수 있는 장점이 있다. According to the present invention, it is possible to easily acquire a 3D image without a separate device in a camera module. That is, conventionally, in order to realize a 3D image, special glasses or special display devices are required. However, in the present invention, 3D images can be easily implemented using a camera module mounted on a mobile communication terminal or the like.

이하, 첨부된 도면을 참조해서 본 발명의 실시예를 상세히 설명하면 다음과 같다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used for the same reference numerals even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 2는 본 발명의 일 실시예에 따른 카메라를 이용한 3D 영상 구현 방법을 보여주는 흐름도이다. 2 is a flowchart illustrating a method of implementing a 3D image using a camera according to an embodiment of the present invention.

한 프레임을 촬영한다(S201). One frame is photographed (S201).

해당 프레임에서 고주파 성분을 추출한다.(S203). And extracts a high frequency component from the frame (S203).

그리고, 심도를 변화시킨다(S205). 본 발명의 일 실시예에서 심도를 변화시키는 방법은 조리개(Iris) 값을 변화시키거나 렌즈의 초점거리를 이용하는 방식 등이 있다. 이에 대한 상세한 설명은 후술하기로 한다. Then, the depth is changed (S205). In one embodiment of the present invention, a method of changing the depth may be a method of changing an iris value or using a focal length of a lens. A detailed description thereof will be given later.

S201 단계 내지 S205 단계를 일정 횟수 반복한다(S207).Steps S201 to S205 are repeated a predetermined number of times (S207).

추출된 고주파 성분을 하나의 프레임에 구현하여 디스플레이한다(S209).The extracted high frequency components are displayed in one frame and displayed (S209).

소정 갯수의 고주파 성분이 추출되었으면 추출된 고주파 성분을 하나의 프레임에 구현하여 디스플레이한다(S209). If a predetermined number of high-frequency components have been extracted, the extracted high-frequency components are displayed in one frame and displayed (S209).

본 발명의 일 실시예에서 S203 단계는 해당 프레임에서 에지를 검출하는 단계와, 단위 마스크 크기에서 최대값을 갖는 에지를 그 프레임에서의 고주파 영역으로 설정하는 단계로 이루어질 수 있다. 이에 관하여는 도 5 및 도 6을 참조하여 설 명하기로 한다. In an embodiment of the present invention, step S203 may include detecting an edge in the frame, and setting an edge having a maximum value in a unit mask size to a high-frequency area in the frame. This will be described with reference to FIGS. 5 and 6. FIG.

도 5 및 도 6은 본 발명의 일 실시예에 따른 고주파 성분을 추출하여 3D 영상을 구현하는 방법을 설명하기 위한 도면이다.5 and 6 are views for explaining a method of extracting a high frequency component according to an embodiment of the present invention to implement a 3D image.

도 5 (a)는 카메라 모듈에서 조리개(200)를 최대 개방한 경우이고, 도 5 (b) 내지 도 5 (e)로 가면서 점점 조리개(200)의 개방 크기를 줄인 경우를 보여주고 있다. 도 5 (a) 내지 도 5 (e)에서 조리개(200)의 변화에 따라 피사체(300)에서의 초점이 맞는 범위, 즉 심도가 변하는 것을 확인할 수 있다. 5A shows a case where the diaphragm 200 is opened at the maximum in the camera module and FIG. 5B to FIG. 5E show a case where the diaphragm 200 is gradually reduced in opening size. 5A to 5E, it can be seen that the range in which the subject 300 is focused, that is, the depth of field varies according to the change of the diaphragm 200.

도 5 (a) 내지 도 5 (e)에서 각 프레임마다 에지를 검출한다. 예를 들어, 도 5 (a)에서는 A프레임(400a)에서 에지를 검출하고, 도 5 (b)에서는 B프레임(400b)에서 에지를 검출하고, 도 5 (c)에서는 C프레임(400c)에서 에지를 검출하고, 도 5 (d)에서는 D프레임(400d)에서 에지를 검출하고, 도 5 (e)에서는 E프레임(400e)에서 에지를 검출하는 것이다. In Figs. 5 (a) to 5 (e), edges are detected for each frame. For example, in FIG. 5A, an edge is detected in the A frame 400a, an edge is detected in the B frame 400b in FIG. 5B, and an edge is detected in the C frame 400c in FIG. The edge is detected in the D frame 400d in Fig. 5 (d), and the edge is detected in the E frame 400e in Fig. 5 (e).

그리고, 도 5 (a) 내지 도 5 (e)에서 단위 마스크 크기에서 최대값을 갖는 에지를 그 프레임에서의 고주파 영역으로 설정한다. 예를 들어, 도 5 (a)에서는 A프레임(400a)에서 단위 마스크 크기의 최대값을 갖는 에지(m1)를 고주파 영역으로 설정하고, 도 5 (a)보다 심도가 깊어진 도 5 (b)에서는 B프레임(400b)에서 에지(m1)를 제외하고 단위 마스크 크기의 최대값을 갖는 에지(m2)를 고주파 영역으로 설정하고, 도 5 (c)에서는 C프레임(400c)에서 단위 마스크 크기의 최대값을 갖는 에지(m3, m4)를 고주파 영역으로 설정하고, 도 5 (d)에서는 D프레임(400d)에서 단위 마스크 크기의 최대값을 갖는 에지(m5)를 고주파 영역으로 설정하고, 도 5 (e)에서는 E프레임(400e)에서 단위 마스크 크기의 최대값을 갖는 에지(m6)를 고주파 영역으로 설정하는 것이다. 이를 이용하여 피사체(300)의 거리정보를 알 수 있다.5 (a) to 5 (e), the edge having the maximum value in the unit mask size is set to the high-frequency region in the frame. For example, in FIG. 5A, the edge m1 having the maximum value of the unit mask size in the A frame 400a is set as a high frequency region, and in FIG. 5B in which the depth is deeper than in FIG. 5A, The edge m2 having the maximum value of the unit mask size except for the edge m1 is set as the high frequency region in the B frame 400b and the maximum value of the unit mask size in the C frame 400c in Fig. In FIG. 5D, the edge m5 having the maximum value of the unit mask size in the D frame 400d is set as the high-frequency area, and the edge m3 and m4 having the maximum value of the unit mask size in the D frame 400d are set as the high- , The edge m6 having the maximum value of the unit mask size in the E frame 400e is set to the high frequency region. The distance information of the subject 300 can be known.

본 발명은 카메라 모듈에서 피사계 심도(depth of field) 특성을 이용하여 3D 영상을 획득하는 것이다. 이는 두가지 실시예로 구현될 수 있다.The present invention is to acquire a 3D image using a depth of field characteristic in a camera module. This can be implemented in two embodiments.

첫번째는 조리개를 구비한 카메라 모듈의 실시예에서 조리개(Iris) 값을 변화시키는 방식으로 피사계 심도를 변화시키는 방식이다. 이 방식을 도 3을 참조하여 설명하면 다음과 같다. 도 3에서 렌즈(100)와, 조리개(200)가 도시되어 있고, A, B는 피사체가 위치한 곳이고, A', B'는 상이 맺히는 곳을 나타낸다. The first is a method of varying the depth of field in such a manner that the iris value is changed in the embodiment of the camera module having the aperture. This method will be described with reference to FIG. 3, a lens 100 and a diaphragm 200 are shown, where A and B are places where a subject is located, and A 'and B' are places where images are formed.

도 3 (a)는 조리개(200)를 최대로 개방했을 때의 피사계 심도 특성을 보여주는 도면이다. 도 3 (a)에서 A피사체의 영상(A')은 상면에 초점이 맞지만, B피사체의 영상(B')은 초점이 맞지않고 상면에는 둥근 원판 모양으로 나타난다. 그러나, 조리개(200)를 조이면 심도가 깊어져서 B피사체도 선명한 영상을 얻을 수 있다. 3 (a) is a view showing the depth of field characteristics when the diaphragm 200 is opened to the maximum. In FIG. 3A, the image A 'of the subject A is focused on the image plane, while the image B' of the subject B is not focused and appears as a circular disc on the image plane. However, when the diaphragm 200 is tightened, the depth of the image is deepened, so that a clear image can be obtained even for the B subject.

도 3 (b)는 조리개(200)를 조였을 때의 피사계 심도 특성을 보여주는 도면이다. 도 3 (b)에서 A피사체의 영상(A')은 물론이고 B피사체의 영상(B')도 도 3 (a)와 비교하여 보다 선명하게 상면에 초점이 맞는 모습을 확인할 수 있다. 이러한 식으로 본 발명에서는 조리개(200) 값을 변화시키면서 심도를 변화시킬 수 있다. 이와 같이 심도의 변화에 따라 피사체의 초점이 맞는 부분의 변화로부터 피사체의 거리정보를 획득할 수 있다.3 (b) is a view showing the depth of field characteristics when the diaphragm 200 is tightened. In FIG. 3 (b), not only the image A 'of the subject A but also the image B' of the subject B are clearly focused on the image as compared with FIG. 3 (a). In this way, in the present invention, the depth can be changed while changing the value of the diaphragm 200. Thus, the distance information of the subject can be obtained from the change of the focused portion of the subject in accordance with the change of the depth of field.

다른 실시예는 줌 렌즈를 구비한 카메라 모듈에서 렌즈의 초점거리를 변화시키면서 피사계 심도를 변화시키는 방식이다. 도 4는 줌 렌즈의 모습을 도시한 도면이다. 도 4 (a)는 와이드(wide) 모드에서의 줌 렌즈의 모습이고, 도 4 (b)는 중간 모드에서의 줌 렌즈의 모습이고, 도 4 (c)는 텔레(tele) 모드에서의 줌렌즈의 모습이다. Another embodiment is a method of varying depth of field while varying the focal length of a lens in a camera module having a zoom lens. 4 is a view showing a state of the zoom lens. 4A is a view of a zoom lens in a wide mode, FIG. 4B is a view of a zoom lens in an intermediate mode, and FIG. 4C is a view of a zoom lens of a tele mode. It is appearance.

도 4에서 보는 바와 같이, 줌 렌즈는 각각의 모드마다 렌즈의 위치가 변하게되고, 이에 따라 초점거리도 변하게 된다. 예를 들어, 도 4 (a)의 와이드 모드에서는 초점거리가 4.78이고, 도 4 (c)의 텔레 모드에서는 초점거리가 14.34라는 식으로 초점거리가 변하게 된다. 이처럼 본 실시예에서는 렌즈의 초점거리를 변화시키면서 또한 심도를 변화시킨다. 이렇게 함으로써 피사체의 거리정보를 좀더 정확하게 획득할 수 있다.As shown in FIG. 4, the position of the lens changes in each mode of the zoom lens, and accordingly, the focal distance also changes. For example, in the wide mode of FIG. 4 (a), the focal length is changed to 4.78, and in the telemode of FIG. 4 (c), the focal length is changed to 14.34. As described above, in this embodiment, the depth of focus is changed while changing the focal length of the lens. By doing this, the distance information of the object can be acquired more accurately.

이상에서 조리개 값을 변화시키거나 렌즈의 초점거리를 변화시키는 방식으로 심도를 변화시키는 방법을 설명하였다. 이러한 심도 변화 방법을 구현하기 위해서는 카메라 모듈이 이동통신단말기에 구비되는 것이 바람직하다. 왜냐하면 기존 이동통신단말기에 장착된 카메라 모듈에서는 조리개를 구비하거나 줌렌즈를 구비한 경우가 많아서 본 발명을 구현하는데 있어서 적합한 면이 있기 때문이다. In the above, a method of varying the depth by changing the aperture value or changing the focal length of the lens has been described. In order to implement such a method of varying depth, a camera module is preferably provided in the mobile communication terminal. This is because a camera module mounted in a conventional mobile communication terminal often has a diaphragm or a zoom lens, which is suitable for implementing the present invention.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통 상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.While the present invention has been described with reference to several preferred embodiments, these embodiments are illustrative and not restrictive. It will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit of the invention and the scope of the appended claims.

도 1은 종래 3D 영상 구현 방식을 설명하기 위한 도면이다.1 is a view for explaining a conventional 3D image implementation method.

도 2는 본 발명의 일 실시예에 따른 카메라를 이용한 3D 영상 구현 방법을 보여주는 흐름도이다.2 is a flowchart illustrating a method of implementing a 3D image using a camera according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 조리개를 구비한 카메라 모듈을 보여주는 도면이다. 3 is a view showing a camera module having a diaphragm according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 줌 렌즈를 보여주는 도면이다. 4 is a view showing a zoom lens according to an embodiment of the present invention.

도 5 및 도 6은 본 발명의 일 실시예에 따른 고주파 성분을 추출하여 3D 영상을 구현하는 방법을 설명하기 위한 도면이다.5 and 6 are views for explaining a method of extracting a high frequency component according to an embodiment of the present invention to implement a 3D image.

*도면의 주요 부분에 대한 부호의 설명*Description of the Related Art [0002]

100 렌즈 200 조리개100 lens 200 aperture

300 피사체 400 프레임300 subjects 400 frames

Claims (5)

한 프레임을 촬영하는 제1단계;A first step of photographing one frame; 해당 프레임에서 고주파 영역을 설정하는 제2단계;A second step of setting a high frequency region in the frame; 카메라의 심도를 변화시키는 제3단계;A third step of changing the depth of the camera; 제1단계 내지 제3단계를 일정 횟수 반복하는 제4단계;A fourth step of repeating the first to third steps a predetermined number of times; 설정된 고주파 영역에 관한 정보로부터 피사체의 거리정보를 획득하는 단계Acquiring distance information of the object from the information about the set high-frequency range 를 구비하는 카메라를 이용한 3D 영상 획득 방법.And acquiring the 3D image using the camera. 제1항에 있어서,The method according to claim 1, 상기 제3단계는 조리개(Iris) 값을 변화시키는 방식으로 피사체의 심도를 변화시키는 카메라를 이용한 3D 영상 획득 방법.Wherein the third step changes the depth of a subject in a manner that changes an iris value. 제1항에 있어서,The method according to claim 1, 제3단계는 렌즈의 초점거리를 변화시키면서 피사체의 심도를 변화시키는 것인 카메라를 이용한 3D 영상 획득 방법.The third step is to change the depth of the subject while varying the focal length of the lens. 제1항 내지 제3항 중 어느 한 항에 있어서,4. The method according to any one of claims 1 to 3, 상기 제2단계는 해당 프레임에서 에지를 검출하는 단계와,The second step includes detecting an edge in the frame, 단위 마스크 크기에서 최대값을 갖는 에지를 그 프레임에서의 고주파 영역으로 설정하는 단계Setting an edge having a maximum value in a unit mask size as a high-frequency region in the frame 로 이루어지는 카메라를 이용한 3D 영상 획득 방법.A method for acquiring a 3D image using a camera. 삭제delete
KR1020070119642A 2007-11-22 2007-11-22 Method for capturing 3D image using camera KR101417024B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070119642A KR101417024B1 (en) 2007-11-22 2007-11-22 Method for capturing 3D image using camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070119642A KR101417024B1 (en) 2007-11-22 2007-11-22 Method for capturing 3D image using camera

Publications (2)

Publication Number Publication Date
KR20090053027A KR20090053027A (en) 2009-05-27
KR101417024B1 true KR101417024B1 (en) 2014-07-08

Family

ID=40860596

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070119642A KR101417024B1 (en) 2007-11-22 2007-11-22 Method for capturing 3D image using camera

Country Status (1)

Country Link
KR (1) KR101417024B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001149366A (en) 1999-11-25 2001-06-05 Toshiba Corp Three-dimensional image processing device
WO2003017246A1 (en) 2001-08-20 2003-02-27 Vizta3D, Inc. Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing
WO2003081921A1 (en) 2002-03-27 2003-10-02 Sanyo Electric Co., Ltd. 3-dimensional image processing method and device
JP2007507945A (en) 2003-09-30 2007-03-29 エリック ベルク ラング 3D visualization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001149366A (en) 1999-11-25 2001-06-05 Toshiba Corp Three-dimensional image processing device
WO2003017246A1 (en) 2001-08-20 2003-02-27 Vizta3D, Inc. Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing
WO2003081921A1 (en) 2002-03-27 2003-10-02 Sanyo Electric Co., Ltd. 3-dimensional image processing method and device
JP2007507945A (en) 2003-09-30 2007-03-29 エリック ベルク ラング 3D visualization

Also Published As

Publication number Publication date
KR20090053027A (en) 2009-05-27

Similar Documents

Publication Publication Date Title
US8077964B2 (en) Two dimensional/three dimensional digital information acquisition and display device
JP5014979B2 (en) 3D information acquisition and display system for personal electronic devices
JP5140210B2 (en) Imaging apparatus and image processing method
US6466255B1 (en) Stereoscopic video display method and apparatus, stereoscopic video system, and stereoscopic video forming method
JP5204350B2 (en) Imaging apparatus, playback apparatus, and image processing method
US8130259B2 (en) Three-dimensional display device and method as well as program
JP5204349B2 (en) Imaging apparatus, playback apparatus, and image processing method
JP2006033228A (en) Picture imaging apparatus
JP2004524553A6 (en) Single-axis stereoscopic video imaging device with optical axis alignment capability
WO2017217115A1 (en) Image processing device, image processing method, program, and image processing system
CN203838470U (en) Naked eye 3D shooting and displaying device and display thereof
US11778297B1 (en) Portable stereoscopic image capturing camera and system
US11019323B2 (en) Apparatus and method for 3D like camera system in a handheld mobile wireless device
CN105005176A (en) Naked-eye 3D photographing and displaying device
JP5822700B2 (en) Image capturing method, image capturing apparatus, and program
JP2006267767A (en) Image display device
KR101417024B1 (en) Method for capturing 3D image using camera
JPH09327042A (en) Video camera device for image pickup for three-dimension stereoscopic video signal converter and optical adaptor used for the video camera device
TW201916682A (en) Real-time 2D-to-3D conversion image processing method capable of processing 2D image in real time and converting the 2D image into 3D image without requiring complicated subsequent processing
JP4360180B2 (en) 3D image shooting device
JP2012015620A (en) Solid imaging device
JP2013085018A (en) Imaging apparatus
CN220554028U (en) Mobile phone capable of shooting stereoscopic image
KR100489213B1 (en) View finder system for stereo picture
JP2014045392A (en) Stereoscopic image receiver

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170605

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190612

Year of fee payment: 6