KR20130022496A - Method for displaying live view for stereoscopic camera - Google Patents
Method for displaying live view for stereoscopic camera Download PDFInfo
- Publication number
- KR20130022496A KR20130022496A KR1020110084806A KR20110084806A KR20130022496A KR 20130022496 A KR20130022496 A KR 20130022496A KR 1020110084806 A KR1020110084806 A KR 1020110084806A KR 20110084806 A KR20110084806 A KR 20110084806A KR 20130022496 A KR20130022496 A KR 20130022496A
- Authority
- KR
- South Korea
- Prior art keywords
- convergence point
- image
- displayed
- guide
- live view
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
본 발명은 스테레오 스코픽 카메라에서 라이브 뷰 영상에 관한 것이다.The present invention relates to a live view image in a stereoscopic camera.
최근 입체 영상 서비스에 대한 관심이 점점 증대되면서, 입체 영상을 제공하는 장치들이 계속 개발되고 있다. 이러한 입체 영상을 구현하는 방식 중에 스테레오스코픽(Stereoscopic) 방식이 있다.Recently, as interest in stereoscopic image services is increasing, devices for providing stereoscopic images continue to be developed. One of the methods of implementing such a stereoscopic image is a stereoscopic method.
상기 스테레오스코픽 방식의 기본 원리는, 사람의 좌안과 우안이 서로 직교하도록 배열된 영상을 분리하여 입력하고, 사람의 두뇌에서 좌안과 우안게 각각 입력된 영상이 결합되어 입체 영상이 생성되는 방식이다. 이때, 영상이 서로 직교하도록 배열된다는 것은 각 영상이 서로 간섭을 일으키지 않는다는 것을 의미한다.The basic principle of the stereoscopic method is to separate and input images arranged so that the left and right eyes of a person are orthogonal to each other, and a stereoscopic image is generated by combining images respectively input to the left and right eyes of the human brain. In this case, the images are arranged to be orthogonal to each other means that the images do not interfere with each other.
도 1은 입체 영상 디스플레이 장치와 입체 영상 카메라를 나타낸 예시도이다.1 is an exemplary view illustrating a stereoscopic image display apparatus and a stereoscopic image camera.
도 1(a)를 참조하여 알 수 있는 바와 같이, 입체 영상 디스플레이 장치가 나타나 있다. As can be seen with reference to FIG. 1A, a stereoscopic image display apparatus is shown.
입체 영상 디스플레이 장치를 구현하는 방법은, 안경 방식과 무안경 방식으로 크게 나뉠 수 있다.Methods of implementing a stereoscopic image display apparatus may be largely divided into a glasses method and a glasses-free method.
상기 안경 방식으로는 편광 방식, 시분할(time-sequential) 방식, 및 스펙트럼(spectral) 방식이 있다.The spectacles may be a polarization scheme, a time-sequential scheme, or a spectral scheme.
먼저, 편광 방식은 편광 필터를 이용하여 각 영상을 분리하는 것이다. 즉, 좌안(left eye)를 이용한 영상과 우안(right eye)를 위한 영상에 서로 직교하는 편광 필터를 적용함으로써, 좌우의 시야에 편광 필터에 의해 필터링된 각기 다른 영상이 입력되게 하는 것이다. First, a polarization method separates each image using a polarization filter. That is, by applying polarization filters orthogonal to each other for the image using the left eye and the image for the right eye, different images filtered by the polarization filter are input to the left and right views.
다음으로, 시분할 방식은 좌우 영상을 교대로 표시하고, 사용자가 착용하는 능동형 안경(active glasses)이 교대로 표시되는 영상과 동기화되어 각 영상을 분리하는 방법이다. 즉, 영상이 교대로 표시될 때, 이와 동기된 능동형 안경의 셔터가 해당 영상이 입력되어야 하는 시야만 개방하고 다른 시야는 차단함으로써, 좌우 영상을 분리하여 입력한다.Next, in the time division method, left and right images are alternately displayed, and active glasses worn by the user are synchronized with the alternately displayed images to separate each image. That is, when the images are displayed alternately, the shutter of the active glasses synchronized with the image is opened only when the corresponding image is to be input and the other view is blocked, thereby separating the left and right images.
마지막으로, 스펙트럼 방식은 RGB 스펙트럼이 서로 중첩되지 않는 스펙트럼 대역을 갖는 스펙트럼 필터를 통해 좌우 영상을 투사(projection)하는 방법이다. 이렇게 투사된 좌우 영상에 대해, 사용자는 좌우 영상에 대해 설정된 스펙트럼 영역만 통과하는 스펙트럼 필터(spectral filter)를 장착한 수동형 안경(passive glasses)을 착용함으로써, 좌우 영상을 분리하여 입력받는 것이다.Finally, the spectral method is a method of projecting left and right images through a spectral filter having spectral bands in which RGB spectra do not overlap each other. With respect to the projected left and right images, the user wears passive glasses equipped with a spectral filter passing only the spectral region set for the left and right images, thereby separating and inputting the left and right images.
한편, 무안경 방식으로는 다시점 무안경 방식이 있다. 상기 다시점 무안경 방식은 페러렉스 배리어 (Parallax Barrier) 방식과 렌티큘러 렌즈(Lenticular Lens) 방식이 있다. On the other hand, there is a multi-view auto glasses method as the auto glasses-free method. The multi-view autostereoscopic method includes a Parallax Barrier method and a lenticular lens method.
상기 페러렉스 베리어 방식은 디스플레이에 배리어(막)을 입히는데, 상기 베리어(막)은 수직하는 라인들로 이루어지며, 수직 라인들 사이에 슬릿(slit)이 존재한다. 상기 슬릿에 의하여 좌안가 우안에 시차를 만들어 내는 방식이다. The Ferrex barrier method applies a barrier to the display, which is composed of vertical lines, with a slit between the vertical lines. By the slit, the left eye creates a parallax in the right eye.
렌티큘러 방식은 디스플레이에 정제된 작은 렌즈들을 디스플레이에 배열하여, 영상이 작은 렌즈들에 의해 굴절되어, 좌안과 우안에 각기 다른 영상을 보여주는 방식이다.The lenticular method arranges the small lenses refined on the display on the display, and the image is refracted by the small lenses to display different images on the left and right eyes.
한편, 이와 같은 3D 또는 입체 디스플레이 장치는 3D 컨텐츠 또는 입체감을 갖는 컨텐츠의 보급이 빠르게 확산 되지 않는 탓에, 한계점을 가지고 있다.On the other hand, such a 3D or three-dimensional display device has a limitation because the spread of 3D content or content having a three-dimensional feeling is not rapidly spread.
도 1(b)는 3D 또는 입체 영상을 제작할 수 있는 카메라를 나타낸다.1 (b) shows a camera capable of producing 3D or stereoscopic images.
도 1(b)에 도시된 바와 같이, 3D 또는 입체 영상을 제작할 수 있는 카메라는 상기 스테레오스코픽 방식을 이용하여, 2개의 카메라 렌즈로부터 각각의 영상을 촬영하고, 이를 통해 입체 영상을 생성한다.As shown in (b) of FIG. 1, a camera capable of producing 3D or 3D images captures each image from two camera lenses using the stereoscopic method, and generates a 3D image through the camera.
이와 같은 3D 카메라에 대한 개발이 많이 이루어지고 있으며, 제품이 속속 출시되고 있다.The development of such a 3D camera is being made a lot, and products are released one after another.
그러나, 일반 사용자 입장에서 3D 또는 입체 영상을 제작하는 것은 익숙하지 않다. 특히, 사용자 입장에서 3D 또는 입체 영상은 아직까지 낯설기 때문에, 3D 또는 입체 영상 카메라를 구매하려는 욕구가 크지 않은 편이다.However, it is not familiar to produce 3D or stereoscopic images from the general user's point of view. In particular, since 3D or stereoscopic image is still unfamiliar from the user's point of view, the desire to purchase a 3D or stereoscopic image camera is not large.
따라서, 본 명세서는 전술한 문제점들을 해결하는 방안들을 제공하는 것을 목적으로 한다. 구체적으로, 본 명세서는 스테레오 스코픽, 즉, 3D 컨텐츠를 쉽게 제작할 수 있도록 하는 방안들을 제공하는 것을 목적으로 한다. Accordingly, the present specification aims at providing measures to solve the above-mentioned problems. Specifically, an object of the present specification is to provide methods for easily producing stereoscopic, that is, 3D content.
전술한 목적을 달성하기 위하여, 본 발명의 일 실시 예는 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기를 제공한다. 상기 전자 기기는 디스플레이부와; 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하여, 상기 처리되는 영상을 라이브 뷰를 위해 상기 디스플레이부에 표시하는 프로세서를 포함한다. 여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 나타내는 가이드가 함께 표시될 수 있다.In order to achieve the above object, an embodiment of the present invention provides an electronic device including a stereoscopic camera unit having a plurality of optical lenses. The electronic device includes a display unit; And a processor configured to process an image acquired through the plurality of optical lenses and display the processed image on the display unit for a live view. Here, a guide indicating a convergence point between the plurality of optical lenses may be displayed on the image displayed for the live view.
상기 가이드는 소정 투명도를 갖는 평면으로 표시되고, 상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시될 수 있다.The guide may be displayed as a plane having a predetermined transparency, and the plane may be displayed to have a depth corresponding to the distance to the convergence point.
상기 가이드는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내고, 상기 가이드는 하늘에서 아래로 내려다보는 시점으로 표시될 수 있다.The guide may indicate whether one or more subjects are positioned in front of or behind the plurality of optical lenses based on a convergence point between the plurality of optical lenses, and the guide may be displayed as a point of view looking down from the sky.
한편, 전술한 목적을 달성하기 위하여, 본 발명의 일 실시 예는 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기에서의 방법을 제공한다. 상기 방법은 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하는 단계와; 상기 처리되는 영상을 라이브 뷰를 위해 디스플레이부에 표시하는 단계를 포함할 수 있다. 여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트에 대응하는 가이드가 함께 표시될 수 있다.Meanwhile, in order to achieve the above object, an embodiment of the present invention provides a method in an electronic device including a stereoscopic camera unit having a plurality of optical lenses. The method includes processing an image obtained through the plurality of optical lenses; And displaying the processed image on a display unit for live view. Here, the guide corresponding to the convergence point between the plurality of optical lenses may be displayed on the image displayed for the live view.
상기 가이드는 소정 투명도를 갖는 평면으로 표시될 수 있고, 상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시될 수 있다.The guide may be displayed as a plane having a predetermined transparency, and the plane may be displayed to have a depth corresponding to the distance to the convergence point.
상기 컨버젼스 포인트 보다 근거리에 있는 제1 피사체는 상기 평면 보다 위에 표시되고, 상기 컨버젼스 포인트 보다 원거리에 있는 제2 피사체는 상기 평면에 가려져서 표시될 수 있다.The first subject nearer than the convergence point may be displayed above the plane, and the second subject farther than the convergence point may be displayed while being hidden by the plane.
상기 방법은 상기 가이드에 대한 조작 입력을 수신하는 단계와; 상기 조작 입력에 따라 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 조정하는 단계를 더 포함할 수 있다. 상기 컨버젼스 포인트의 조정에 따라 상기 영상 상에서 상기 가이드의 위치를 갱신하여 표시하는 단계를 더 포함할 수 있다.The method includes receiving an operation input for the guide; The method may further include adjusting a convergence point between the plurality of optical lenses according to the manipulation input. The method may further include updating and displaying the position of the guide on the image according to the adjustment of the convergence point.
한편, 전술한 목적을 달성하기 위하여, 본 발명의 일 실시 예는 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기에서의 방법을 또한 제공한다. 상기 방법은 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하는 단계와; 상기 처리되는 영상을 라이브 뷰를 위해 디스플레이부에 표시하는 단계를 포함할 수 있다. 여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드가 표시될 수 있다. Meanwhile, in order to achieve the above object, an embodiment of the present invention also provides a method in an electronic device including a stereoscopic camera unit having a plurality of optical lenses. The method includes processing an image obtained through the plurality of optical lenses; And displaying the processed image on a display unit for live view. In this case, the image displayed for the live view may display a guide indicating whether one or more subjects are positioned in front or rearward based on a convergence point between the plurality of optical lenses.
상기 방법은 상기 가이드에 대한 조작 입력을 수신하는 단계와; 상기 조작 입력에 따라 상기 피사체를 상기 컨버젼스 포인트의 전방 또는 후방으로 이동하여 표시하는 단계를 더 포함할 수 있다. The method includes receiving an operation input for the guide; The method may further include moving and displaying the subject in front of or behind the convergence point according to the manipulation input.
상기 가이드는: 상기 컨버젼스 포인트를 나타내는 제1선과; 상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선과; 상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선을 포함할 수 있다.The guide includes: a first line representing the convergence point; A second line representing a forward threshold point based on the convergence point; It may include a third line representing the rear limit point based on the convergence point.
상기 방법은 상기 하나 이상의 피사체가 상기 제2 선 또는 상기 제3 선 보다 멀리 위치하는 경우, 상기 컨버젼스 포인트를 자동으로 또는 수동으로 조정하는 단계를 더 포함할 수 있다.The method may further include automatically or manually adjusting the convergence point when the one or more subjects are located farther than the second line or the third line.
상기 컨버젼스 포인트의 조정에 따라, 상기 하나 이상의 피사체가 상기 컨벼젼스 포인트를 기준으로 상기 제2 선 또는 제3 보다 가까이 위치하게 표시될 수 있따.According to the adjustment of the convergence point, the one or more subjects may be displayed to be positioned closer to the second line or the third based on the convergence point.
상기 가이드는 상기 라이브를 위한 영상에 PIP로 표시될 수 있다. 상기 가이드는 하늘에서 아래로 내려다보는 시점으로 표시될 수 있다.The guide may be displayed as a PIP on the image for live. The guide may be displayed as a point of view looking down from the sky.
본 명세서의 개시에 의하여, 전술한 종래 기술의 문제점들이 해결된다. Disclosure of the present invention solves the problems of the prior art described above.
구체적으로, 본 명세서의 개시에 의해, 라이브 뷰 영상에 컨버젼스 포인트에 대해서 표시함으로써, 일반 사용자가 컨버젼스 포인트를 직관적으로 알 수 있게 한다. 따라서, 일반 사용자도 스테레오 스코픽, 즉, 3D 컨텐츠를 쉽게 제작할 수 있게 된다.Specifically, by the disclosure of the present specification, by displaying the convergence point on the live view image, the general user can intuitively know the convergence point. Therefore, the general user can easily produce stereoscopic, that is, 3D content.
도 1은 입체 영상 디스플레이 장치와 입체 영상 카메라를 나타낸 예시도이다.
도 2는 본 발명에 따른 전자 기기의 외형을 나타낸다.
도 3은 본 발명의 제1 실시예에 따른 라이브 영상 제공 방법을 나타낸 흐름도이다.
도 4는 컨버젼스 포인트에 대한 이해를 도모하기 위한 일 예시도이다.
도 5는 컨버젼스 포인트에 대한 이해를 도모하기 위한 다른 예시도이다.
도 6은 컨버젼스 포인트에 대한 이해를 도모하기 위한 또 다른 예시도이다.
도 7은 컨버젼스 포인트에 대한 이해를 도모하기 위한 또 다른 예시도이다.
도 8은 도 3에 도시된 과정에 따라 표시되는 라이브 뷰 영상을 나타낸 예시도이다.
도 9는 본 발명의 제2 실시예에 따른 라이브 영상 제공 방법을 나타낸 흐름도이다.
도 10은 도 9에 도시된 과정에 따라 표시되는 라이브 뷰 영상을 나타낸 예시도이다.
도 11은 본 발명에 따른 전자 기기가 이동 통신 단말기인 경우의 구성을 나타낸 블록도이다.
도 12는 본 발명에 따른 전자 기기가 휴대 가능한 단말기인 경우의 구성을 나타낸 블록도이다.1 is an exemplary view illustrating a stereoscopic image display apparatus and a stereoscopic image camera.
2 shows an appearance of an electronic device according to the present invention.
3 is a flowchart illustrating a live image providing method according to a first embodiment of the present invention.
4 is an exemplary diagram for understanding the convergence point.
5 is another exemplary diagram for understanding the convergence point.
6 is another exemplary diagram for understanding the convergence point.
7 is another exemplary diagram for understanding the convergence point.
8 is an exemplary diagram illustrating a live view image displayed according to the process illustrated in FIG. 3.
9 is a flowchart illustrating a live image providing method according to a second embodiment of the present invention.
FIG. 10 is an exemplary diagram illustrating a live view image displayed according to the process illustrated in FIG. 9.
11 is a block diagram showing the configuration when the electronic device according to the present invention is a mobile communication terminal.
12 is a block diagram showing the configuration when the electronic device according to the present invention is a portable terminal.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is to be noted that the technical terms used herein are merely used to describe particular embodiments, and are not intended to limit the present invention. It is also to be understood that the technical terms used herein are to be interpreted in a sense generally understood by a person skilled in the art to which the present invention belongs, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when the technical terms used herein are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that can be understood correctly by those skilled in the art. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In the present application, the term "comprising" or "comprising" or the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Further, the suffix "module" and "part" for the components used in the present specification are given or mixed in consideration of ease of description, and do not have their own meaning or role.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Furthermore, terms including ordinals such as first, second, etc. used in this specification can be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.
도 2는 본 발명에 따른 전자 기기의 외형을 나타낸다.2 shows an appearance of an electronic device according to the present invention.
도 2를 참조하여 알 수 있는 바와 같이, 전자 기기(100)가 예시적으로 휴대 가능한 단말기로 나타나 있다. 상기 휴대 가능한 단말기는 카메라, 이동통신 단말기, 멀티미디어 재생 단말기, 태블릿 단말기 중 하나 일 수 있다. 보다 구체적으로, 상기 휴대 가능한 단말기는 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 스마트 폰(Smart Phone), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 노트북 컴퓨터, 태블릿 PC(Tablet PC) 중 어느 하나 일 수 있다. As can be seen with reference to FIG. 2, the
그러나, 상기 전자 기기(100)는 휴대 가능하지 않은 단말기, 예컨대 IPTV(Internet Protocol Television) 단말기, 텔레비전(Television), 3D 텔레비전, 영상 기기, 텔레매틱스(Telematics) 단말기, 차량 설치용 내비게이션(Navigation) 단말기일 수도 있다.However, the
이와 같은 상기 전자 기기는 도시된 바와 같이, 카메라부(121)와 디스플레이부(151)를 포함할 수 있다. 상기 전자 기기(100)가 휴대 가능한 단말기일 경우, 상기 디스플레이부(151)는 휴대 가능 단말기의 전면에 장착되고, 상기 카메라부(121)는 2에 도시된 바와 같이, 휴대 가능 단말기의 후면에 장착될 수 있다. 대안적으로, 상기 카메라부(121)는 휴대 가능 단말기의 전면에도 장착될 수도 있다.As shown in the drawing, the electronic device may include a
상기 카메라부(121)는 도시된 바와 같이 수평 간격으로 이격되어 설치되는 적어도 한 쌍의 광학 렌즈(121a, 121b)를 포함할 수 있다. 이와 같은 상기 카메라부(121)는 스테레오 카메라(stereo camera) 또는, 스테레오코스픽 카메라(stereoscopic camera)로 불리기도 한다. 이때, 상기 고정된 수평 간격은, 일반적인 사람의 두 눈 간의 거리를 고려하여 설정할 수 있다.The
이와 같이 제1 및 제2 광학 렌즈(121a, 121b)를 구비한 상기 전자 기기(100)에서 라이브 뷰를 제공하는 방법을 이하 설명하기로 한다.As described above, a method of providing a live view in the
도 3은 본 발명의 제1 실시예에 따른 라이브 영상 제공 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a live image providing method according to a first embodiment of the present invention.
먼저, 상기 복수의 광학 렌즈들을 통해 획득되는 영상이 처리된다(S110). 상기 영상을 처리한다 함은 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 이미지 센서 또는 CMOS 센서를 통해 전기적 신호로 변환하고, 상기 전기적 신호를 신호 처리하는 것을 의미한다.First, an image acquired through the plurality of optical lenses is processed (S110). Processing the image means converting an image obtained through the plurality of optical lenses into an electrical signal through an image sensor or a CMOS sensor, and processing the electrical signal.
이어서, 상기 처리된 영상이 라이브 뷰를 위해 전술한 디스플레이부(151)에 표시된다(S120). Subsequently, the processed image is displayed on the
이때, 상기 라이브 뷰를 위한 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트에 대응하는 가이드가 함께 표시된다(S130). 컨버젼스 포인트라 함은 입체감이 0인 지점을 말한다. 이에 대해서는 도 4 내지 도 8을 참조하여 보다 상세하게 설명하기로 한다.In this case, the guide corresponding to the convergence point between the plurality of optical lenses is displayed on the image for the live view (S130). The convergence point refers to the point where the three-dimensional effect is zero. This will be described in more detail with reference to FIGS. 4 to 8.
도 4는 컨버젼스 포인트에 대한 이해를 도모하기 위한 일 예시도이며, 도 5는 컨버젼스 포인트에 대한 이해를 도모하기 위한 다른 예시도이고, 도 6는 컨버젼스 포인트에 대한 이해를 도모하기 위한 또 다른 예시도이고, 도 7은 컨버젼스 포인트에 대한 이해를 도모하기 위한 또 다른 예시도이다.FIG. 4 is an exemplary diagram for understanding the convergence point, FIG. 5 is another exemplary diagram for understanding the convergence point, and FIG. 6 is another exemplary diagram for understanding the convergence point. 7 is another exemplary diagram for understanding the convergence point.
먼저, 도 4를 참조하여 알 수 있는 바와 같이, 제1 광학 렌즈와 제2 광학 렌즈의 초점 거리가 서로 일치하는 지점이 컨버젼스 포인트이다. 이러한 컨버젼스 포인트는 도 4(a)에 나타난 바와 같이 거리 조절이 가능하다. 따라서, 촬영 대상물인 주 피사체를 컨버젼스 포인트 맞추게 되면, 상기 주 피사체는 입체감이 없이, 즉 상기 도가 0이 되어 촬영된다.First, as can be seen with reference to FIG. 4, a point at which the focal lengths of the first optical lens and the second optical lens coincide with each other is a convergence point. This convergence point can be adjusted in distance as shown in FIG. Therefore, when the main subject, which is a photographing target, is converged to the point of convergence, the main subject is photographed without the stereoscopic sense, that is, the degree becomes zero.
도 4(b)를 참조하면, 육면체와 원기둥이 있고, 이를 촬영한다고 가정하자. 육면체 보다 더 멀리 있는 지점에 컨버젼스 포인트를 맞춘 후, 상기 육면체와 상기 원기둥을 촬영하면, 상기 정육면체는 입체도를 가지면서 배경보다 앞에 위치하고, 원기둥은 입체감을 가지면서 정육면체보다 앞에 위치하는 것으로 표현된다.Referring to FIG. 4 (b), suppose that a cube and a cylinder are photographed. When the convergence point is set to a point farther than the cube, and the cube and the cylinder are photographed, the cube is positioned in front of the background with a three-dimensional view, and the cylinder is expressed as being in front of the cube with a three-dimensional appearance.
한편, 도 5을 참조하면, 컨버젼스 포인트를 조절하여, 육면체에 맞춘 후, 촬영을 하게 되면, 상기 육면체는 입체도가 없이 2D로 표현되는 반면, 상기 원기둥은 상기 육면체보다 전방에 위치하는 것처럼 입체도가 표현될 수 있다.On the other hand, referring to Figure 5, by adjusting the convergence point, and after shooting to fit the cube, the cube is represented in 2D without a three-dimensional view, while the cylinder is a three-dimensional view as located in front of the cube Can be expressed.
다른 예로서, 도 6을 참조하면, 컨버젼스 포인트를 조절하여, 원기둥에 맞춘후 촬영을 하게 되면, 상기 원기둥은 입체도가 없이 2D로 표현되는 반면, 상기 육면체는 상기 원기둥 보다 뒤에 위치하는 것처럼 입체도가 표현될 수 있다.As another example, referring to FIG. 6, when a photographing is performed after adjusting a convergence point to a cylinder, the cylinder is represented in 2D without a stereoscopic view, while the cube is stereoscopic as if it is positioned behind the cylinder. Can be expressed.
한편, 도 7(a)을 참조하면, 육면체의 뒤에 원기둥이 위치하고, 육면체의 앞으로도 원기둥이 위치한다고 하자. 이때, 전방의 원기둥에 컨버젼스 포인트를 맞춘 후, 촬영을 하면, 도 7(b)를 통해 알 수 있는 바와 같이, 전방의 원기둥은 2D로 표현되는 반면, 육면체는 입체감을 가지면서 전방의 원기둥보다 멀리 있는 것으로 표현되고, 후방의 원기둥은 입체감을 가지면서 육면체보다 멀리 있는 것으로 표현된다.On the other hand, referring to Figure 7 (a), it is assumed that the cylinder is located behind the cube, and the cylinder is also located in front of the cube. At this time, when the convergence point is adjusted to the cylinder in front, as shown in Fig. 7 (b), the cylinder in front is represented in 2D, while the cube is three-dimensional and far from the cylinder in front The rear cylinder is represented as being farther than the cube while having a three-dimensional appearance.
한면, 이와 같이 컨버젼스 포인트를 어느 피사체에 맞추는지에 따라서 영상의 입체감이 다르게 된다. 즉, 일반적인 촬영 기법에서 사진 구도를 조절하듯이, 컨벼젼스 포인트를 조절함으로써, 입체 영상에서 입체도를 조절할 수 있다.On the other hand, the three-dimensional effect of the image varies depending on which subject the convergence point is aligned with. That is, as in the general photographing technique, by adjusting the composition of the photograph, the stereoscopic degree can be adjusted in the stereoscopic image by adjusting the conference point.
그러나, 지금까지의 스테레오 스코픽 카메라는 이러한 컨버젼스 포인트를 조절하는 것이 용이하지 않았다. 따라서, 일반 사용자는 컨벼젼스 포인트를 조절하여 영상을 촬영하는 것이 쉽지 않았다. However, so far stereoscopic cameras have not been able to adjust this convergence point. Therefore, it is not easy for a general user to capture an image by adjusting the consumption point.
따라서, 본 발명의 제1 실시예는 사용자가 입체 영상을 촬영할 때, 컨버젼스 포인트를 가이드를 통해 제공하고, 이를 통해 사용자가 쉽게 컨버젼스 포인트를 조절할 수 있도록 한다. Accordingly, the first embodiment of the present invention provides a convergence point through a guide when a user photographs a stereoscopic image, thereby allowing the user to easily adjust the convergence point.
도 8은 도 3에 도시된 과정에 따라 표시되는 라이브 뷰 영상을 나타낸 예시도이다.8 is an exemplary diagram illustrating a live view image displayed according to the process illustrated in FIG. 3.
도 8을 참조하여 알 수 있는 바와 같이, 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트에 대응하는 가이드는 소정 투명도를 갖는 평면으로 표시될 수 있다. As can be seen with reference to FIG. 8, a guide corresponding to a convergence point between the plurality of optical lenses may be displayed as a plane having a predetermined transparency.
상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시될 수 있다. 다시 말해서, 도 8에 도시된 바와 같이, 가로축 x, 세로축 y, 깊이축 z가 있을 때, 상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이로 상기 z축 상에서 표시된다. The plane may be displayed to have a depth corresponding to the distance to the convergence point. In other words, as shown in FIG. 8, when there is a horizontal axis x, a vertical axis y, and a depth axis z, the plane is displayed on the z axis at a depth corresponding to the distance to the convergence point.
상기 컨버젼스 포인트 보다 근거리에 있는 육면체는 상기 평면 위에 표시되고, 상기 컨버젼스 포인트 보다 원거리에 있는 제2 피사체는 상기 평면에 가려져서 표시될 수 있다.A cube that is closer than the convergence point may be displayed on the plane, and a second subject farther than the convergence point may be displayed by being hidden by the plane.
이러한, 상기 컨버젼스 포인트의 거리를 사용자가 조작할 수 있다. 즉, 상기 전자 기기는 상기 컨버젼스 포인트의 조작을 위한 버튼부를 구비하거나, 상기 컨벼젼스 포인트의 조작을 위한 버튼을 상기 디스플레이부에 표시할 수 있다.The user can manipulate the distance of the convergence point. That is, the electronic device may include a button unit for manipulation of the convergence point or display a button for manipulation of the convergence point on the display unit.
사용자로부터 상기 컨버져스 포인트에 대한 조작 신호를 입력받으면, 상기 전자 기기는 상기 조작 입력에 따라 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 조정할 수 있다. When an operation signal for the convergence point is received from a user, the electronic device may adjust a convergence point between the plurality of optical lenses according to the manipulation input.
그리고, 상기 전자 기기는 상기 컨버젼스 포인트의 조정에 따라 상기 라이브 뷰 영상 상에서 상기 가이드의 위치를 갱신하여 표시할 수 있다.The electronic device may update and display the position of the guide on the live view image according to the adjustment of the convergence point.
예를 들어, 사용자가 상기 컨버젼스 포인트를 보다 근거리로 이동하는 경우, 도 8에서 상기 가이드, 즉 소정 투명도를 갖는 평면은 z 축을 따라 + 방향으로 이동하여 표시된다. 반면, 사용자가 상기 컨버젼스 포인트를 보다 원거리로 이동 조작하는 경우, 상기 가이드, 즉 소정 투명도를 갖는 평면은 z축을 따라 - 방향으로 이동되어 표시된다.For example, when the user moves the convergence point closer, in FIG. 8, the guide, that is, a plane having a predetermined transparency is displayed by moving in the + direction along the z axis. On the other hand, when the user moves the convergence point more remotely, the guide, that is, the plane having a predetermined transparency is displayed by moving in the − direction along the z axis.
이와 같이, 상기 컨버젼스 포인트에 대한 가이드 화면을 라이브 뷰 영상에 제공함으로써, 사용자는 보다 쉽게 컨버젼스 포인트를 원하는 피사체에 맞출 수 있게 되고, 입체 영상의 입체 구도를 희망하는 바에 따라 조절할 수 있게 된다. As such, by providing the guide screen for the convergence point in the live view image, the user can more easily fit the convergence point to a desired subject and adjust the stereoscopic composition of the stereoscopic image as desired.
도 9는 본 발명의 제2 실시예에 따른 라이브 영상 제공 방법을 나타낸 흐름도이다.9 is a flowchart illustrating a live image providing method according to a second embodiment of the present invention.
도 9를 참조하면, 먼저, 상기 복수의 광학 렌즈들을 통해 획득되는 영상이 처리된다(S210). 상기 영상을 처리한다 함은 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 이미지 센서 또는 CMOS 센서를 통해 전기적 신호로 변환하고, 상기 전기적 신호를 신호 처리하는 것을 의미한다.Referring to FIG. 9, first, an image acquired through the plurality of optical lenses is processed (S210). Processing the image means converting an image obtained through the plurality of optical lenses into an electrical signal through an image sensor or a CMOS sensor, and processing the electrical signal.
이어서, 상기 처리된 영상이 라이브 뷰를 위해 전술한 디스플레이부(151)에 표시된다(S220). Subsequently, the processed image is displayed on the
상기 라이브 뷰 영상은 도 10(a)의 좌측에 표시된 화면과 같을 수 있다. 이때, 도 10(a)의 좌측을 참조하면 장면 상에 복수의 피사체들이 존재한다 이때, 도 10(a)의 우측과 같이, 상기 복수의 피사체들은 서로 다른 거리에 위치하고 있다. 이와 같이, 복수의 피사체들이 서로 다른 거리에 위치하고 있을 때, 컨버젼스 포인트를 적절하게 조절하지 아니하면, 임의 피사체는 너무 큰 입체감으로 표시될 수 있다. 즉, 컨버젼스 포인트의 기준선으로부터 지나치게 전방에 위치한 피사체는, 매우 큰 입체감을 갖게 표현될 수 있다. 그러나, 일반적인 사용자는 특별한 지식과 경험없이, 어느 정도의 입체감이 표현되도록 촬영을 해야 하는지 잘 모를 수 있다.The live view image may be the same as the screen displayed on the left side of FIG. In this case, referring to the left side of FIG. 10A, a plurality of subjects exist in the scene. In this case, as shown in the right side of FIG. 10A, the plurality of subjects are located at different distances. As described above, when the plurality of subjects are located at different distances, if the convergence point is not appropriately adjusted, the arbitrary subjects may be displayed with too much stereoscopic feeling. That is, the subject located too forward from the reference line of the convergence point may be expressed to have a very large three-dimensional effect. However, a general user may not know how much three-dimensional image should be taken without particular knowledge and experience.
따라서, 상기 라이브 뷰를 위한 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드가 표시된다(S230). 이와 같이, 피사체들이 컨버젼스 포인트를 기준으로 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드를 제공한다.Accordingly, a guide indicating whether one or more subjects are positioned in front of or behind the image is displayed on the image for the live view based on a convergence point between the plurality of optical lenses (S230). As such, a guide is provided to indicate whether the subjects are located forward or backward with respect to the convergence point.
이를 위해, 도 10(b) 좌측에 도시된 바와 같이, 상기 전자 기기(100)는 상기 피사체와의 거리를 측정할 수 있다. 이를 위해, 상기 전자 기기(100)는 거리 측정 센서를 포함할 수 있다. 상기 거리 측정 센서는 적외선 센서를 포함할 수 있다. To this end, as shown in the left side of FIG. 10B, the
대안적으로, 상기 전자 기기(100)는 상기 거리 측정 센서의 도움없이, 상기 복수의 카메라를 통해 각기 획득되는 영상에서 디스패리티(Disparity)를 산출하고, 상기 디스패리티를 이용하여, 각 피사체와의 거리를 구할 수 있다.Alternatively, the
그리고, 도 10(b)에 도시된 바와 같이, 상기 전자 기기(100)는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드 화면을 라이브 뷰 영상과 함께 표시할 수 있다.As illustrated in FIG. 10B, the
상기 가이드 화면은 하늘에서 아래로 내려다 보는 시점, 예컨대 Bird View 시점으로 표시될 수 있다.The guide screen may be displayed as a point of view looking down from the sky, eg, a bird view point of view.
상기 가이드 화면은 도 10(b) 우측과 같이, 상기 컨버젼스 포인트를 나타내는 제1선(즉, 컨버젼스 포인트 기준선)과, 상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선(즉, 전방 한계선)과, 상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선(즉, 후방 한계선)을 포함할 수 있다.As shown in the right side of FIG. 10 (b), the guide screen includes a first line representing the convergence point (ie, a convergence point reference line), and a second line representing a front threshold point based on the convergence point (ie, a front limit line). It may include a third line (ie, a rear limit line) indicating a rear limit point based on the convergence point.
이때, 상기 전자 기기(100)는 상기 가이드 화면을 제공하면서, 상기 컨버젼스 포인트를 자동으로 조절할 수 있다. 즉, 상기 전자 기기(100)는 오토 컨버젼스 기능을 제공할 수 있다. In this case, the
다시 말해서, 상기 전자 기기(100)는 장면 상에 복수의 피사체들이 있을 때, 각 피사체와의 거리를 산출하고, 주 피사체와 보조 피사체가 적절한 입체감으로 표현되도록, 컨버젼스 포인트를 자동으로 조절할 수 있다. 이러한 자동 조절 기능은, 임의 피사체가 전술한 후방 한계선 또는 전방 한계선 보다 더 먼 거리에 위치할 때 자동으로 이루어질 수 있다. 또는, 이러한 자동 조절 기능은, 주 피사체가 일정한 입체감으로 표현되도록 하기 위해서, 수행될 수 있다.In other words, when there are a plurality of subjects in the scene, the
대안적으로, 상기 전자 기기(100)는 상기 가이드 화면을 제공하고, 사용자가 상기 가이드 화면을 통해 상기 컨버젼스 포인트를 조절할 수 있도록 할 수 있다.Alternatively, the
이를 위해, 상기 전자 기기(100)는 상기 컨버젼스 포인트의 조작을 위한 버튼부를 구비하거나, 상기 컨벼젼스 포인트의 조작을 위한 버튼을 상기 디스플레이부에 표시할 수 있다. 대안적으로, 상기 컨버젼스 포인트의 조절은 상기 컨버젼스 포인트 기준선을 터치 앤 드래그함으로써, 이루어질 수 있다. 또는, 상기 컨버젼스 포인트의 조절은 상기 전방 한계선 또는 후방 한계선을 터치 앤 드래그함으로써, 이루어질 수 있다. 대안적으로, 상기 컨버젼스 포인트의 조절은 상기 화면 내의 피사체를 터치함으로써, 이루어질 수 있다. To this end, the
만약, 사용자로부터 상기 가이드에 대한 조작 입력을 수신하면, 상기 전자 기기는 상기 조작 입력에 따라 상기 피사체를 상기 컨버젼스 포인트의 전방 또는 후방으로 이동하여 표시할 수 있다.If the user receives an operation input for the guide, the electronic device may move and display the subject in front of or behind the convergence point according to the operation input.
이상에서 설명한 방법은 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The method described above can be implemented in a recording medium that can be read by a computer or similar device using, for example, software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 지금까지 설명한 방법들은 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. According to a hardware implementation, the methods described so far can be applied to various types of application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays processors, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 적절한 프로그램 언어로 쓰여진 소프트웨어 코드로 구현될 수 있다. 상기 소프트웨어 코드는 저장부에 저장될 수 있고, 프로세서에 의해 실행될 수 있다.According to the software implementation, the procedures and functions described herein may be implemented as separate software modules. The software modules may be implemented in software code written in a suitable programming language. The software code may be stored in a storage unit and executed by a processor.
도 11는 본 발명에 따른 전자 기기가 이동 통신 단말기인 경우의 구성을 나타낸 블록도이다.11 is a block diagram showing the configuration when the electronic device according to the present invention is a mobile communication terminal.
상기 이동 통신 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 11에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 통신 단말기가 구현될 수도 있다.The
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
무선 통신부(110)는 이동 통신 단말기(100)와 무선 통신 시스템 사이 또는 이동 통신 단말기(100)와 이동 통신 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. 방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 통신 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.
위치정보 모듈(115)은 이동 통신 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The
상기 카메라부(121)는 전술한 바와 같이 제1 광학 렌즈(121a) 및 제2 광학 렌즈(121b)를 포함할 수 있다. 또한, 상기 카메라부(121)는 전술한 바와 같이 노출계 센서를 더 포함할 수 있다. 상기 카메라부(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. As described above, the
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.The
센싱부(140)는 이동 통신 단말기(100)의 개폐 상태, 이동 통신 단말기(100)의 위치, 사용자 접촉 유무, 이동 통신 단말기의 방위, 이동 통신 단말기의 가속/감속 등과 같이 이동 통신 단말기(100)의 현 상태를 감지하여 이동 통신 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 통신 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다.The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 오디오 출력부(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The
디스플레이부(151)는 이동 통신 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 통신 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 통신 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the
이동 통신 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 통신 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.There may be two or
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the
도 2를 참조하면, 상기 디스플레이부(151) 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.Referring to FIG. 2, a
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
오디오 출력부(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 오디오 출력부(152)은 이동 통신 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 오디오 출력부(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
알람부(153)는 이동 통신 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 통신 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 이동 통신 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The
메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 통신 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
인터페이스부(170)는 이동 통신 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 통신 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 통신 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.The
식별 모듈은 이동 통신 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identify module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.The identification module is a chip that stores various types of information for authenticating the use authority of the
상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit may be a passage through which power from the cradle is supplied to the
제어부(controller, 180)는 통상적으로 이동 통신 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
이상에서는, 상기 전자 기기(100)가 이동통신 단말기인 경우에 구성에 대해서 설명하였다. 이하에서는 상기 전자 기기(100)가 휴대 가능 단말기 인 경우에 구성에 대해서 설명하기로 한다.In the above, the structure was demonstrated when the said
도 12는 본 발명에 따른 전자 기기가 휴대 가능 단말기인 경우의 구성을 나타낸 블록도이다.12 is a block diagram showing the configuration when the electronic device according to the present invention is a portable terminal.
도 12를 참조하면, 본 발명의 일 실시예에 의한 디지털 기기(100)가 휴대 가능한 단말기, 예컨대 카메라, 멀티미디어 재생 단말기, 태블릿 단말기 중 하나 일 경우가 나타나 있다.Referring to FIG. 12, a case in which the
이러한 휴대 가능 단말기는 카메라부(121)과, 저장부(140)과, 디스플레이(151)과, 오디오 출력부(152)와, 프로세서(170)을 포함할 수 있다. 이와 같은 구성요소들은 도 14에 도시된 구성 요소와 동일하므로, 중복하여 설명하지 않기로 하고, 그 동작에 대해서만 간략하게 설명하기로 한다.The portable terminal may include a
먼저, 상기 카메라부(121)는 전술한 바와 같이 제1 광학 렌즈(121a) 및 제2 광학 렌즈(121b)를 포함할 수 있다. 또한, 상기 카메라부(121)는 전술한 바와 같이 노출계 센서를 더 포함할 수 있다. First, the
상기 프로세서(170)는 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하여, 상기 처리되는 영상을 라이브 뷰를 위해 상기 디스플레이부에 표시할 수 있다. 이때, 상기 프로세서(170)은 상기 라이브 뷰를 위해 표시되는 영상 위에 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 나타내는 가이드를 함께 표시할 수 있다.The
상기 가이드는 소정 투명도를 갖는 평면으로 표시되고, 상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시될 수 있다. 이때, 상기 컨버젼스 포인트 보다 근거리에 있는 제1 피사체는 상기 평면 보다 위에 표시되고, 상기 컨버젼스 포인트 보다 원거리에 있는 제2 피사체는 상기 평면에 가려져서 표시될 수 있다. The guide may be displayed as a plane having a predetermined transparency, and the plane may be displayed to have a depth corresponding to the distance to the convergence point. In this case, the first subject located nearer than the convergence point may be displayed above the plane, and the second subject located farther than the convergence point may be displayed by covering the plane.
또한, 상기 가이드는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내고, 상기 가이드는 하늘에서 아래로 내려다 보는 시점으로 표시될 수 있다.In addition, the guide may indicate whether one or more subjects are located at the front or the rear, based on a convergence point between the plurality of optical lenses, and the guide may be displayed as a viewpoint looking down from the sky.
상기 가이드는 상기 컨버젼스 포인트를 나타내는 제1선과, 상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선과, 상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선을 포함할 수 있다.The guide may include a first line indicating the convergence point, a second line indicating a front limit point based on the convergence point, and a third line indicating a rear limit point based on the convergence point.
상기 하나 이상의 피사체가 상기 제2 선 또는 상기 제3 선 보다 멀리 위치하는 경우, 상기 컨버젼스 포인트를 자동으로 또는 수동으로 조정할 수 있다. 상기 컨버젼스 포인트의 조정에 따라, 상기 하나 이상의 피사체가 상기 컨벼젼스 포인트를 기준으로 상기 제2 선 또는 제3 보다 가까이 위치하게 표시될 수 있다.When the one or more subjects are located farther than the second line or the third line, the convergence point may be adjusted automatically or manually. According to the adjustment of the convergence point, the one or more subjects may be displayed to be positioned closer to the second line or the third based on the convergence point.
이상에서는 본 발명의 바람직한 실시예를 예시적으로 설명하였으나, 본 발명의 범위는 이와 같은 특정 실시예에만 한정되는 것은 아니므로, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, May be modified, modified, or improved.
Claims (18)
상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하는 단계와;
상기 처리되는 영상을 라이브 뷰를 위해 디스플레이부에 표시하는 단계를 포함하고,
여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트에 대응하는 가이드가 함께 표시되는 것을 특징으로 하는 라이브 뷰 영상 표시 방법.A method in an electronic device comprising a stereoscopic camera portion having a plurality of optical lenses,
Processing an image acquired through the plurality of optical lenses;
Displaying the processed image on a display unit for a live view;
The live view image display method of claim 1, wherein a guide corresponding to a convergence point between the plurality of optical lenses is displayed together on the image displayed for the live view.
소정 투명도를 갖는 평면으로 표시되는 것을 특징으로 하는 라이브 뷰 영상 제공 방법.The method of claim 1, wherein the guide
Live view image providing method characterized in that it is displayed in a plane having a predetermined transparency.
상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시되는 것을 특징으로 하는 라이브 뷰 영상 제공 방법.The method of claim 2,
And the plane is displayed to have a depth corresponding to a distance to the convergence point.
상기 컨버젼스 포인트 보다 근거리에 있는 제1 피사체는 상기 평면 보다 위에 표시되고,
상기 컨버젼스 포인트 보다 원거리에 있는 제2 피사체는 상기 평면에 가려져서 표시되는 것을 특징으로 하는 라이브 뷰 영상 제공 방법.The method of claim 2,
The first subject nearer than the convergence point is displayed above the plane,
And a second subject farther than the convergence point is covered by the plane.
상기 가이드에 대한 조작 입력을 수신하는 단계와;
상기 조작 입력에 따라 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 조정하는 단계를 더 포함하는 것을 특징으로 하는 The method of claim 1,
Receiving an operation input for the guide;
Adjusting a convergence point between the plurality of optical lenses in accordance with the manipulation input.
상기 컨버젼스 포인트의 조정에 따라 상기 영상 상에서 상기 가이드의 위치를 갱신하여 표시하는 단계를 더 포함하는 것을 특징으로 하는The method of claim 5,
The method may further include updating and displaying the position of the guide on the image according to the adjustment of the convergence point.
상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하는 단계와;
상기 처리되는 영상을 라이브 뷰를 위해 디스플레이부에 표시하는 단계를 포함하고,
여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드가 표시되는 것을 특징으로 하는 라이브 뷰 영상 표시 방법.A method in an electronic device comprising a stereoscopic camera portion having a plurality of optical lenses,
Processing an image acquired through the plurality of optical lenses;
Displaying the processed image on a display unit for a live view;
The live view image display method according to claim 1, wherein a guide indicating whether one or more subjects are located in front of the front or rear of the plurality of optical lenses is displayed on the image displayed for the live view.
상기 가이드에 대한 조작 입력을 수신하는 단계와;
상기 조작 입력에 따라 상기 피사체를 상기 컨버젼스 포인트의 전방 또는 후방으로 이동하여 표시하는 것을 특징으로 하는 것을 특징으로 하는 라이브 뷰 표시 방법.The method of claim 7, wherein
Receiving an operation input for the guide;
And displaying the subject by moving the subject in front of or behind the convergence point according to the manipulation input.
상기 컨버젼스 포인트를 나타내는 제1선과;
상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선과;
상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선을 포함하는 것을 특징으로 하는 라이브 뷰 표시 방법.The method of claim 7, wherein the guide
A first line representing the convergence point;
A second line representing a forward threshold point based on the convergence point;
And a third line representing a rear threshold point based on the convergence point.
상기 하나 이상의 피사체가 상기 제2 선 또는 상기 제3 선 보다 멀리 위치하는 경우, 상기 컨버젼스 포인트를 자동으로 또는 수동으로 조정하는 단계를 더 포함하는 것을 특징으로 하는 라이브 뷰 표시 방법.10. The method of claim 9,
And adjusting the convergence point automatically or manually when the one or more subjects are located farther than the second line or the third line.
상기 컨버젼스 포인트의 조정에 따라, 상기 하나 이상의 피사체가 상기 컨벼젼스 포인트를 기준으로 상기 제2 선 또는 제3 보다 가까이 위치하게 표시되는 것을 특징으로 하는 라이브 뷰 표시 방법.The method of claim 10,
And adjusting the convergence point so that the at least one subject is positioned closer to the second line or the third based on the convergence point.
상기 가이드는 상기 라이브를 위한 영상에 PIP로 표시되는 것을 특징으로 하는 라이브 뷰 표시 방법.The method of claim 7, wherein
The guide is a live view display method characterized in that the PIP is displayed on the image for the live.
상기 가이드는 하늘에서 아래로 내려다 보는 시점으로 표시되는 것을 특징으로 하는 라이브 뷰 표시 방법.The method of claim 7, wherein
The guide is a live view display method, characterized in that displayed as a point of view looking down from the sky.
디스플레이부와;
상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하여, 상기 처리되는 영상을 라이브 뷰를 위해 상기 디스플레이부에 표시하는 프로세서를 포함하고,
여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 나타내는 가이드가 함께 표시되는 것을 특징으로 하는 전자 기기.An electronic device comprising a stereoscopic camera unit having a plurality of optical lenses,
A display unit;
A processor configured to process an image acquired through the plurality of optical lenses and display the processed image on the display unit for a live view;
The electronic device of claim 1, wherein a guide indicating a convergence point between the plurality of optical lenses is displayed on the image displayed for the live view.
소정 투명도를 갖는 평면으로 표시되고,
상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시되는 것을 특징으로 하는 전자 기기.The method of claim 14, wherein the guide
Represented by a plane with a certain transparency,
And the plane is displayed to have a sense of depth corresponding to the distance to the convergence point.
상기 가이드는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내고,
상기 가이드는 하늘에서 아래로 내려다 보는 시점으로 표시되는 것을 특징으로 하는 전자 기기.15. The method of claim 14,
The guide indicates whether one or more subjects are located in front of or behind the camera based on a convergence point between the plurality of optical lenses.
The guide is displayed as a point of view looking down from the sky.
상기 컨버젼스 포인트를 나타내는 제1선과;
상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선과;
상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선을 포함하는 것을 특징으로 하는 전자 기기.The method of claim 14, wherein the guide
A first line representing the convergence point;
A second line representing a forward threshold point based on the convergence point;
And a third line representing a rear threshold point based on the convergence point.
상기 하나 이상의 피사체가 상기 제2 선 또는 상기 제3 선 보다 멀리 위치하는 경우, 상기 컨버젼스 포인트를 자동으로 또는 수동으로 조정하는 단계를 더 포함하는 것을 특징으로 하는 전자 기기.18. The method of claim 17,
And automatically or manually adjusting the convergence point when the one or more subjects are located farther than the second line or the third line.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110084806A KR101830655B1 (en) | 2011-08-24 | 2011-08-24 | Method for displaying live view for stereoscopic camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110084806A KR101830655B1 (en) | 2011-08-24 | 2011-08-24 | Method for displaying live view for stereoscopic camera |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130022496A true KR20130022496A (en) | 2013-03-07 |
KR101830655B1 KR101830655B1 (en) | 2018-04-04 |
Family
ID=48175132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110084806A KR101830655B1 (en) | 2011-08-24 | 2011-08-24 | Method for displaying live view for stereoscopic camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101830655B1 (en) |
-
2011
- 2011-08-24 KR KR1020110084806A patent/KR101830655B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101830655B1 (en) | 2018-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101666919B1 (en) | Electronic device and control method for electronic device | |
KR101872859B1 (en) | Display device and control method thereof | |
KR101912408B1 (en) | Mobile terminal and control method for mobile terminal | |
KR20130015293A (en) | 3d camera assembly and mobile terminal having it | |
US9706194B2 (en) | Electronic device and method of controlling the same | |
KR20150041453A (en) | Wearable glass-type image display device and control method thereof | |
KR20120025834A (en) | Mobile terminal and method for controlling the same | |
KR20120079548A (en) | Display device and method for controlling thereof | |
KR20120010764A (en) | MOBILE TERMINAL AND METHOD FOR CONTROLLING A THREE DIMENSION IMAGE in thereof | |
KR20130052280A (en) | A process for processing a three-dimensional image and a method for controlling electric power of the same | |
KR20130031499A (en) | Electronic device and contents generation method for electronic device | |
KR101872864B1 (en) | Electronic device and controlling method for electronic device | |
KR20130065074A (en) | Electronic device and controlling method for electronic device | |
KR101726675B1 (en) | Method for video communication and mobile terminal using this method | |
US9438884B2 (en) | Method for processing an image and electronic device for same | |
KR20130015975A (en) | Apparatus and method for detecting a vehicle | |
KR101830655B1 (en) | Method for displaying live view for stereoscopic camera | |
KR101673409B1 (en) | Electronic device and control method for electronic device | |
KR101900089B1 (en) | Mobile terminal and control method for mobile terminal | |
KR101902403B1 (en) | Mobile terminal and method for controlling thereof | |
KR20110111606A (en) | Mobile terminal and stereoscopic image display method for mobile terminal | |
KR101850824B1 (en) | Electronic device and control method for electronic device | |
KR101924406B1 (en) | Mobile terminal and control method for mobile terminal | |
KR20120017107A (en) | Mobile terminal and method of displaying image | |
KR20130058203A (en) | Mobile terminal and method for controlling thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |