KR101830655B1 - Method for displaying live view for stereoscopic camera - Google Patents

Method for displaying live view for stereoscopic camera Download PDF

Info

Publication number
KR101830655B1
KR101830655B1 KR1020110084806A KR20110084806A KR101830655B1 KR 101830655 B1 KR101830655 B1 KR 101830655B1 KR 1020110084806 A KR1020110084806 A KR 1020110084806A KR 20110084806 A KR20110084806 A KR 20110084806A KR 101830655 B1 KR101830655 B1 KR 101830655B1
Authority
KR
South Korea
Prior art keywords
convergence point
displayed
image
line
guide
Prior art date
Application number
KR1020110084806A
Other languages
Korean (ko)
Other versions
KR20130022496A (en
Inventor
박태웅
채규열
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110084806A priority Critical patent/KR101830655B1/en
Publication of KR20130022496A publication Critical patent/KR20130022496A/en
Application granted granted Critical
Publication of KR101830655B1 publication Critical patent/KR101830655B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명의 일 실시 예는 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기를 제공한다. 상기 전자 기기는 디스플레이부와; 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하여, 상기 처리되는 영상을 라이브 뷰를 위해 상기 디스플레이부에 표시하는 프로세서를 포함한다. 여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 나타내는 가이드가 함께 표시될 수 있다.An embodiment of the present invention provides an electronic apparatus including a stereoscopic camera unit having a plurality of optical lenses. The electronic apparatus includes a display unit; And a processor for processing an image obtained through the plurality of optical lenses and displaying the processed image on the display unit for a live view. Here, an image displayed for the live view may be displayed together with a guide indicating a convergence point between the plurality of optical lenses.

Description

스테레오 스코픽 카메라에서 라이브 뷰 영상 표시 방법{METHOD FOR DISPLAYING LIVE VIEW FOR STEREOSCOPIC CAMERA}METHOD FOR DISPLAYING LIVE VIEW FOR STEREOSCOPIC CAMERA USING Stereoscopic Camera

본 발명은 스테레오 스코픽 카메라에서 라이브 뷰 영상에 관한 것이다.The present invention relates to a live view image in a stereoscopic camera.

최근 입체 영상 서비스에 대한 관심이 점점 증대되면서, 입체 영상을 제공하는 장치들이 계속 개발되고 있다. 이러한 입체 영상을 구현하는 방식 중에 스테레오스코픽(Stereoscopic) 방식이 있다.As the interest in stereoscopic image service is getting more and more popular, devices for providing stereoscopic image are being continuously developed. Among such methods of implementing stereoscopic images, there is a stereoscopic method.

상기 스테레오스코픽 방식의 기본 원리는, 사람의 좌안과 우안이 서로 직교하도록 배열된 영상을 분리하여 입력하고, 사람의 두뇌에서 좌안과 우안게 각각 입력된 영상이 결합되어 입체 영상이 생성되는 방식이다. 이때, 영상이 서로 직교하도록 배열된다는 것은 각 영상이 서로 간섭을 일으키지 않는다는 것을 의미한다.The basic principle of the stereoscopic method is that images arranged in such a manner that the left and right eyes of a person are orthogonal to each other are separated and inputted, and stereoscopic images are generated by combining images inputted from the left eye and right eye respectively in the human brain. In this case, the fact that the images are arranged to be orthogonal to each other means that the respective images do not interfere with each other.

도 1은 입체 영상 디스플레이 장치와 입체 영상 카메라를 나타낸 예시도이다.1 is an exemplary view illustrating a stereoscopic image display device and a stereoscopic image camera.

도 1(a)를 참조하여 알 수 있는 바와 같이, 입체 영상 디스플레이 장치가 나타나 있다. As can be seen from FIG. 1 (a), a stereoscopic image display device is shown.

입체 영상 디스플레이 장치를 구현하는 방법은, 안경 방식과 무안경 방식으로 크게 나뉠 수 있다.The method of implementing the stereoscopic image display device can be largely divided into a spectacle method and a non-spectacle method.

상기 안경 방식으로는 편광 방식, 시분할(time-sequential) 방식, 및 스펙트럼(spectral) 방식이 있다.The spectacle method includes a polarization method, a time-sequential method, and a spectral method.

먼저, 편광 방식은 편광 필터를 이용하여 각 영상을 분리하는 것이다. 즉, 좌안(left eye)를 이용한 영상과 우안(right eye)를 위한 영상에 서로 직교하는 편광 필터를 적용함으로써, 좌우의 시야에 편광 필터에 의해 필터링된 각기 다른 영상이 입력되게 하는 것이다. First, the polarization system separates each image using a polarizing filter. That is, by applying a polarization filter orthogonal to the left eye image and the right eye image, different images filtered by the polarization filter are input to the right and left eyes.

다음으로, 시분할 방식은 좌우 영상을 교대로 표시하고, 사용자가 착용하는 능동형 안경(active glasses)이 교대로 표시되는 영상과 동기화되어 각 영상을 분리하는 방법이다. 즉, 영상이 교대로 표시될 때, 이와 동기된 능동형 안경의 셔터가 해당 영상이 입력되어야 하는 시야만 개방하고 다른 시야는 차단함으로써, 좌우 영상을 분리하여 입력한다.Next, the time division method alternately displays left and right images, and active glasses worn by the user are synchronized with images alternately displayed, thereby separating each image. That is, when the images are alternately displayed, the shutter of the active eyeglasses synchronized with the images alternately displays the left and right images by separating the right and left images by opening only the field of view in which the corresponding image is to be input and blocking the other fields of view.

마지막으로, 스펙트럼 방식은 RGB 스펙트럼이 서로 중첩되지 않는 스펙트럼 대역을 갖는 스펙트럼 필터를 통해 좌우 영상을 투사(projection)하는 방법이다. 이렇게 투사된 좌우 영상에 대해, 사용자는 좌우 영상에 대해 설정된 스펙트럼 영역만 통과하는 스펙트럼 필터(spectral filter)를 장착한 수동형 안경(passive glasses)을 착용함으로써, 좌우 영상을 분리하여 입력받는 것이다.Finally, the spectral method is a method of projecting left and right images through a spectral filter having a spectral band in which RGB spectrums do not overlap each other. With respect to the projected left and right images, the user wears passive glasses equipped with a spectral filter passing through only the spectral region set for the left and right images, thereby receiving the left and right images separately.

한편, 무안경 방식으로는 다시점 무안경 방식이 있다. 상기 다시점 무안경 방식은 페러렉스 배리어 (Parallax Barrier) 방식과 렌티큘러 렌즈(Lenticular Lens) 방식이 있다. On the other hand, the non-eyeglass system has a retrospective eyeglass system. The above-mentioned multi-view glasses system includes a parallax barrier system and a lenticular lens system.

상기 페러렉스 베리어 방식은 디스플레이에 배리어(막)을 입히는데, 상기 베리어(막)은 수직하는 라인들로 이루어지며, 수직 라인들 사이에 슬릿(slit)이 존재한다. 상기 슬릿에 의하여 좌안가 우안에 시차를 만들어 내는 방식이다. The Parental Barrier scheme applies a barrier to the display, wherein the barrier consists of vertical lines, and there is a slit between the vertical lines. And the left eye makes the parallax in the right eye by the slit.

렌티큘러 방식은 디스플레이에 정제된 작은 렌즈들을 디스플레이에 배열하여, 영상이 작은 렌즈들에 의해 굴절되어, 좌안과 우안에 각기 다른 영상을 보여주는 방식이다.The lenticular method arranges the refined small lenses on the display on the display so that the images are refracted by the small lenses to show different images on the left and right eyes.

한편, 이와 같은 3D 또는 입체 디스플레이 장치는 3D 컨텐츠 또는 입체감을 갖는 컨텐츠의 보급이 빠르게 확산 되지 않는 탓에, 한계점을 가지고 있다.On the other hand, such a 3D or stereoscopic display device has a limitation in that the diffusion of 3D contents or contents having a stereoscopic effect does not spread quickly.

도 1(b)는 3D 또는 입체 영상을 제작할 수 있는 카메라를 나타낸다.1 (b) shows a camera capable of producing 3D or stereoscopic images.

도 1(b)에 도시된 바와 같이, 3D 또는 입체 영상을 제작할 수 있는 카메라는 상기 스테레오스코픽 방식을 이용하여, 2개의 카메라 렌즈로부터 각각의 영상을 촬영하고, 이를 통해 입체 영상을 생성한다.As shown in FIG. 1 (b), a camera capable of producing a 3D or stereoscopic image captures each image from two camera lenses using the stereoscopic method, thereby generating a stereoscopic image.

이와 같은 3D 카메라에 대한 개발이 많이 이루어지고 있으며, 제품이 속속 출시되고 있다.Many such 3D cameras are being developed, and products are being released.

그러나, 일반 사용자 입장에서 3D 또는 입체 영상을 제작하는 것은 익숙하지 않다. 특히, 사용자 입장에서 3D 또는 입체 영상은 아직까지 낯설기 때문에, 3D 또는 입체 영상 카메라를 구매하려는 욕구가 크지 않은 편이다.However, it is unfamiliar to make 3D or stereoscopic images for the general user. In particular, 3D or stereoscopic images are not yet familiar to the user, so the need to purchase 3D or stereoscopic cameras is not so great.

따라서, 본 명세서는 전술한 문제점들을 해결하는 방안들을 제공하는 것을 목적으로 한다. 구체적으로, 본 명세서는 스테레오 스코픽, 즉, 3D 컨텐츠를 쉽게 제작할 수 있도록 하는 방안들을 제공하는 것을 목적으로 한다. Accordingly, the present specification aims at providing measures to solve the above-mentioned problems. Specifically, the present specification aims to provide a method for easily creating stereoscopic, that is, 3D contents.

전술한 목적을 달성하기 위하여, 본 발명의 일 실시 예는 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기를 제공한다. 상기 전자 기기는 디스플레이부와; 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하여, 상기 처리되는 영상을 라이브 뷰를 위해 상기 디스플레이부에 표시하는 프로세서를 포함한다. 여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 나타내는 가이드가 함께 표시될 수 있다.In order to achieve the above object, an embodiment of the present invention provides an electronic apparatus including a stereoscopic camera unit having a plurality of optical lenses. The electronic apparatus includes a display unit; And a processor for processing an image obtained through the plurality of optical lenses and displaying the processed image on the display unit for a live view. Here, an image displayed for the live view may be displayed together with a guide indicating a convergence point between the plurality of optical lenses.

상기 가이드는 소정 투명도를 갖는 평면으로 표시되고, 상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시될 수 있다.The guide may be represented by a plane having a predetermined transparency, and the plane may be displayed to have a depth sense corresponding to the distance to the convergence point.

상기 가이드는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내고, 상기 가이드는 하늘에서 아래로 내려다보는 시점으로 표시될 수 있다.The guide indicates whether at least one subject is positioned forward or rearward with respect to a convergence point between the plurality of optical lenses, and the guide may be displayed as a view pointing downward from the sky.

한편, 전술한 목적을 달성하기 위하여, 본 발명의 일 실시 예는 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기에서의 방법을 제공한다. 상기 방법은 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하는 단계와; 상기 처리되는 영상을 라이브 뷰를 위해 디스플레이부에 표시하는 단계를 포함할 수 있다. 여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트에 대응하는 가이드가 함께 표시될 수 있다.According to another aspect of the present invention, there is provided an electronic device including a stereoscopic camera unit including a plurality of optical lenses. The method comprising: processing an image obtained through the plurality of optical lenses; And displaying the processed image on a display unit for a live view. Here, an image displayed for the live view may be displayed together with a guide corresponding to a convergence point between the plurality of optical lenses.

상기 가이드는 소정 투명도를 갖는 평면으로 표시될 수 있고, 상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시될 수 있다.The guide may be displayed in a plane having a predetermined transparency, and the plane may be displayed to have a depth sense corresponding to the distance to the convergence point.

상기 컨버젼스 포인트 보다 근거리에 있는 제1 피사체는 상기 평면 보다 위에 표시되고, 상기 컨버젼스 포인트 보다 원거리에 있는 제2 피사체는 상기 평면에 가려져서 표시될 수 있다.The first object located closer to the convergence point may be displayed above the plane and the second object which is farther from the convergence point may be displayed while being hidden from the plane.

상기 방법은 상기 가이드에 대한 조작 입력을 수신하는 단계와; 상기 조작 입력에 따라 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 조정하는 단계를 더 포함할 수 있다. 상기 컨버젼스 포인트의 조정에 따라 상기 영상 상에서 상기 가이드의 위치를 갱신하여 표시하는 단계를 더 포함할 수 있다.The method includes receiving an operation input for the guide; And adjusting a convergence point between the plurality of optical lenses according to the manipulation input. And updating and displaying the position of the guide on the image in accordance with the adjustment of the convergence point.

한편, 전술한 목적을 달성하기 위하여, 본 발명의 일 실시 예는 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기에서의 방법을 또한 제공한다. 상기 방법은 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하는 단계와; 상기 처리되는 영상을 라이브 뷰를 위해 디스플레이부에 표시하는 단계를 포함할 수 있다. 여기서 상기 라이브 뷰를 위해 표시되는 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드가 표시될 수 있다. In order to achieve the above object, an embodiment of the present invention also provides a method in an electronic apparatus including a stereoscopic camera unit having a plurality of optical lenses. The method comprising: processing an image obtained through the plurality of optical lenses; And displaying the processed image on a display unit for a live view. Here, the image displayed for the live view may be displayed with a guide indicating whether at least one subject is located forward or backward with respect to the convergence point between the plurality of optical lenses.

상기 방법은 상기 가이드에 대한 조작 입력을 수신하는 단계와; 상기 조작 입력에 따라 상기 피사체를 상기 컨버젼스 포인트의 전방 또는 후방으로 이동하여 표시하는 단계를 더 포함할 수 있다. The method includes receiving an operation input for the guide; And moving the subject in front of or backward of the convergence point according to the operation input.

상기 가이드는: 상기 컨버젼스 포인트를 나타내는 제1선과; 상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선과; 상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선을 포함할 수 있다.The guide comprising: a first line representing the convergence point; A second line indicating a forward limit point based on the convergence point; And a third line indicating a rear limit point based on the convergence point.

상기 방법은 상기 하나 이상의 피사체가 상기 제2 선 또는 상기 제3 선 보다 멀리 위치하는 경우, 상기 컨버젼스 포인트를 자동으로 또는 수동으로 조정하는 단계를 더 포함할 수 있다.The method may further comprise automatically or manually adjusting the convergence point if the at least one subject is located further than the second line or the third line.

상기 컨버젼스 포인트의 조정에 따라, 상기 하나 이상의 피사체가 상기 컨벼젼스 포인트를 기준으로 상기 제2 선 또는 제3 보다 가까이 위치하게 표시될 수 있따.According to the adjustment of the convergence point, the at least one subject may be displayed closer to the second line or third relative to the confluence point.

상기 가이드는 상기 라이브를 위한 영상에 PIP로 표시될 수 있다. 상기 가이드는 하늘에서 아래로 내려다보는 시점으로 표시될 수 있다.The guide may be displayed as a PIP in an image for the live. The guide may be displayed as a view looking downward from the sky.

본 명세서의 개시에 의하여, 전술한 종래 기술의 문제점들이 해결된다. Disclosure of the present invention solves the problems of the prior art described above.

구체적으로, 본 명세서의 개시에 의해, 라이브 뷰 영상에 컨버젼스 포인트에 대해서 표시함으로써, 일반 사용자가 컨버젼스 포인트를 직관적으로 알 수 있게 한다. 따라서, 일반 사용자도 스테레오 스코픽, 즉, 3D 컨텐츠를 쉽게 제작할 수 있게 된다.Specifically, by the disclosure of the present specification, the convergence point is displayed on the live view image, so that the general user can intuitively recognize the convergence point. Therefore, ordinary users can easily create stereo scopes, that is, 3D contents.

도 1은 입체 영상 디스플레이 장치와 입체 영상 카메라를 나타낸 예시도이다.
도 2는 본 발명에 따른 전자 기기의 외형을 나타낸다.
도 3은 본 발명의 제1 실시예에 따른 라이브 영상 제공 방법을 나타낸 흐름도이다.
도 4는 컨버젼스 포인트에 대한 이해를 도모하기 위한 일 예시도이다.
도 5는 컨버젼스 포인트에 대한 이해를 도모하기 위한 다른 예시도이다.
도 6은 컨버젼스 포인트에 대한 이해를 도모하기 위한 또 다른 예시도이다.
도 7은 컨버젼스 포인트에 대한 이해를 도모하기 위한 또 다른 예시도이다.
도 8은 도 3에 도시된 과정에 따라 표시되는 라이브 뷰 영상을 나타낸 예시도이다.
도 9는 본 발명의 제2 실시예에 따른 라이브 영상 제공 방법을 나타낸 흐름도이다.
도 10은 도 9에 도시된 과정에 따라 표시되는 라이브 뷰 영상을 나타낸 예시도이다.
도 11은 본 발명에 따른 전자 기기가 이동 통신 단말기인 경우의 구성을 나타낸 블록도이다.
도 12는 본 발명에 따른 전자 기기가 휴대 가능한 단말기인 경우의 구성을 나타낸 블록도이다.
1 is an exemplary view illustrating a stereoscopic image display device and a stereoscopic image camera.
2 shows the outline of an electronic device according to the present invention.
3 is a flowchart illustrating a live video providing method according to the first embodiment of the present invention.
Fig. 4 is an example for understanding convergence points.
FIG. 5 is another example for understanding the convergence point.
FIG. 6 is another example for understanding the convergence point.
FIG. 7 is another exemplary diagram for explaining the convergence point.
FIG. 8 is a view illustrating an example of a live view image displayed according to the procedure shown in FIG.
9 is a flowchart illustrating a live video providing method according to a second embodiment of the present invention.
FIG. 10 is an exemplary view showing a live view image displayed according to the procedure shown in FIG.
11 is a block diagram showing a configuration in the case where the electronic device according to the present invention is a mobile communication terminal.
FIG. 12 is a block diagram showing a configuration in the case where the electronic device according to the present invention is a portable terminal.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used herein are used only to describe specific embodiments and are not intended to limit the invention. It is also to be understood that the technical terms used herein are to be interpreted in a sense generally understood by a person skilled in the art to which the present invention belongs, Should not be construed to mean, or be interpreted in an excessively reduced sense. Further, when a technical term used herein is an erroneous technical term that does not accurately express the spirit of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art are replaced. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In the present application, the term "comprising" or "comprising" or the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Further, the suffix "module" and "part" for components used in the present specification are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Furthermore, terms including ordinals such as first, second, etc. used in this specification can be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도 2는 본 발명에 따른 전자 기기의 외형을 나타낸다.2 shows the outline of an electronic device according to the present invention.

도 2를 참조하여 알 수 있는 바와 같이, 전자 기기(100)가 예시적으로 휴대 가능한 단말기로 나타나 있다. 상기 휴대 가능한 단말기는 카메라, 이동통신 단말기, 멀티미디어 재생 단말기, 태블릿 단말기 중 하나 일 수 있다. 보다 구체적으로, 상기 휴대 가능한 단말기는 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 스마트 폰(Smart Phone), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 노트북 컴퓨터, 태블릿 PC(Tablet PC) 중 어느 하나 일 수 있다. As can be seen with reference to FIG. 2, the electronic device 100 is illustrated as an exemplary portable terminal. The portable terminal may be one of a camera, a mobile communication terminal, a multimedia playback terminal, and a tablet terminal. More specifically, the portable terminal may be a mobile terminal, a personal digital assistant (PDA), a smart phone, a portable multimedia player (PMP), a notebook computer, a tablet PC (Tablet PC).

그러나, 상기 전자 기기(100)는 휴대 가능하지 않은 단말기, 예컨대 IPTV(Internet Protocol Television) 단말기, 텔레비전(Television), 3D 텔레비전, 영상 기기, 텔레매틱스(Telematics) 단말기, 차량 설치용 내비게이션(Navigation) 단말기일 수도 있다.However, the electronic device 100 may be a non-portable terminal such as an Internet Protocol Television (IPTV) terminal, a television, a 3D television, a video device, a telematics terminal, or a vehicle installation navigation terminal have.

이와 같은 상기 전자 기기는 도시된 바와 같이, 카메라부(121)와 디스플레이부(151)를 포함할 수 있다. 상기 전자 기기(100)가 휴대 가능한 단말기일 경우, 상기 디스플레이부(151)는 휴대 가능 단말기의 전면에 장착되고, 상기 카메라부(121)는 2에 도시된 바와 같이, 휴대 가능 단말기의 후면에 장착될 수 있다. 대안적으로, 상기 카메라부(121)는 휴대 가능 단말기의 전면에도 장착될 수도 있다.The electronic device may include a camera unit 121 and a display unit 151 as shown in FIG. The display unit 151 is mounted on the front face of the portable terminal and the camera unit 121 is mounted on the rear face of the portable terminal as shown in FIG. . Alternatively, the camera unit 121 may be mounted on the front surface of the portable terminal.

상기 카메라부(121)는 도시된 바와 같이 수평 간격으로 이격되어 설치되는 적어도 한 쌍의 광학 렌즈(121a, 121b)를 포함할 수 있다. 이와 같은 상기 카메라부(121)는 스테레오 카메라(stereo camera) 또는, 스테레오코스픽 카메라(stereoscopic camera)로 불리기도 한다. 이때, 상기 고정된 수평 간격은, 일반적인 사람의 두 눈 간의 거리를 고려하여 설정할 수 있다.The camera unit 121 may include at least one pair of optical lenses 121a and 121b spaced apart from each other as shown in FIG. The camera unit 121 may also be referred to as a stereo camera or a stereoscopic camera. At this time, the fixed horizontal interval may be set considering the distance between two eyes of a general person.

이와 같이 제1 및 제2 광학 렌즈(121a, 121b)를 구비한 상기 전자 기기(100)에서 라이브 뷰를 제공하는 방법을 이하 설명하기로 한다.A method of providing a live view in the electronic apparatus 100 having the first and second optical lenses 121a and 121b will now be described.

도 3은 본 발명의 제1 실시예에 따른 라이브 영상 제공 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a live video providing method according to the first embodiment of the present invention.

먼저, 상기 복수의 광학 렌즈들을 통해 획득되는 영상이 처리된다(S110). 상기 영상을 처리한다 함은 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 이미지 센서 또는 CMOS 센서를 통해 전기적 신호로 변환하고, 상기 전기적 신호를 신호 처리하는 것을 의미한다.First, an image obtained through the plurality of optical lenses is processed (S110). Processing the image means converting an image obtained through the plurality of optical lenses into an electrical signal through an image sensor or a CMOS sensor, and signal processing the electrical signal.

이어서, 상기 처리된 영상이 라이브 뷰를 위해 전술한 디스플레이부(151)에 표시된다(S120). Then, the processed image is displayed on the display unit 151 for live view (S120).

이때, 상기 라이브 뷰를 위한 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트에 대응하는 가이드가 함께 표시된다(S130). 컨버젼스 포인트라 함은 입체감이 0인 지점을 말한다. 이에 대해서는 도 4 내지 도 8을 참조하여 보다 상세하게 설명하기로 한다.At this time, a guide corresponding to the convergence point between the plurality of optical lenses is displayed together with the image for the live view (S130). Convergence point refers to the point where the 3D sensation is zero. This will be described in more detail with reference to FIGS. 4 to 8. FIG.

도 4는 컨버젼스 포인트에 대한 이해를 도모하기 위한 일 예시도이며, 도 5는 컨버젼스 포인트에 대한 이해를 도모하기 위한 다른 예시도이고, 도 6는 컨버젼스 포인트에 대한 이해를 도모하기 위한 또 다른 예시도이고, 도 7은 컨버젼스 포인트에 대한 이해를 도모하기 위한 또 다른 예시도이다.FIG. 4 is an example for understanding understanding of the convergence point, FIG. 5 is another example for understanding the convergence point, and FIG. 6 is another example for understanding the convergence point. And FIG. 7 is another exemplary diagram for explaining the convergence point.

먼저, 도 4를 참조하여 알 수 있는 바와 같이, 제1 광학 렌즈와 제2 광학 렌즈의 초점 거리가 서로 일치하는 지점이 컨버젼스 포인트이다. 이러한 컨버젼스 포인트는 도 4(a)에 나타난 바와 같이 거리 조절이 가능하다. 따라서, 촬영 대상물인 주 피사체를 컨버젼스 포인트 맞추게 되면, 상기 주 피사체는 입체감이 없이, 즉 상기 도가 0이 되어 촬영된다.First, referring to FIG. 4, a point at which the focal lengths of the first optical lens and the second optical lens coincide with each other is a convergence point. Such a convergence point can be adjusted in distance as shown in Fig. 4 (a). Therefore, when the main subject, which is an object to be photographed, is set to the convergence point, the main subject is photographed with no stereoscopic effect, that is, with a degree of zero.

도 4(b)를 참조하면, 육면체와 원기둥이 있고, 이를 촬영한다고 가정하자. 육면체 보다 더 멀리 있는 지점에 컨버젼스 포인트를 맞춘 후, 상기 육면체와 상기 원기둥을 촬영하면, 상기 정육면체는 입체도를 가지면서 배경보다 앞에 위치하고, 원기둥은 입체감을 가지면서 정육면체보다 앞에 위치하는 것으로 표현된다.Referring to Fig. 4 (b), assume that there are a hexahedron and a cylinder, and that it is photographed. If the hexahedron and the cylinder are photographed after the convergence point is aligned with a point farther than the hexahedron, the cube is positioned in front of the background with a stereoscopic view, and the cylinder is expressed in front of the cube with a cubic feeling.

한편, 도 5을 참조하면, 컨버젼스 포인트를 조절하여, 육면체에 맞춘 후, 촬영을 하게 되면, 상기 육면체는 입체도가 없이 2D로 표현되는 반면, 상기 원기둥은 상기 육면체보다 전방에 위치하는 것처럼 입체도가 표현될 수 있다.Referring to FIG. 5, when the convergence point is adjusted to fit the hexahedron, the hexahedron is represented as 2D without stereoscopic view, while the cylindrical is stereoscopic as if it is positioned ahead of the hexahedron Can be expressed.

다른 예로서, 도 6을 참조하면, 컨버젼스 포인트를 조절하여, 원기둥에 맞춘후 촬영을 하게 되면, 상기 원기둥은 입체도가 없이 2D로 표현되는 반면, 상기 육면체는 상기 원기둥 보다 뒤에 위치하는 것처럼 입체도가 표현될 수 있다.As another example, referring to FIG. 6, when the convergence point is adjusted so that the cylinder is photographed after being aligned with the cylinder, the cylinder is expressed in 2D without stereoscopic effect, while the cubic body is stereoscopically Can be expressed.

한편, 도 7(a)을 참조하면, 육면체의 뒤에 원기둥이 위치하고, 육면체의 앞으로도 원기둥이 위치한다고 하자. 이때, 전방의 원기둥에 컨버젼스 포인트를 맞춘 후, 촬영을 하면, 도 7(b)를 통해 알 수 있는 바와 같이, 전방의 원기둥은 2D로 표현되는 반면, 육면체는 입체감을 가지면서 전방의 원기둥보다 멀리 있는 것으로 표현되고, 후방의 원기둥은 입체감을 가지면서 육면체보다 멀리 있는 것으로 표현된다.On the other hand, referring to Fig. 7 (a), it is assumed that a cylinder is positioned behind the hexahedron, and a cylinder is located after the hexahedron. At this time, as shown in Fig. 7 (b), when the convergence point is aligned with the cylinder at the front, the front cylinder is represented by 2D, while the cube has a cubic feeling and is farther away from the front cylinder And the rear cylinder is expressed as having a cubic shape and being farther than the cube.

한면, 이와 같이 컨버젼스 포인트를 어느 피사체에 맞추는지에 따라서 영상의 입체감이 다르게 된다. 즉, 일반적인 촬영 기법에서 사진 구도를 조절하듯이, 컨벼젼스 포인트를 조절함으로써, 입체 영상에서 입체도를 조절할 수 있다.In this way, the stereoscopic effect of the image is different depending on which object the convergence point is set to. In other words, stereoscopic viewing can be controlled in stereoscopic images by adjusting the conjugation point, as in the case of a conventional photography technique.

그러나, 지금까지의 스테레오 스코픽 카메라는 이러한 컨버젼스 포인트를 조절하는 것이 용이하지 않았다. 따라서, 일반 사용자는 컨벼젼스 포인트를 조절하여 영상을 촬영하는 것이 쉽지 않았다. However, conventional stereo-scopic cameras have not been easy to control such convergence points. Therefore, it was not easy for the general user to photograph the image by adjusting the congence point.

따라서, 본 발명의 제1 실시예는 사용자가 입체 영상을 촬영할 때, 컨버젼스 포인트를 가이드를 통해 제공하고, 이를 통해 사용자가 쉽게 컨버젼스 포인트를 조절할 수 있도록 한다. Therefore, the first embodiment of the present invention provides the convergence point through the guide when the user photographs the stereoscopic image, thereby allowing the user to easily adjust the convergence point.

도 8은 도 3에 도시된 과정에 따라 표시되는 라이브 뷰 영상을 나타낸 예시도이다.FIG. 8 is a view illustrating an example of a live view image displayed according to the procedure shown in FIG.

도 8을 참조하여 알 수 있는 바와 같이, 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트에 대응하는 가이드는 소정 투명도를 갖는 평면으로 표시될 수 있다. As can be seen from FIG. 8, the guide corresponding to the convergence point between the plurality of optical lenses may be displayed as a plane having a predetermined transparency.

상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시될 수 있다. 다시 말해서, 도 8에 도시된 바와 같이, 가로축 x, 세로축 y, 깊이축 z가 있을 때, 상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이로 상기 z축 상에서 표시된다. The plane may be displayed to have a depth sense corresponding to the distance to the convergence point. In other words, as shown in Fig. 8, when there is a horizontal axis x, a vertical axis y, and a depth axis z, the plane is displayed on the z axis at a depth corresponding to the distance to the convergence point.

상기 컨버젼스 포인트 보다 근거리에 있는 육면체는 상기 평면 위에 표시되고, 상기 컨버젼스 포인트 보다 원거리에 있는 제2 피사체는 상기 평면에 가려져서 표시될 수 있다.A hexahedron located closer to the convergence point may be displayed on the plane, and a second object that is distant from the convergence point may be displayed on the plane.

이러한, 상기 컨버젼스 포인트의 거리를 사용자가 조작할 수 있다. 즉, 상기 전자 기기는 상기 컨버젼스 포인트의 조작을 위한 버튼부를 구비하거나, 상기 컨벼젼스 포인트의 조작을 위한 버튼을 상기 디스플레이부에 표시할 수 있다.The user can manipulate the distance of the convergence point. That is, the electronic device may include a button for operating the convergence point, or may display a button for operating the confidential point on the display unit.

사용자로부터 상기 컨버져스 포인트에 대한 조작 신호를 입력받으면, 상기 전자 기기는 상기 조작 입력에 따라 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 조정할 수 있다.  When the manipulation signal for the convergence point is input from the user, the electronic device can adjust the convergence point between the plurality of optical lenses according to the manipulation input.

그리고, 상기 전자 기기는 상기 컨버젼스 포인트의 조정에 따라 상기 라이브 뷰 영상 상에서 상기 가이드의 위치를 갱신하여 표시할 수 있다.The electronic device can update and display the position of the guide on the live view image in accordance with the adjustment of the convergence point.

예를 들어, 사용자가 상기 컨버젼스 포인트를 보다 근거리로 이동하는 경우, 도 8에서 상기 가이드, 즉 소정 투명도를 갖는 평면은 z 축을 따라 + 방향으로 이동하여 표시된다. 반면, 사용자가 상기 컨버젼스 포인트를 보다 원거리로 이동 조작하는 경우, 상기 가이드, 즉 소정 투명도를 갖는 평면은 z축을 따라 ? 방향으로 이동되어 표시된다.For example, when the user moves the convergence point more closely, the guide in FIG. 8, that is, the plane having predetermined transparency is displayed in the + direction along the z axis. On the other hand, when the user moves the convergence point more distantly, the guide, that is, a plane having a predetermined transparency is moved along the z axis. Direction and displayed.

이와 같이, 상기 컨버젼스 포인트에 대한 가이드 화면을 라이브 뷰 영상에 제공함으로써, 사용자는 보다 쉽게 컨버젼스 포인트를 원하는 피사체에 맞출 수 있게 되고, 입체 영상의 입체 구도를 희망하는 바에 따라 조절할 수 있게 된다. By providing the guide screen for the convergence point to the live view image, the user can more easily adjust the convergence point to the desired object, and the stereoscopic view of the stereoscopic image can be adjusted as desired.

도 9는 본 발명의 제2 실시예에 따른 라이브 영상 제공 방법을 나타낸 흐름도이다.9 is a flowchart illustrating a live video providing method according to a second embodiment of the present invention.

도 9를 참조하면, 먼저, 상기 복수의 광학 렌즈들을 통해 획득되는 영상이 처리된다(S210). 상기 영상을 처리한다 함은 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 이미지 센서 또는 CMOS 센서를 통해 전기적 신호로 변환하고, 상기 전기적 신호를 신호 처리하는 것을 의미한다.Referring to FIG. 9, an image obtained through the plurality of optical lenses is processed (S210). Processing the image means converting an image obtained through the plurality of optical lenses into an electrical signal through an image sensor or a CMOS sensor, and signal processing the electrical signal.

이어서, 상기 처리된 영상이 라이브 뷰를 위해 전술한 디스플레이부(151)에 표시된다(S220). Then, the processed image is displayed on the display unit 151 for live view (S220).

상기 라이브 뷰 영상은 도 10(a)의 좌측에 표시된 화면과 같을 수 있다. 이때, 도 10(a)의 좌측을 참조하면 장면 상에 복수의 피사체들이 존재한다 이때, 도 10(a)의 우측과 같이, 상기 복수의 피사체들은 서로 다른 거리에 위치하고 있다. 이와 같이, 복수의 피사체들이 서로 다른 거리에 위치하고 있을 때, 컨버젼스 포인트를 적절하게 조절하지 아니하면, 임의 피사체는 너무 큰 입체감으로 표시될 수 있다. 즉, 컨버젼스 포인트의 기준선으로부터 지나치게 전방에 위치한 피사체는, 매우 큰 입체감을 갖게 표현될 수 있다. 그러나, 일반적인 사용자는 특별한 지식과 경험없이, 어느 정도의 입체감이 표현되도록 촬영을 해야 하는지 잘 모를 수 있다.The live view image may be the same as the screen shown on the left side of FIG. 10 (a). At this time, referring to the left side of FIG. 10 (a), there are a plurality of subjects on the scene. At this time, the plurality of subjects are located at different distances as shown in the right side of FIG. 10 (a). As such, when a plurality of subjects are located at different distances, any subject may be displayed with a too large stereoscopic effect unless the convergence point is appropriately adjusted. That is, a subject located far away from the reference line of the convergence point can be expressed with a very large stereoscopic effect. However, a general user may not know how much stereoscopic effect should be taken without special knowledge and experience.

따라서, 상기 라이브 뷰를 위한 영상에는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드가 표시된다(S230). 이와 같이, 피사체들이 컨버젼스 포인트를 기준으로 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드를 제공한다.Accordingly, in the image for the live view, a guide indicating whether at least one subject is located forward or backward is displayed based on the convergence point between the plurality of optical lenses (S230). Thus, a guide is provided which indicates whether the subjects are located forward or backward with respect to the convergence point.

이를 위해, 도 10(b) 좌측에 도시된 바와 같이, 상기 전자 기기(100)는 상기 피사체와의 거리를 측정할 수 있다. 이를 위해, 상기 전자 기기(100)는 거리 측정 센서를 포함할 수 있다. 상기 거리 측정 센서는 적외선 센서를 포함할 수 있다. To this end, as shown in the left side of FIG. 10 (b), the electronic device 100 can measure the distance to the subject. To this end, the electronic device 100 may include a distance measuring sensor. The distance measuring sensor may include an infrared sensor.

대안적으로, 상기 전자 기기(100)는 상기 거리 측정 센서의 도움없이, 상기 복수의 카메라를 통해 각기 획득되는 영상에서 디스패리티(Disparity)를 산출하고, 상기 디스패리티를 이용하여, 각 피사체와의 거리를 구할 수 있다.Alternatively, the electronic device 100 may calculate a disparity in an image obtained through the plurality of cameras without the assistance of the distance measuring sensor, and calculate a disparity between each object You can get a distance.

그리고, 도 10(b)에 도시된 바와 같이, 상기 전자 기기(100)는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내는 가이드 화면을 라이브 뷰 영상과 함께 표시할 수 있다.10 (b), the electronic device 100 displays a guide screen indicating whether at least one subject is located at the front side or rear side based on the convergence point between the plurality of optical lenses It can be displayed together with the view image.

상기 가이드 화면은 하늘에서 아래로 내려다 보는 시점, 예컨대 Bird View 시점으로 표시될 수 있다.The guide screen may be displayed at a time of looking downward from the sky, for example, a Bird View time.

상기 가이드 화면은 도 10(b) 우측과 같이, 상기 컨버젼스 포인트를 나타내는 제1선(즉, 컨버젼스 포인트 기준선)과, 상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선(즉, 전방 한계선)과, 상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선(즉, 후방 한계선)을 포함할 수 있다.10 (b), the guide screen includes a first line (i.e., a convergence point reference line) indicating the convergence point, a second line (i.e., a front limit line) indicating a forward limit point based on the convergence point, , And a third line representing a rear limit point based on the convergence point (i.e., a rear limit line).

이때, 상기 전자 기기(100)는 상기 가이드 화면을 제공하면서, 상기 컨버젼스 포인트를 자동으로 조절할 수 있다. 즉, 상기 전자 기기(100)는 오토 컨버젼스 기능을 제공할 수 있다. At this time, the electronic device 100 may automatically adjust the convergence point while providing the guide screen. That is, the electronic device 100 may provide an auto-convergence function.

다시 말해서, 상기 전자 기기(100)는 장면 상에 복수의 피사체들이 있을 때, 각 피사체와의 거리를 산출하고, 주 피사체와 보조 피사체가 적절한 입체감으로 표현되도록, 컨버젼스 포인트를 자동으로 조절할 수 있다. 이러한 자동 조절 기능은, 임의 피사체가 전술한 후방 한계선 또는 전방 한계선 보다 더 먼 거리에 위치할 때 자동으로 이루어질 수 있다. 또는, 이러한 자동 조절 기능은, 주 피사체가 일정한 입체감으로 표현되도록 하기 위해서, 수행될 수 있다.In other words, when the electronic apparatus 100 has a plurality of subjects on the scene, it calculates the distance to each subject, and automatically adjusts the convergence point so that the main subject and the auxiliary subject are expressed with proper stereoscopic effect. Such an automatic adjustment function can be automatically performed when an arbitrary subject is located at a greater distance than the above-described rear limit line or the front limit line. Alternatively, such an automatic adjustment function may be performed in order to cause the main subject to be displayed with a constant dimensional feeling.

대안적으로, 상기 전자 기기(100)는 상기 가이드 화면을 제공하고, 사용자가 상기 가이드 화면을 통해 상기 컨버젼스 포인트를 조절할 수 있도록 할 수 있다.Alternatively, the electronic device 100 may provide the guide screen and allow the user to adjust the convergence point through the guide screen.

이를 위해, 상기 전자 기기(100)는 상기 컨버젼스 포인트의 조작을 위한 버튼부를 구비하거나, 상기 컨벼젼스 포인트의 조작을 위한 버튼을 상기 디스플레이부에 표시할 수 있다. 대안적으로, 상기 컨버젼스 포인트의 조절은 상기 컨버젼스 포인트 기준선을 터치 앤 드래그함으로써, 이루어질 수 있다. 또는, 상기 컨버젼스 포인트의 조절은 상기 전방 한계선 또는 후방 한계선을 터치 앤 드래그함으로써, 이루어질 수 있다. 대안적으로, 상기 컨버젼스 포인트의 조절은 상기 화면 내의 피사체를 터치함으로써, 이루어질 수 있다. To this end, the electronic device 100 may include a button for operating the convergence point, or may display a button for operating the convergence point on the display unit. Alternatively, adjustment of the convergence point may be accomplished by touching and dragging the convergence point baseline. Alternatively, adjustment of the convergence point may be accomplished by touching and dragging the front limit line or the back limit line. Alternatively, the adjustment of the convergence point may be made by touching the object in the screen.

만약, 사용자로부터 상기 가이드에 대한 조작 입력을 수신하면, 상기 전자 기기는 상기 조작 입력에 따라 상기 피사체를 상기 컨버젼스 포인트의 전방 또는 후방으로 이동하여 표시할 수 있다.If an operation input to the guide is received from a user, the electronic apparatus can move the subject forward or backward in accordance with the operation input to display the converged point.

이상에서 설명한 방법은 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The method described above can be implemented in a recording medium that can be read by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 지금까지 설명한 방법들은 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. According to a hardware implementation, the methods described so far can be applied to various types of application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays processors, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 적절한 프로그램 언어로 쓰여진 소프트웨어 코드로 구현될 수 있다. 상기 소프트웨어 코드는 저장부에 저장될 수 있고, 프로세서에 의해 실행될 수 있다.According to a software implementation, the procedures and functions described herein may be implemented in separate software modules. The software modules may be implemented in software code written in a suitable programming language. The software code may be stored in a storage unit and executed by a processor.

도 11는 본 발명에 따른 전자 기기가 이동 통신 단말기인 경우의 구성을 나타낸 블록도이다.11 is a block diagram showing a configuration in the case where the electronic device according to the present invention is a mobile communication terminal.

상기 이동 통신 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 11에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 통신 단말기가 구현될 수도 있다.The mobile communication terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, An interface unit 170, a control unit 180, a power supply unit 190, and the like. The components shown in Fig. 11 are not essential, and a mobile communication terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 통신 단말기(100)와 무선 통신 시스템 사이 또는 이동 통신 단말기(100)와 이동 통신 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile communication terminal 100 and the wireless communication system or between the mobile communication terminal 100 and the network in which the mobile communication terminal 100 is located . For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. 방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112. The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 통신 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 is a module for wireless Internet access, and may be embedded in the mobile communication terminal 100 or externally. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(115)은 이동 통신 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for acquiring the position of the mobile communication terminal, and a representative example thereof is a GPS (Global Position System) module.

상기 카메라부(121)는 전술한 바와 같이 제1 광학 렌즈(121a) 및 제2 광학 렌즈(121b)를 포함할 수 있다. 또한, 상기 카메라부(121)는 전술한 바와 같이 노출계 센서를 더 포함할 수 있다. 상기 카메라부(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. The camera unit 121 may include a first optical lens 121a and a second optical lens 121b as described above. In addition, the camera unit 121 may further include an exposure meter sensor as described above. The image frame processed by the camera unit 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 통신 단말기(100)의 개폐 상태, 이동 통신 단말기(100)의 위치, 사용자 접촉 유무, 이동 통신 단말기의 방위, 이동 통신 단말기의 가속/감속 등과 같이 이동 통신 단말기(100)의 현 상태를 감지하여 이동 통신 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 통신 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다.The sensing unit 140 senses the position of the mobile communication terminal 100 such as the open / close state of the mobile communication terminal 100, the position of the mobile communication terminal 100, the presence of the user, the orientation of the mobile communication terminal, And generates a sensing signal for controlling the operation of the mobile communication terminal 100. For example, when the mobile communication terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. It is also possible to sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 오디오 출력부(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 may include a display unit 151, an audio output unit 152, an alarm unit 153, and a haptic module 154, for example, for generating an output related to visual, auditory, have.

디스플레이부(151)는 이동 통신 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 통신 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 통신 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The display unit 151 displays (outputs) information processed in the mobile communication terminal 100. For example, when the mobile communication terminal is in the call mode, a UI (User Interface) or GUI (Graphic User Interface) related to the call is displayed. When the mobile communication terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received image, UI, and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, a 3D display, and an e-ink display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 통신 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 통신 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.According to the embodiment of the mobile communication terminal 100, two or more display units 151 may exist. For example, in the mobile communication terminal 100, a plurality of display units may be spaced apart from one another or integrally disposed, or may be disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

도 2를 참조하면, 상기 디스플레이부(151) 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.Referring to FIG. 2, a proximity sensor 141 may be disposed near the display unit 151. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

오디오 출력부(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 오디오 출력부(152)은 이동 통신 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 오디오 출력부(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The audio output unit 152 outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile communication terminal 100. [ The audio output unit 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 통신 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 통신 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile communication terminal 100. Examples of events generated in the mobile communication terminal include a call signal reception, a message reception, a key signal input, and a touch input. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or a suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 이동 통신 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. At least two haptic modules 154 may be provided according to the configuration of the mobile communication terminal 100.

메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 160 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory 160 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 통신 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read- A disk, and / or an optical disk. The mobile communication terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 통신 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 통신 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 통신 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.The interface unit 170 serves as a path for communication with all external devices connected to the mobile communication terminal 100. The interface unit 170 receives data from an external device or supplies power to each component in the mobile communication terminal 100 or allows data in the mobile communication terminal 100 to be transmitted to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 통신 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identify module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.The identification module is a chip for storing various information for authenticating the usage right of the mobile communication terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM) a universal subscriber identity module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 이동 통신 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. The controller 180 typically controls the overall operation of the mobile communication terminal. For example, voice communication, data communication, video communication, and the like.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

이상에서는, 상기 전자 기기(100)가 이동통신 단말기인 경우에 구성에 대해서 설명하였다. 이하에서는 상기 전자 기기(100)가 휴대 가능 단말기 인 경우에 구성에 대해서 설명하기로 한다.In the above description, the configuration of the electronic device 100 in the case of a mobile communication terminal has been described. Hereinafter, a description will be given of a configuration in the case where the electronic device 100 is a portable terminal.

도 12는 본 발명에 따른 전자 기기가 휴대 가능 단말기인 경우의 구성을 나타낸 블록도이다.12 is a block diagram showing a configuration in the case where the electronic device according to the present invention is a portable terminal.

도 12를 참조하면, 본 발명의 일 실시예에 의한 디지털 기기(100)가 휴대 가능한 단말기, 예컨대 카메라, 멀티미디어 재생 단말기, 태블릿 단말기 중 하나 일 경우가 나타나 있다.Referring to FIG. 12, there is shown a case where the digital device 100 according to an exemplary embodiment of the present invention is one of portable terminals, for example, a camera, a multimedia player, and a tablet terminal.

이러한 휴대 가능 단말기는 카메라부(121)과, 저장부(140)과, 디스플레이(151)과, 오디오 출력부(152)와, 프로세서(170)을 포함할 수 있다. 이와 같은 구성요소들은 도 14에 도시된 구성 요소와 동일하므로, 중복하여 설명하지 않기로 하고, 그 동작에 대해서만 간략하게 설명하기로 한다.The portable terminal may include a camera unit 121, a storage unit 140, a display 151, an audio output unit 152, and a processor 170. Since these components are the same as those shown in FIG. 14, they will not be described in duplicate, and only the operation thereof will be briefly described.

먼저, 상기 카메라부(121)는 전술한 바와 같이 제1 광학 렌즈(121a) 및 제2 광학 렌즈(121b)를 포함할 수 있다. 또한, 상기 카메라부(121)는 전술한 바와 같이 노출계 센서를 더 포함할 수 있다. First, the camera unit 121 may include a first optical lens 121a and a second optical lens 121b as described above. In addition, the camera unit 121 may further include an exposure meter sensor as described above.

상기 프로세서(170)는 상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하여, 상기 처리되는 영상을 라이브 뷰를 위해 상기 디스플레이부에 표시할 수 있다. 이때, 상기 프로세서(170)은 상기 라이브 뷰를 위해 표시되는 영상 위에 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 나타내는 가이드를 함께 표시할 수 있다.The processor 170 processes an image obtained through the plurality of optical lenses and displays the processed image on the display unit for a live view. At this time, the processor 170 may display a guide indicating a convergence point between the plurality of optical lenses on an image displayed for the live view.

상기 가이드는 소정 투명도를 갖는 평면으로 표시되고, 상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시될 수 있다. 이때, 상기 컨버젼스 포인트 보다 근거리에 있는 제1 피사체는 상기 평면 보다 위에 표시되고, 상기 컨버젼스 포인트 보다 원거리에 있는 제2 피사체는 상기 평면에 가려져서 표시될 수 있다. The guide may be represented by a plane having a predetermined transparency, and the plane may be displayed to have a depth sense corresponding to the distance to the convergence point. At this time, the first object located closer to the convergence point may be displayed on the plane than the convergence point, and the second object located farther from the convergence point may be displayed on the plane.

또한, 상기 가이드는 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지를 나타내고, 상기 가이드는 하늘에서 아래로 내려다 보는 시점으로 표시될 수 있다.In addition, the guide indicates whether at least one subject is positioned forward or rearward with respect to a convergence point between the plurality of optical lenses, and the guide may be displayed as a view pointing downward from the sky.

상기 가이드는 상기 컨버젼스 포인트를 나타내는 제1선과, 상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선과, 상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선을 포함할 수 있다.The guide may include a first line representing the convergence point, a second line representing a forward limit point based on the convergence point, and a third line representing a rear limit point based on the convergence point.

상기 하나 이상의 피사체가 상기 제2 선 또는 상기 제3 선 보다 멀리 위치하는 경우, 상기 컨버젼스 포인트를 자동으로 또는 수동으로 조정할 수 있다. 상기 컨버젼스 포인트의 조정에 따라, 상기 하나 이상의 피사체가 상기 컨벼젼스 포인트를 기준으로 상기 제2 선 또는 제3 보다 가까이 위치하게 표시될 수 있다.The convergence point may be automatically or manually adjusted when the at least one subject is located farther from the second line or the third line. According to the adjustment of the convergence point, the at least one subject may be displayed closer to the second line or the third line with respect to the confluence point.

이상에서는 본 발명의 바람직한 실시예를 예시적으로 설명하였으나, 본 발명의 범위는 이와 같은 특정 실시예에만 한정되는 것은 아니므로, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, May be modified, modified, or improved.

Claims (18)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기에서의 방법으로서,
상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하는 단계와;
상기 처리되는 영상을 라이브 뷰를 위해 디스플레이부에 표시하는 단계를 포함하고,
여기서 상기 라이브 뷰를 위해 표시되는 영상에는,
상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 상기 영상에 포함된 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지가 식별되도록, 상기 컨버젼스 포인트를 기준으로 상기 하나 이상의 피사체 각각의 위치를 나타내는 가이드가 표시되는 것을 특징으로 하는 라이브 뷰 영상 표시 방법.
A method in an electronic device comprising a stereoscopic camera portion having a plurality of optical lenses,
Processing an image obtained through the plurality of optical lenses;
And displaying the processed image on a display unit for a live view,
Here, in the image displayed for the live view,
Wherein the convergence point is determined based on a convergence point between the plurality of optical lenses so that at least one subject included in the image is located at a front position or a rear position, Is displayed on the screen.
제7항에 있어서,
상기 가이드에 대한 조작 입력을 수신하는 단계와;
상기 조작 입력에 따라 상기 피사체를 상기 컨버젼스 포인트의 전방 또는 후방으로 이동하여 표시하는 것을 특징으로 하는 것을 특징으로 하는 라이브 뷰 영상 표시 방법.
8. The method of claim 7,
Receiving an operation input for the guide;
Wherein the moving object moves forward or backward of the convergence point according to the operation input, and displays the live view image.
제7항에 있어서, 상기 가이드는
상기 컨버젼스 포인트를 나타내는 제1선과;
상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선과;
상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선을 포함하는 것을 특징으로 하는 라이브 뷰 영상 표시 방법.
8. The apparatus of claim 7, wherein the guide
A first line representing the convergence point;
A second line indicating a forward limit point based on the convergence point;
And a third line indicating a rear limit point based on the convergence point.
제9항에 있어서,
상기 하나 이상의 피사체가 상기 제2 선 또는 상기 제3 선 보다 멀리 위치하는 경우, 상기 컨버젼스 포인트를 자동으로 또는 수동으로 조정하는 단계를 더 포함하는 것을 특징으로 하는 라이브 뷰 영상 표시 방법.
10. The method of claim 9,
Further comprising the step of automatically or manually adjusting the convergence point when the at least one subject is located farther from the second line or the third line.
제10항에 있어서,
상기 컨버젼스 포인트의 조정에 따라, 상기 하나 이상의 피사체가 상기 컨버젼스 포인트를 기준으로 상기 제2 선 또는 제3 보다 가까이 위치하게 표시되는 것을 특징으로 하는 라이브 뷰 영상 표시 방법.
11. The method of claim 10,
Wherein the at least one subject is displayed closer to the second line or the third line with respect to the convergence point as the convergence point is adjusted.
삭제delete 삭제delete 복수의 광학 렌즈들을 구비하는 스테레오 스코픽 카메라부를 포함하는 전자 기기로서,
디스플레이부와;
상기 복수의 광학 렌즈들을 통해 획득되는 영상을 처리하여, 상기 처리되는 영상을 라이브 뷰를 위해 상기 디스플레이부에 표시하는 프로세서를 포함하고,
여기서 상기 라이브 뷰를 위해 표시되는 영상에는, 상기 복수의 광학 렌즈들 간의 컨버젼스 포인트를 기준으로 상기 영상에 포함된 하나 이상의 피사체가 전방에 위치하는지 혹은 후방에 위치하는지가 식별되도록, 상기 컨버젼스 포인트를 기준으로 상기 하나 이상의 피사체 각각의 위치를 나타내는 가이드가 함께 표시되는 것을 특징으로 하는 전자 기기.
An electronic apparatus comprising a stereoscopic camera unit having a plurality of optical lenses,
A display unit;
And a processor for processing an image obtained through the plurality of optical lenses and displaying the processed image on the display unit for a live view,
Herein, the image displayed for the live view may include at least one of a plurality of convergence points between the plurality of optical lenses, such that the at least one subject included in the image is located at a front position or a rear position, Wherein a guide indicating the position of each of the at least one subject is displayed together.
제14항에 있어서, 상기 가이드는
소정 투명도를 갖는 평면으로 표시되고,
상기 평면은 상기 컨버젼스 포인트까지의 거리에 대응하는 깊이감을 갖도록 표시되는 것을 특징으로 하는 전자 기기.
15. The apparatus of claim 14, wherein the guide
And is displayed in a plane having a predetermined transparency,
Wherein the plane is displayed to have a depth sense corresponding to a distance to the convergence point.
제14항에 있어서,
상기 가이드는 하늘에서 아래로 내려다 보는 시점으로 표시되는 것을 특징으로 하는 전자 기기.
15. The method of claim 14,
Wherein the guide is displayed as a view pointing downward from the sky.
제14항에 있어서, 상기 가이드는
상기 컨버젼스 포인트를 나타내는 제1선과;
상기 컨버젼스 포인트를 기준으로 전방 한계점을 나타내는 제2 선과;
상기 컨버젼스 포인트를 기준으로 후방 한계점을 나타내는 제3 선을 포함하는 것을 특징으로 하는 전자 기기.
15. The apparatus of claim 14, wherein the guide
A first line representing the convergence point;
A second line indicating a forward limit point based on the convergence point;
And a third line indicating a rear limit point based on the convergence point.
제17항에 있어서,
상기 하나 이상의 피사체가 상기 제2 선 또는 상기 제3 선 보다 멀리 위치하는 경우, 상기 컨버젼스 포인트를 자동으로 또는 수동으로 조정하는 단계를 더 포함하는 것을 특징으로 하는 전자 기기.
18. The method of claim 17,
Further comprising automatically or manually adjusting the convergence point when the at least one subject is located farther from the second line or the third line.
KR1020110084806A 2011-08-24 2011-08-24 Method for displaying live view for stereoscopic camera KR101830655B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110084806A KR101830655B1 (en) 2011-08-24 2011-08-24 Method for displaying live view for stereoscopic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110084806A KR101830655B1 (en) 2011-08-24 2011-08-24 Method for displaying live view for stereoscopic camera

Publications (2)

Publication Number Publication Date
KR20130022496A KR20130022496A (en) 2013-03-07
KR101830655B1 true KR101830655B1 (en) 2018-04-04

Family

ID=48175132

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110084806A KR101830655B1 (en) 2011-08-24 2011-08-24 Method for displaying live view for stereoscopic camera

Country Status (1)

Country Link
KR (1) KR101830655B1 (en)

Also Published As

Publication number Publication date
KR20130022496A (en) 2013-03-07

Similar Documents

Publication Publication Date Title
KR101666919B1 (en) Electronic device and control method for electronic device
KR101912408B1 (en) Mobile terminal and control method for mobile terminal
KR101685980B1 (en) Mobile terminal and method for controlling the same
KR101872859B1 (en) Display device and control method thereof
US20160291327A1 (en) Glass-type image display device and method for controlling same
KR20130015293A (en) 3d camera assembly and mobile terminal having it
KR20140016495A (en) Mobile terminal and method for controlling the same
KR20120010764A (en) MOBILE TERMINAL AND METHOD FOR CONTROLLING A THREE DIMENSION IMAGE in thereof
KR20130031499A (en) Electronic device and contents generation method for electronic device
US9706194B2 (en) Electronic device and method of controlling the same
KR101872864B1 (en) Electronic device and controlling method for electronic device
KR101737840B1 (en) Mobile terminal and method for controlling the same
KR20130065074A (en) Electronic device and controlling method for electronic device
US9438884B2 (en) Method for processing an image and electronic device for same
KR101830655B1 (en) Method for displaying live view for stereoscopic camera
KR101673409B1 (en) Electronic device and control method for electronic device
KR101902403B1 (en) Mobile terminal and method for controlling thereof
KR101900089B1 (en) Mobile terminal and control method for mobile terminal
KR20120130394A (en) Mobile terminal and method for controlling the same
KR101850824B1 (en) Electronic device and control method for electronic device
KR101871708B1 (en) Mobile terminal and method for controlling the same
KR101615234B1 (en) Mobile terminal and method for controlling thereof
KR101864698B1 (en) Electronic device and controlling method for electronic device
KR101924406B1 (en) Mobile terminal and control method for mobile terminal
KR20130058203A (en) Mobile terminal and method for controlling thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant