KR20180107021A - Display device and displaying method for glass free stereoscopic image - Google Patents

Display device and displaying method for glass free stereoscopic image Download PDF

Info

Publication number
KR20180107021A
KR20180107021A KR1020180059423A KR20180059423A KR20180107021A KR 20180107021 A KR20180107021 A KR 20180107021A KR 1020180059423 A KR1020180059423 A KR 1020180059423A KR 20180059423 A KR20180059423 A KR 20180059423A KR 20180107021 A KR20180107021 A KR 20180107021A
Authority
KR
South Korea
Prior art keywords
user terminal
distance
stereoscopic image
user
display module
Prior art date
Application number
KR1020180059423A
Other languages
Korean (ko)
Other versions
KR101956532B1 (en
Inventor
신창봉
Original Assignee
주식회사 모픽
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모픽 filed Critical 주식회사 모픽
Priority to KR1020180059423A priority Critical patent/KR101956532B1/en
Publication of KR20180107021A publication Critical patent/KR20180107021A/en
Application granted granted Critical
Publication of KR101956532B1 publication Critical patent/KR101956532B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • G02B27/2214
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

According to the present invention, a device for displaying an autostereoscopic image capable of providing an autostereoscopic image even on mobile such as a smartphone or a tablet PC comprises: a display module for displaying a stereoscopic image through a cover including a lens sheet composed of a plurality of lenticular lenses; and a processor for controlling the display module. The processor provides the stereoscopic image by controlling left and right image pixels of the display module based on a lens pitch representing a distance between the plurality of lenticular lenses, and the cover is arranged on a front surface of a user terminal to be coupled to the user terminal.

Description

무안경 입체 영상 표시 장치 및 방법{DISPLAY DEVICE AND DISPLAYING METHOD FOR GLASS FREE STEREOSCOPIC IMAGE}TECHNICAL FIELD [0001] The present invention relates to a stereoscopic image display apparatus and a stereoscopic image display method,

본 발명은 무안경 입체 영상 표시 장치 및 방법에 관한 것으로서, 보다 상세하게는, 스마트폰이나 태블릿 PC와 같은 모바일을 통하여 최적화된 무안경 입체 영상을 제공하기 위한 무안경 입체 영상 표시 장치 및 방법에 관한 것이다.The present invention relates to a non-eyeglass stereoscopic image display apparatus and method, and more particularly, to a non-eyeglass stereoscopic image display apparatus and method for providing a non-eyeglass stereoscopic image optimized through a mobile device such as a smart phone or a tablet PC will be.

3D 디스플레이(즉, 입체영상표시장치)는 사람이 입체감을 느끼는 여러 요인 중 우리 눈이 가로방향으로 약 65mm 떨어져 있어서 나타나게 되는 양안시차(binocular disparity)를 이용하여 평면적인 디스플레이 하드웨어에서 말 그대로 가상적으로 입체감을 느낄 수 있게 하는 시스템의 총체이다. 다시 말해 우리의 눈 은 양안시차 때문에 똑같은 사물을 바라보더라도 각각 약간은(정확히 말하면 좌우의 공간적 정보를 약간씩 나눠 가지고 있는) 다른 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 정확히 서로 융합시킴으로써 우리가 입체감을 느낄 수 있게 되는데, 그것을 이용하여 2D 디스플레이 장치에서 좌우 화상 2개를 동 시에 표시하여 각각의 눈으로 보내는 설계를 통해 가상적인 입체감을 만들어 내는 것이 바로 입체영상표시장치 인 것이다. 3D display (ie, a stereoscopic image display device) uses literally binocular disparity, which is caused by a person's eye appearing at a distance of about 65 mm in the horizontal direction, And the like. In other words, our eyes see a different image (a little bit of space between the left and the right, respectively) even if we look at the same things because of binocular parallax. When these two images are transmitted to the brain through the retina, It is the stereoscopic effect that we can feel the stereoscopic feeling by fusing together exactly. By using it to display two left and right images at the same time in the 2D display device and sending them to each eye, .

이러한 입체영상표시장치에서 하나의 화면으로 두 채널의 화상을 나타내기 위해서는 대부분의 경우 하나의 화면 에서 가로나 세로의 한쪽 방향으로 줄을 한 줄씩 바꿔가며 한 채널씩 출력하게 된다. 그렇게 동시에 두 채널의 화상이 하나의 디스플레이 장치에서 출력되면 하드웨어적 구조상 무안경 방식의 경우에는 오른쪽 화상은 그대로 오른쪽 눈으로 들어가고, 왼쪽 화상은 왼쪽 눈으로만 들어가게 된다. In order to display images of two channels in one screen in such a stereoscopic image display device, in most cases, one line is changed one line at a time horizontally or vertically in one screen and outputted one channel at a time. At the same time, when images of two channels are output from one display device, in the case of a non-eyeglass system due to the hardware structure, the right image enters the right eye as it is, and the left image enters only the left eye.

안경을 착용하지 않는 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈를 수직으로 배열한 렌티큘러 (lenticular) 렌즈판을 영상패널 전방에 설치하는 렌티큘러 렌즈 방식이 있다. 이러한 무안경식 입체 영상 표시 장치는 주로 TV와 같은 대형 디스플레이 장치 분야에서 개발되어 왔다. As a typical known method of not wearing glasses, there is a lenticular lens method in which a lenticular lens plate vertically arranging a cylindrical lens is installed in front of the image panel. Such a non-eye-wear stereoscopic image display device has been developed mainly in the field of a large display device such as a TV.

본 발명은 스마트폰이나 태블릿PC와 같은 모바일 상에서도 무안경 입체 영상을 제공할 수 있도록 하는 입체 영상 표시 장치 및 방법을 제공하는 것을 목적으로 한다. It is another object of the present invention to provide a stereoscopic image display apparatus and method that can provide a spectacles stereoscopic image even on a mobile device such as a smart phone or a tablet PC.

본 발명의 제 1 실시예에 따르는, 무안경 입체 영상 표시 장치는, 복수의 렌티큘러 렌즈로 구성된 렌즈시트를 포함하는 커버를 통하여 입체 영상을 표시하는 디스플레이 모듈 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되, 상기 프로세서는, 상기 복수의 렌티큘러 렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하며, 상기 커버는 사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성된다. The non-eyeglass stereoscopic image display apparatus according to the first embodiment of the present invention includes a display module for displaying a stereoscopic image through a cover including a lens sheet composed of a plurality of lenticular lenses and a processor for controlling the display module Wherein the processor provides a stereoscopic image by controlling a left eye image pixel and a right eye image pixel of a display module based on a lens pitch representing a distance between the plurality of lenticular lenses, And is configured to be connectable with the terminal.

본 발명의 제 2 실시예에 따르는, 사용자 단말의 프로세서에 의해 수행되는, 무안경 입체 영상 표시 방법는, 상기 사용자 단말의 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하는 단계;를 포함하며, 상기 입체 영상을 제공하는 단계는, 상기 디스플레이 모듈에서 표시된 영상이 상기 사용자 단말의 전면에 배치되는 복수의 렌티큘러 렌즈를 포함하는 커버를 거치면서 사용자에게 입체 영상으로 변환되어 제공될 경우, 상기 복수의 렌티큘러 렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 상기 디스플레이 모듈을 제어한다. A method of displaying a spectacles stereoscopic image, performed by a processor of a user terminal, according to a second embodiment of the present invention includes: providing a stereoscopic image by controlling a left eye image pixel and a right eye image pixel of a display module of the user terminal; Wherein the step of providing the stereoscopic image comprises the steps of: when the stereoscopic image is displayed on the display module, the stereoscopic image is converted into a stereoscopic image through a cover including a plurality of lenticular lenses disposed on a front surface of the user terminal, And controls the display module based on a lens pitch indicating a distance between the plurality of lenticular lenses.

본 발명의 제 3 실시예에 따르는, 무안경 입체 영상 표시 장치는, 사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성되는 커버;를 포함하되, 상기 커버는, 상기 사용자 단말의 전면을 커버하며 상기 사용자 단말에 고정가능하도록 구성되는 본체 및 상기 본체의 내부 또는 하부에 배치되는 복수의 렌티큘러 렌즈로 구성된 렌즈시트를 포함하며, 상기 커버는 상기 렌즈시트를 통하여 상기 사용자 단말의 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀에서 제공되는 영상을 입체 영상으로 변환한다.The non-eyeglass stereoscopic image display apparatus according to the third embodiment of the present invention includes a cover disposed on a front surface of a user terminal and configured to be coupled to the user terminal, And a lens sheet composed of a plurality of lenticular lenses disposed inside or below the main body, the cover being mounted on the left side of the display module of the user terminal through the lens sheet, The image provided by the image pixel and the right eye image pixel is converted into a stereoscopic image.

본 발명은 모바일 사용자들이 흔히 사용하는 모바일 커버 상에 렌티큘러 렌즈를 삽입함으로써, 사용자들이 언제어디서나 쉽고 편하게 모바일 상에서 입체 영상 컨텐츠를 즐길 수 있도록 할 수 있다. The present invention enables users to easily and comfortably enjoy stereoscopic image contents on the mobile anytime and anywhere by inserting a lenticular lens on a mobile cover commonly used by mobile users.

또한, 본 발명은 모바일 상에서 제공되는 입체 영상의 해상도를 향상시킬 수 있으며, 디스플레이 모듈의 렌더링 피치 조정 및 아이트래킹 기능을 통해 선명한 품질의 입체 영상을 제공할 수 있으며, 커버 내에 위치한 렌티큘러 렌즈와 디스플레이의 온/오프 위치 간에 발생된 오정렬을 보상할 수 있다. In addition, the present invention can improve the resolution of a stereoscopic image provided on a mobile device, and can provide a stereoscopic image with a clear quality through a rendering pitch adjustment and an eye tracking function of a display module, The misalignment generated between the on / off positions can be compensated.

도 1은 본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 장치의 구조도이다.
도 2는 본 발명의 일 실시예에 따르는 렌티큘러 렌즈를 포함하는 커버의 분해사시도이다.
도 3은 본 발명의 다른 실시예에 따르는 커버의 구조도이다.
도 4는 본 발명의 또 다른 실시예에 따르는 커버의 구조도이다.
도 5는 본 발명의 일 실시예에 따르는 입체 영상 표시를 위한 구현 원리를 설명하기 위한 개념도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따라 미간 거리를 조정하는 방법을 설명하기 위한 개념도이다.
도 8a 및 도 8b은 본 발명의 일 실시예에 있어서 미간 거리 변경(오차)에 따른 렌더링 미스매치를 설명하기 위해 도시한 도면이다.
도 9 내지 도 11은 본 발명의 일 실시예에 따라 최적 시청 범위 설정을 위한 방법을 설명하기 위한 개념도이다.
도 12은 사용자의 얼굴의 좌우 이동에 따른 보상 방법을 설명하기 위한 개념도이다.
도 13은 시청자의 시청 거리 변경에 따른 보상 방법을 설명하기 위해 도시한 도면이다.
도 14a 내지 도 14c는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 순서도이다.
도 15 내지 도 18은 본 발명의 일 실시예에 따라 렌즈 위치와 디스플레이의 온/오프 위치 간의 오정렬을 보정하는 방법을 설명하기 위한 개념도이다.
도 19는 본 발명의 일 실시예에 있어서 최적 시청 범위의 안내를 위한 방법을 설명하기 위해 도시한 도면이다.
도 20 및 도 21은 본 발명의 일 실시예에 있어서 렌즈의 slanted angle에 따른 화면의 rendering angle을 조정하는 방법을 설명하기 위해 도시한 도면이다.
도 22 내지 도 25는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 오정렬 보정 방법을 설명하기 위해 도시한 순서도이다.
도 26은 화면과 필름 사이의 시야각을 맞추기 위한 UI의 일 예이다.
도 27은 화면과 필름 사이의 좌우 값을 맞추기 위한 UI의 일 예이다.
도 28a-28c는 본 발명의 다른 실시예에 따르는 렌즈 위치와 디스플레이 온/오프 위치 간의 오정렬을 보정하는 방법을 설명하기 위한 도면이다.
도 29는 본 발명의 일 실시예에 따라 시청 거리를 일정하게 유지하면서 해상도를 향상시키기 위한 방법을 설명하기 위한 개념도이다.
도 30는 본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 방법을 설명하기 위한 순서도이다.
1 is a structural diagram of a spectacle-free three-dimensional image display apparatus according to an embodiment of the present invention.
2 is an exploded perspective view of a cover including a lenticular lens according to an embodiment of the present invention.
3 is a structural view of a cover according to another embodiment of the present invention.
4 is a structural view of a cover according to another embodiment of the present invention.
5 is a conceptual diagram illustrating an implementation principle for stereoscopic image display according to an embodiment of the present invention.
FIGS. 6 and 7 are conceptual diagrams for explaining a method for adjusting the distance between fingers according to an embodiment of the present invention.
FIGS. 8A and 8B are diagrams for explaining a rendering mismatch according to the foreground distance change (error) in the embodiment of the present invention.
9 to 11 are conceptual diagrams for explaining a method for setting an optimal viewing range according to an embodiment of the present invention.
12 is a conceptual diagram for explaining a compensation method according to a lateral movement of a user's face.
13 is a diagram for explaining a compensation method according to a change in viewing distance of a viewer.
14A to 14C are flowcharts for explaining a personalized viewing environment improving method of a stereoscopic image display device according to an exemplary embodiment of the present invention.
15 to 18 are conceptual diagrams illustrating a method of correcting misalignment between a lens position and an on / off position of a display according to an embodiment of the present invention.
FIG. 19 is a view for explaining a method for guiding an optimum viewing range in an embodiment of the present invention.
20 and 21 are views for explaining a method of adjusting a rendering angle of a screen according to a slanted angle of a lens in an embodiment of the present invention.
22 to 25 are flowcharts illustrating a method of correcting misalignment of a stereoscopic image display apparatus according to an embodiment of the present invention.
26 is an example of a UI for matching a viewing angle between a screen and a film.
FIG. 27 shows an example of a UI for matching the left and right values between the screen and the film.
28A to 28C are views for explaining a method of correcting misalignment between a lens position and a display on / off position according to another embodiment of the present invention.
FIG. 29 is a conceptual diagram for explaining a method for improving resolution while keeping the viewing distance constant according to an embodiment of the present invention.
FIG. 30 is a flowchart illustrating a method for displaying a non-eyeglass stereoscopic image according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), LTE(Long Term Evolution) 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. The "user terminal" mentioned below may be implemented as a computer or a portable terminal capable of accessing a server or other terminal through a network. Here, the computer includes, for example, a notebook computer, a desktop computer, a laptop computer, and the like, each of which is equipped with a web browser (WEB Browser), and the portable terminal may be a wireless communication device , IMT (International Mobile Telecommunication) -2000, CDMA (Code Division Multiple Access) -2000, W-CDMA (W-CDMA), LTE (Long Term Evolution) Type handheld wireless communication device.

이하, 도면을 참조하여, 본 발명의 일 실시예에 대하여 구체적으로 설명하도록 한다. Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings.

도 1을 참조하면, 본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 장치(100)는 커버(110),프로세서(121), 카메라(122), 디스플레이 모듈(123)을 포함한다. 1, a non-eyeglass stereoscopic image display apparatus 100 according to an exemplary embodiment of the present invention includes a cover 110, a processor 121, a camera 122, and a display module 123.

커버(110)는 사용자 단말(120)의 외부를 보호하기 위하여 사용자 단말(120)의 디스플레이 영역을 커버하는 구성이다. 커버(110)는 사용자 단말(120)과 별도로 제작되어 사용자 단말(120)에 결합되도록 구성될 수 있다. The cover 110 covers the display area of the user terminal 120 to protect the outside of the user terminal 120. The cover 110 may be constructed separately from the user terminal 120 and configured to be coupled to the user terminal 120.

사용자 단말(120)은프로세서(121), 메모리(미도시), 디스플레이 모듈(123)을 포함할 수 있다. 이때, 메모리는 무안경 입체 영상 표시 방법을 수행하기 위한 프로그램(또는 애플리케이션)이 저장되어 있으며,프로세서(121)에 의해 프로그램이 실행되어, 입체 영상이 디스플레이 모듈(123)을 통해 제공될 수 있다. 이때, 디스플레이 모듈(123)은 영상을 출력하는 모듈이며, 터치 모듈 형태로 구현되는 경우, 사용자 입력을 수신할 수도 있다. 여기서 상기 프로그램(또는 애플리케이션)에 의해 제공되는 입체 영상 컨텐츠는 사용자 단말(120)에 저장된 것일 수도 있으나, 컨텐츠 제공 서버(미도시)로부터 수신된 것일 수도 있다. 즉, 컨텐츠 제공 서버는 다수의 무안경 입체 영상 컨텐츠를 보유하고 있으며, 사용자는 상기 프로그램(또는 애플리케이션)을 통하여 컨텐츠 제공 서버에 접속하여 입체 영상 컨텐츠를 확인하고 재생할 수 있다. The user terminal 120 may include a processor 121, a memory (not shown), and a display module 123. At this time, the memory stores a program (or an application) for performing a spectacles stereoscopic image display method, a program is executed by the processor 121, and a stereoscopic image can be provided through the display module 123. In this case, the display module 123 is a module for outputting an image, and when it is implemented as a touch module, it may receive user input. Here, the stereoscopic image content provided by the program (or application) may be stored in the user terminal 120, but may be received from a content providing server (not shown). That is, the content providing server has a plurality of spectacles stereoscopic image contents, and the user can access the contents providing server through the program (or application) to check and reproduce the stereoscopic image contents.

한편, 카메라(122)는 사용자 단말(120)에 내장되는 내장형으로 구성될 수도 있으나, 사용자 단말(120)에 탈착 가능한 별도의 외장형으로 구현될 수도 있다. 예를 들어, 사용자 단말(120)이 스마트폰이거나 태블릿 PC인경우, 카메라(122)는 내장형으로 구현될 수 있다. Meanwhile, the camera 122 may be embedded in the user terminal 120, but may be implemented in a separate external form that can be detached from the user terminal 120. For example, if the user terminal 120 is a smartphone or a tablet PC, the camera 122 may be embodied.

본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 장치(100)는 렌티큘러 렌즈(210) 방식의 장치로서, 렌티큘러 렌즈(210)는 커버(110) 내에 위치하는 것을 특징으로 한다. The non-eyeglass stereoscopic image display apparatus 100 according to an embodiment of the present invention is an apparatus of the lenticular lens 210 type, and the lenticular lens 210 is located in the cover 110. FIG.

이하, 도 2 내지 도 4를 참조하여, 커버(110)의 구조에 대하여 구체적으로 설명하도록 한다. Hereinafter, with reference to Figs. 2 to 4, the structure of the cover 110 will be described in detail.

도 2를 참조하면, 커버(110)는 본체(110a)와 렌즈시트(110b)를 포함하여 구성될 수 있다. Referring to FIG. 2, the cover 110 may include a main body 110a and a lens sheet 110b.

본체(110a)는 사용자 단말(120)의 전면에 결합될 수 있는 크기와 형상으로 형성될 수 있다. 예를 들어, 도 2와 같이 꼭지점부분이 하향 돌출되고 걸림 부분을 갖도록 형성되어, 사용자 단말(120)에 온전히 체결될 수 있도록 구성될 수 있다. The main body 110a may be formed in a size and shape that can be coupled to the front surface of the user terminal 120. [ For example, as shown in FIG. 2, the vertex portion may be formed so as to protrude downward and have a latching portion, and may be integrally fastened to the user terminal 120.

렌즈시트(110b)는 본체(110a)의 하부 또는 본체(110a) 내에 위치하도록 구성되며, 렌티큘러 렌즈(210)로 구성된다. The lens sheet 110b is configured to be positioned in the lower portion of the main body 110a or the main body 110a and is constituted by a lenticular lens 210. [

한편, 도 2의 커버(110)는 양면 결합형 커버일 수 있다. 구체적으로, 사용자 단말(120)이 iOS 기반의 스마트 단말인 경우, 후면 카메라(122)의 위치가 후면의 일측의 최상단에 위치하는 특성으로 인하여, 후면 커버(110)는 일측의 최상단 부분에 후면 카메라(122)가 노출되도록 개구 영역을 갖게 된다. 이때, 후면 커버(110)를 전면에 부착하더라도, 개구 영역이 디스플레이 영역보다 상단에 위치하게 되기 때문에, 후면 커버(110)를 그대로 전면 커버(110) 용으로 활용할 수 있게 된다.On the other hand, the cover 110 of FIG. 2 may be a double-sided combined type cover. Specifically, when the user terminal 120 is an iOS-based smart terminal, the rear cover 110 is positioned at the uppermost part of the rear face camera 122, (122) is exposed. At this time, even if the rear cover 110 is attached to the front, the rear cover 110 can be directly used for the front cover 110 because the opening area is located at an upper position than the display area.

반면, 도 3의 커버(110)는 일면 결합형 커버(110)일 수 있다. 구체적으로, 사용자 단말(120)이 안드로이드 기반의 스마트 단말들 중 후면 카메라(122)가 후면의 상단과 중간 사이에 위치하는 스마트 단말인 경우, 후면 커버(110)는 후면의 상단과 중간 사이 영역에 후면 카메라(122)가 노출되도록 개구 영역(131)을 가질 수 있다. 이때, 후면 커버(110)를 전면에 부착할 경우, 개구 영역(131)과 디스플레이 영역이 겹치게 되어, 디스플레이 영역의 일 부분에 렌티큘러 렌즈(210)가 배치되지 못하는 공백 영역이 발생될 수 있다. On the other hand, the cover 110 of FIG. 3 may be a one-side cover 110. FIG. In particular, if the user terminal 120 is a smart terminal of the Android-based smart terminals located between the top and the middle of the rear of the backside camera 110, And may have an opening area 131 so that the rear camera 122 is exposed. At this time, when the rear cover 110 is attached to the front surface, the opening area 131 overlaps with the display area, and a blank area in which the lenticular lens 210 can not be disposed in a part of the display area may be generated.

따라서, 커버(110)는 전면 결합용 커버로 구성될 수 있으며, 이러한 커버(110)는 곧바로 사용자 단말(120)의 후면에 결합되기 어렵다. 그에 따라, 후면 보조커버(130)를 추가로 구비하여, 후면 보조커버(130)를 사용자 단말(120)의 후면에 결합되도록 하고, 커버(110)는 후면 보조커버(130)에 결합되도록 함으로써, 커버(110)의 양면 결합 기능이 달성되도록 할 수도 있다.Thus, the cover 110 may be configured as a cover for front coupling, and such cover 110 is difficult to be coupled directly to the rear surface of the user terminal 120. The rear auxiliary cover 130 is further provided so that the rear auxiliary cover 130 is coupled to the rear surface of the user terminal 120 and the cover 110 is coupled to the rear auxiliary cover 130, So that the both-side coupling function of the cover 110 can be achieved.

추가적으로, 후면 보조커버(130)에 사용자가 원하는 입체사진을 프린팅하고, 커버(110)가 결합되도록 할 경우, 입체사진과 커버(110)의 렌티큘러 렌즈(210)와의 조합에 의해 사용자로 하여금 입체사진이 감상되도록 하는 추가 기능을 제공할 수도 있다. In addition, when the stereoscopic photographs desired by the user are printed on the rear auxiliary cover 130 and the cover 110 is engaged, by combining the stereoscopic photograph and the lenticular lens 210 of the cover 110, May be provided with an additional function to allow the user to enjoy the content.

한편, 커버(110)는 도 4와 같이 플립형 커버일 수 있다. 플립형 커버(110)란 사용자 단말(120)의 일측에 고정되어, 여닫이 형태로 사용자 단말(120)의 전면을 개방하였다가 다시 덮을 수 있게 구성된 커버(110)이다. 플립형 커버(110)는 덮개부(111)와 케이스부(112)로 나뉘어 구성될 수 있다. 덮개부(111)는 본체(110a) 및 렌즈시트(110b)로 구성되어, 무안경 입체영상을 제공하기 위한 수단으로 활용될 수 있다. 케이스부(112)는 덮개부(111)가 사용자 단말(120)의 일측에 항상 고정될 수 있도록 사용자 단말(120)의 외형을 보호하도록 제작되어 사용자 단말(120)에 결합되는 구성이다. Meanwhile, the cover 110 may be a flip-type cover as shown in FIG. The flip cover 110 is a cover 110 fixed to one side of the user terminal 120 and configured to open and close the front surface of the user terminal 120 in the form of a hinge. The flip-type cover 110 may be divided into a lid part 111 and a case part 112. The lid part 111 is composed of a main body 110a and a lens sheet 110b, and can be utilized as a means for providing a non-spectacles stereoscopic image. The case unit 112 is configured to protect the contour of the user terminal 120 and to be coupled to the user terminal 120 so that the lid unit 111 can be always fixed to one side of the user terminal 120.

또한, 플립형 커버(110)는 덮개부(111)의 일 영역에 홀센서(113)를 포함할 수 있다. 홀센서(113)는 덮개부(111)가 사용자 단말(120)의 디스플레이 영역과 접촉한 상태가 되었는지 감지하고, 이를 사용자 단말(120)로 전달하여, 사용자 단말(120)에서 재생되던 2D 영상이 3D 영상으로 변환되도록 하는 역할을 수행한다. In addition, the flip-type cover 110 may include a hall sensor 113 in one area of the lid 111. The hall sensor 113 senses whether the cover 111 is in contact with the display area of the user terminal 120 and transmits the detected 2D image to the user terminal 120, And converts it into a 3D image.

또한, 플립형 커버(110)의 덮개부(111)와 케이스부(112)의 꼭지점 부분에는 덮개부(111)가 사용자 단말(120)의 전면을 덮었을 때 케이스부(112)에 고정되도록 하기 위한 구조를 별도로 포함할 수 도 있다. The lid part 111 of the flip-type cover 110 and the vertex of the case part 112 are provided with a lid part 111 to be fixed to the case part 112 when the lid part 111 covers the entire surface of the user terminal 120 The structure may be separately included.

한편, 뛰어난 입체영상을 제공하기 위해서는 렌즈시트와 화면 사이의 거리가 일정해야 한다. 이를 위해서는 렌티큘러 렌즈가 사용자 단말의 화면에 최대한 밀착되어야 한다. Meanwhile, in order to provide excellent stereoscopic images, the distance between the lens sheet and the screen must be constant. For this purpose, the lenticular lens must be as close as possible to the screen of the user terminal.

기존의 플립형 커버는 화면에 밀착되어 유지될 필요성이 없었다. The conventional flip-type cover does not need to be held in close contact with the screen.

그러나, 추가 실시예에 따르면, 플립형 커버 또는 전면 결합형 커버에 있어서, 사용자 단말의 상부에 결합되는 본체(110a)와 사용자 단말의 하부에 결합되는 보조커버(미도시)는 전면이 편평하게 구성되고 전면으로부터 연장된 가장자리 부분은 사용자 단말의 측면의 일부를 감쌀 수 있도록 굴곡되어 형성될 수 있다. 이때, 사용자 단말의 측면과 대응하여 굴곡된 본체(110a)와 보조커버의 가장자리 부분(모서리 부분)은 서로 맞닿도록 구성될 수 있다. 그리고, 본체(110a)와 보조커버의 가장자리 부분에는 서로 극성이 다른 자석이 실장될 수 있다. 예를 들어, 본체(110a)에는 n극 보조커버에는 s극의 자석이 실장될 수 있다. 이를 통해 본체(110a)와 보조커버의 가장자리가 밀착될 수 있으며, 그러한 효과에 의해 본체(110a)의 하부에 설치된 렌즈시트(110b)가 사용자 단말의 화면에 밀착될 수 있다. 한편, 본체(110a)와 보조커버의 가장자리에는 자석 대신 후크가 설치될 수도 있다. 이와 같이, 본 발명의 일 실시예는 렌티큘러 렌즈(210)를 별도로 사용자 단말(120)에 내장시키지 않고, 탈부착 모듈 형태로 사용자 단말(120)의 커버(110) 내에 포함되도록 구성함으로써, 적은 비용으로 무안경 입체 영상 시스템을 구현할 수 있다. 또한, 사용자들이 대중적으로 사용하는 단말 커버(110) 내에 렌티큘러 렌즈(210)를 삽입함으로써, 사용자가 언제 어디서나 쉽고 편하게 모바일에서도 입체 영상을 즐기도록 할 수 있다. 또한, 커버(110)의 자체 디자인을 양면 결합형으로 구성하거나, 후면 보조커버(130)를 통하여 커버(110)가 양면에 결합될 수 있도록 구현함으로써, 사용자가 쉽게 커버(110)를 휴대하고 활용할 수 있도록 할 수 있다. However, according to a further embodiment, in a flip-type cover or front-to-back cover, the main body 110a coupled to the top of the user terminal and the auxiliary cover (not shown) The edge portion extending from the front surface may be bent so as to cover a part of the side surface of the user terminal. At this time, the main body 110a bent in correspondence with the side surface of the user terminal and the edge portion (corner portion) of the auxiliary cover may be configured to abut each other. Magnets having different polarities may be mounted on the edge portions of the main body 110a and the auxiliary cover. For example, the main body 110a may be provided with a magnet having an s-pole in the n-pole auxiliary cover. The edges of the main body 110a and the auxiliary cover can be closely attached to each other, and the lens sheet 110b provided at the lower portion of the main body 110a can be brought into close contact with the screen of the user terminal. On the other hand, hooks may be provided at the edges of the main body 110a and the auxiliary cover in place of magnets. As described above, according to the embodiment of the present invention, the lenticular lens 210 is not included in the user terminal 120 but is included in the cover 110 of the user terminal 120 in the form of a removable module, A non-eyeglass stereoscopic image system can be implemented. In addition, by inserting the lenticular lens 210 into the terminal cover 110 used by the users, it is possible for the user to enjoy the stereoscopic image easily and comfortably on the mobile anytime and anywhere. In addition, the cover 110 may have its own design of a double-sided coupling type, or the cover 110 may be coupled to both sides through the rear auxiliary cover 130 so that the user can easily carry the cover 110 Can be done.

이하, 도 5 를 참조하여, 본 발명의 일 실시예에 따르는 무안경 입체 영상 장치의 동작 원리에 대하여 구체적으로 설명하도록 한다. Hereinafter, with reference to FIG. 5, the operation principle of the non-eyeglass stereoscopic image apparatus according to one embodiment of the present invention will be described in detail.

도 5에서 시청 위치는 사용자의 우안과 좌안이 존재하는 위치를 의미하며, 렌티큘러 렌즈(210)(Lenticular Lens)는 커버(110)의 렌즈시트(110b)를 의미하며, 디스플레이(Display)는 사용자 단말(120)의 디스플레이 모듈(123)을 의미한다. 렌즈시트(110b)는 복수의 볼록렌즈(210)들이 나란히 배열된 구조로 구성되며, 디스플레이 모듈(123)은 입체 영상에 대응되는 컬러를 구현하기 위한 픽셀들(220), 즉 복수의 제1 및 제2 맵핑 패턴(222, 224)으로 구성된다. 제 1 및 제 2 맵핑 패턴(222, 224)은 서로 교번하여 배치되며, 각각 사용자의 서로 다른 안구에 제공되도록 구성된다. 5, the viewing position refers to the position where the user's right eye and left eye exist, and the lenticular lens 210 refers to the lens sheet 110b of the cover 110, Quot; means a display module 123 of the display device 120 of the present invention. The lens sheet 110b has a structure in which a plurality of convex lenses 210 are arranged side by side. The display module 123 includes pixels 220 for implementing a color corresponding to a stereoscopic image, And second mapping patterns 222 and 224. The first and second mapping patterns 222 and 224 are arranged alternately with each other and are configured to be provided to different eyes of the user, respectively.

입체 영상은 사용자의 우안으로 제공되는 제 1 맵핑 패턴과 사용자의 좌안으로 제공되는 제 2 맵핑 패턴이 별도로 규정되어, 렌즈시트(110b)를 통해 각각 다른 안구로 입사됨으로써 사용자에게 입체 영상이 제공될 수 있다. The stereoscopic image is provided with a first mapping pattern provided to the user's right eye and a second mapping pattern provided to the user's left eye separately, and the stereoscopic images are provided to the user through different lens eyes through the lens sheet 110b, have.

이때, 사용자 단말(120)과 사용자 단말(120)의 화면 상에 배치된 렌즈시트(110b)를 통하여 보다 선명한 무안경 입체 영상을 시청하기 위해서는, 렌티큘러 렌즈(210)의 위치와 제1 및 제2 맵핑 패턴(222, 224)의 위치가 상호 조절될 필요가 있다.In order to view a clearer non-eyeglass stereoscopic image through the lens sheet 110b disposed on the screen of the user terminal 120 and the user terminal 120, the position of the lenticular lens 210 and the positions of the first and second The positions of the mapping patterns 222 and 224 need to be mutually adjusted.

예를 들어, 왼쪽 눈(L)에 보여야 할 픽셀(즉 제2 맵핑 패턴(224))이 오른쪽 눈(R)에 보이는 위치에 있을 수 있고, 원하는 위치에서 벗어난 곳에 있을 수도 있다. 왼쪽 눈(L)에 보이는 위치에 제2 맵핑 패턴(224)이 위치하게 하기 위해서는 복수의 렌티큘러 렌즈(210)를 이동시키는 방법을 고려할 수도 있으나, 렌즈시트(110b)는 이미 한 위치에 고정되어 있는 상태이기 때문에 그러한 방법은 구현하기 어렵다. 이는 곧 렌즈시트(110b)에 구비된 렌티큘러 렌즈(210) 간의 거리를 나타내는 렌즈 피치(LP')가 고정된 값을 가진다는 것을 의미한다. For example, the pixel to be displayed on the left eye L (i.e., the second mapping pattern 224) may be located at the position shown in the right eye R, or may be located at a position away from the desired position. A method of moving the plurality of lenticular lenses 210 may be considered in order to position the second mapping pattern 224 at a position seen in the left eye L. However, since the lens sheet 110b is already fixed at one position Such a method is difficult to implement. This means that the lens pitch LP 'indicating the distance between the lenticular lenses 210 provided on the lens sheet 110b has a fixed value.

따라서, 본 발명의 일 실시예는 복수의 렌티큘러 렌즈(210)가 고정되어 있는 상태에서도 사용자에게 최적의 입체 영상을 제공해주는 것을 특징으로 한다.Therefore, an embodiment of the present invention is characterized in that an optimal stereoscopic image is provided to a user even in a state where a plurality of lenticular lenses 210 are fixed.

먼저,프로세서(121)는 도 7과 같은 사용자 인터페이스를 제공하여, 사용자로부터 미간 거리를 입력받을 수 있다. 즉, 사람마다 미간 거리는 다르며 사용자가 직접 자신의 미간 거리를 수치적으로 알기는 어려우므로, 얼굴 크기 별로 미간 거리를 미리 설정해두고, 사용자가 얼굴 크기만 선택하면 자동으로 표준 미간 거리가 입력되게 할 수 있다.First, the processor 121 provides a user interface as shown in FIG. 7, and receives a distance from the user. That is, since the distance between fingers is different for each person, it is difficult for the user to numerically know the distance between the fingers. Thus, the distance between the fingers can be preset according to the size of the face, have.

예를 들어, 도 7에서 Kid가 선택되는 경우, 미간 거리(b)로서 60mm가 입력되고, S가 선택되는 경우, 미간 거리(b)로서 63mm가 입력될 수 있다. 또한, L가 선택되는 경우, 미간 거리(b)로서 65mm가 입력되고, XL가 선택되는 경우, 미간 거리(b)로서 67mm가 입력될 수 있다.For example, when Kid is selected in Fig. 7, 60 mm is entered as the inter-face distance b, and 63 mm is entered as the inter-face distance b when S is selected. When L is selected, 65 mm is entered as the inter-facet distance b, and 67 mm is entered as the inter-facet distance b when XL is selected.

이와 같이 얼굴 크기를 선택하는 방법은 자신의 미간 거리(b)를 잘 모르는 대다수의 사용자들에게 상당히 쉽게 미간 거리(b)를 입력하도록 하는 방법이며, 일률적으로 정해진 미간 거리(b)를 이용한 시청 환경에 비해서 훨씬 양호한 시청 환경을 제공할 수 있다. The method of selecting the face size is a method of inputting the far-end distance (b) to a large number of users who are not familiar with the near-face distance (b) It is possible to provide a much better viewing environment as compared with the conventional example.

이어서, 프로세서(121)는 미간 거리(b) 및 미리 설정된 렌즈 피치(LP')에 기초하여 디스플레이 모듈(123)의 렌더링 피치(Rendering Pitch)(P2)를 조정한다. Subsequently, the processor 121 adjusts the rendering pitch P 2 of the display module 123 based on the front-to-rear distance b and the preset lens pitch LP '.

구체적으로, 먼저, 프로세서(121)는 렌즈 피치(LP') 및 미간 거리(b)에 기초하여 복수의 제1 및 제2 맵핑 패턴(222, 224) 중 서로 인접하는 제1 및 제2 맵핑 패턴(222, 224) 간의 거리(P1)와 복수의 제2 맵핑 패턴(224) 간의 거리를 나타내는 렌더링 피치(P2)를 산출할 수 있다. 이때, 프로세서(121)는 도 5에 도시된, 산출된 거리(P1)와 렌더링 피치(P2) 간의 삼각형 비례를 이용하여 산출할 수 있다. Specifically, first, the processor 121 calculates the first and second mapping patterns 222 and 224 adjacent to each other among the plurality of first and second mapping patterns 222 and 224 based on the lens pitch LP 'and the inter- (P 2 ) indicating the distance between the distance (P 1 ) between the first and second mapping patterns (222, 224) and the plurality of second mapping patterns (224). At this time, the processor 121 can calculate using the triangular proportions between the calculated distance P 1 and the rendering pitch P 2 shown in FIG.

도 2에서 삼각형 비례를 이용하여 렌즈 피치(LP'), 미간 거리(b), 시청 거리(Z), 및 광학 거리(gn) 간의 비례식(수학식1)을 통해 제1 및 제2 맵핑 패턴(222, 224) 간의 거리(P1)와 렌더링 피치(P2)를 도출한다. The first and second mapping patterns (1, 2, 3, 4, 5, 6, and 7) are obtained through proportional expression (1) between the lens pitch LP ', the interpupillary distance b, the viewing distance Z and the optical distance gn, a distance (P 1) and rendering the pitch (P 2) between 222 and 224) is derived.

Figure pat00001
Figure pat00001

렌더링 피치(P2)는 P1의 2배이므로, P1과 마찬가지로 렌즈 피치(LP') 및 미간 거리(b)에 비례하는 함수로 나타낼 수 있으며, 이를 통해 렌더링 피치(P2)를 도출할 수 있다.Because it is twice the P 1 Rendering pitch (P 2), like the P 1 lens pitch (LP ') and can be represented by a function which is proportional to the forehead distance (b), it can derive the rendering pitch (P 2) through .

프로세서(121)는 렌더링 피치(P2)가 조정된 상태에서, 미간 거리(b), 렌즈 피치(LP') 및 렌티큘러 렌즈(210)에서 사용자 단말(120)의 디스플레이 모듈(123)까지의 거리를 나타내는 광학 거리(gn)에 기초하여, 사용자가 사용자 단말(120)의 입체 영상 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리(최적 시청 거리)(Z)를 계산할 수 있다. 여기서, 광학 거리(gn)는 렌티큘러 렌즈(210)에서 디스플레이 모듈(123)까지의 물리적 거리에 굴절률을 감안하여 계산된 값(고정 값)일 수 있다. The processor 121 determines the distance between the front end distance b and the lens pitch LP 'and the distance from the lenticular lens 210 to the display module 123 of the user terminal 120 in a state in which the rendering pitch P 2 is adjusted, (Optimal viewing distance) Z, which indicates the distance the user can view with the sharpest image quality when viewing the stereoscopic image of the user terminal 120, based on the optical distance gn indicating the distance to the user terminal 120. [ Here, the optical distance gn may be a value (fixed value) calculated by taking the refractive index into account in the physical distance from the lenticular lens 210 to the display module 123.

미간 거리(b), 렌즈 피치(LP') 및 광학 거리(gn)는 이미 정해진 값이므로, 수학식 1을 정리하면, 제1 시청 거리(Z)를 하기 수학식 2와 같이 나타낼 수 있다.The first viewing distance Z can be expressed by the following equation (2) as the equation (1) is summarized since the near distance b, the lens pitch LP 'and the optical distance gn are predetermined values.

Figure pat00002
Figure pat00002

프로세서(121)는 수학식 2에 미간 거리(b), 렌즈 피치(LP') 및 광학 거리(gn) 각각에 정해진 값을 대입하여 제1 시청 거리(Z)를 계산할 수 있다. 제1 시청 거리(Z)는 디스플레이 모듈(123)을 통해 사용자 단말(120)의 화면 상에 표시될 수 있으며, 이를 통해 사용자는 표시 정보를 확인하여 최적 시청 거리를 유지함으로써 선명한 화질의 입체 영상을 시청할 수 있게 된다. The processor 121 may calculate the first viewing distance Z by substituting a predetermined value for the near distance b, the lens pitch LP ', and the optical distance gn in Equation (2). The first viewing distance Z can be displayed on the screen of the user terminal 120 through the display module 123. Through this, the user can view the display information and maintain the optimal viewing distance, So that it can be watched.

이어서, 프로세서(121)는 카메라(122)를 이용하여, 사용자가 사용자 단말(120)에 대하여 입체 영상을 시청하고 있는 실제 거리를 나타내는 제2 시청 거리(Z')를 도 6과 같이 측정하고, 제1 시청 거리(Z)와 비교할 수 있다.The processor 121 then uses the camera 122 to measure the second viewing distance Z 'as shown in Figure 6, which represents the actual distance the user is viewing the stereoscopic image with respect to the user terminal 120, Can be compared with the first viewing distance (Z).

그리고, 프로세서(121)는 제1 시청 거리(Z) 및 제2 시청 거리(Z') 간의 오차 거리에 기초하여 사용자의 제2 시청 거리(Z')의 조정을 안내하기 위한 가이드 신호를 디스플레이 모듈(123)을 통해 제공할 수 있다.The processor 121 then outputs a guide signal for guiding adjustment of the second viewing distance Z 'of the user to the display module 102 based on the error distance between the first viewing distance Z and the second viewing distance Z' (123).

예를 들면, 프로세서(121)는 제1 시청 거리(Z)와 제2 시청 거리(Z')를 비교한 결과, 제1 시청 거리(Z)보다 제2 시청 거리(Z')가 큰 경우, 사용자 단말(120)의 화면 방향으로 가까이 할 것을 요청하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 가이드 신호는 최적 시청 거리에 대한 초점 좌표와 사용자의 얼굴의 이동에 따라 유동하는 유동 좌표로 구성되어, 유동 좌표가 초점 좌표와 일치하는 위치에 도달하게 끔 가이드하는 형태로 제공될 수 있다. 이에 따라, 사용자는 실제 시청 거리를 보다 짧게 조정하여 선명한 화질의 입체 영상을 계속해서 시청할 수 있게 된다.For example, if the second viewing distance Z 'is greater than the first viewing distance Z as a result of comparing the first viewing distance Z with the second viewing distance Z' And provide a guide signal to the user terminal 120 requesting the user terminal 120 to approach the screen direction of the user terminal 120. The guide signal may be provided in the form of a guide consisting of the focus coordinates for the optimal viewing distance and the flow coordinates that flow according to the movement of the user's face so that the flow coordinates reach the position coinciding with the focus coordinates. Accordingly, the user can continuously view a stereoscopic image of a clear image quality by adjusting the actual viewing distance to be shorter.

다른 예로, 프로세서(121)는 제1 시청 거리(Z)와 제2 시청 거리(Z')를 비교한 결과, 제1 시청 거리(Z)보다 제2 시청 거리(Z')가 작은 경우, 사용자 단말(120)에서 멀어지라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 다시 말해, 실제 시청 거리가 최적 시청 거리보다 작으면, 프로세서(121)는 시청자의 눈을 사용자 단말(120)로부터 더 멀리 하라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 이에 따라, 시청자는 실제 시청 거리를 보다 길게 조정하여 선명한 화질의 입체 영상을 계속해서 시청할 수 있게 된다.As another example, if the second viewing distance Z 'is smaller than the first viewing distance Z as a result of comparing the first viewing distance Z with the second viewing distance Z' It is possible to provide the user terminal 120 with a guide signal to guide the user terminal 120 away from the terminal 120. [ In other words, if the actual viewing distance is less than the optimal viewing distance, the processor 121 may provide a guide signal to the user terminal 120 to guide the viewer's eye further away from the user terminal 120. [ As a result, the viewer can adjust the actual viewing distance to be longer so that the stereoscopic image of a clear image quality can be continuously viewed.

또한, 추가 실시예로, 프로세서(121)는 사용자를 최적 시청거리로 유도하지 않고, 사용자의 실제 시청거리에 맞추어 렌더링 피치를 바꾸어줄 수도 있다. 구체적으로, 렌더링 피치를 조정시, 사용자 단말과 연결된 카메라를 통하여 사용자가 사용자 단말에 대한 실제 시청 거리를 측정한다. 이어서, 실제 시청 거리, 미간 거리 및 렌즈 피치, 좌안 영상 픽셀 및 우안 영상 픽셀까지의 거리를 나타내는 광학 거리에 기초하여, 디스플레이 모듈의 렌더링 피치를 조정할 수도 있다. Further, in a further embodiment, the processor 121 may change the rendering pitch to match the actual viewing distance of the user rather than directing the user to the optimal viewing distance. Specifically, when the rendering pitch is adjusted, the user measures the actual viewing distance to the user terminal through the camera connected to the user terminal. Then, the rendering pitch of the display module may be adjusted based on the actual viewing distance, the interpolated distance and the lens pitch, the left eye image pixel, and the optical distance indicating the distance to the right eye image pixel.

한편, 사람마다 미간 거리는 다르기 때문에, 동일한 사용자 단말(120)에 대해 시청자가 달라지는 경우가 발생하면 미간 거리의 조정이 필요하다. 특히, 어린아이의 경우에는 미간 거리가 짧고, 성인 남성의 경우에는 미간 거리가 길어 차이가 많이 난다. 따라서, 본 발명의 일 실시예에서는 이러한 미간 거리의 차이를 조정함으로써, 시청자별로 동일한 사용자 단말(120)에서 크로스토크(Crosstalk)가 적은 완전한 입체 영상을 볼 수 있는 환경을 제공할 수 있다. 이를 위해, 본 발명의 일 실시예에서는 후술하는 디스플레이 모듈(123)을 통해 도 7에 도시된 바와 같이 얼굴 크기를 선택할 수 있는 옵션(Kid, S, L, XL)을 사용자 단말(120)의 화면에 표시할 수 있다.On the other hand, since the distance between people is different for each person, if the viewer is different for the same user terminal 120, adjustment of the distance between the eyes is required. Especially, in the case of a child, the distance between the eyes is short, and in the case of an adult male, the distance between the eyes is long. Accordingly, in an embodiment of the present invention, by adjusting the difference in the distance between the eyes, it is possible to provide an environment in which a complete stereoscopic image having a small crosstalk can be viewed from the same user terminal 120 for each viewer. To this end, in an embodiment of the present invention, an option (Kid, S, L, XL) for selecting a face size is displayed on the screen of the user terminal 120 through a display module 123, Can be displayed.

한편, 미간 거리가 조정(변경)되는 경우, 도 6과 같이,프로세서(121)는 조정된 미간 거리(b')에 맞도록 렌더링 피치(P2)를 재조정할 수 있다. 즉, 도 6에 도시된 바와 같이 미간 거리(b)가 b'로 선택 또는 입력되는 경우, 기준 미간 거리를 b'로 계산하여 변경할 수 있다. 미간 거리(b)가 b'로 변경되었을 때 렌즈 피치(LP')와 광학 거리(gn)는 물리적으로 고정된 값이기 때문에 변경 가능한 것은 렌더링 피치(P2)뿐이다. 따라서, 본 발명의 일 실시예에서는 앞의 수학식 1과 2에서 미간 거리 b를 b'로 변경하면, 새로운 제1 시청 거리(Z')와 새로운 렌더링 피치(P2')를 계산할 수 있다. On the other hand, when the forehead distance is adjusted (changed), as shown in FIG. 6, the processor 121 can readjust the rendering pitch P 2 to match the adjusted forehead distance b '. That is, as shown in FIG. 6, when the inter-image distance b is selected or inputted as b ', the reference inter-image distance can be changed by calculating b'. Since the lens pitch LP 'and the optical distance gn are physically fixed values when the inter-image distance b is changed to b', only the rendering pitch P 2 is changeable. Therefore, in an embodiment of the present invention, a new first viewing distance Z 'and a new rendering pitch P 2 ' can be calculated by changing the front distance b to b 'in the above Equations 1 and 2.

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

프로세서(121)는 미간 거리가 b에서 b'로 변경된 경우, 수학식 3과 4를 이용하여 렌더링 피치(P2')를 재조정할 수 있다. 이로써, 본 발명의 일 실시예에 따르면, 서로 다른 미간 거리를 가진 사람들에게도 같은 사용자 단말(120)에서 최적의 시청 환경을 제공할 수 있다.The processor 121 can readjust the rendering pitch P2 'using equations (3) and (4) when the inter-image distance is changed from b to b'. Thus, according to an embodiment of the present invention, it is possible to provide an optimal viewing environment in the same user terminal 120 to people with different foreground distances.

수학식 4의 Z' 값은 미간 거리의 변경(b -> b')에 따라 시청자가 최적의 시청 환경을 가지는 시청 거리로서, 사용자 단말(120)로부터 Z'보다 멀리 있거나 가까이 있으면 그 상태를 표시해주어(가이드 신호), 시청자가 최적의 시청 거리로 오도록 유도를 해주는 기준이 될 수 있다. 이로써, 본 발명의 일 실시예에 따르면, 서로 다른 미간 거리를 가진 사람들에게도 같은 사용자 단말(120)에서의 최적 시청 환경을 제공할 수 있다.The Z 'value in Equation (4) is a viewing distance having an optimal viewing environment according to the change (b - > b') of the near distance, and if the distance is closer to or closer than Z 'from the user terminal 120 (Guide signal) to guide the viewer to the optimum viewing distance. Thus, according to an embodiment of the present invention, it is possible to provide an optimal viewing environment in the same user terminal 120 to people having different foreground distances.

한편, 디스플레이 모듈(123)에 대한 입력을 통해 입력된 미간 거리(b)와 사용자의 실제 미간 거리 사이에는 오차가 발생할 수 있다. 예컨대, 미간 거리가 b'인 사람이 b 값으로 설정(입력)된 상태로 입체 영상을 시청하는 경우, 사용자는 제1 및 제2 맵핑 패턴(222, 224)의 중앙을 보지 못하고 가장자리 부분을 보게 되는데, 이는 좌우 시역이 섞이기 쉽고 최적 시청 거리(Z)의 폭을 상당히 좁혀 버리게 되는 문제를 초래한다.On the other hand, an error may occur between the near distance b inputted through the input to the display module 123 and the actual near distance of the user. For example, in a case where a person having a distance between eyes is set to b value (input) and a person views the stereoscopic image, the user can not see the center of the first and second mapping patterns 222 and 224, This causes a problem that the right and left viewing areas are easily mixed and the width of the optimum viewing distance Z is significantly narrowed.

미간 거리의 오차와 관련하여, 도 8a에서와 같이 동일한 거리에서가 아니라, 카메라를 이용하여 시청 거리를 측정하는 기술을 적용하는 경우에는 다음과 같다.Regarding the error of the near distance, the technique of measuring the viewing distance using a camera, rather than the same distance as shown in FIG. 8A, is applied as follows.

도 8b을 참조하면, 미간 거리가 b로 고정되어있고 그때의 시청 거리가 Z라고 한다. 만약, 미간 거리가 b'인(도 8B에서는 b'가 b보다 작다고 가정) 사람이 동일한 시청 거리 Z에서 화면을 바라 보면, 미간 거리는 미간 거리 b인 사람의 미간 거리보다 작게 나온다. 따라서, 디스플레이 모듈(123)에는 최적 시청 거리가 Z보다 더 뒤어서 시청하고 있다고 인식해서 변경된 시청 거리 Z'로 입력된다.Referring to FIG. 8B, the viewing distance is fixed at b, and the viewing distance at that time is Z. FIG. If a person with a distance b '(assuming that b' is less than b in Fig. 8B) looks at the screen at the same viewing distance Z, the distance between feet is smaller than the distance between feet of person with distance b. Accordingly, the display module 123 recognizes that the optimum viewing distance is behind Z and inputs the changed viewing distance Z '.

미간 거리가 b'인 사람이 Z만큼 화면에서 떨어진 위치에서 바라보고 있으면, 사용자 단말(120)는 미간 거리가 b인 사람이 시청 거리 Z'만큼 화면에서 떨어진 위치에서 바라보고 있다고 인식할 수 있다.If a person with a distance b 'is looking at a position distant from the screen by Z, the user terminal 120 can recognize that a person with a distance b is looking at a position away from the screen by the viewing distance Z'.

결국, 미간 거리 b'인 사람이 R', L'인 위치에서 화면을 바라보고 있어도 사용자 단말(120)는 R, L 위치로 인식하고 미간 거리도 b로 인식하여 적절하지 않은 렌더링(Rendering)을 해주게 된다.As a result, the user terminal 120 recognizes the distance R as the position L and recognizes the distance L as the distance b even if the person at the distance b 'is looking at the screen at the position of R', L ' .

이는 사용자 단말(120)의 화면 가장자리로 갈수록, 원하는 위치(제1 및 제2 맵핑 패턴)에서 점점 멀어진 잘못된 위치를 보게 하는 아주 나쁜 결과를 초래한다. 즉, 시청자는 점선과 같이 제1 및 제2 맵핑 패턴(222, 224)을 보아야 하는데, 실선과 같이 바라보는 위치가 어긋나서 가장자리로 갈수록 다른 맵핑 패턴으로 넘어가는 것을 확인할 수 있다. 따라서, 본 발명의 일 실시예에서는 사용자에게 자신의 미간 거리에 따른 최적 시청 거리에서 화면을 계속 바라볼 수 있게 하여, 보다 편한 시청을 할 수 있도록 한다. 이하에서는 최적 시청 범위에 대해 도 9 내지 도 13을 참조하여 자세히 설명하기로 한다.This leads to a very bad result in seeing an erroneous position gradually getting distant from a desired position (first and second mapping pattern) toward the screen edge of the user terminal 120. [ In other words, the viewer must see the first and second mapping patterns 222 and 224 as indicated by the dotted line. It can be seen that the position shifted toward the edge is shifted to another mapping pattern as the solid line is shifted. Accordingly, in one embodiment of the present invention, the user can continuously view the screen at the optimum viewing distance according to his / her own distance, thereby enabling a more comfortable viewing. Hereinafter, the optimal viewing range will be described in detail with reference to FIG. 9 to FIG.

도 9에서 최적 시청 거리(Z)에서는 오른쪽 눈(R)을 위한 제1 맵핑 패턴(222)의 한 가운데를 볼 수 있거나 왼쪽 눈(L)을 위한 제2 맵핑 패턴(224)의 한 가운데를 볼 수 있다. 그러나, 시청 거리가 최적 시청 거리 Z에서 Z'로 가까워지거나 멀어질 때에는 맵핑 패턴(222, 224)의 한 가운데가 아닌 가장자리를 보게 된다.9, the center of the first mapping pattern 222 for the right eye R can be seen or the center of the second mapping pattern 224 for the left eye L can be seen . However, when the viewing distance approaches or goes away from the optimum viewing distance Z to Z ', the viewer sees the edge of the mapping pattern 222, 224, not the center.

시청 거리가 달라질 때 사용자가 바라보는 맵핑 패턴(222, 224)의 위치를 계산을 통해 얻을 수 있는데, 이를 통해 시청 거리에 따라 맵핑 패턴(222, 224)의 한 가운데에서 비껴 난 정도를 함수 값으로 구하면 아래의 수학식 5과 같다.The position of the mapping pattern 222 or 224 viewed by the user when the viewing distance is changed can be obtained through calculation. The degree of deviation from the center of the mapping pattern 222 or 224 according to the viewing distance can be calculated as a function value (5) " (5) "

Figure pat00005
Figure pat00005

여기서, ER이 100%가 되면 다른 시역이 보인다. 즉, ER이 100%가 되면, 왼쪽 눈(L)에서 제2 맵핑 패턴(224)이 보이거나 오른쪽 눈(R)에서 제1 맵핑 패턴(222)이 보일 수 있다.Here, when the ER becomes 100%, another time zone is seen. That is, when the ER becomes 100%, the second mapping pattern 224 can be seen in the left eye L or the first mapping pattern 222 can be seen in the right eye R. [

수학식 5의 함수를 이용하여 시청 거리와 ER을 그래프로 나타내면 도 10과 같다. 도 10의 그래프는 최적 시청 거리와 사용자 단말(120)의 디스플레이 특성, 적용 렌즈 등에 따라 달라질 수 있다. 본 발명의 일 실시예에서는 ER의 10% 수준을 최적 시청 범위로, ER의 50% 수준을 최대 시청 범위로 선정할 수 있는데, 이는 적용 모델(사용자 단말(120))에 따라 달라 질 수가 있어 모델별로 실험을 통해 결정한다.The viewing distance and ER using the function of Equation (5) are shown in FIG. 10 as a graph. The graph of FIG. 10 may vary depending on the optimum viewing distance, the display characteristics of the user terminal 120, the applied lens, and the like. In an embodiment of the present invention, the 10% level of the ER can be selected as the optimal viewing range and the 50% level of the ER as the maximum viewing range, which may vary depending on the application model (user terminal 120) It is decided by experiment.

본 실시예에서는 최적 시청 범위(10%) 내에서는 사용자 단말(120)의 화면에 아무런 표시도 하지 않지만, 10%를 넘어서는 시청 거리에서는 현재 거리가 최적 거리 대비 멀거나 가깝다고 표시하도록 설계될 수 있다. 또한, 50% 이상으로 멀어지면 화면에 'out of boundary'라고 표시를 해줄 수 있으며, 사용자가 최대 시청 범위 이내에서, 가능하면 최적 시청 범위 내에 머물도록 가이드를 할 수 있다.In the present embodiment, no display is made on the screen of the user terminal 120 within the optimum viewing range (10%), but it can be designed to indicate that the current distance is far or near the optimal distance in viewing distances exceeding 10%. In addition, if the distance is more than 50%, 'out of boundary' can be displayed on the screen and the user can guide the user to stay within the maximum viewing range and, if possible, within the optimum viewing range.

또한, 사용자의 최대(또는 최적) 시청 범위 가이드를 사용자에게 보다 쉽고 편리하게 제공하기 위해, 프로세서(121)는 디스플레이 모듈(123)을 통해 시청 거리에 대한 오차 거리를 확인할 수 있는 바(Bar)를 사용자 단말(120)의 디스플레이부에 표시할 수 있다.In addition, in order to provide the user's maximum (or optimum) viewing range guide more easily and conveniently to the user, the processor 121 displays a bar through which the error distance to the viewing distance can be checked through the display module 123 And can be displayed on the display unit of the user terminal 120. [

이를 위해, 프로세서(121)는 사용자 단말(120)의 카메라(122)를 이용하여 사용자와 화면 사이의 실제 시청 거리를 측정하고, 실제 시청 거리가 최적 시청 거리보다 큰 경우에는 화면에 가까이 오라는 신호를, 작은 경우에는 화면에서 멀어지라는 신호를 사용자 단말(120)에 제공할 수 있다. 이로써, 본 발명의 일 실시예에 따르면 사용자가 최적의 시청 환경이 어디인지 그 위치를 알 수 있도록 가이드를 해준다.For this purpose, the processor 121 measures the actual viewing distance between the user and the screen using the camera 122 of the user terminal 120 and, if the actual viewing distance is greater than the optimal viewing distance, , And may provide a signal to the user terminal 120 to move away from the screen. Thus, according to an embodiment of the present invention, the user can provide a guide to know the location of the optimal viewing environment.

이때, 사용자 단말(120)은 초기에는 사용자의 최적 시청 거리를 표기해주어 적정 거리가 얼마인지 알려주고 사용자가 충분히 최적 시청 거리를 인지하였다고 판단하면 하단의 확인 버튼을 누르게 하여 거리 상태를 표시하는 BAR를 제거할 수 있도록 한다. 다만, 사용자 단말(120)은 사용자의 실제 시청 거리가 최적 시청 거리로부터 일정 범위 밖으로 벗어나는 경우에만 거리 상태를 표시하는 BAR가 나타나도록 하여 적정 시청 거리를 유지하도록 도와준다.At this time, the user terminal 120 initially indicates the optimum viewing distance of the user to indicate the appropriate distance. If the user determines that the optimum viewing distance is sufficiently recognized, the user terminal 120 presses the confirmation button at the bottom to remove the BAR indicating the distance state . However, the user terminal 120 displays the BAR indicating the distance state only when the actual viewing distance of the user deviates from the optimum viewing distance by a certain amount, thereby helping to maintain the proper viewing distance.

한편, 앞서 설명한 것처럼 사용자가 시청 시 앞뒤로 이동하는 일이 발생할 수도 있지만, 이와는 달리 사용자가 시청 시 좌우로 이동하는 일이 발생할 수도 있다.On the other hand, as described above, it may occur that the user moves back and forth at the time of viewing, but the user may move to the left or right at the time of viewing.

예컨대, 도 12에 도시된 바와 같이, 사용자가 앞뒤로는 동일한 위치에서 우측으로 R-L에서 R'-L'로 X만큼 이동한 경우, 맵핑 패턴(222, 224)은 반대 방향으로 x(offset)만큼 이동을 해주어야 사용자는 동일한 화면을 계속해서 볼 수가 있다. 이는 R-L에서는 점선을 따라 화면을 보던 것에서 R'-L'에서는 실선으로 화면을 보는 것으로, 사용자의 이동 거리 X에 따라 x(offset)의 값이 달라지기 때문이다. 물론, 시청 거리가 앞뒤로도 이동한다면 시청 거리에 따라서도 x(offset)의 값은 달라진다. 본 발명의 일 실시예에서는 사용자의 좌우 이동에 따른 보상(offset)을 위해 사용자의 눈의 이동 방향 및 이동 거리를 활용할 수 있다.For example, as shown in FIG. 12, when the user moves X from RL to R'-L 'rightward from the same position back and forth, the mapping patterns 222 and 224 move in the opposite direction by x (offset) The user can continue to view the same screen. This is because the screen is viewed along the dotted line in R-L, and the screen is viewed in solid line in R'-L ', and the value of x (offset) varies depending on the moving distance X of the user. Of course, if the viewing distance moves back and forth, the value of x (offset) also varies depending on the viewing distance. According to an embodiment of the present invention, the moving direction and the moving distance of the user's eyes can be utilized for offsetting according to the user's lateral movement.

구체적으로, 프로세서(121)는 사용자 단말(120)의 카메라(122)를 이용하여 사용자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하여, 사용자의 눈의 이동 방향 및 이동 거리를 측정할 수 있다. 도 12와 같이, R-L에서 R'-L'로 X만큼 이동한 경우, 이동 방향은 우측 방향이 되고 이동 거리는 X가 된다. 프로세서(121)는 측정된 이동 거리 및 미간 거리에 기초하여 디스플레이 모듈(123)에 적용하기 위한 옵셋(offset)(x)을 계산하고, 옵셋(x)만큼 측정된 이동 방향과 반대 방향으로, 사용자 단말(120)의 디스플레이 모듈(123)에 교대로 배치된 복수의 제1 및 제2 맵핑 패턴(222, 224)을 이동시킬 수 있다.Specifically, the processor 121 may perform eye tracking of the user's eyes using the camera 122 of the user terminal 120, and measure the moving direction and the moving distance of the user's eyes . As shown in FIG. 12, when moving from R-L to R'-L 'by X, the moving direction is the right direction and the moving distance is X. The processor 121 calculates an offset x for application to the display module 123 based on the measured travel distance and the headway distance and determines the offset x in the direction opposite to the travel direction measured by the offset x, A plurality of first and second mapping patterns 222 and 224 arranged alternately in the display module 123 of the terminal 120 can be moved.

여기서, 사용자 단말(120)의 카메라를 이용하여 시청자의 눈의 이동 거리를 측정하여 옵셋을 계산하는 방식은 삼각비를 이용하여 계산할 수 있다. 시청자의 눈의 이동거리를 X(mm)는 사용자 단말(120)의 카메라를 이용하여 측정할 수 있고, 이동거리 X에 대응하는 맵핑 패턴의 이동량은 아래 수학식 6을 통해 산출 할 수 있다.Here, the method of calculating the offset by measuring the moving distance of the viewer's eyes using the camera of the user terminal 120 can be calculated using the trigonometric ratio. The moving distance X (mm) of the eye of the viewer can be measured using the camera of the user terminal 120, and the moving amount of the mapping pattern corresponding to the moving distance X can be calculated by Equation (6) below.

Figure pat00006
Figure pat00006

한편, 사용자의 시청 거리가 변경되는 경우 사용자의 우안(R) 및 좌안(L)이 가리키는 제1 및 제2 맵핑 패턴(222, 224)의 위치가 달라져 왜곡된 입체 영상을 시청할 수 있기 때문에 이에 대한 보상이 필요하다. 즉, 사용자가 기준(최적) 시청 거리보다 가깝거나 먼 거리에서 화면을 보는 경우가 발생할 때 이를 보상해주는 방법이 필요하다.On the other hand, when the viewing distance of the user is changed, the positions of the first and second mapping patterns 222 and 224 indicated by the right and left eyes R and L of the user are changed and thus the distorted stereoscopic image can be viewed. Rewards are needed. That is, there is a need for a method that compensates when the user sees the screen near or far from the reference (optimum) viewing distance.

도 13에 도시된 바와 같이, 본 발명의 일 실시예에서는 사용자가 기준 시청 거리 Z보다 가까운 Z'에 있을 때, 렌즈 피치(LP')와 광학 거리(gn)는 물리적으로 고정되어 변경할 수 없기에, 시청 거리 변경 보상을 위해 변경 가능한 값을 가지는 렌더링 피치(P2')가 이용될 수 있다. 따라서, 프로세서(121)는 변경된 시청 거리 Z'를 고정 값인 렌즈 피치(LP') 및 광학 거리(gn)와 함께 하기 수학식 7에 적용하여 사용자 단말(120)의 디스플레이 모듈(123)의 렌더링 피치(P2')를 계산할 수 있다.13, in an embodiment of the present invention, since the lens pitch LP 'and the optical distance gn are physically fixed and can not be changed when the user is at Z' closer than the reference viewing distance Z, A rendering pitch P 2 'having a changeable value can be used for viewing distance change compensation. The processor 121 applies the modified viewing distance Z 'together with the lens pitch LP' and the optical distance gn, which are fixed values, to the following equation (7) to determine the rendering pitch of the display module 123 of the user terminal 120 (P2 ') can be calculated.

Figure pat00007
Figure pat00007

프로세서(121)는 렌더링 피치(P2')를 이용하여 렌더링(Rendering)을 수행함으로써 사용자가 시청 거리 변화에도 동일한 시역을 계속 유지하면서 입체 영상을 시청하도록 할 수 있다.The processor 121 may perform rendering by using the rendering pitch P2 'so that the user can view the stereoscopic image while maintaining the same viewing area even when the viewing distance is changed.

디스플레이 모듈(123)은 프로세서(121)에 의해 산출된 제1 시청 거리(최적 시청 거리)를 사용자 단말(120)에 제공하여 사용자 단말(120)의 화면디스플레이부를을 통해 시청자에게 표시해줄 수 있다. 디스플레이 모듈(123)은 프로세서(121)에 의해 산출된 제1 시청 거리(최적 시청 거리)를 사용자 단말(120)에 제공하여 사용자 단말(120)의 화면을 통해 시청자에게 표시해줄 수 있다.The display module 123 may provide the first viewing distance (optimal viewing distance) calculated by the processor 121 to the user terminal 120 and display the screen display portion of the user terminal 120 to the viewer. The display module 123 may provide the first viewing distance (optimal viewing distance) calculated by the processor 121 to the user terminal 120 and display it to the viewer on the screen of the user terminal 120. [

디스플레이 모듈(123)은 프로세서(121)에서의 비교 결과에 따라 제1 시청 거리(최적 시청 거리)와 제2 시청 거리(실제 시청 거리) 간의 오차 거리가 일정 범위 내에 포함되지 않는 경우, 프로세서(121)로부터 가이드 신호를 전달받아, 제1 시청 거리를 기준으로 오차 거리를 조정할 수 있는 바(Bar)를 사용자 단말(120)의 화면에 표시할 수 있다(도 11 참조).If the error distance between the first viewing distance (optimal viewing distance) and the second viewing distance (actual viewing distance) is not within a certain range according to the comparison result in the processor 121, The user can receive a guide signal from the user terminal 120 and display a bar on the screen of the user terminal 120, which can adjust the error distance based on the first viewing distance (see FIG. 11).

디스플레이 모듈(123)은 사용자 단말(120)의 화면에 얼굴 크기를 선택할 수 있는 옵션을 표시할 수 있다. 옵션을 통해 어느 하나의 얼굴 크기가 선택되는 경우, 디스플레이 모듈(123)은 선택된 얼굴 크기에 대응되는 값을 미간 거리로서 입력받을 수 있다.The display module 123 may display an option to select the face size on the screen of the user terminal 120. [ When one of the face sizes is selected through the option, the display module 123 can receive a value corresponding to the selected face size as the tail distance.

디스플레이 모듈(123)은 사용자 단말(120)의 화면에 수치를 입력할 수 있는 입력 버튼을 표시할 수 있다. 입력 버튼을 통해 시청자의 눈동자 사이의 길이를 직접 측정한 실측 수치가 입력되는 경우, 디스플레이 모듈(123)은 입력된 실측 수치를 미간 거리로서 입력받을 수 있다.The display module 123 may display an input button for inputting a numerical value on the screen of the user terminal 120. [ When a measured value directly measuring the length between the eyes of the viewer is inputted through the input button, the display module 123 can receive the input actual value as the near distance.

도 14a는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.FIG. 14A is a flowchart illustrating a personalized viewing environment improving method of a stereoscopic image display apparatus according to an exemplary embodiment of the present invention. Referring to FIG.

도 14a를 참조하면, 1310 단계에서 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.Referring to FIG. 14A, in step 1310, the stereoscopic image display apparatus receives the distance between viewers.

다음으로, 1320 단계에서 입체 영상 표시 장치는 입력된 미간 거리와 사용자 단말(120)의 디스플레이에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치(Lens Pitch)에 기초하여 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.Next, in step 1320, the stereoscopic image display device displays a lens pitch indicating a distance between the inputted parallax distance and a plurality of convex lenses provided on the lens sheet disposed at a position corresponding to the display of the user terminal 120 Thereby adjusting the rendering pitch of the display.

도 14b은 본 발명의 다른 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.14B is a flowchart illustrating a personalized viewing environment improving method of a stereoscopic image display apparatus according to another embodiment of the present invention.

도 14b 을 참조하면, 1410 단계에서 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.Referring to FIG. 14B, in step 1410, the stereoscopic image display apparatus receives the distance between viewers.

다음으로, 1420 단계에서 입체 영상 표시 장치는 입력된 미간 거리와 렌즈 피치에 기초하여 사용자 단말(120)의 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.Next, in step 1420, the stereoscopic image display device adjusts the rendering pitch of the display of the user terminal 120 based on the input range and the lens pitch.

다음으로, 1430 단계에서 입체 영상 표시 장치는 미간 거리, 렌즈 피치 및 볼록 렌즈에서 디스플레이까지의 거리를 나타내는 광학 거리에 기초하여, 시청자가 사용자 단말(120)의 입체 영상을 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산한다.Next, in step 1430, the stereoscopic image display device displays the stereoscopic image of the user terminal 120 in the sharpest image quality when viewing the stereoscopic image on the basis of the interpupillary distance, the lens pitch, and the optical distance representing the distance from the convex lens to the display And calculates a first viewing distance indicating a distance that the user can see.

다음으로, 1440 단계에서 입체 영상 표시 장치는 사용자 단말(120)의 카메라를 이용하여 실제 시청 거리(제2 시청 거리)를 측정한다.Next, in step 1440, the stereoscopic image display device measures the actual viewing distance (second viewing distance) using the camera of the user terminal 120. [

다음으로, 1450 단계에서 입체 영상 표시 장치는 제1 시청 거리 및 제2 시청 거리 간의 오차 거리에 기초하여 시청자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 사용자 단말(120)에 제공한다.Next, in step 1450, the stereoscopic image display device provides the user terminal 120 with a guide signal for guiding the adjustment of the second viewing distance of the viewer based on the error distance between the first viewing distance and the second viewing distance.

도 14c는 본 발명의 또 다른 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.14C is a flowchart illustrating a personalized viewing environment improving method of a stereoscopic image display apparatus according to another embodiment of the present invention.

도 14c를 참조하면, 1510 단계에서 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.Referring to FIG. 14C, in step 1510, the stereoscopic image display apparatus receives the distance between viewers.

다음으로, 1520 단계에서 입체 영상 표시 장치는 입력된 미간 거리와 사용자 단말(120)의 디스플레이에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치(Lens Pitch)에 기초하여 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.Next, in step 1520, the stereoscopic image display device displays a lens pitch indicating a distance between the inputted near distance and a plurality of convex lenses provided on the lens sheet disposed at a position corresponding to the display of the user terminal 120 Thereby adjusting the rendering pitch of the display.

다음으로, 1530 단계에서 입체 영상 표시 장치는 사용자 단말(120)의 카메라를 이용하여 시청자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행한다.Next, in step 1530, the stereoscopic image display device performs eye tracking on the eyes of the viewer using the camera of the user terminal 120. [

다음으로, 1540 단계에서 입체 영상 표시 장치는 카메라를 이용한 아이 트래킹의 수행을 통해 측정된, 시청자의 눈의 이동 방향 및 이동 거리를 획득한다.Next, in step 1540, the stereoscopic image display device obtains the moving direction and the moving distance of the viewer's eye measured through eye tracking using the camera.

다음으로, 1540 단계에서 입체 영상 표시 장치는 이동 거리 및 미간 거리에 기초하여 디스플레이에 적용하기 위한 옵셋을 계산한다.Next, in step 1540, the stereoscopic image display apparatus calculates an offset to be applied to the display based on the travel distance and the inter-trip distance.

다음으로, 1550 단계에서 입체 영상 표시 장치는 옵셋만큼 측정된 이동 방향과 반대 방향으로, 디스플레이에 교대로 배치된 복수의 제1 및 제2 맵핑 패턴을 이동시킨다.Next, in step 1550, the stereoscopic image display device moves a plurality of first and second mapping patterns alternately arranged on the display in a direction opposite to the movement direction measured by the offset.

이하, 도 15 내지 도 21를 참조하여, 본 발명의 일 실시예에 따르는 입체 영상 표시 장치(100)의 오정렬 방법에 대하여 구체적으로 설명한다. Hereinafter, a method of misalignment of the stereoscopic image display apparatus 100 according to an embodiment of the present invention will be described in detail with reference to FIGS. 15 to 21. FIG.

사용자 단말(120)의 디스플레이 모듈(123)의 렌더링 피치(P2)를 조정하더라도 렌즈 시트를 사용자 단말(120)에 부착하는 과정에서 렌즈 시트가 원하는 위치에서 어긋난 곳에 있을 수 있다. 이러한 경우, 렌즈 시트의 렌티큘러 렌즈(210) 위치와 디스플레이 모듈(123)의 픽셀 위치도 어긋나게 되며, 이에 따라 도 15에 도시된 바와 같이 좌안(L)에 보여야 할 픽셀이 우안(R)에 보이는 위치에 있거나 목표 위치에서 벗어난 곳에 있을 수 있다. 따라서, 렌티큘러 렌즈(210)와 픽셀의 위치(온, 오프 위치)를 상호 조정할 필요가 있다. 그런데, 렌티큘러 렌즈(210)의 위치는 렌즈 시트가 사용자 단말(120)에 부착되어 고정되기 때문에 조정하기 어렵다.Even if the rendering pitch P2 of the display module 123 of the user terminal 120 is adjusted, the lens sheet may be displaced from the desired position in the process of attaching the lens sheet to the user terminal 120. [ In this case, the position of the lenticular lens 210 of the lens sheet and the pixel position of the display module 123 are also shifted. As a result, as shown in Fig. 15, the pixel to be displayed in the left eye L is positioned at the position Or away from the target location. Therefore, it is necessary to mutually adjust the position (on and off positions) of the pixel with the lenticular lens 210. [ However, it is difficult to adjust the position of the lenticular lens 210 because the lens sheet is fixed to the user terminal 120 and fixed.

이에 따라, 본 발명의 일 실시예에서는 사용자 단말(120)의 디스플레이 모듈(123)의 픽셀, 즉 제1 및 제2 맵핑 패턴(222, 224)의 위치를 조정하여, 렌즈 시트의 부착 시 렌티큘러 렌즈(210)의 위치 및 제1 및 제2 맵핑 패턴의 위치 간에 발생된 오정렬을 보정할 수 있다. Accordingly, in an embodiment of the present invention, the positions of the pixels of the display module 123 of the user terminal 120, that is, the first and second mapping patterns 222 and 224 are adjusted, The misalignment generated between the positions of the first and second mapping patterns 210 and the position of the first and second mapping patterns can be corrected.

이를 위해, 프로세서(121)는 도 15에 도시된 바와 같이, 렌더링 피치(P2)의 간격만큼 사용자 단말(120)의 디스플레이 모듈(123)의 픽셀을 온(On)시킬 수 있다. 이때, 시청자는 한 쪽 눈으로 사용자 단말(120)의 화면을 주시하여 온 된 픽셀이 보이는지를 확인할 수 있다. 도 16에서와 같이 온 된 픽셀이 목표 위치에서 벗어나 있으면 시청자는 온 된 픽셀을 볼 수 없게 된다. 본 실시예에서는 온 된 픽셀이 시청자의 우안(R)에 대응되는 제1 맵핑 패턴(222)이라고 가정한다. 참고로, 제1 맵핑 패턴(222)은 하나의 픽셀로 구성될 수도 있고 여러 개의 픽셀로 구성될 수도 있으며 0.5개의 픽셀로 구성될 수도 있다. 제2 맵핑 패턴(224)도 제1 맵핑 패턴(222)과 마찬가지로 구성될 수 있다.To do this, the processor 121 may turn on the pixels of the display module 123 of the user terminal 120 by an interval of the rendering pitch P2, as shown in FIG. At this time, the viewer can check the screen of the user terminal 120 with one eye to see whether the on-pixel is seen. As shown in FIG. 16, when the on-pixel is out of the target position, the viewer can not see the on-pixel. In this embodiment, it is assumed that the on-pixel is the first mapping pattern 222 corresponding to the viewer's right eye R. For reference, the first mapping pattern 222 may be composed of one pixel, a plurality of pixels, or 0.5 pixels. The second mapping pattern 224 may be configured similarly to the first mapping pattern 222.

이와 같이 시청자가 온 된 픽셀을 인식하지 못하는 경우, 프로세서(121)는 도 17에 도시된 바와 같이 온 된 픽셀의 위치에 관한 매핑(Mapping) 값을 변경하여 필셀 위치를 좌측으로 이동시킴으로써, 렌즈 시트의 부착 시 렌티큘러 렌즈(210)의 위치 및 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치 간에 발생된 오정렬을 보정할 수 있다. 이때, 프로세서(121)는 도 17과는 다르게 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 우측으로 이동시킬 수도 있다.If the viewer does not recognize the on-pixel, the processor 121 changes the mapping value related to the position of the turned-on pixel to move the pixel position to the left side as shown in FIG. 17, The misalignment generated between the position of the lenticular lens 210 and the on and off positions of the display module 123 of the user terminal 120 can be corrected. At this time, the processor 121 may move the on / off positions of the display module 123 of the user terminal 120 to the right, differently from FIG.

즉, 프로세서(121)는 온 된 픽셀에 대한 시청자의 인식 여부에 기초하여 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치에 관한 매핑 값을 변경하여 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 좌측 또는 우측으로 이동시킴으로써 렌티큘러 렌즈(210)와 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 상호 조정할 수 있다. 이때, 프로세서(121)는 초기에 온 된 픽셀이 시청자의 한 쪽 눈을 통해 인식되지 않는 경우, 시청자의 한 쪽 눈을 통해 다음에 온 된 픽셀이 인식될 때까지 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치의 이동을 반복할 수 있다.That is, the processor 121 changes the mapping value of the ON and OFF positions of the display module 123 of the user terminal 120 based on whether or not the viewer recognizes the ON pixel, Off positions of the lenticular lens 210 and the display module 123 of the user terminal 120 can be adjusted by moving the on / off positions of the lenticular lens 123 and the lenticular lens 123 to the left or right. At this time, when the initially turned-on pixel is not recognized through one eye of the viewer, the processor 121 controls the display module of the user terminal 120 until the next on- It is possible to repeat the movement of the ON /

이하에서는 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 이동시키는 방법에 대해서 도 18 및 도 19를 참조하여 더욱 구체적으로 설명한다.Hereinafter, a method of moving the on / off positions of the display module 123 of the user terminal 120 will be described in more detail with reference to FIGS. 18 and 19. FIG.

프로세서(121)는 도 18에 도시된 바와 같이 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치에 관한 매핑 값을 할당하기 위해 렌더링 피치(P2)의 간격 내에 있는 픽셀 각각에 넘버링을 하고, 시청자의 좌안에 대응되는 픽셀의 번호와 시청자의 우안에 대응되는 픽셀의 번호 간의 차이에 기초하여, 렌더링 피치(P2)의 간격 내에 있는 픽셀 중 온 시킬 픽셀의 번호를 설정할 수 있다. 이때, 프로세서(121)는 설정된 픽셀의 번호를 기준으로 일정 범위 내에 위치하는 픽셀을 온 시킬 수 있다.The processor 121 performs a numbering on each of the pixels within the interval of the rendering pitch P2 to assign a mapping value for the on and off positions of the display module 123 of the user terminal 120 as shown in Fig. And set the number of pixels to be turned on among the pixels within the interval of the rendering pitch P2 based on the difference between the number of pixels corresponding to the viewer's left eye and the number of pixels corresponding to the viewer's right eye. At this time, the processor 121 can turn on the pixels located within a certain range based on the set number of pixels.

여기서, 렌더링 피치(P2)가 사용자 단말(120)의 디스플레이 모듈(123)의 픽셀 사이즈와 정수배가 아닌 경우가 발생할 수 있다. 이러한 경우, 프로세서(121)는 렌더링 피치(P2)의 간격을 N( N은 자연수)개로 등분한 다음, N개 중에서 한 개의 픽셀이 차지하는 개수를 이용하여 렌더링 피치(P2)의 간격 내에 있는 픽셀 각각에 넘버링을 할 수 있다. 이때, 프로세서(121)는 필셀 각각에 넘버링된 번호를 N으로 나눈 나머지 값을 산출하고, 산출된 나머지 값으로 필셀 각각에 넘버링된 번호를 변경할 수 있다.Here, it may happen that the rendering pitch P2 is not equal to the pixel size of the display module 123 of the user terminal 120 and an integral multiple thereof. In this case, the processor 121 divides the interval of the rendering pitch P2 into N (N is a natural number), and then uses the number occupied by one pixel among the N to divide the pixels within the interval of the rendering pitch P2 Numbering can be performed. At this time, the processor 121 may calculate a remainder value obtained by dividing the numbered number in each of the fillets by N, and may change the numbered number in each of the fillets by the calculated remainder value.

예를 들어, 렌더링 피치(P2)에 픽셀이 5.2개가 들어간다면 어느 픽셀을 온/오프 해야 할지 알기 쉽지 않다. 이러한 경우, 렌더링 피치(P2)를 100등분 한 다음, 한 개의 픽셀이 차지하는 개수를 H라고 하면, H = 100/P2가 된다. P2가 5.2라고 하면 H는 19.23이 되고, 이를 이용하면 모든 픽셀에 다음과 같이 넘버링(numbering)을 할 수 있다.For example, if 5.2 pixels are in the rendering pitch P2, it is not easy to know which pixels should be turned on / off. In this case, H = 100 / P2 is obtained by dividing the rendering pitch P2 by 100 and then counting the number of pixels occupied by one pixel. When P2 is 5.2, H becomes 19.23, and if it is used, all pixels can be numbered as follows.

0 19 39 58 77 96 115 135 154 173 192 212 231 250 ...0 19 39 58 77 96 115 135 154 173 192 212 231 250 ...

여기서 매 100단위마다 반복되므로 100으로 나누어서 나머지만 남기면 다음과 같이 된다.Here, since it is repeated every 100 units, dividing it by 100 and leaving the rest is as follows.

0 19 39 58 77 96 15 35 54 73 92 12 31 50 ...0 19 39 58 77 96 15 35 54 73 92 12 31 50 ...

왼쪽 눈에 보여야 하는 픽셀의 숫자와 오른쪽 눈에 보여야 하는 픽셀의 숫자가 50의 차이가 나도록 25와 75로 결정하면, 픽셀의 번호 중에서 25와 일치하는 것 또는 75와 일치하는 것으로 한정하여 해당 픽셀을 on시켜 주면 된다. 일치하는 숫자를 범위로 설정할 수도 있는데 H값이 19.25이므로 15~35 또는 65~85로 할 수도 있다. 범위는 pixel의 구조나 H값의 크기에 따라 변동이 가능하다.If the number of pixels to be shown in the left eye and the number of pixels to be displayed in the right eye are determined to be 25 and 75 so that the difference is 50, on. The matching number can also be set as a range, which can be 15 to 35 or 65 to 85 because the H value is 19.25. The range can vary depending on the structure of the pixel or the size of the H value.

이를 적용하면 다음과 같이 65~85사이의 pixel만 on이 된다(x는 off, o는 on).Applying this, only pixels between 65 and 85 are on (x is off, o is on).

0(x) 19(x) 39(x) 58(x) 77(o) 96(x) 15(x) 35(x) 54(x) 73(o) 92(x) 12(x) 31(x) 50(x) 69(o) 88(x) 8(x) 27(x) 46(x) 65(o) 85(o) 4(x) 23(x) 42(x) 62(x) 81(o) 0(x) 19(x) 39(x) 58(x) ...0 (x) 19 (x) 39 (x) 58 (x) 77 (o) 96 (x) 15 (x) (x) 50 (x) 69 (o) 88 (x) 8 (x) 27 (x) 46 (x) 65 (o) 81 (o) 0 (x) 19 (x) 39 (x) 58 (x) ...

프로세서(121)는 도 19에 도시된 바와 같이 일정 범위 내에 위치하는 픽셀을 온 시켰을 때, 시청자의 한 쪽 눈을 통해 일정 범위 내에 위치하는 픽셀이 인식되지 않는 경우, 렌더링 피치(P2)의 간격 내에 있는 픽셀 각각의 번호를 증가시켜 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 좌측으로 이동시킬 수 있다. 이와 달리, 프로세서(121)는 렌더링 피치(P2)의 간격 내에 있는 픽셀 각각의 번호를 감소시켜 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 우측으로 이동시킬 수도 있다.19, when a pixel located within a certain range is not recognized through one eye of the viewer, the processor 121 determines that the pixel within a certain range of the rendering pitch P2 is within the range of the rendering pitch P2 It is possible to move the ON and OFF positions of the display module 123 of the user terminal 120 to the left. Alternatively, the processor 121 may reduce the number of each pixel within the interval of the rendering pitch P2 to move the on / off position of the display module 123 of the user terminal 120 to the right.

예를 들어, 도 19와 같이 시작을 0으로 해서 65~85 사이의 숫자에 해당하는 pixel을 on시켰을 때, 58, 54, 50번의 픽셀이 왼쪽 눈에 대응되는 위치에 있기 때문에, 시청자는 65~85 사이의 픽셀을 왼쪽 눈으로 볼 수 없게 된다. 왼쪽 눈에서 잘 보이는 부분에 65~85의 숫자에 해당하는 픽셀이 배치되도록 하는 것이 옵셋(offset) 조정이다.For example, when a pixel corresponding to a number between 65 and 85 is turned on with the start as 0 as shown in FIG. 19, since 58, 54, and 50 pixels correspond to the left eye, 85 pixels can not be seen with the left eye. It is an offset adjustment that places pixels corresponding to numbers 65 to 85 in the visible part of the left eye.

이를 위해선 시작 픽셀의 숫자를 10씩 늘린다. 그렇게 되면 시청자의 왼쪽 눈에 대응되는 위치에는 68, 64, 60번의 픽셀이 있게 되어, 시청자는 68번에 해당하는 픽셀은 왼쪽 눈으로 볼 수 있다. 하지만, 여전히 시청자는 64, 60번에 해당하는 픽셀을 왼쪽 눈으로 볼 수 없다. 따라서, 다시 시작 픽셀의 숫자를 10씩 늘리면, 시청자의 왼쪽 눈에 대응되는 위치에는 78, 74, 70번의 픽셀이 있게 되어, 시청자는 모든 픽셀을 왼쪽 눈으로 볼 수 있게 된다.To do this, increase the number of starting pixels by 10. In this case, there are 68, 64, and 60 pixels in the position corresponding to the left eye of the viewer, and the viewer can see the pixel corresponding to the number 68 in the left eye. However, viewers still can not see 64 and 60 pixels with their left eye. Therefore, if the number of restarting pixels is increased by 10, there are 78, 74, and 70 pixels corresponding to the viewer's left eye, so that the viewer can view all the pixels with his left eye.

이와 같이, 본 발명의 일 실시예에서는 시작 픽셀의 숫자를 10씩 늘리고, 그렇게 되면 on되는 pixel이 좌측으로 조금씩 이동하는 결과가 되며, 이것을 반복하면 어느 순간 시청자의 왼쪽 눈과 pixel이 일치하게 된다. 본 발명의 일 실시예에 따르면, 시청자는 왼쪽 눈에 화면이 밝게 보이는 순간을 찾기만 하면 렌즈와 pixel의 위치를 맞출 수 있기 때문에 사용이 쉬우면서도 위치 정확도가 높다.As described above, in the embodiment of the present invention, the number of the starting pixels is increased by 10, and the result is that the pixel to be turned on moves slightly to the left. Repeatedly, the pixel of the left eye matches with the pixel of the left eye at any moment. According to an embodiment of the present invention, a viewer can easily align a lens with a pixel by searching for a moment when the screen is bright in the left eye, so that it is easy to use, and the position accuracy is high.

한편, 프로세서(121)는 렌더링 피치(P2)가 조정된 상태에서, 미간 거리(b), 렌즈 피치(LP') 및 렌티큘러 렌즈(210)에서 사용자 단말(120)의 디스플레이 모듈(123)까지의 거리를 나타내는 광학 거리(gn)에 기초하여, 시청자가 사용자 단말(120)의 입체 영상을 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리(최적 시청 거리)(Z)를 계산할 수 있다.The processor 121 determines the distance between the front end of the lens 121 and the lenticular lens 210 from the lenticular lens 210 to the display module 123 of the user terminal 120 in a state in which the rendering pitch P2 is adjusted. It is possible to calculate a first viewing distance (optimal viewing distance) Z that represents the distance the viewer can view the stereoscopic image of the user terminal 120 with the sharpest image quality on the basis of the optical distance gn representing the distance have.

여기서, 광학 거리(gn)는 렌티큘러 렌즈(210)에서 사용자 단말(120)의 디스플레이 모듈(123)까지의 물리적 거리에 굴절률을 감안하여 계산된 값(고정 값)을 나타낼 수 있다.Here, the optical distance gn may represent a value (fixed value) calculated by taking the refractive index into account in the physical distance from the lenticular lens 210 to the display module 123 of the user terminal 120. [

프로세서(121)는 사용자 단말(120)의 카메라를 이용하여, 시청자가 사용자 단말(120)의 입체 영상을 시청하고 있는 실제 거리를 나타내는 제2 시청 거리를 측정할 수 있다. 프로세서(121)는 측정된 제2 시청 거리를 제1 시청 거리(Z)와 비교할 수 있다.The processor 121 may use the camera of the user terminal 120 to measure a second viewing distance that represents the actual distance the viewer is viewing the stereoscopic image of the user terminal 120. [ The processor 121 may compare the measured second viewing distance to the first viewing distance Z. [

따라서, 프로세서(121)는 제1 시청 거리(Z) 및 제2 시청 거리 간의 오차 거리에 기초하여 시청자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 사용자 단말(120)에 제공할 수 있다.Thus, the processor 121 may provide a guide signal to the user terminal 120 to guide adjustment of the viewer's second viewing distance based on the error distance between the first viewing distance Z and the second viewing distance .

예를 들면, 프로세서(121)는 제1 시청 거리(Z)와 제2 시청 거리를 비교한 결과, 제1 시청 거리(Z)보다 제2 시청 거리가 큰 경우, 사용자 단말(120) 쪽으로 가까이 오라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 다시 말해, 도 11에 도시된 바와 같이, 실제 시청 거리가 최적 시청 거리보다 크면, 프로세서(121)는 시청자의 눈을 사용자 단말(120) 쪽으로 더 가까이 하라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 이에 따라, 시청자는 실제 시청 거리를 보다 짧게 조정하여, 렌티큘러 렌즈(210)의 위치와 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치 간에 발생된 오정렬 보정 작업의 정확도를 유지할 수 있게 된다.For example, if the second viewing distance is greater than the first viewing distance Z as a result of comparing the first viewing distance Z with the second viewing distance, the processor 121 may cause the processor 121 to approach the user terminal 120 And can provide a guiding guide signal to the user terminal 120. 11, if the actual viewing distance is greater than the optimal viewing distance, the processor 121 sends a guide signal to the user terminal 120 to guide the viewer's eye closer to the user terminal 120 . Accordingly, the viewer can adjust the actual viewing distance to be shorter so that the accuracy of the misalignment correction operation generated between the position of the lenticular lens 210 and the on / off position of the display module 123 of the user terminal 120 can be maintained do.

다른 예로, 프로세서(121)는 제1 시청 거리(Z)와 제2 시청 거리를 비교한 결과, 제1 시청 거리(Z)보다 제2 시청 거리가 작은 경우, 사용자 단말(120)에서 멀어지라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 다시 말해, 실제 시청 거리가 최적 시청 거리보다 작으면, 프로세서(121)는 시청자의 눈을 사용자 단말(120)로부터 더 멀리 하라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 이에 따라, 시청자는 실제 시청 거리를 보다 길게 조정하여, 렌티큘러 렌즈(210)의 위치와 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치 간에 발생된 오정렬 보정 작업의 정확도를 유지할 수 있게 된다.As another example, if the second viewing distance is smaller than the first viewing distance Z as a result of comparing the first viewing distance Z with the second viewing distance, the processor 121 determines that the user is away from the user terminal 120 And can provide a guiding guide signal to the user terminal 120. In other words, if the actual viewing distance is less than the optimal viewing distance, the processor 121 may provide a guide signal to the user terminal 120 to guide the viewer's eye further away from the user terminal 120. [ Accordingly, the viewer can adjust the actual viewing distance to be longer so that the accuracy of the misalignment correction operation generated between the position of the lenticular lens 210 and the on / off position of the display module 123 of the user terminal 120 can be maintained do.

한편, 렌즈 시트에 구비된 복수의 렌티큘러 렌즈(210)는 렌즈 시트상에 일정 각도의 경사를 가지도록 배열될 수 있다. 다시 말하면, 렌즈 시트는 도 20에 도시된 바와 같이 렌티큘러 렌즈(210)의 슬랜티드 각도(slanted angle) 배열을 통해 그 상면에 경사지게 형성된 결 무늬를 구비하게 된다.On the other hand, the plurality of lenticular lenses 210 provided on the lens sheet may be arranged on the lens sheet so as to have inclination at a certain angle. In other words, the lens sheet has a pattern formed obliquely on its upper surface through a slanted angle arrangement of the lenticular lens 210 as shown in Fig.

따라서, 프로세서(121)는 도 21에 도시된 바와 같이 사용자 단말(120)의 화면의 렌더링 각도(rendering angle)를 렌티큘러 렌즈(210)의 슬랜티드 각도와 동일하게 맞추어 주는 작업을 실시할 수 있다.Accordingly, the processor 121 may perform a task of adjusting the rendering angle of the screen of the user terminal 120 to be the same as the slant angle of the lenticular lens 210, as shown in FIG.

디스플레이 모듈(123)은 사용자 단말(120)의 화면에 옵셋 조정 UI(User Interface)를 표시할 수 있다. 여기서, 옵셋 조정 UI는 필셀 각각의 번호를 일정 시간마다 증가 또는 감소시키기 위한 플레이 버튼, 필셀 각각의 번호 증가 또는 감소를 일시 정지시키기 위한 일시 정지 버튼, 일시 정지 버튼이 선택된 상태에서 필셀 각각의 번호를 미세하게 조정하기 위한 미세 조정 버튼, 및 시청자의 한 쪽 눈을 통해 일정 범위 내에 위치하는 픽셀이 인식되는 경우에 선택하기 위한 확인 버튼을 포함할 수 있다.The display module 123 may display an offset adjustment UI (User Interface) on the screen of the user terminal 120. [ Here, the offset adjustment UI includes a play button for increasing or decrementing the number of each of the pixels, a pause button for temporarily increasing or decreasing the number of each pixel, and a number of each pixel A fine adjustment button for fine adjustment, and an OK button for selecting when a pixel within a certain range is recognized through one eye of the viewer.

예를 들어, 시청자는 사용자 단말(120)의 화면에서 플레이 버튼을 누른다. 그러면, 시작 픽셀의 숫자가 0에서 시작해서 자동으로 10씩 더해진다. 시청자는 한쪽 눈을 통해 화면이 밝아지는 것을 확인하는 순간, 일시 정지 버튼을 누르고 미세 조정 버튼을 이용해서 -1 또는 +1씩 시작 픽셀의 값을 바꾸어 가며 가장 화면이 밝아지는 위치를 찾는다. 시청자는 가장 밝은 위치를 찾으면 확인 버튼을 누른다.For example, the viewer presses the play button on the screen of the user terminal 120. [ Then, the number of starting pixels starts at 0 and is automatically incremented by 10. As soon as the viewer confirms that the screen is brightened through one eye, the viewer presses the pause button and uses the fine adjustment button to change the value of the starting pixel by -1 or +1 to find the position where the brightest screen brightens. When the viewer finds the brightest spot, he presses the OK button.

다른 실시예로서, 디스플레이 모듈(123)은 도 26에 도시된 바와 같이, 화면과 필름(즉, 렌즈시트) 사이의 시야각을 맞추기 위한 UI를 제공할 수 있다. UI는 사용자의 좌우 반원을 그리는 제스쳐를 인식하여 화면과 필름 사이의 시야각을 조절할 수 있다. 예를 들어, 오른쪽 제스쳐는 '+' 값을 주어 시야각을 넓게 조절할 수 있고, 왼쪽 제스쳐는 '-' 값을 주어 시야각을 좁게 조절할 수 있다. UI는 보다 수월한 시야각의 조정을 위하여 화면을 세 단계로 나눌 수 있다. 하단부터 1, 2, 3배속으로 변하며, 영역별 가이스 선을 제공할 수 있다.As another example, the display module 123 may provide a UI for matching the viewing angle between the screen and the film (i.e., the lens sheet), as shown in Fig. The UI recognizes the gestures that draw the user's left and right semicircles and can adjust the viewing angle between the screen and the film. For example, the right gesture can be given a '+' value to control the viewing angle, and the left gesture can be set to '-' to narrow the viewing angle. The UI can divide the screen into three steps for easier adjustment of the viewing angle. It changes from the bottom to 1, 2, and 3 speed, and it can provide area guideline.

또 다른 실시예로서, 디스플레이 모듈(123)은 도 27에 도시된 바와 같이, 화면과 필름 사이의 좌우 값을 맞추기 위한 UI를 제공할 수 있다. UI는 사용자의 좌우 수평이동 제스쳐를 인식하여 화면과 필름 사이의 좌우 값을 조절할 수 있다. 예를 들어, 오른쪽 제스쳐는 '+' 값을 주어 오른쪽으로의 화면 이동을 조절할 수 있고, 왼쪽 제스쳐는 '-' 값을 주어 왼쪽으로의 화면 이동을 조절할 수 있다. UI는 보다 수월한 좌우 값의 조정을 위하여 화면을 세 단계로 나눌 수 있다. 하단부터 1, 2, 3배속으로 변하며, 영역별 가이스 선을 제공할 수 있다.As another embodiment, the display module 123 may provide a UI for adjusting the left and right values between the screen and the film, as shown in FIG. The UI recognizes the left and right horizontal movement gesture of the user and can adjust the left and right values between the screen and the film. For example, the right gesture can be set to '+' to control the screen movement to the right, and the left gesture can be set to '-' to control the screen movement to the left. The UI can divide the screen into three levels for easier adjustment of the left and right values. It changes from the bottom to 1, 2, and 3 speed, and it can provide area guideline.

도 22 내지 도 25는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 오정렬 보정 방법을 설명하기 위해 도시한 흐름도이다.22 to 25 are flowcharts illustrating a method of correcting misalignment in a stereoscopic image display apparatus according to an exemplary embodiment of the present invention.

먼저 도 22 내지 도 24를 참조하면, 1210 단계에서 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.22 to 24, in step 1210, the stereoscopic image display apparatus receives the distance between viewers.

다음으로, 1220 단계에서 입체 영상 표시 장치는 입력된 미간 거리, 및 렌즈 피치에 기초하여 사용자 단말(120)의 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.Next, in step 1220, the stereoscopic image display device adjusts the rendering pitch of the display of the user terminal 120 based on the entered interpolated distance and the lens pitch.

다음으로, 1230 단계에서 입체 영상 표시 장치는 디스플레이의 온, 오프 위치를 이동시켜, 렌즈 시트의 부착 시 볼록 렌즈의 위치 및 디스플레이의 온, 오프 위치 간에 발생된 오정렬을 보정한다.Next, in step 1230, the stereoscopic image display moves on / off positions of the display to correct the misalignment generated between the position of the convex lens and the on / off positions of the display upon attachment of the lens sheet.

이를 위해, 1310 단계에서 입체 영상 표시 장치는 렌더링 피치의 간격만큼 디스플레이의 픽셀을 온(On)시킨다.For this, in step 1310, the stereoscopic image display device turns on the pixels of the display by an interval of the rendering pitch.

구체적으로, 1410 단계에서 입체 영상 표시 장치는 디스플레이의 온, 오프 위치에 관한 매핑 값을 할당하기 위해 렌더링 피치의 간격 내에 있는 픽셀 각각에 넘버링을 한다. 이어서, 1420 단계에서 입체 영상 표시 장치는 시청자의 좌안에 대응되는 픽셀의 번호와 시청자의 우안에 대응되는 픽셀의 번호 간의 차이에 기초하여, 렌더링 피치의 간격 내에 있는 픽셀 중 온 시킬 픽셀의 번호를 설정한다. 이어서, 1430 단계에서 입체 영상 표시 장치는 설정된 픽셀의 번호를 기준으로 일정 범위 내에 위치하는 픽셀을 온 시킨다.Specifically, in step 1410, the stereoscopic image display apparatus numbers each of the pixels within the interval of the rendering pitch in order to allocate the mapping value regarding the on and off positions of the display. In step 1420, the stereoscopic image display device sets the number of pixels to be turned on among the pixels within the interval of the rendering pitch, based on the difference between the number of the pixel corresponding to the left eye of the viewer and the number of the pixel corresponding to the right eye of the viewer do. Then, in step 1430, the stereoscopic image display device turns on the pixels positioned within a certain range based on the set number of pixels.

이후, 1320 단계에서 입체 영상 표시 장치는 온 된 픽셀에 대한 시청자의 인식 여부를 판단한다.Thereafter, in step 1320, the stereoscopic image display device determines whether or not the viewer recognizes the on pixels.

판단 결과 시청자가 인식하지 못한 경우(1320의 "아니오" 방향), 1330 단계에서 입체 영상 표시 장치는 디스플레이의 온, 오프 위치에 관한 매핑 값을 변경하여 디스플레이의 온, 오프 위치를 좌측(또는 우측)으로 이동시킨다. 반면, 판단 결과 시청자가 인식한 경우(1320의 "예" 방향), 입체 영상 표시 장치는 본 실시예를 종료한다.If the viewer does not recognize the direction ("No" direction of 1320), in step 1330, the stereoscopic image display apparatus changes the mapping values of the on and off positions of the display to display the on / off positions of the display on the left (or right) . On the other hand, in the case where the viewer has recognized the result (the "YES" direction of 1320), the stereoscopic image display device ends the present embodiment.

이하에서는 도 25를 참조하여 렌더링 피치가 디스플레이의 픽셀 사이즈와 정수배가 아닌 경우에 렌더링 피치의 간격 내에 있는 픽셀 각각에 넘버링을 하는 과정에 대해 구체적으로 설명한다.Hereinafter, referring to FIG. 25, a description will be made in detail of the process of numbering each of the pixels within the interval of the rendering pitch when the rendering pitch is not the pixel size of the display and integer times.

먼저 1510 단계에서 입체 영상 표시 장치는 렌더링 피치의 간격을 N( N은 자연수)개로 등분한다. 이후, 1520 단계에서 입체 영상 표시 장치는 N개 중에서 한 개의 픽셀이 차지하는 개수(H)를 산출한다. 이후, 1530 단계에서 입체 영상 표시 장치는 산출된 개수(H)를 이용하여 렌더링 피치의 간격 내에 있는 픽셀 각각에 넘버링을 한다. 이후, 1540 단계에서 입체 영상 표시 장치는 필셀 각각에 넘버링된 번호를 N으로 나눈 나머지 값을 산출한다. 이후, 1550 단계에서 입체 영상 표시 장치는 산출된 나머지 값으로 필셀 각각에 넘버링된 번호를 변경한다.한편, 입체영상 표시장치는 상술한 바와 같이 사용자의 한 쪽 눈마다 각각 오정렬 보정을 수행하도록 동작할 수도 있으나, 사용자가 두 개의 눈을 모두 떳을 때 한번에 오정렬 보정이 처리되도록 동작할 수도 있다. First, in step 1510, the stereoscopic image display device divides the interval of the rendering pitch into N (N is a natural number) number. Then, in step 1520, the stereoscopic image display device calculates the number (H) occupied by one pixel among the N pixels. Thereafter, in step 1530, the stereoscopic image display device performs numbering on each of the pixels within the interval of the rendering pitch using the calculated number (H). Thereafter, in step 1540, the stereoscopic image display apparatus calculates a remainder value obtained by dividing the numbered number of each pixel by N. [ Thereafter, in step 1550, the stereoscopic image display device changes the numbered number in each of the fillets to the calculated remaining value. On the other hand, the stereoscopic image display device operates to perform misalignment correction for each eye of the user But it may also operate to cause the misalignment correction to be processed at a time when the user has both eyes open.

먼저, 동작 원리를 설명하자면 다음과 같다. First, the operation principle will be described as follows.

도 28a의 경우, 오프된 픽셀 영역이 사용자의 두 눈과 매칭하게 되므로 사용자의 두 눈에는 사용자 단말의 화면이 어둡게 보인다. 그러나, 도 28b의 경우와 같이, 온 되는 픽셀의 위치를 사용자의 눈과 매칭하는 픽셀의 위치로 바꾸어 주게되면, 사용자는 밝은 화면을 시청할 수 있다. 이때의 사용자의 사용자 단말에 대한 상대적인 시청위치와 픽셀정보를 이용해서, 렌티큘러 렌즈의 위치를 역산함으로써, 렌즈와 픽셀 간의 정확한 정렬위치를 파악할 수 있다. In the case of FIG. 28A, since the off-pixel region matches the user's two eyes, the screen of the user terminal appears dark on the user's two eyes. However, as in the case of FIG. 28B, if the position of the pixel to be turned on is changed to the position of the pixel matching the user's eye, the user can view the bright screen. By using the viewing position and the pixel information relative to the user terminal of the user at this time, the position of the lenticular lens can be inversed, and the precise alignment position between the lens and the pixel can be grasped.

여기서 중요한 것은, 온 된 픽셀의 폭은 오프된 픽셀들의 폭보다 좁아야 하며, 그렇게 해야만 정확한 정렬위치를 찾을 수 있다. What is important here is that the width of the on-pixel must be narrower than the width of the off pixels, and so the exact alignment position can be found.

한편, 위의 예와 반대로, 온/오프 픽셀의 위치를 반대로 적용하여 화면이 가장 어둡게되는 위치를 찾도록 하는 것도 오정렬 보정방법이 될 수 있다. On the other hand, contrary to the above example, it is also possible to apply the position of the on / off pixel in reverse to find the position where the screen becomes darkest.

오정렬 보정을 위한 사용자 인터페이스 동작과정은 다음과 같이 구성될 수 있다. The user interface operation process for correcting misalignment may be configured as follows.

즉, 사용자가 사용자 단말에 대한 특정 위치에서 화면을 바라보고 있을 때, 일정한 규칙에 따라 온/오프되는 픽셀의 위치를 변경시키고, 변경하는 과정 중에서 가장 밝거나 어두운 경우를 사용자가 찾을 수 있도록 함으로써, 간편하게 두 눈으로 한번에 오정렬 보정을 수행할 수 있다. That is, when the user is looking at the screen at a specific position with respect to the user terminal, the position of a pixel to be turned on / off according to a certain rule is changed, It is easy to perform misalignment correction with two eyes at once.

구체적으로, 먼저, 사용자의 두 눈과 사용자 단말 간의 상대적인 위치부터 파악한다. Specifically, first, the relative position between the user's eyes and the user terminal is grasped.

사용자 단말의 프로세서는 카메라를 이용해서 사용자의 두 눈과 사용자 단말의 화면 사이의 거리를 측정할 수 있다. 또는, 사용자의 두 눈이 화면의 정중앙을 바라보도록 가이드 정보를 제공함으로써 사용자의 두 눈과 화면 사이의 거리를 추정할 수도 있다. 예를 들어, 화면의 정중앙에 타겟을 표시하고, 사용자의 두 눈의 화면에 대한 초점 위치를 화면상에 표시하여, 타겟이 화면에 맞게끔하는 방식으로 사용자의 두 눈이 화면 정중앙을 바라보도록 유도할 수도 있다. The processor of the user terminal can measure the distance between the eyes of the user and the screen of the user terminal using the camera. Alternatively, the distance between the user's two eyes and the screen may be estimated by providing the guide information so that the user's two eyes look at the center of the screen. For example, the target is displayed at the center of the screen, the focus position of the two eyes of the user is displayed on the screen, and the two eyes of the user are viewed in the center of the screen You may.

사용자가 사용자 단말의 화면을 바라보고 있을 때, 사용자 단말 상의 프로세서는 버튼이나 슬라이딩하라는 표시 등을 통해 화면의 좌측이나 우측으로 픽셀의 온/오프 위치를 이동시키라는 정보를 제공할 수 있다. When the user is viewing the screen of the user terminal, the processor on the user terminal may provide information to move the on / off position of the pixel to the left or right side of the screen through a button or a slip indication.

이에 응하여, 사용자가 좌측 또는 우측에 대한 신호를 사용자 단말에 입력할 경우, 디스플레이 모듈 상에서 온 된 픽셀과 오프된 픽셀의 위치가 신호의 방향에 따라 하나씩 이동하게 된다. 즉, 실제로는 픽셀이 이동하는 것이 아니라 각 위치의 픽셀들의 밝기 값이 바뀜으로써, 온 된 픽셀과 오프된 픽셀의 위치가 변경된다. 사용자의 입장에서 보면 밝은 픽셀이 실제로 좌측이나 우측으로 움직이는 것처럼 보일 수 있다. 또는, 사용자가 재생 버튼을 클릭할 경우, 좌측 또는 우측 중 미리 설정된 방향으로 온 되는 픽셀의 번호가 자동으로 하나씩 더해질 수 있다. In response to this, when the user inputs a signal for the left or right side to the user terminal, the position of the pixel turned on and off for the display module moves one by one according to the direction of the signal. That is, the positions of the pixels that are turned on and those that are turned off are changed by changing the brightness values of the pixels at each position instead of actually moving the pixels. From a user's point of view, a bright pixel may actually appear to move to the left or right. Alternatively, when the user clicks the play button, the numbers of the pixels that are turned on in the predetermined direction of the left or right side may be automatically added one by one.

이때, 도 28c와 같은 픽셀 구성으로 된 화면 상에서, 온 되는 픽셀이 0번 픽셀부터 시작하되 자동으로 1번 픽셀, 2번 픽셀로 순차로 이동하게 되면서, 1씩 더해질 수 있다. At this time, on the screen having the pixel configuration as shown in FIG. 28C, the pixels to be turned on are sequentially shifted to the first pixel and the second pixel starting from the 0th pixel, and they can be added one by one.

이후, 사용자는 화면이 가장 어둡거나 가장 밝은 위치에서 온/오프 픽셀 이동에 대한 정지 신호를 입력할 수 있다. 정지 신호는 일시정지 버튼, 정지 버튼 또는 화면을 터치하고 있던 신체부위를 떼는 행위 등이 될 수 있다. Thereafter, the user can input a stop signal for on / off pixel shift at the darkest or brightest position of the screen. The stop signal may be a pause button, a stop button, or an act of releasing a part of the body touching the screen.

한편, 온/오프 픽셀의 위치가 변경되는 와중에 사용자가 가장 밝거나 가장 어두운 순간을 정확하게 포착하기는 어렵다. 이를 위해, 사용자가 미세조정을 할 수 있도록 하는 인터페이스를 제공해줄 수도 있다. 예를 들어, 일시정지 버튼이나 정지버튼의 좌측과 우측에, 온/오프 픽셀의 위치값을 1씩 좌측으로 이동시킬 것을 명령하는 좌측 미세조정버튼과 온/오프 픽셀의 위치값을 1씩 우측으로 이동시킬 것을 명령하는 우측 미세조정버튼이 각각 배치될 수 있다. 이에 따라, 사용자는 화면이 밝아지는 것으로 인식하였을 때, 정지 신호를 입력하고, 우측 미세조정버튼이나 좌측 미세조정버튼을 한번씩 눌러가며 가장 화면이 밝아지는 위치를 찾을 수도 있다. 가장 밝은 위치를 찾으면 “확인”버튼을 클릭함으로써, 오정렬 보정 단계를 완료할 수 있다. 이하, 도 29을 참조하여, 미간 거리(b)와 시청 거리(Z) 및 광학 거리(gn)가 동일한 조건에서 입체 영상 표시 장치(100)의 해상도를 향상시키는 방법에 대해서 설명한다. Meanwhile, it is difficult for the user to accurately capture the brightest or darkest moment while the position of the on / off pixel is changed. To do this, you can provide an interface that allows the user to fine-tune. For example, on the left and right sides of the pause button or the stop button, a left fine adjustment button for instructing to shift the position value of the on / off pixel to the left by one and a position value of the on / And a right fine adjustment button for instructing the movement of each of the right and left sides. Accordingly, when the user recognizes that the screen is bright, the user can input a stop signal and find the position at which the largest screen brightens by pressing the right fine adjustment button or the left fine adjustment button once. When the brightest position is found, the misalignment correction step can be completed by clicking the " OK " button. A method of improving the resolution of the stereoscopic image display apparatus 100 under the condition that the faint distance b, the viewing distance Z, and the optical distance gn are the same will be described with reference to FIG.

프로세서(121)는 미간 거리(b), 시청 거리(Z), 및 광학 거리(gn)에 기초하여 렌더링 피치(P2)를 더 좁게 조정할 수 있다. 이때, 프로세서(121)는 인접하는 제1 및 제2 맵핑 패턴(222, 224) 간의 거리(P1)를 홀수 배(예를 들어, 3배) 감소시켜, 미간 거리 및 렌즈 피치에 기초하여 산출된 제1 렌더링 피치를 미간 거리, 시청 거리 및 광학 거리에 기초하여 산출된 제2 렌더링 피치로 조정할 수 있다. 이를 통해, 인접하는 제1 및 제2 맵핑 패턴(222, 224) 간의 조밀도를 증가시킬 수 있게 되고, 해상도를 향상시킬 수 있다.The processor 121 may adjust the rendering pitch P2 more narrowly based on the interpupillary distance b, the viewing distance Z, and the optical distance gn. At this time, the processor 121 reduces the distance P1 between the adjacent first and second mapping patterns 222 and 224 to an odd multiple (for example, three times) and calculates the distance The first rendering pitch can be adjusted to the second rendering pitch calculated based on the front distance, the viewing distance, and the optical distance. As a result, the densities between adjacent first and second mapping patterns 222 and 224 can be increased, and resolution can be improved.

한편, 프로세서(121)는 동일한 렌티큘러 렌즈(210)를 통해 사용자의 우안(R) 및 좌안(L)이 복수의 제1 및 제2 맵핑 패턴(222, 224) 중 인접하지 않은 제1 및 제2 맵핑 패턴(222, 224) 각각에 대응하도록, 제2 렌더링 피치 및 미간 거리에 기초하여 렌즈 피치(LP')를 산출할 수 있다. 즉, 렌즈 피치는 각 렌티큘러 렌즈(210)를 통해 사용자에게 제공되는 우안 영상 및 좌안 영상은 디스플레이 모듈(123) 내 인접하지 않은 맵핑 패턴(222, 224)들에 기인하도록 설계된다. 그리고, 프로세서(121)는 산출된 렌즈 피치(LP')에 관한 정보를 디스플레이 모듈(123)로 제공할 수 있다. 디스플레이 모듈(123)은 렌즈 피치(LP')에 관한 정보를 사용자 단말(120)의 화면에 표시할 수 있다. 이로써, 사용자는 렌즈 피치(LP')에 관한 정보를 확인하여, 렌즈 피치(LP')에 맞도록 렌즈시트(110b)를 사용자 단말(120)에 부착할 수 있다. 따라서, 사용자는 시청 거리를 유지하면서도 더욱 해상도가 높은 입체 영상을 시청할 수 있다.The processor 121 determines whether the right eye R and the left eye L of the user are exposed to the first and second non-adjacent ones of the plurality of first and second mapping patterns 222 and 224 through the same lenticular lens 210, The lens pitch LP 'may be calculated based on the second rendering pitch and the interfitting distance so as to correspond to the mapping patterns 222 and 224, respectively. That is, the lens pitch is designed so that the right eye image and the left eye image provided to the user through the respective lenticular lenses 210 are caused by the non-adjacent mapping patterns 222 and 224 in the display module 123. Then, the processor 121 may provide the display module 123 with information on the calculated lens pitch LP '. The display module 123 may display information on the lens pitch LP 'on the screen of the user terminal 120. [ Thereby, the user can confirm the information on the lens pitch LP 'and attach the lens sheet 110b to the user terminal 120 to match the lens pitch LP'. Therefore, the user can view a stereoscopic image having a higher resolution while maintaining the viewing distance.

이하, 도 30를 참조하여, 본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 방법에 대하여 구체적으로 설명하도록 한다. Hereinafter, a non-eyeglass stereoscopic image display method according to an embodiment of the present invention will be described in detail with reference to FIG.

이하의 방법은 상술한 무안경 입체 영상 표시 장치(100)에 의해 수행되는 것으로서, 생략된 부분이 있다고 하더라도 상술한 내용으로 갈음하도록 한다. The following method is performed by the non-eyeglass stereoscopic image display apparatus 100 described above. Even if there is an omitted part, the above-described content is replaced.

먼저, 사용자는 입체 영상 표시 장치(100)의 사용자 단말에 설치된 프로그램(또는 애플리케이션)을 실행함으로써, 컨텐츠 제공 서버에 접속할 수 있다. 컨텐츠 제공 서버는 다수의 무안경 입체 영상 컨텐츠를 보유하고 있는 서버로서, 사용자의 선택에 따라 원하는 입체 영상 컨텐츠가 재생될 수 있도록 하는 서비스를 제공하는 서버이다. First, a user can access a content providing server by executing a program (or an application) installed in a user terminal of the stereoscopic image display apparatus 100. [ The content providing server is a server having a plurality of spectacles stereoscopic image contents, and is a server for providing a service for allowing a desired stereoscopic image content to be reproduced according to a user's selection.

사용자가 프로그램을 통하여 어느 한 입체 영상 컨텐츠를 선택하고 재생요청에 대한 입력을 수행할 수 있다. The user can select any one of the stereoscopic image contents through the program and perform the input for the reproduction request.

이 경우, 입체 영상 표시 장치(100)는 사용자로부터 미간 거리에 대한 입력을 수신한다(S110). 미간 거리 입력은 얼굴 크기에 대한 특정 옵션들을 미리 제공해주고, 사용자가 어느 한 옵션을 선택하도록 하는 사용자 인터페이스를 제공함으로써 수행될 수 있다. In this case, the stereoscopic image display apparatus 100 receives an input of the distance between the user and the user (S110). The inter-face distance input can be performed by providing specific options for the face size in advance and by providing a user interface that allows the user to select an option.

이어서, 입체 영상 표시 장치(100)는 미간 거리 및 커버(110) 내의 렌티큘러 렌즈(210)들의 렌즈 피치에 기초하여 디스플레이 모듈(123)의 렌더링 피치를 조절한다(S120). Then, the stereoscopic image display apparatus 100 adjusts the rendering pitch of the display module 123 based on the fringe distance and the lens pitch of the lenticular lenses 210 in the cover 110 (S120).

입체 영상 표시 장치(100)는 렌더링 피치를 기초로 최적 시청 거리를 계산하고, 사용자의 최적 시청 거리로의 유도를 위한 가이드 신호를 제공한다(S130). 이때, 입체 영상 표시 장치(100)는 미간 거리, 렌즈 피치 및 렌티큘러 렌즈(210)에서 디스플레이까지의 거리를 나타내는 광학 거리에 기초하여, 사용자가 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산하고, 사용자 단말(120)의 카메라(122)를 이용하여 실제 시청 거리인 제2 시청 거리를 측정한다. 그리고, 입체 영상 표시 장치(100)는 제1 시청 거리 및 제2 시청 거리 간의 오차 거리에 기초하여 사용자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 사용자 단말(120)에 제공한다.The stereoscopic image display apparatus 100 calculates the optimum viewing distance based on the rendering pitch and provides a guide signal for guiding the user to the optimum viewing distance (S130). At this time, the stereoscopic image display apparatus 100 displays the first viewing distance (distance), which represents the distance that the user can view with the clearest image quality, based on the near distance, the lens pitch, and the optical distance representing the distance from the lenticular lens 210 to the display And uses the camera 122 of the user terminal 120 to measure the second viewing distance, which is the actual viewing distance. The stereoscopic image display apparatus 100 provides the user terminal 120 with a guide signal for guiding the adjustment of the second viewing distance of the user based on the error distance between the first viewing distance and the second viewing distance.

이어서, 입체 영상 표시 장치(100)는 카메라(122)를 이용하여 사용자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하여 사용자의 눈의 이동방향 및 이동거리를 획득한다(S140). 아이트래킹을 통해 사용자의 눈의 위치가 이동하였는지를 파악할 수 있다. Then, the stereoscopic image display apparatus 100 performs eye tracking of the user's eyes using the camera 122 to acquire the moving direction and the moving distance of the user's eyes (S140). Eye tracking can determine whether the position of the user's eyes has moved.

입체 영상 표시 장치(100)는 이동 거리 및 미간 거리에 기초하여 디스플레이 모듈(123)을 제어함으로써, 사용자가 이동한 경우에도 능동적으로 사용자에게 입체 영상을 제공할 수 있다(S150). 구체적으로, 옵셋을 계산하고, 옵셋만큼 측정된 이동 방향과 반대 방향으로, 디스플레이 모듈(123)의 픽셀(220)의 발광패턴(즉, 복수의 제1 및 제2 맵핑 패턴)을 이동시킴으로써, 사용자가 이동한 경우에 맞춘 능동적인 입체 영상을 제공할 수 있다. The stereoscopic image display apparatus 100 can actively provide a stereoscopic image to the user even when the user moves by controlling the display module 123 based on the distance of movement and the distance between eyes. Specifically, by calculating the offset and moving the light emission pattern (i.e., the plurality of first and second mapping patterns) of the pixel 220 of the display module 123 in the direction opposite to the movement direction measured by the offset, It is possible to provide an active stereoscopic image in accordance with the movement of the moving object.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer readable medium may include both computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

Claims (13)

무안경 입체 영상 표시 장치에 있어서,
디스플레이 모듈 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되,
상기 프로세서는,
사용자 단말과 연결된 카메라를 통하여 사용자의 상기 사용자 단말에 대한 시청 위치를 측정하고,
상기 시청 위치, 및 상기 사용자 단말의 전면에 배치되는 커버의 렌티큘러 렌즈를 구성하는 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여, 상기 디스플레이 모듈의 좌안 영상 픽셀 패턴 사이의 거리 또는 우안 영상 픽셀 패턴 사이의 거리를 조정하며,
상기 커버를 거치면서 사용자에게 입체 영상으로 제공되도록, 상기 렌즈 피치에 기초하여 상기 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 상기 디스플레이 모듈을 통해 무안경 입체 영상을 표시하고,
상기 무안경 입체 영상 표시 장치는 상기 사용자 단말에 대응하는 것인, 무안경 입체 영상 표시 장치.
In the non-eyeglass stereoscopic image display apparatus,
A display module and a processor for controlling the display module,
The processor comprising:
A viewing position of the user with respect to the user terminal is measured through a camera connected to the user terminal,
A distance between the left eye image pixel patterns of the display module or a right eye image pixel pattern of the left eye image pixel pattern of the display module based on the viewing position and a lens pitch indicating a distance between a plurality of convex lenses constituting a lenticular lens of a cover disposed on a front surface of the user terminal Lt; RTI ID = 0.0 >
Eye stereoscopic image through the display module by controlling the left eye image pixel and the right eye image pixel of the display module based on the lens pitch so as to be provided as a stereoscopic image to the user while passing through the cover,
Eye stereoscopic image display apparatus corresponds to the user terminal.
사용자 단말의 프로세서에 의해 수행되는, 무안경 입체 영상 표시 방법에 있어서,
상기 사용자 단말의 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하는 단계;를 포함하며,
상기 입체 영상을 제공하는 단계는,
상기 사용자 단말과 연결된 카메라를 통하여 상기 사용자의 상기 사용자 단말에 대한 시청 위치를 측정하는 단계;
상기 시청 위치, 및 상기 사용자 단말의 전면에 배치되는 렌티큘러 렌즈에 포함된 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여, 상기 디스플레이 모듈의 좌안 영상 픽셀 패턴 사이의 거리 또는 우안 영상 픽셀 패턴 사이의 거리를 조정하는 단계; 및
상기 사용자 단말의 전면에 배치되는 렌티큘러 렌즈를 포함하는 커버를 거치면서 사용자에게 입체 영상으로 제공되도록, 상기 렌즈 피치에 기초하여 상기 디스플레이 모듈의 픽셀을 제어하여 상기 디스플레이 모듈을 통해 무안경 입체 영상을 표시하는 단계를 포함하는 것인, 무안경 입체 영상 표시 방법.
A stereoscopic image display method performed by a processor of a user terminal,
And providing a stereoscopic image by controlling a left eye image pixel and a right eye image pixel of a display module of the user terminal,
Wherein the providing of the stereoscopic image comprises:
Measuring a viewing position of the user with respect to the user terminal through a camera connected to the user terminal;
A distance between the left eye image pixel pattern of the display module or a right eye image pixel pattern of the right eye image pixel pattern on the basis of the viewing position and a lens pitch indicating a distance between a plurality of convex lenses included in a lenticular lens disposed on the front surface of the user terminal Adjusting a distance; And
Eye stereoscopic image is displayed through the display module by controlling pixels of the display module based on the lens pitch so as to be provided as a stereoscopic image to the user while passing through a cover including a lenticular lens disposed on the front surface of the user terminal And displaying the stereoscopic image on the display unit.
제 2 항에 있어서,
상기 입체 영상을 제공하는 단계 전, 상기 사용자 단말에 설치된 애플리케이션의 실행을 통해 컨텐츠 제공 서버로부터 다수의 무안경 입체 영상 컨텐츠 목록을 수신하여 사용자에게 제공하고, 사용자의 선택에 따라 어느 하나의 입체 영상 컨텐츠에 대한 재생요청 입력을 수신하는 단계를 더 포함하는, 무안경 입체 영상 표시 방법.
3. The method of claim 2,
The stereoscopic image display method according to claim 1, further comprising: receiving a plurality of spectacle-free stereoscopic image contents list from a content providing server through execution of an application installed in the user terminal and providing the selected stereoscopic image contents to a user before providing the stereoscopic image; Further comprising receiving a playback request input for the non-eyeglass stereoscopic image.
제 2 항에 있어서,
상기 입체 영상을 제공하는 단계는,
상기 렌즈 피치 및 상기 사용자의 시청 위치에 기초하여, 상기 좌안 영상 픽셀에 대응하는 복수의 제 1 맵핑 패턴과 상기 우안 영상 픽셀에 대응하는 제 2 맵핑 패턴 간의 변위차를 산출하는 단계; 및
상기 산출된 변위차에 기초하여 상기 복수의 제 1 맵핑 패턴 간의 거리 및 복수의 제 2 맵핑 패턴 간의 거리를 나타내는 렌더링 피치를 산출하는 단계를 포함하는, 무안경 입체 영상 표시 방법.
3. The method of claim 2,
Wherein the providing of the stereoscopic image comprises:
Calculating a displacement difference between a plurality of first mapping patterns corresponding to the left eye image pixel and a second mapping pattern corresponding to the right eye image pixel based on the lens pitch and the viewing position of the user; And
And calculating a rendering pitch indicating a distance between the plurality of first mapping patterns and a distance between the plurality of second mapping patterns based on the calculated displacement difference.
제 2 항에 있어서,
상기 입체 영상을 제공하는 단계는,
상기 사용자의 시청 위치, 상기 렌즈 피치 및 상기 렌티큘러 렌즈에서 상기 좌안 영상 픽셀 및 우안 영상 픽셀까지의 거리를 나타내는 광학 거리에 기초하여, 상기 사용자가 미리 설정된 수준 이상의 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산하는 단계;
상기 사용자 단말과 연결된 카메라를 통하여 상기 사용자가 상기 사용자 단말에 대한 실제 시청 거리를 나타내는 제 2 시청거리를 측정하는 단계; 및
상기 제 1 및 제 2 시청 거리 간의 오차거리에 기초하여 상기 사용자의 제 2 시청 거리의 조정을 안내하기 위한 가이드 신호를 상기 디스플레이 모듈을 통해 제공하는 단계;를 더 포함하는, 무안경 입체 영상 표시 방법.
3. The method of claim 2,
Wherein the providing of the stereoscopic image comprises:
An optical distance representing a distance from the viewing position of the user, the lens pitch, and the left eye image pixel and the right eye image pixel in the lenticular lens, Calculating a viewing distance;
Measuring a second viewing distance through which the user views the actual viewing distance to the user terminal through a camera connected to the user terminal; And
And providing a guide signal through the display module to guide adjustment of the second viewing distance of the user based on an error distance between the first and second viewing distances, .
제 2 항에 있어서,
상기 입체 영상을 제공하는 단계는,
상기 사용자의 시청 위치, 상기 렌즈 피치 및 상기 렌티큘러 렌즈에서 상기 좌안 영상 픽셀 및 우안 영상 픽셀까지의 거리를 나타내는 광학 거리에 기초하여, 상기 사용자가 미리 설정된 수준 이상의 선명한 화질로 시청할 수 있는 최적 거리를 나타내는 제1 시청 거리를 계산하는 단계;
상기 사용자 단말과 연결된 카메라를 통하여 상기 사용자가 상기 사용자 단말에 대한 실제 시청 거리를 나타내는 제 2 시청거리를 측정하는 단계; 및
상기 제 1 및 제 2 시청 거리 간의 오차거리에 기초하여, 상기 제 2 시청 거리가 상기 최적 거리로 되도록, 상기 좌안 영상 픽셀에 대응하는 복수의 제 1 맵핑 패턴 간의 거리 및 상기 우안 영상 픽셀에 대응하는 복수의 제 2 맵핑 패턴 간의 거리를 나타내는 렌더링 피치를 산출하는 단계를 포함하는, 무안경 입체 영상 표시 방법.
3. The method of claim 2,
Wherein the providing of the stereoscopic image comprises:
An optical distance indicating the distance from the viewing position of the user, the lens pitch, and the left eye image pixel and the right eye image pixel in the lenticular lens to an optimal distance that the user can watch with a clear image quality of a predetermined level or higher Calculating a first viewing distance;
Measuring a second viewing distance through which the user views the actual viewing distance to the user terminal through a camera connected to the user terminal; And
The distance between the first mapping pattern corresponding to the left eye image pixel and the distance between the first mapping pattern corresponding to the right eye image pixel and the second eye view pixel corresponding to the right eye image pixel so that the second viewing distance becomes the optimal distance, And calculating a rendering pitch indicating a distance between the plurality of second mapping patterns.
제 4 항에 있어서,
상기 입체 영상을 제공하는 단계는,
상기 사용자 단말과 연결된 카메라를 이용하여 아이 트래킹(Eye Tracking)을 수행하여 상기 사용자의 시청 위치를 파악하고 , 상기 사용자의 시청 위치의 이동 방향 및 이동 거리를 측정하는 단계;
상기 측정된 이동 방향 및 이동 거리에 기초하여 상기 디스플레이 모듈에 적용하기 위한 옵셋을 계산하는 단계; 및
상기 옵셋의 수치만큼, 상기 복수의 제 1 및 제 2 맵핑 패턴이 이동되도록 상기 디스플레이 모듈을 제어하는 단계;를 포함하는, 무안경 입체 영상 표시 방법.
5. The method of claim 4,
Wherein the providing of the stereoscopic image comprises:
Performing Eye Tracking using a camera connected to the user terminal to determine a viewing position of the user and measuring a moving direction and a moving distance of the viewing position of the user;
Calculating an offset for application to the display module based on the measured movement direction and movement distance; And
And controlling the display module such that the plurality of first and second mapping patterns are shifted by a value of the offset.
제 2 항에 있어서,
상기 시청 위치는 사용자의 두 눈의 위치를 기반으로 계산되는 것인, 무안경 입체 영상 표시 방법.
3. The method of claim 2,
Wherein the viewing position is calculated based on a position of two eyes of the user.
무안경 입체 영상 표시 장치에 있어서,
사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성되는 커버;를 포함하되,
상기 커버는,
상기 사용자 단말의 전면을 커버하며 상기 사용자 단말에 고정가능하도록 구성되는 본체 및 상기 본체의 내부 또는 하부에 배치되는 복수의 볼록렌즈로 구성된 렌티큘러 렌즈를 포함하는 렌즈시트를 포함하며,
상기 커버와 상기 사용자 단말 간 오정렬이 상기 사용자 단말의 픽셀들의 배열패턴 조정을 통하여 보정됨으로 인해, 상기 렌즈시트를 통과한 상기 사용자 단말의 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀이 사용자에게 입체 영상으로 제공되며,
상기 본체는 가장자리가 걸림 부분을 갖도록 형성되고, 상기 사용자 단말의 전면 또는 후면에 양면 결합형으로 체결되도록 구성되는 것인, 무안경 입체 영상 표시 장치.
In the non-eyeglass stereoscopic image display apparatus,
And a cover disposed on a front surface of the user terminal and configured to be coupled with the user terminal,
The cover
A lens sheet including a main body configured to cover a front surface of the user terminal and configured to be fixed to the user terminal, and a lenticular lens configured of a plurality of convex lenses disposed in the interior or the bottom of the main body,
Since the misalignment between the cover and the user terminal is corrected through adjustment of the arrangement pattern of the pixels of the user terminal, the left eye image pixel and the right eye image pixel of the display module of the user terminal, which have passed through the lens sheet, ≪ / RTI &
Wherein the main body is formed to have a hooked portion and is configured to be coupled to a front surface or a rear surface of the user terminal in a double-sided coupling manner.
제 9 항에 있어서,
상기 무안경 입체 영상 표시 장치는,
상기 사용자 단말의 후면에 결합되는 후면 보조 커버를 더 포함하며,
상기 렌즈시트를 포함하는 커버는 상기 후면 보조 커버에 결합가능하도록 구성됨으로써, 상기 사용자 단말의 전면 또는 후면에 결합가능한 형태로 구성되는 것인, 무안경 입체 영상 표시 장치.
10. The method of claim 9,
The non-eyeglass stereoscopic image display device includes:
Further comprising a rear auxiliary cover coupled to a rear surface of the user terminal,
Wherein the cover including the lens sheet is configured to be connectable to the front or rear surface of the user terminal by being configured to be coupled to the rear auxiliary cover.
제 9 항에 있어서,
상기 커버는,
상기 본체 및 렌즈시트를 포함하는 덮개부; 및
상기 사용자 단말의 외형을 보호하도록 제작되되, 상기 덮개부가 상기 사용자 단말의 일측에 고정되어 상기 사용자 단말의 전면을 개방하거나 덮을 수 있도록 상기 덮개부와 연결된 케이스부를 포함하는 플립형 커버인, 무안경 입체 영상 표시 장치.
10. The method of claim 9,
The cover
A lid including the main body and the lens sheet; And
And a case part which is manufactured to protect the outer shape of the user terminal and is connected to the lid part so that the lid part is fixed to one side of the user terminal and can open or cover the front face of the user terminal, Display device.
무안경 입체 영상 표시 장치에 있어서,
사용자 단말; 및 상기 사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성되는 커버;를 포함하되,
상기 커버는,
상기 사용자 단말의 전면을 커버하며 상기 사용자 단말에 고정가능하도록 구성되는 본체 및 상기 본체의 내부 또는 하부에 배치되는 복수의 볼록렌즈로 구성된 렌티큘러 렌즈를 포함하고,
상기 사용자 단말은,
입체 영상을 표시하는 디스플레이 모듈 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되,
상기 프로세서는,
상기 커버와 상기 사용자 단말 간 오정렬이 상기 사용자 단말의 픽셀들의 배열패턴 조정을 통하여 보정됨으로 인해, 상기 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하며,
상기 본체는 가장자리가 걸림 부분을 갖도록 형성되고, 상기 사용자 단말의 전면 또는 후면에 결합형으로 체결되도록 구성되는 것인, 무안경 입체 영상 표시 장치.
In the non-eyeglass stereoscopic image display apparatus,
A user terminal; And a cover disposed on a front surface of the user terminal and configured to be engageable with the user terminal,
The cover
A main body configured to cover a front surface of the user terminal and configured to be fixed to the user terminal; and a lenticular lens configured of a plurality of convex lenses disposed in the interior or the lower portion of the body,
The user terminal comprises:
A display module for displaying a stereoscopic image, and a processor for controlling the display module,
The processor comprising:
Eye image pixel and the right eye image pixel of the display module based on the lens pitch indicating the distance between the plurality of convex lenses because the misalignment between the cover and the user terminal is corrected through adjustment of the arrangement pattern of the pixels of the user terminal Thereby providing a stereoscopic image,
Wherein the main body is formed to have a hooked portion and is coupled to a front surface or a rear surface of the user terminal in a coupling manner.
제 2 항에 따르는 무안경 입체 영상 표시 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체.A computer-readable recording medium on which a program for performing the spectacles stereoscopic image displaying method according to claim 2 is recorded.
KR1020180059423A 2018-05-25 2018-05-25 Display device and displaying method for glass free stereoscopic image KR101956532B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180059423A KR101956532B1 (en) 2018-05-25 2018-05-25 Display device and displaying method for glass free stereoscopic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180059423A KR101956532B1 (en) 2018-05-25 2018-05-25 Display device and displaying method for glass free stereoscopic image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170035186A Division KR101863155B1 (en) 2016-06-23 2017-03-21 Display device and displaying method for glass free stereoscopic image

Publications (2)

Publication Number Publication Date
KR20180107021A true KR20180107021A (en) 2018-10-01
KR101956532B1 KR101956532B1 (en) 2019-03-11

Family

ID=63877986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180059423A KR101956532B1 (en) 2018-05-25 2018-05-25 Display device and displaying method for glass free stereoscopic image

Country Status (1)

Country Link
KR (1) KR101956532B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230018075A (en) 2021-07-29 2023-02-07 삼성전자주식회사 Method and device to calibrate parallax optical element

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015063A (en) * 2006-07-04 2008-01-24 Nikon Corp Stereoscopic vision optical system
KR20150145160A (en) * 2014-06-18 2015-12-29 삼성전자주식회사 No glasses 3D display mobile device, method for setting the same, and method for using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015063A (en) * 2006-07-04 2008-01-24 Nikon Corp Stereoscopic vision optical system
KR20150145160A (en) * 2014-06-18 2015-12-29 삼성전자주식회사 No glasses 3D display mobile device, method for setting the same, and method for using the same

Also Published As

Publication number Publication date
KR101956532B1 (en) 2019-03-11

Similar Documents

Publication Publication Date Title
CN107465909B (en) Display device and display method for naked eye stereoscopic image
JP5149435B1 (en) Video processing apparatus and video processing method
US8203599B2 (en) 3D image display apparatus and method using detected eye information
US8487983B2 (en) Viewing area adjusting device, video processing device, and viewing area adjusting method based on number of viewers
US9864191B2 (en) Viewer with varifocal lens and video display system
US11428951B2 (en) Glasses-free 3D display mobile device, setting method of the same, and using method of the same
KR20120016408A (en) Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method
EP3132305B1 (en) Glasses-free 3d display mobile device, setting method of the same, and using method of the same
KR20130106001A (en) Apparatus for processing a three-dimensional image and method for adjusting location of sweet spot for viewing multi-view image
KR20140067575A (en) Method for displaying three-dimensional image and three-dimensional image display apparatus performing the same
CN102970561A (en) Video processing apparatus and video processing method
KR101956532B1 (en) Display device and displaying method for glass free stereoscopic image
KR20130123526A (en) Stereoscopic image display device and method of displaying stereoscopic image
JP5132804B1 (en) Video processing apparatus and video processing method
KR101863155B1 (en) Display device and displaying method for glass free stereoscopic image
KR101880751B1 (en) Method for reducing error by allignment of lenticular lens and user terminal for displaying glass free stereoscopic image and the user terminal of perporming the method
KR101808758B1 (en) Stereoscopic image display device and misalignment correction method for the same
JP5433763B2 (en) Video processing apparatus and video processing method
KR101970485B1 (en) Stereoscopic image display device and method for improving viewing condition
JP2013219485A (en) Stereoscopic image display device and stereoscopic image display method
KR101897229B1 (en) Stereoscopic image display device and method for improving viewing condition
KR101950816B1 (en) Display Apparatus For Displaying Three Dimensional Picture And Driving Method For The Same
KR101835754B1 (en) Stereoscopic image display device and method for enhancing resolution of the same
CN108234990B (en) Stereoscopic display device and stereoscopic display method
JP2013055665A (en) Visual field adjusting device, video processing apparatus and visual field adjusting method

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant