KR20120126897A - Electronic device and method for processing a 3-dimensional image - Google Patents

Electronic device and method for processing a 3-dimensional image Download PDF

Info

Publication number
KR20120126897A
KR20120126897A KR1020110045021A KR20110045021A KR20120126897A KR 20120126897 A KR20120126897 A KR 20120126897A KR 1020110045021 A KR1020110045021 A KR 1020110045021A KR 20110045021 A KR20110045021 A KR 20110045021A KR 20120126897 A KR20120126897 A KR 20120126897A
Authority
KR
South Korea
Prior art keywords
value
mark
distance
calculated
depth
Prior art date
Application number
KR1020110045021A
Other languages
Korean (ko)
Inventor
안무기
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110045021A priority Critical patent/KR20120126897A/en
Priority to EP12166628A priority patent/EP2523464A3/en
Priority to EP13177713.8A priority patent/EP2658270A3/en
Priority to US13/468,315 priority patent/US20120287235A1/en
Priority to CN201210148757.6A priority patent/CN102780902B/en
Publication of KR20120126897A publication Critical patent/KR20120126897A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Abstract

PURPOSE: An electronic device and a three-dimensional image processing method are provided to sense a viewing-distance of a user by sensing distance by using a new mark. CONSTITUTION: A control unit detects a first mark and a second mark of glasses from the captured image frame(S110). In case the viewing direction is a screen direction, the control unit produces a distance value between the first mark and the second mark(S120,S125). The control unit calculates a depth setting value based on the calculated distance value(S130). The control unit controls the depth value of a three-dimensional image based on the calculated depth setting value(S135). [Reference numerals] (AA) Start; (BB) No; (CC) Yes; (DD) End; (S100) Receiving cubic image date; (S105) Filming user; (S110) Detecting a first mark and a second mark of glasses; (S115) Producing angle value; (S120) Whether viewing direction of a user is a screen direction?; (S125) Producing a distance value between the first mark and the second mark; (S130) Calculating a depth setting value based on the calculated distance value; (S135) Controlling the depth value of a three-dimensional image based on the calculated depth setting value; (S140) Displaying cubic image

Description

전자 장치 및 입체영상 처리 방법{ELECTRONIC DEVICE AND METHOD FOR PROCESSING A 3-DIMENSIONAL IMAGE}ELECTRICAL DEVICE AND METHOD FOR PROCESSING A 3-DIMENSIONAL IMAGE}

본 발명은 전자 장치 및 입체영상 처리 장치에 관한 것으로, 보다 상세하게는 입체영상을 디스플레이하는 전자 장치 및 입체영상 처리 방법에 관한 것이다.The present invention relates to an electronic device and a stereoscopic image processing device, and more particularly, to an electronic device and a stereoscopic image processing method for displaying a stereoscopic image.

최근 3 차원 영상을 표현하는 디스플레이 기술이 다양한 분야에서 연구 및 활용되고 있다. 특히 3차원 영상을 디스플레이하는 기술을 활용하여, 3차원 영상을 디스플레이하는 전자 장치가 주목을 받고 있다.Recently, display technology for representing 3D images has been researched and utilized in various fields. In particular, an electronic device displaying a 3D image by using a technology of displaying a 3D image is attracting attention.

3 차원 영상을 디스플레이하는 기술은 양안의 시차로 관찰자가 입체감을 느끼게 되는 양안 시차의 원리를 이용하는 것으로, 안경 방식(shutter glass method), 무안경 방식, 완전 3차원 방식 등으로 구분된다. 안경 방식에는 사용자가 별도의 편광 안경과 같은 별도의 장비를 착용해야 하는 문제점이 있으며, 무안경 방식에는 사용자가 특정 위치에서만 3차원 영상을 볼 수 있는 문제점이 있다. 따라서, 안경 방식 및 무안경 방식에는 여러 문제점들이 존재하므로, 최근에는 완전 3차원 방식에 대한 연구가 활발히 진행되고 있다.The technique of displaying a 3D image uses the principle of binocular parallax, in which an observer feels a stereoscopic feeling due to binocular disparity, and is classified into a shutter glass method, a glasses-free method, a full three-dimensional method, and the like. In the glasses method, the user has to wear separate equipment such as separate polarized glasses, and in the glassesless method, the user can see a 3D image only at a specific location. Therefore, since there are various problems in the spectacle method and the glasses-free method, the research on the full three-dimensional method has been actively conducted recently.

본 발명이 이루고자하는 기술적 과제는 시 거리에 맞추어 적절할 입체영상을 디스플레이 할 수 있는 전자 장치 및 입체영상 처리 방법을 제공하는데 있다.The present invention is to provide an electronic device and a stereoscopic image processing method capable of displaying a stereoscopic image appropriate to a viewing distance.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 처리 방법은 촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하는 단계, 상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하는 단계, 상기 거리값을 기초로 깊이 설정값을 산출하는 단계 및 상기 산출된 깊이 설정값을 기초로 입체영상의 깊이값을 조절하는 단계를 포함할 수 있다. 여기서, 상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치할 수 있다. 또한 상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 그리고, 상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리일 수 있다.In order to achieve the above technical problem, the stereoscopic image processing method according to the present invention comprises the steps of detecting a first mark and a second mark of the glasses in the image frame, the detected first mark and the detected second mark The method may include calculating a distance value of the liver, calculating a depth setting value based on the distance value, and adjusting a depth value of the stereoscopic image based on the calculated depth setting value. Here, the first mark and the second mark may be located on the left eye eye and right eye eye of the glasses, respectively. In addition, the first mark and the second mark may be formed of at least one of an LED light, a luminous material, and a fluorescent material. The distance value may be a pixel distance between the first mark and the second mark.

상기 입체영상 처리 방법은, 상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하는 단계를 더 포함할 수 있고, 상기 깊이 설정값을 산출하는 단계는, 상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출하는 단계를 포함할 수 있다. 여기서 상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출될 수 있다. The stereoscopic image processing method may further include calculating an angle value based on a shape of at least one of the first mark and the second mark, and calculating the depth set value comprises: the distance value And calculating the depth setting value based on the angle value. The angle value may be calculated based on at least one of the ratio of the horizontal size, the horizontal size, and the vertical size of the shape.

또한 상기 입체영상 처리 방법은, 상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하는 단계를 더 포함하고, 상기 확인 결과에 따라 상기 입체영상의 깊이값을 조절하는 단계의 수행 여부가 결정될 수 있다. 상기 화면 방향인지 확인하는 단계는, 상기 각도값이 사전에 설정된 각도 이상인지를 확인하는 단계를 더 포함할 수 있다.The stereoscopic image processing method may further include determining whether a gaze direction of a user wearing the glasses is a screen direction based on the angle value, and adjusting a depth value of the stereoscopic image according to the checking result. Whether or not to perform the steps may be determined. The determining of the screen direction may further include checking whether the angle value is greater than or equal to a preset angle.

상기 깊이 설정값을 산출하는 단계는, 상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하는 단계 및 상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출하는 단계를 포함할 수 있다. 상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출될 수 있다.The calculating of the depth setting value may include calculating a viewing distance using the distance value and the angle value, and calculating the depth setting value based on the calculated viewing distance. The depth setting value may be calculated based on a ratio between the reference viewing distance and the calculated viewing distance.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 전자 장치는, 입체영상을 수신하는 수신부 및 촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하고, 상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하며, 상기 산출된 거리값을 기초로 깊이 설정값을 산출하고, 상기 산출된 깊이 설정값을 기초로 상기 수신된 입체영상의 깊이값의 조절을 제어하는 제어부를 포함할 수 있다. 여기서, 상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치할 수 있다. 또한 상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 또한, 상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리일 수 있다.According to another aspect of the present invention, an electronic device includes a receiver for receiving a stereoscopic image and a first mark and a second mark of glasses in a captured image frame, and the detected first mark and Calculating a distance value between the detected second marks, calculating a depth setting value based on the calculated distance value, and controlling adjustment of a depth value of the received stereoscopic image based on the calculated depth setting value It may include a control unit. Here, the first mark and the second mark may be located on the left eye eye and right eye eye of the glasses, respectively. In addition, the first mark and the second mark may be formed of at least one of an LED light, a luminous material, and a fluorescent material. The distance value may be a pixel distance between the first mark and the second mark.

상기 제어부는, 상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하고, 상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출할 수 있다. 상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출될 수 있다.The controller may calculate an angle value based on the shape of at least one of the first mark and the second mark, and calculate the depth setting value based on the distance value and the angle value. The angle value may be calculated based on at least one of a ratio of a horizontal size, a horizontal size, and a vertical size of the shape.

상기 제어부는, 상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하고, 상기 확인 결과에 따라 상기 입체영상의 깊이값의 조절을 제어할 수 있다. 상기 제어부는, 상기 각도값이 사전에 설정된 각도보다 작으면 상기 사용자의 시선 방향이 화면 방향이라고 확인할 수 있다.The controller may determine whether the eyeline direction of the user wearing the glasses is the screen direction based on the angle value, and control the adjustment of the depth value of the stereoscopic image according to the checking result. The controller may determine that the user's gaze direction is a screen direction when the angle value is smaller than a preset angle.

상기 제어부는, 상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하고, 상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출할 수 있다. 상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출될 수 있다.The control unit may calculate a viewing distance using the distance value and the angle value, and calculate the depth setting value based on the calculated viewing distance. The depth setting value may be calculated based on a ratio between the reference viewing distance and the calculated viewing distance.

본 발명에 따른 전자 장치 및 입체영상 처리 방법에 의하면, 안경에 새겨진 마크를 이용하여 시 거리를 감지하므로, 정확하게 사용자의 시 거리를 감지할 수 있고, 감지된 시 거리에 맞추어 적절하게 입체영상의 깊이값을 조절하므로, 사용자는 입체영상을 편하게 시청할 수 있다.According to the electronic device and the stereoscopic image processing method according to the present invention, since the visual distance is detected using the mark engraved on the glasses, the visual distance of the user can be accurately detected, and the depth of the stereoscopic image is appropriately adjusted according to the detected visual distance. By adjusting the value, the user can watch a stereoscopic image comfortably.

도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 3은 안경의 마크의 실시예들을 도시한 도면,
도 4는 마크가 형성된 안경의 일실시예를 도시한 도면,
도 5는 촬상된 영상 프레임에서 추출된 안경의 마크 간의 간격을 개략적으로 도시한 도면,
도 6은 거리 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 7은 촬상된 영상 프레임에서 추출된 안경의 마크의 모양을 도시한 도면,
도 8은 각도 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 9는 각도 참조 테이블에 대한 바람직한 다른 실시예를 도시한 도면,
도 10은 깊이값 설정 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 11은 양안시차 방식을 도시한 도면,
도 12는 양안시차의 크기에 따른 물체의 거리감을 도시한 도면,
도 13은 입체영상의 깊이값을 조절하는 방법의 일실시예를 설명하기 위한 도면,
도 14는 영상에 포함된 오브젝트의 좌표를 도시한 도면,
도 15는 도 14에 도시된 오브젝트의 변위가 변환된 후에 오브젝트의 좌표를 도시한 도면, 그리고,
도 16은 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 일실시예를 도시한 도면이다.
1 is a block diagram showing a configuration of a preferred embodiment of an electronic device according to the present invention;
2 is a block diagram showing a configuration of a preferred embodiment of the signal processing unit;
3 shows embodiments of the mark of the spectacles,
4 is a view showing an embodiment of a mark-shaped glasses,
FIG. 5 is a diagram schematically showing a distance between marks of glasses extracted from a captured image frame; FIG.
6 illustrates a preferred embodiment of a distance reference table;
7 is a view showing the shape of the mark of the glasses extracted from the captured image frame,
8 illustrates a preferred embodiment of an angular reference table;
9 illustrates another preferred embodiment of an angular reference table;
10 is a view showing a preferred embodiment of the depth value reference table;
11 is a diagram illustrating a binocular parallax scheme;
12 is a view showing a sense of distance of an object according to the size of binocular parallax;
13 is a view for explaining an embodiment of a method of adjusting a depth value of a stereoscopic image;
14 is a diagram illustrating coordinates of an object included in an image;
FIG. 15 shows coordinates of an object after displacement of the object shown in FIG. 14 is converted, and
16 is a view showing a preferred embodiment of the stereoscopic image processing method according to the present invention.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.Although the terms used in the present invention have been selected in consideration of the functions of the present invention, it is possible to use general terms that are currently widely used, but this may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, it is to be understood that the term used in the present invention should be defined based on the meaning of the term rather than the name of the term, and on the contents of the present invention throughout.

도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of a preferred embodiment of an electronic device according to the present invention.

도 1을 참조하면, 본 발명에 따른 전자 장치(100)는 수신부(101), 신호 처리부(140), 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180) 및 제어부(190)를 포함할 수 있다. 일부 실시예로, 전자 장치(100)는 촬영 장치(90)를 더 포함할 수 있다. 전자 장치(100)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있고 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.Referring to FIG. 1, the electronic device 100 according to the present invention includes a receiver 101, a signal processor 140, a display 150, an audio output unit 160, an input device 170, and a storage unit 180. And a controller 190. In some embodiments, the electronic device 100 may further include a photographing device 90. The electronic device 100 may be a personal computer system such as a desktop, a laptop, a tablet, or a handheld computer, and may be a mobile phone, a smart phone, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), It may be a mobile terminal such as a navigation device or the like, or may be a stationary home appliance such as a digital TV.

수신부(101)는 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신한다. 수신부(101)는 상기 영상 데이터에 대한 방송 정보를 더 수신할 수 있다. 영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 영상 데이터는 적어도 하나의 좌안 시점 영상 데이터 및 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다.The receiver 101 receives image data including left eye view image data and right eye view image data. The receiver 101 may further receive broadcast information about the image data. The image data may be a stereo viewpoint image or a multiview image. That is, the image data may include at least one left eye view image data and at least one right eye view image data.

수신부(101)는 튜너부(110), 복조부(120), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(130)를 포함할 수 있다.The receiver 101 may include a tuner 110, a demodulator 120, a mobile communication unit 115, a network interface unit 130, and an external signal receiver 130.

튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.The tuner unit 110 selects an RF broadcast signal corresponding to a channel selected by a user from among radio frequency (RF) broadcast signals received through an antenna, and converts the selected RF broadcast signal into an intermediate frequency signal or a baseband video or audio signal. To convert.

복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다.The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation. Also, the demodulation unit 120 may perform channel decoding.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. In this case, the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal. For example, the stream signal may be an MPEG-2 Transport Stream (TS) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like. Specifically, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.

복조부(120)에서 출력한 스트림 신호는 신호처리부(140)로 입력될 수 있다. The stream signal output from the demodulator 120 may be input to the signal processor 140.

이동통신부(115)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication unit 115 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

외부 신호 수신부(135)는 외부 장치와 전자 장치(100)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미할 수 있고, USB 메모리 또는 USB 하드 디스크 등의 저장 장치일 수 있다. 전자 장치(100)는 외부 신호 수신부(135)로부터 수신된 영상 신호 및 음성 신호가 디스플레이되도록 제어할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다. The external signal receiver 135 may provide an interface for connecting the external device to the electronic device 100. Here, the external device may refer to various types of video or audio output devices such as a DVD (Digital Versatile Disk), Blu-ray (Bluray), a game device, a camcorder, a computer (laptop), and a USB memory or a USB hard disk. It may be a device. The electronic device 100 may control the video signal and the audio signal received from the external signal receiver 135 to be displayed, and may store or use the data signal.

또한 외부 장치는 촬영 장치(90)일 수 있다. 촬영 장치(90)는 복수의 카메라를 포함할 수 있다. 촬영 장치(90)는 사람을 촬상할 수 있고 사람이 촬상된 영상 프레임을 전자 장치(100)로 전송할 수 있다.Also, the external device may be the photographing device 90. The photographing apparatus 90 may include a plurality of cameras. The photographing apparatus 90 may photograph a person and transmit an image frame photographed by the person to the electronic device 100.

신호처리부(140)는 복조부(210)가 출력한 스트림 신호를 역다중화하고 역다중화된 신호에 신호 처리 등을 수행한 후, 디스플레이(150)에 영상을 출력하고, 음성 출력부(160)로 음향(161)을 출력한다. 또한 신호 처리부(140)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 영상 데이터, 음성 데이터 및 방송 데이터를 수신할 수 있다. The signal processor 140 demultiplexes the stream signal output by the demodulator 210 and performs signal processing on the demultiplexed signal, and then outputs an image to the display 150 to the audio output unit 160. The sound 161 is output. In addition, the signal processor 140 may receive image data, audio data, and broadcast data from the mobile communication unit 115, the network interface unit 130, and the external signal receiving unit 135.

신호 처리부(140)는 제어부(190)로부터 깊이 설정값을 지시하는 신호를 수신할 수 있다. 그리고 신호 처리부(140)는 수신한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.The signal processor 140 may receive a signal indicating a depth setting value from the controller 190. The signal processor 140 may reconstruct the left eye view image data and the right eye view image data of the image data according to the received depth setting value.

일부 실시예로, 신호 처리부(140)는 영상 데이터에 포함된 오브젝트의 변위값을 산출하고, 깊이 설정값을 이용하여 산출된 변위값을 변경할 수 있다. 그리고 신호 처리부(140)는 변경된 변위값에 따라 상기 오브젝트의 변위값이 변경되도록 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.In some embodiments, the signal processor 140 may calculate a displacement value of the object included in the image data, and change the calculated displacement value using the depth setting value. The signal processor 140 may reconstruct the left eye view image data and the right eye view image data so that the displacement value of the object is changed according to the changed displacement value.

디스플레이(150)는 영상(152)을 디스플레이한다. 여기서 영상(152)은 신호 처리부(140)가 재구성한 영상 데이터가 디스플레이되는 것일 수 있다. 즉 영상 데이터는 깊이값이 조절된 입체영상 데이터일 수 있다. 또한, 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 디스플레이(150)는 전자 장치의 사용자와 운영 체제 또는 운영 체제 상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다.The display 150 displays the image 152. In this case, the image 152 may be an image data reconstructed by the signal processor 140 is displayed. That is, the image data may be stereoscopic image data whose depth value is adjusted. In addition, the display 150 may operate in connection with the controller 190. The display 150 may display a graphical user interface (GUI) 153 that provides an easy-to-use interface between the user of the electronic device and an operating system or an application running on the operating system.

음성 출력부(160)는 신호 처리부(140) 및 제어부(190)로부터 음성 데이터를 수신하고 수신한 음성 데이터가 재생된 음향(161)을 출력할 수 있다.The voice output unit 160 may receive voice data from the signal processor 140 and the controller 190 and output a sound 161 in which the received voice data is reproduced.

입력장치(170)는 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있고 터치패드일 수 있다. 터치 스크린은 디스플레이(150)와 일체로 되어 있거나 별개의 구성요소일 수 있다. 터치 스크린이 디스플레이(150)의 전방에 배치됨에 따라 사용자는 GUI(153)를 직접 조작할 수 있다. 예를 들어, 사용자는 단지 제어될 객체 상에 그의 손가락을 올려놓을 수 있다. The input device 170 may be a touch screen disposed on or in front of the display 150 and may be a touch pad. The touch screen may be integrated with the display 150 or may be a separate component. As the touch screen is disposed in front of the display 150, the user may directly manipulate the GUI 153. For example, the user can only place his finger on the object to be controlled.

저장부(180)는 일반적으로 전자 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 예로서, 저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 전자 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함한다.The storage unit 180 generally provides a place for storing program codes and data used by the electronic device 100. For example, the storage unit 180 may be implemented as a read only memory (ROM), a random access memory (RAM), a hard disk drive, or the like. The program code and data may reside in a removable storage medium and may be loaded or installed onto the electronic device 100 as needed. Removable storage media herein include CD-ROMs, PC-CARDs, memory cards, floppy disks, magnetic tape, and network components.

저장부(180)는 안경의 마크에 대한 정보, 거리 참조 테이블, 각도 참조 테이블 및 깊이값 설정 정보 참조 테이블을 저장할 수 있다. 여기서 안경의 마크에 대한 정보는 마크의 이미지 데이터, 마크의 색상 정보 및 마크에 대한 설명 정보를 포함할 수 있다.The storage unit 180 may store information on the mark of the glasses, the distance reference table, the angle reference table, and the depth value setting information reference table. The information on the mark of the glasses may include image data of the mark, color information of the mark, and description information about the mark.

제어부(190)는 명령어를 실행하고 전자 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 전자 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.The controller 190 executes a command and performs an operation associated with the electronic device 100. For example, the controller 190 may control input and output between the components of the electronic device 100 and reception and processing of data by using a command retrieved from the storage unit 180. The controller 190 may be implemented on a single chip, multiple chips, or multiple electrical components. For example, various architectures may be used for the controller 190, including dedicated or embedded processors, single purpose processors, controllers, ASICs, and the like.

제어부(190)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.The controller 190 executes computer code together with an operating system to generate and use data. The operating system is generally known and will not be described in more detail. By way of example, the operating system may be a Window based OS, Unix, Linux, Palm OS, DOS, Android, Macintosh, and the like. The operating system, other computer code, and data may be present in the storage unit 180 that operates in conjunction with the control unit 190.

제어부(190)는 사용자 조치(User Action)를 인식하고 인식한 사용자 조치에 기초하여 전자 장치(100)를 제어할 수 있다. 여기서 사용자 조치는 전자 장치 또는 리모컨의 물리적인 버튼의 선택, 터치 스크린 디스플레이면상의 소정의 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치로 촬영된 영상으로부터 인식되는 소정의 제스처의 실시 및 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 외부 신호 수신부(135)는 리모컨의 물리적인 버튼을 선택하는 사용자 조치에 대한 신호를 리모컨을 통해 수신할 수 있다. 제스처는 터치 제스처와 공간 제스처를 포함할 수 있다.The controller 190 may recognize the user action and control the electronic device 100 based on the recognized user action. The user action may be performed by selecting a physical button of an electronic device or a remote control, performing a predetermined gesture on the touch screen display surface, selecting a soft button, or performing a predetermined gesture recognized from an image captured by the imaging device, and by voice recognition. It may include the implementation of any utterance recognized. The external signal receiver 135 may receive a signal for a user action of selecting a physical button of the remote controller through the remote controller. The gesture may include a touch gesture and a space gesture.

입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.The input device 170 receives the gesture 171, and the controller 190 executes commands for performing operations associated with the gesture 171. In addition, the storage unit 180 may include a gesture operating program 181 which may be part of an operating system or a separate application. Gesture operator 181 generally recognizes the occurrence of gesture 171 and in turn responds to gesture 171 and / or gesture 171 to inform one or more software agents of what action (s) should be taken. Contains the command of.

사용자가 하나 이상의 제스처를 행할 때, 입력장치(170)는 제스처 정보를 제어부(190)로 전달한다. 저장부(180)로부터의 명령어, 보다 상세하게는 제스처 작동 프로그램(181)을 사용하여, 제어부(190)는 제스처(171)를 해석하고 저장부(180), 디스플레이(150), 음성 출력부(160), 신호 처리부(140), 네트워크 인터페이스부(130) 및 입력장치(170) 등의 전자 장치(100)의 서로 다른 컴포넌트를 제어한다. 제스처(171)는 저장부(180)에 저장된 애플리케이션에서의 동작을 수행하고, 디스플레이(150) 상에 나타난 GUI 객체를 수정하며, 저장부(180)에 저장된 데이터를 수정하고, 네트워크 인터페이스부(130), 신호 처리부(140)에서의 동작을 수행하는 명령으로서 식별될 수 있다.When the user performs one or more gestures, the input device 170 transmits gesture information to the controller 190. Using commands from the storage unit 180, more specifically, the gesture operation program 181, the controller 190 interprets the gesture 171 and stores the storage unit 180, the display 150, and the voice output unit ( 160, different components of the electronic device 100, such as the signal processor 140, the network interface 130, and the input device 170, are controlled. The gesture 171 performs an operation in an application stored in the storage unit 180, modifies a GUI object displayed on the display 150, modifies data stored in the storage unit 180, and the network interface unit 130. ) May be identified as a command for performing an operation in the signal processor 140.

제어부(190)는 시 거리를 기초로 깊이 설정값을 결정할 수 있다. 제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하고, 검출한 제1 마크 및 제2 마크 간의 거리값을 이용하여 시 거리를 산출할 수 있다. 또한 제어부(190)는 검출한 제1 마크 및 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하고, 산출한 각도값을 기초로 산출한 시 거리를 보정할 수 있다. 여기서 보정 전의 시 거리는 사용자 거리값으로 명명되고, 보정 후의 시 거리는 시거리로 명명될 수 있다.The controller 190 may determine the depth setting value based on the viewing distance. The controller 190 may detect the first mark and the second mark of the glasses in the image frame captured by the photographing apparatus 90, and calculate the viewing distance using the distance value between the detected first mark and the second mark. have. In addition, the controller 190 may calculate an angle value based on the shape of at least one of the detected first mark and the second mark, and correct the calculated viewing distance based on the calculated angle value. Here, the viewing distance before correction may be named as a user distance value, and the viewing distance after correction may be named as a viewing distance.

일부 실시예로, 제어부(190)는 결정한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다. 일부 실시예로, 제어부(190)는 신호 처리부(140)로 하여금 결정한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성하도록 제어할 수 있다.In some embodiments, the controller 190 may reconstruct the left eye view image data and the right eye view image data of the image data according to the determined depth setting value. In some embodiments, the controller 190 may control the signal processor 140 to reconstruct the left eye view image data and the right eye view image data of the image data according to the determined depth setting value.

도 2는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.2 is a block diagram showing the configuration of a preferred embodiment of the signal processor.

도 2를 참조하면, 신호 처리부(140)는 역다중화부(210), 오디오 디코더(220), 비디오 디코더(230), 영상 가공부(240), 스케일러(260), 믹서(270) 및 포맷터(280)를 포함할 수 있다.Referring to FIG. 2, the signal processor 140 may include a demultiplexer 210, an audio decoder 220, a video decoder 230, an image processor 240, a scaler 260, a mixer 270, and a formatter ( 280).

역다중화부(210)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 입력부(135)로부터 스트림 신호를 수신할 수 있고, 역다중화부(210)는 수신된 스트림 신호를 영상 데이터, 음성 데이터 및 데이터로 역다중화하여 각각 비디오 디코더(230), 오디오 디코더(220) 및 제어부(190)로 출력할 수 있다.The demultiplexer 210 may receive a stream signal from the mobile communication unit 115, the network interface unit 130, and the external signal input unit 135. The demultiplexer 210 may convert the received stream signal into image data, The audio data and the data may be demultiplexed and output to the video decoder 230, the audio decoder 220, and the controller 190, respectively.

오디오 디코더(220)는 역다중화부(210)로부터 음성 데이터를 수신하고, 수신된 음성 데이터를 복원하여 복원된 데이터를 스케일러(260) 또는 음성 출력부(160)로 출력할 수 있다.The audio decoder 220 may receive voice data from the demultiplexer 210, restore the received voice data, and output the restored data to the scaler 260 or the voice output unit 160.

비디오 디코더(230)는 역다중화부(210)로부터 영상 데이터를 수신하고, 수신된 영상 데이터를 복원하여 영상 가공부(240)에 출력한다. 여기서 영상 신호는 입체영상 신호를 포함할 수 있다. 비디오 디코더(230) 및 영상 가공부(240)는 하나의 모듈로 구성될 수 있다. 영상 가공부(240)가 수행하는 역할을 제어부(190)가 대신 수행하는 경우에는, 비디오 디코더(230)는 복원한 영상 데이터를 제어부(190)로 출력할 수 있다.The video decoder 230 receives image data from the demultiplexer 210, restores the received image data, and outputs the received image data to the image processor 240. The image signal may include a stereoscopic image signal. The video decoder 230 and the image processor 240 may be configured as one module. When the controller 190 performs a role performed by the image processor 240, the video decoder 230 may output the reconstructed image data to the controller 190.

영상 가공부(240)는 깊이 설정값에 따라 복원된 영상 데이터에 포함된 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다. 영상 가공부(240)는 변위 산출부(245), 변위 변경부(250) 및 영상 재구성부(255)를 포함할 수 있다.The image processor 240 may reconstruct the left eye view image data and the right eye view image data included in the reconstructed image data according to the depth setting value. The image processor 240 may include a displacement calculator 245, a displacement changer 250, and an image reconstructor 255.

변위 산출부(245)는 영상 데이터에 포함된 오브젝트의 변위값을 산출한다. The displacement calculator 245 calculates a displacement value of the object included in the image data.

변위 변경부(250)는 깊이 설정값을 이용하여 변위 산출부(245)가 산출한 변위값을 변경한다. 여기서, 상기 변위 변경부는, 깊이 설정값 및 산출된 변위값을 기초로 상기 변경된 변위값을 산출할 수 있다.The displacement change unit 250 changes the displacement value calculated by the displacement calculator 245 using the depth set value. Here, the displacement change unit may calculate the changed displacement value based on the depth setting value and the calculated displacement value.

영상 재구성부(255)는 변위 변경부(250)가 변경한 변위값에 따라 상기 오브젝트의 변위값이 변경되도록 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다. The image reconstructor 255 may reconstruct the left eye view image data and the right eye view image data of the image data such that the displacement value of the object is changed according to the displacement value changed by the displacement changer 250.

스케일러(260)는 비디오 디코더(230), 영상 가공부(240) 및 제어부(190)에서 처리된 영상 데이터 및 오디오 디코더(220)에서 처리된 음성 데이터를 디스플레이(150) 또는 스피커(미도시)를 통하여 출력하기 위한 적절한 크기의 신호로 크기 조절(스케일링: scaling)한다. 구체적으로, 스케일러(260)는 입체영상을 수신하여 디스플레이(150)의 해상도 또는 소정 화면비(aspect ratio)에 맞도록 스케일링(scaling)한다. 디스플레이(150)는 제품 사양 별로 소정 해상도, 예를 들어 720x480 포맷, 1024x768 등을 갖는 영상 화면을 출력하도록 제작될 수 있다. 그에 따라서, 스케일러(260)는 다양한 값으로 입력될 수 있는 입체영상의 해상도를 해당 디스플레이의 해상도에 맞춰 변환할 수 있다.The scaler 260 may display the image data processed by the video decoder 230, the image processor 240, and the controller 190 and the audio data processed by the audio decoder 220 to display the display 150 or a speaker (not shown). Scale to the appropriate size signal to output through. In detail, the scaler 260 receives the stereoscopic image and scales it to match the resolution or the predetermined aspect ratio of the display 150. The display 150 may be manufactured to output an image screen having a predetermined resolution, for example, 720x480 format, 1024x768, or the like according to product specifications. Accordingly, the scaler 260 may convert the resolution of the stereoscopic image, which may be input with various values, to match the resolution of the corresponding display.

믹서(270)는 스케일러(260) 및 제어부(190)의 출력을 믹싱하여 출력한다.The mixer 270 mixes and outputs the outputs of the scaler 260 and the controller 190.

포맷터(280)는 입체영상을 구현하기 위하여 변환된 영상 데이터를 디스플레이(150)로 출력한다. 입체영상 디스플레이 방식이 패턴 리타드 방식인 경우에는, 포맷터(280)는 수신된 입체영상 프레임을 좌안 시점 영상 데이터 및 우아 시점 영상 데이터가 수평 또는 수직 방향으로 교번적으로 배열된 영상 프레임으로 샘플링하고, 샘플링한 영상 프레임을 출력할 수 있다.The formatter 280 outputs the converted image data to the display 150 to implement a stereoscopic image. When the stereoscopic image display method is a pattern retard method, the formatter 280 samples the received stereoscopic image frame into an image frame in which left eye view image data and elegant eye view image data are alternately arranged in a horizontal or vertical direction, Sampled image frames can be output.

입체영상 디스플레이 방식이 셔터 글라스 방식인 경우에는, 포맷터(280)는 출력되는 입체영상 신호에 동기 신호(Sync signal)를 생성하여 안경(201)으로 전송할 수 있다. 포맷터(280)는 동기 신호의 전송을 위해 적외선 출력부(미도시)를 포함할 수 있다. 여기서, 동기 신호는 입체영상 신호에 따른 좌안 시점 영상 또는 우안 시점 영상의 디스플레이 시점과 셔터 안경(201)의 좌안 렌즈 또는 우안 렌즈의 개폐 시점을 동기시키기 위한 신호이다.When the 3D image display method is a shutter glass method, the formatter 280 may generate a sync signal to the output 3D image signal and transmit it to the glasses 201. The formatter 280 may include an infrared output unit (not shown) for transmission of a synchronization signal. Here, the synchronization signal is a signal for synchronizing the display time of the left eye view image or the right eye view image according to the stereoscopic image signal with the opening / closing time of the left eye lens or the right eye lens of the shutter glasses 201.

도 3은 안경의 마크의 실시예들을 도시한 도면이다.3 shows embodiments of the mark of the spectacles.

도 3을 참조하면, 안경의 마크는 마크(310), 마크(320) 및 마크(330) 중에 하나일 수 있다. 안경의 마크는 도 3에 도시된 실시예에 한정되지 않으며, 촬상된 영상 프레임의 포함된 안경의 피사체 상에서 식별가능한 마크는 본 발명의 안경의 마크로 사용가능하다. 또한 안경의 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 이에 따라 본 발명에 따른 전자 장치(100)는 어두운 환경에서도 사용자의 위치를 정확하게 추적할 수 있고, 추적된 사용자의 위치에 맞추어 최적의 깊이값을 갖는 입체영상을 디스플레이할 수 있다.Referring to FIG. 3, the mark of the glasses may be one of the mark 310, the mark 320, and the mark 330. The mark of the spectacles is not limited to the embodiment shown in Fig. 3, and the mark identifiable on the subject of the included spectacles of the captured image frame can be used as the mark of the spectacles of the present invention. In addition, the mark of the glasses may be formed of at least one of LED light, luminous material and fluorescent material. Accordingly, the electronic device 100 according to the present invention can accurately track a user's position even in a dark environment and display a stereoscopic image having an optimal depth value according to the tracked user's position.

도 4는 마크가 형성된 안경의 일실시예를 도시한 도면이다.4 is a view illustrating an embodiment of glasses with marks.

도 4를 참조하면, 안경의 마크는 안경(400)에 표시될 수 있고, 동일한 형태의 두 개의 마크 또는 서로 다른 형태의 두 개의 마크가 안경(400)에 표시될 수 있다.Referring to FIG. 4, the mark of the glasses may be displayed on the glasses 400, and two marks of the same type or two marks of different types may be displayed on the glasses 400.

일예로, 안경의 마크로 마크(410) 및 마크(420)가 안경(400)에 표시될 수 있다. 마크(410)는 안경(400)의 우안 안구테에 위치하고, 마크(420)는 안경(400)의 좌안 안구테에 위치한다. For example, the macro mark 410 and the mark 420 of the glasses may be displayed on the glasses 400. The mark 410 is located on the right eyeball of the glasses 400, and the mark 420 is located on the left eyeball of the glasses 400.

도 5는 촬상된 영상 프레임에서 추출된 안경의 마크 간의 간격을 개략적으로 도시한 도면이다.FIG. 5 is a diagram schematically illustrating a distance between marks of glasses extracted from a captured image frame.

도 5를 참조하면, 제어부(190)는 촬상된 영상 프레임(500)에서 제1 마크(510) 및 제2 마크(520)를 검출할 수 있다. 제어부(190)는 영상 프레임(500)에서 마크의 칼라 정보를 이용하여 제1 마크(510) 및 제2 마크(520)를 인식할 수 있다.Referring to FIG. 5, the controller 190 may detect the first mark 510 and the second mark 520 in the captured image frame 500. The controller 190 may recognize the first mark 510 and the second mark 520 using the color information of the mark in the image frame 500.

또한 제어부(190)는 제1 마크(510) 및 제2 마크(520) 간의 거리값(530)을 산출할 수 있다. 여기서 거리값(530)은 제1 마크(510) 및 제2 마크(520) 간의 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다.In addition, the controller 190 may calculate a distance value 530 between the first mark 510 and the second mark 520. The distance value 530 may be a pixel distance between the first mark 510 and the second mark 520, and may be a length according to a metric method.

또한 제어부(190)는 거리값(530)을 기초로 사용자 거리값을 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 1로 거리값(530) x의 사용자 거리값 y을 산출할 수 있다.In addition, the controller 190 may calculate a user distance value based on the distance value 530. In some embodiments, the controller 190 may calculate the user distance value y of the distance value 530 x by Equation 1 below.

Figure pat00001
Figure pat00001

여기서, a는 기준 거리, c는 기준 거리일 때의 거리값을 지시하는 상수이고, b는 거리값(530)의 변화량에 따른 사용자 거리값의 변화의 비율을 지시하는 상수이다. 상수 a, b, c는 제조시에 결정될 수 있다. Here, a is a constant indicating a distance value when a reference distance and c is a reference distance, and b is a constant indicating a rate of change of the user distance value according to the change amount of the distance value 530. The constants a, b, c can be determined at the time of manufacture.

도 6은 거리 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.6 illustrates a preferred embodiment of a distance reference table.

도 6을 참조하면, 제어부(190)는 거리 참조 테이블(600)을 이용하여 거리값(530)에 대한 사용자 거리값을 산출할 수 있다. 제어부(190)는 거리 참조 테이블(600)에서 거리값(530)과 연관되는 사용자 거리값을 검출할 수 있다. 예를 들면, 거리값(530)이 100픽셀일 때, 제어부(190)는 거리 참조 테이블(600)에서 100픽셀과 매핑된 사용자 거리값 2.2m를 검출할 수 있다. 또한 거리값(530)이 150픽셀일 때, 제어부(190)는 거리 참조 테이블(600)에서 150픽셀과 매핑된 사용자 거리값 2.0m를 산출할 수 있다.Referring to FIG. 6, the controller 190 may calculate a user distance value with respect to the distance value 530 using the distance reference table 600. The controller 190 may detect a user distance value associated with the distance value 530 in the distance reference table 600. For example, when the distance value 530 is 100 pixels, the controller 190 may detect a user distance value 2.2m mapped to 100 pixels in the distance reference table 600. In addition, when the distance value 530 is 150 pixels, the controller 190 may calculate a user distance value 2.0m mapped to 150 pixels in the distance reference table 600.

만일 거리값(530)과 동일한 거리값이 거리 참조 테이블(600)에 존재하지 않는 경우에는, 제어부(190)는 거리값(530)과 가까운 거리값에 연관되는 사용자 거리값을 검출하고, 검출한 거리값을 이용하여 거리값(530)의 사용자 거리값을 산출할 수 있다. 거리값(530)이 거리 참조 테이블(600)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 2를 이용하여 거리값(530) x의 사용자 거리값 y을 산출할 수 있다.If the same distance value as the distance value 530 does not exist in the distance reference table 600, the controller 190 detects and detects a user distance value associated with the distance value close to the distance value 530. The user distance value of the distance value 530 may be calculated using the distance value. When the distance value 530 does not exist in the distance reference table 600, the controller 190 may calculate the user distance value y of the distance value 530 x using Equation 2 below.

Figure pat00002
Figure pat00002

여기서, x_low는 x 보다 작은 값 중 거리 참조 테이블(600)에 존재하는 거리값이고, x_high는 x 보다 큰 값 중 거리 참조 테이블(600)에 존재하는 거리값이며, y_high는 x_high의 사용자 거리값이고, y_low는 x_low의 사용자 거리값이다. 일예로, 거리값(530)이 125픽셀인 경우에는, 제어부(190)는 x_low로 100픽셀, x_high로 150픽셀을 선택할 수 있고, y_high로 2.0m를 검출하고 y_low로 2.2m를 걸출할 수 있다. 결과적으로 제어부(190)는 사용자 거리값을 2.1m로 산출할 수 있다.Here, x_low is a distance value existing in the distance reference table 600 among values smaller than x, x_high is a distance value existing in the distance reference table 600 among values larger than x, and y_high is a user distance value of x_high. , y_low is the user distance value of x_low. For example, when the distance value 530 is 125 pixels, the controller 190 may select 100 pixels as x_low and 150 pixels as x_high, detect 2.0 m with y_high and 2.2 m with y_low. . As a result, the controller 190 may calculate a user distance value of 2.1 m.

도 7은 촬상된 영상 프레임에서 추출된 안경의 마크의 모양을 도시한 도면이다.7 is a view showing the shape of the mark of the glasses extracted from the captured image frame.

도 7을 참조하면, 제어부(190)는 촬영된 영상 프레임(700)에서 하나의 마크(710)를 검출할 수 있다. 여기서 제어부(190)는 마크(710)의 칼라 정보를 이용하여 마크(710)를 인식할 수 있다. 마크(710)의 칼라 정보는 사전에 저장부(180)에 저장될 수 있다.Referring to FIG. 7, the controller 190 may detect one mark 710 in the captured image frame 700. Herein, the controller 190 may recognize the mark 710 using the color information of the mark 710. Color information of the mark 710 may be stored in the storage unit 180 in advance.

제어부(190)는 마크의 가로 간격(711)을 산출할 수 있다. 여기서 가로 간격(711)은 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다. 제어부(190)는 가로 간격(711)을 기초로 각도값을 산출할 수 있다. The controller 190 may calculate the horizontal gap 711 of the mark. The horizontal interval 711 may be a pixel distance or a length according to a metric system. The controller 190 may calculate an angle value based on the horizontal interval 711.

제어부(190)는 마크의 세로 간격(712)을 산출할 수 있다. 여기서 세로 간격(712)은 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다. 제어부(190)는 가로 간격(711) 및 세로 간격(712)을 기초로 각도값을 산출할 수 있다.The controller 190 may calculate the vertical gap 712 of the mark. Herein, the vertical interval 712 may be a pixel distance and may be a length according to a metric system. The controller 190 may calculate an angle value based on the horizontal interval 711 and the vertical interval 712.

도 8은 각도 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.8 is a diagram illustrating a preferred embodiment of the angular reference table.

도 8을 참조하면, 제어부(190)는 각도 참조 테이블(800)을 이용하여 가로 간격(711)에 대한 각도값을 산출할 수 있다. 제어부(190)는 각도 참조 테이블(800)에서 가로 간격(711)과 연관되는 각도값을 검출할 수 있다. 일예로, 가로 간격(711)이 10픽셀일 때, 제어부(190)는 각도 참조 테이블(800)에서 10픽셀과 매핑된 각도값 60도를 검출할 수 있다. 또한 가로 간격(711)이 15픽셀일 때, 제어부(190)는 각도 참조 테이블(800)에서 15픽셀과 매핑된 각도값 50도를 산출할 수 있다.Referring to FIG. 8, the controller 190 may calculate an angle value for the horizontal interval 711 using the angle reference table 800. The controller 190 may detect an angle value associated with the horizontal interval 711 in the angle reference table 800. For example, when the horizontal interval 711 is 10 pixels, the controller 190 may detect an angle value 60 degrees mapped to 10 pixels in the angle reference table 800. Also, when the horizontal interval 711 is 15 pixels, the controller 190 may calculate an angle value 50 degrees mapped to 15 pixels in the angle reference table 800.

만일 가로 간격(711)과 동일한 가로 간격이 각도 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 가로 간격(711)과 가까운 가로 간격에 연관되는 각도값을 검출하고, 검출한 가로 간격을 이용하여 가로 간격(711)의 각도값을 산출할 수 있다. 일실시예로, 가로 간격(711)이 거리 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 3을 이용하여 가로 간격(711) x의 각도값 y을 산출할 수 있다.If the same horizontal interval as the horizontal interval 711 does not exist in the angle reference table 800, the controller 190 detects an angle value associated with the horizontal interval close to the horizontal interval 711, and detects the detected horizontal value. An angle value of the horizontal interval 711 may be calculated using the interval. In an embodiment, when the horizontal interval 711 does not exist in the distance reference table 800, the controller 190 may calculate an angle value y of the horizontal interval 711 x using Equation 3 below. Can be.

Figure pat00003
Figure pat00003

여기서, x_low는 x 보다 작은 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이고, x_high는 x 보다 큰 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이며, y_high는 x_high의 각도값이고, y_low는 x_low의 각도값이다. 일예로, 가로 간격(711)이 12.5픽셀인 경우에는, 제어부(190)는 x_low로 10픽셀, x_high로 15픽셀을 선택할 수 있고, y_high로 50도를 검출하고 y_low로 60도를 걸출할 수 있다. 결과적으로 제어부(190)는 각도값을 55도를 산출할 수 있다.Here, x_low is a horizontal interval existing in the angle reference table 800 among values smaller than x, x_high is a horizontal interval existing in the angle reference table 800 among values larger than x, y_high is an angle value of x_high, y_low is the angle value of x_low. For example, when the horizontal interval 711 is 12.5 pixels, the controller 190 may select 10 pixels as x_low and 15 pixels as x_high, detect 50 degrees with y_high, and measure 60 degrees with y_low. . As a result, the controller 190 may calculate an angle value of 55 degrees.

또한 제어부(190)는 각도값에 연관된 위치각 계수를 산출할 수 있다. 일예의 산출 방법으로, 제어부(190)는 각도 참조 테이블(800)을 이용하여 위치각 계수를 산출할 수 있다. 예를 들어, 산출된 각도값이 50도이면, 제어부(190)는 위치각 계수로 2.0을 산출한다. In addition, the controller 190 may calculate a position angle coefficient associated with the angle value. According to an example calculation method, the controller 190 may calculate the position angle coefficient by using the angle reference table 800. For example, if the calculated angle value is 50 degrees, the controller 190 calculates 2.0 as the position angle coefficient.

또한 제어부(190)는 각도 참조 테이블(800)을 이용하여 가로 간격(711)에 연관된 위치각 계수를 산출할 수 있다. 예를 들어, 가로 간격(711)이 10픽셀이면, 제어부(190)는 위치각 계수로 2.2를 산출할 수 있다. 만일 산출된 가로 간격(711)과 연관된 위치각 계수가 각도 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 4를 이용하여 가로 간격(711)의 위치각 계수를 산출할 수 있다.In addition, the controller 190 may calculate a position angle coefficient associated with the horizontal interval 711 using the angle reference table 800. For example, if the horizontal interval 711 is 10 pixels, the controller 190 may calculate 2.2 as the position angle coefficient. If the position angle coefficient associated with the calculated horizontal interval 711 does not exist in the angle reference table 800, the controller 190 calculates the position angle coefficient of the horizontal interval 711 using Equation 4 below. Can be calculated.

Figure pat00004
Figure pat00004

여기서, x_low는 x 보다 작은 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이고, x_high는 x 보다 큰 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이며, y_high는 x_high의 위치각 계수이고, y_low는 x_low의 위치각 계수이다. 일예로, 비율이 12.5픽셀인 경우에는, 제어부(190)는 x_low로 10픽셀, x_high로 15픽셀을 선택할 수 있고, y_high로 2.0을 검출하고 y_low로 2.2를 걸출할 수 있다. 결과적으로 제어부(190)는 위치각 계수로 2.1을 산출할 수 있다.Here, x_low is the horizontal spacing present in the angular reference table 800 among values smaller than x, x_high is the horizontal spacing present in the angular reference table 800 among values larger than x, and y_high is the position angle coefficient of x_high. , y_low is the position angle coefficient of x_low. For example, when the ratio is 12.5 pixels, the controller 190 may select 10 pixels as x_low and 15 pixels as x_high, detect 2.0 with y_high, and set 2.2 as y_low. As a result, the controller 190 may calculate 2.1 as the position angle coefficient.

도 9는 각도 참조 테이블에 대한 바람직한 다른 실시예를 도시한 도면이다.9 shows another preferred embodiment of the angular reference table.

도 9를 참조하면, 제어부(190)는 각도 참조 테이블(900)을 이용하여 비율에 대한 각도값을 산출할 수 있다. 여기서 비율은 가로 간격(711) 및 세로 간격(712)의 비이다. 즉 비율은 다음의 수학식 5로 산출될 수 있다.Referring to FIG. 9, the controller 190 may calculate an angle value with respect to the ratio using the angle reference table 900. The ratio here is the ratio of the horizontal spacing 711 and the vertical spacing 712. That is, the ratio may be calculated by the following Equation 5.

Figure pat00005
Figure pat00005

여기서, H는 가로 간격(711)이고, V는 세로 간격(712)이며, Y는 비율이다.Where H is the horizontal spacing 711, V is the vertical spacing 712, and Y is the ratio.

제어부(190)는 각도 참조 테이블(900)에서 산출한 비율과 연관되는 각도값을 검출할 수 있다. 일예로, 비율이 0.5일 때, 제어부(190)는 각도 참조 테이블(900)에서 0.5와 매핑된 각도값 60도를 검출할 수 있다. 또한 비율이 0.64일 때, 제어부(190)는 각도 참조 테이블(900)에서 0.64와 매핑된 각도값 50도를 산출할 수 있다.The controller 190 may detect an angle value associated with the ratio calculated by the angle reference table 900. For example, when the ratio is 0.5, the controller 190 may detect an angle value 60 degrees mapped to 0.5 in the angle reference table 900. In addition, when the ratio is 0.64, the controller 190 may calculate an angle value 50 degrees mapped to 0.64 in the angle reference table 900.

또한 제어부(190)는 각도 참조 테이블(900)을 이용하여 위치각 계수를 산출할 수 있다. 예를 들어, 산출된 각도값이 50도이면, 제어부(190)는 위치각 계수로 2.0을 산출한다. 제어부(190)는 각도 참조 테이블(900)을 이용하여 비율과 연관된 위치각 계수를 산출할 수 있다. 예를 들어, 산출한 비율이 0.98일 때, 제어부(190)는 위치각 계수로 1.2를 산출할 수 있다.In addition, the controller 190 may calculate the position angle coefficient using the angle reference table 900. For example, if the calculated angle value is 50 degrees, the controller 190 calculates 2.0 as the position angle coefficient. The controller 190 may calculate the position angle coefficient associated with the ratio using the angle reference table 900. For example, when the calculated ratio is 0.98, the controller 190 may calculate 1.2 as the position angle coefficient.

제어부(190)는 사용자 거리값 및 위치각 계수를 기초로 시 거리를 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 6을 기초로 시 거리 y를 산출할 수 있다.The controller 190 may calculate the viewing distance based on the user distance value and the position angle coefficient. In some embodiments, the controller 190 may calculate the viewing distance y based on Equation 6 below.

Figure pat00006
Figure pat00006

여기서, a는 위치각 계수이고, b는 사용자 거리값이다.Where a is a position angle coefficient and b is a user distance value.

또한 제어부(190)는 사용자 거리값 및 각도값을 기초로 시 거리를 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 7을 기초로 시 거리 y를 산출할 수 있다.In addition, the controller 190 may calculate the viewing distance based on the user distance value and the angle value. In some embodiments, the controller 190 may calculate a viewing distance y based on Equation 7 below.

Figure pat00007
Figure pat00007

여기서, a는 사용자 거리값이고, θ는 각도값이다.Here, a is a user distance value and θ is an angle value.

제어부(190)는 산출한 시 거리를 기초로 깊이 설정값을 산출할 수 있다.The controller 190 may calculate a depth setting value based on the calculated viewing distance.

도 10은 깊이값 설정 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.FIG. 10 is a diagram illustrating a preferred embodiment of a depth value reference table. FIG.

도 10을 참조하면, 제어부(190)는 깊이값 설정 참조 테이블(1000)을 이용하여 산출한 시 거리에 적합한 깊이 설정값을 산출할 수 있다. 예를 들면, 제어부(190)는 산출한 시 거리가 기준 거리 1.4인 경우에는, 깊이 설정값으로 0을 산출할 수 있다. 또한 제어부(190)는 산출한 시 거리가 1m인 경우에는, 깊이 설정값으로 -2를 산출할 수 있다. 그리고 제어부(190)는 산출한 시 거리가 2m인 경우에는, 깊이 설정값으로 3을 산출할 수 있다.Referring to FIG. 10, the controller 190 may calculate a depth setting value suitable for a viewing distance calculated using the depth value setting reference table 1000. For example, when the calculated viewing distance is a reference distance 1.4, the controller 190 may calculate 0 as the depth setting value. In addition, the controller 190 may calculate -2 as the depth setting value when the calculated viewing distance is 1 m. When the calculated viewing distance is 2m, the controller 190 may calculate 3 as the depth setting value.

산출한 시 거리가 특정 거리 이하인 경우에는, 제어부(190)는 깊이 설정값으로 0을 산출할 수 있다. 즉 특정 거리 이하인 경우에는, 제어부(190)는 입체영상의 깊이값을 조절하지 않을 수 있다.When the calculated viewing distance is less than or equal to the specific distance, the controller 190 may calculate 0 as the depth setting value. That is, when the distance is less than a certain distance, the controller 190 may not adjust the depth value of the stereoscopic image.

또한 제어부(190)는 각도값을 기초로 사용자의 시선 방향이 화면 방향인지를 확인할 수 있다. 즉 제어부(190)는 각도값이 사전에 설정된 값 이상인 경우에는, 사용자의 시선 방향이 화면 방향이 아니라고 판단할 수 있고, 각도값이 사전에 설정된 값 이하인 경우에는, 사용자의 시선 방향이 화면 방향이라고 판단할 수 있다.In addition, the controller 190 may determine whether the user's gaze direction is the screen direction based on the angle value. That is, when the angle value is greater than or equal to the preset value, the controller 190 may determine that the user's gaze direction is not the screen direction. When the angle value is less than or equal to the preset value, the controller 190 may determine that the gaze direction of the user is the screen direction. You can judge.

제어부(190)는 시선 방향의 확인 결과에 따라 깊이 설정값을 0으로 산출할 수 있고, 입체영상의 깊이값을 조절하지 않을 수 있다. 즉 각도값이 70도 내지 90도인 경우에는, 제어부(190)는 깊이 설정값을 0으로 산출할 수 있다. 또한 각도값이 70도 내지 90도인 경우에는, 제어부(190)는 입체영상의 깊이값을 조절되지 않도록 제어할 수 있다.The controller 190 may calculate the depth setting value as 0 according to the confirmation result in the gaze direction, and may not adjust the depth value of the stereoscopic image. That is, when the angle value is 70 degrees to 90 degrees, the controller 190 may calculate the depth set value as zero. In addition, when the angle value is 70 degrees to 90 degrees, the controller 190 may control not to adjust the depth value of the stereoscopic image.

제어부(190)는 산출한 깊이 설정값을 기초로 입체영상의 깊이값을 조절할 수 있다.The controller 190 may adjust the depth value of the stereoscopic image based on the calculated depth setting value.

일부 실시예로, 제어부(190)는 시 거리 대신에 사용자 거리값을 기초로 깊이 설정값을 산출할 수 있다. 즉 제어부(190)는 깊이값 설정 참조 테이블(1000)을 이용하여 산출한 사용자 거리값에 적합한 깊이 설정값을 산출할 수 있다. 예를 들면, 제어부(190)는 산출한 사용자 거리값이 기준 거리 1.4인 경우에는, 깊이 설정값으로 0을 산출할 수 있고, 산출한 사용자 거리값이 1m인 경우에는, 깊이 설정값으로 -2를 산출할 수 있다.In some embodiments, the controller 190 may calculate the depth setting value based on the user distance value instead of the viewing distance. That is, the controller 190 may calculate a depth setting value suitable for the user distance value calculated by using the depth value setting reference table 1000. For example, the controller 190 may calculate 0 as the depth setting value when the calculated user distance value is the reference distance 1.4, and -2 as the depth setting value when the calculated user distance value is 1m. Can be calculated.

도 11은 양안시차 방식을 도면이다.11 is a diagram illustrating a binocular parallax method.

도 11을 참조하면, 양안시차 방식은 양안 카메라 등으로 촬상된 적어도 하나의 좌안 시점 영상(1101) 및 우안 시점 영상(1102)을 시청자의 양 눈(1121, 1122)에 각각 보여줌으로써 공간감 또는 입체감을 제공하는 3차원 디스플레이 방식이다. 좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 양안 시차에 따라 깊이값이 달라지고 깊이값(Depth value)에 따라 시청자에게 제공되는 공간감 또는 입체감이 달라진다. 여기서 깊이값은 3차원 디스플레이 표면(1130)에서부터 표시된 3차원 영상(1113)까지의 거리이다.Referring to FIG. 11, in the binocular disparity method, at least one left eye view image 1101 and a right eye view image 1102 captured by a binocular camera or the like are shown to the viewer's eyes 1121 and 1122, respectively, to provide a sense of space or stereoscopic feeling. It is a 3D display method provided. The depth value varies according to the binocular disparity between the left eye view image 1101 and the right eye view image 1102, and the sense of space or three-dimensionality provided to the viewer varies according to the depth value. The depth value here is the distance from the three-dimensional display surface 1130 to the displayed three-dimensional image 1113.

좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 간격이 좁을수록 깊이값이 작아져, 좌안(1121) 및 우안(1122)로부터 먼 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 작아질 수 있다. 좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 간격이 넓을수록 깊이값이 커져, 좌안(1121) 및 우안(1122)으로부터 가까운 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 커질 수 있다.The narrower the distance between the left eye view image 1101 and the right eye view image 1102 is, the smaller the depth value is, and it is recognized that the image is formed at a distance from the left eye 1121 and the right eye 1122, thereby providing a sense of space or stereoscopic feeling that is provided to the viewer. Can be made smaller. As the distance between the left eye view image 1101 and the right eye view image 1102 is wider, the depth value is increased, and it is recognized that the image is formed at a close distance from the left eye 1121 and the right eye 1122, thereby providing a sense of space or a three-dimensional feeling provided to the viewer. Can be large.

도 12는 양안시차의 크기에 따른 물체의 거리감을 도시한 도면이다.12 is a diagram illustrating a sense of distance of an object according to the size of binocular parallax.

도 12를 참조하면, 멀리 있는 물체(1210)를 양안으로 볼 때 좌안에 맺히는 상(1211) 및 우안에 맺히는 상(1212)의 간격이 좁아짐으로, 멀리 있는 물체(1210)를 볼 때의 양안 시차는 작다. 따라서 입체영상의 양안 시차를 작게 조절하여, 입체영상(1113)을 멀리 보이게 할 수 있고 입체영상(1113)의 깊이값이 작아지도록 조절할 수 있다.Referring to FIG. 12, the distance between the image 1211 formed in the left eye and the image 1212 formed in the right eye becomes narrow when the distant object 1210 is viewed with both eyes, so that the binocular parallax when viewing the distant object 1210 is narrowed. Is small. Therefore, by adjusting the binocular disparity of the stereoscopic image to be smaller, the stereoscopic image 1113 can be seen far away and the depth value of the stereoscopic image 1113 can be adjusted to be smaller.

가까이에 있는 물체(1220)를 양안으로 볼 때 좌안에 맺히는 상(1221) 및 우안에 맺히는 상(1222)의 간격이 넓어짐으로, 가까이에 있는 물체(1220)를 볼 때의 양안 시차는 크다. 즉 물체(1220)의 양안 시차는 물체(1210)의 양안 시차보다 크다. 따라서 입체영상의 양안 시차를 크게 조절하여, 입체영상(1113)을 가깝게 보이게 할 수 있고 입체영상(1113)의 깊이값이 커지도록 조절할 수 있다.As the distance between the image 1221 formed in the left eye and the image 1222 formed in the right eye becomes wider when the nearby object 1220 is viewed with both eyes, the binocular disparity is large when the object 1220 is viewed near. That is, the binocular parallax of the object 1220 is greater than the binocular parallax of the object 1210. Therefore, the binocular disparity of the stereoscopic image can be largely adjusted to make the stereoscopic image 1113 appear closer and the depth value of the stereoscopic image 1113 can be increased.

도 13은 입체영상의 깊이값을 조절하는 방법의 일실시예를 설명하기 위한 도면이다.FIG. 13 is a diagram for describing an embodiment of a method of adjusting a depth value of a stereoscopic image. FIG.

도 13을 참조하면, 전자 장치(100)는 입체영상(1300) 내의 물체(1310)의 양안 시차를 작게 하여 입체영상(1300)의 깊이값을 작게 할 수 있다. 즉 물체(1310)의 양안 시차를 더욱 작게 조절하여 물체를 원래의 거리보다 시청자에게 더욱 멀게 보이게 함으로써, 입체영상(1300)의 값이값을 작게 할 수 있다.Referring to FIG. 13, the electronic device 100 may reduce the binocular parallax of the object 1310 in the stereoscopic image 1300 to reduce the depth value of the stereoscopic image 1300. That is, by adjusting the binocular parallax of the object 1310 to be smaller to make the object appear farther to the viewer than the original distance, the value of the stereoscopic image 1300 can be reduced.

또한 전자 장치(100)는 입체영상(1300) 내의 물체(1320)의 양안 시차를 크게 하여 입체영상(1300)의 깊이값을 크게 할 수 있다. 즉 물체(1320)의 양안 시차를 더욱 크게 조절하여 물체를 원래의 거리보다 시청자에게 더욱 가깝게 보이게 함으로써, 입체영상(1300)의 값이값을 크게 할 수 있다.Also, the electronic device 100 may increase the depth value of the stereoscopic image 1300 by increasing the binocular parallax of the object 1320 in the stereoscopic image 1300. That is, by adjusting the binocular parallax of the object 1320 to make the object appear closer to the viewer than the original distance, the value of the stereoscopic image 1300 may be increased.

도 14는 영상에 포함된 오브젝트의 좌표를 도시한 도면이다.14 is a diagram illustrating coordinates of an object included in an image.

도 14를 참조하면, 입체영상이 피사체의 좌표를 알 수 있는 벡터 그래픽으로 들어올 경우에는, 피사체의 좌표는 수학식 8 및 수학식 9에 따라 표시될 수 있다.Referring to FIG. 14, when a stereoscopic image enters a vector graphic in which the coordinates of the subject are known, the coordinates of the subject may be displayed according to Equations 8 and 9 below.

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

오브젝트 거리

Figure pat00010
는 오브젝트의 좌안 오브젝트의 위치와 상기 오브젝트의 우안 오브젝트의 위치의 차이를 의미하며, 오브젝트 간의 거리를 다음의 수학식 10으로 나타내질 수 있다. 여기서 좌안 오브젝트는 좌안 시점 영상 데이터에 포함된 오브젝트 또는 상기 오브젝트의 이미지를 표시하는 좌표를 의미하고, 우안 오브젝트는 우안 시점 영상 데이터에 포함된 오브젝트 또는 상기 오브젝트의 이미지를 표시하는 좌표를 의미한다. 즉 오브젝트(1410)의 좌안 오브젝트는 오브젝트(1411)이고 오브젝트(1410)의 우안 오브젝트는 우안 오브젝트(1412)이다.Object distance
Figure pat00010
Denotes the difference between the position of the left eye object of the object and the position of the right eye object of the object, and the distance between the objects may be represented by Equation 10 below. Here, the left eye object refers to an object included in left eye view image data or coordinates for displaying an image of the object, and the right eye object refers to an object included in right eye view image data or a coordinate for displaying an image of the object. That is, the left eye object of the object 1410 is the object 1411 and the right eye object of the object 1410 is the right eye object 1412.

Figure pat00011
Figure pat00011

오브젝트(1410)의 오브젝트 거리는 1이고, 오브젝트(1420)의 오브젝트 거리는 2이며, 오브젝트(1430)의 오브젝트 거리는 3이다.The object distance of the object 1410 is 1, the object distance of the object 1420 is 2, and the object distance of the object 1430 is 3.

또한 오브젝트 거리의 집합

Figure pat00012
는 다음의 수학식 11로 나타낼 수 있다.Also set of object distances
Figure pat00012
May be represented by Equation 11 below.

Figure pat00013
Figure pat00013

오브젝트 거리는 다음의 수학식 12를 이용하여 변경할 수 있다.The object distance may be changed using Equation 12 below.

Figure pat00014
Figure pat00014

여기서,

Figure pat00015
은 변경된 오브젝트 거리이다. a 는 입체감 정도를 나타내는 변수를 뜻하고, 변수 a의 값은 깊이 설정값 또는 깊이 설정값에 함수 관계를 갖는 값으로 설정될 수 있다.here,
Figure pat00015
Is the changed object distance. a denotes a variable representing a degree of three-dimensional effect, and a value of the variable a may be set to a value having a function relationship with the depth setting value or the depth setting value.

양안 시차 방식에서 오브젝트 거리는 해당 오브젝트의 원근감을 듯하고, 해당 오브젝트의 양안 시차를 나타낸다고 볼 수 있다. 따라서, 수학식 12에서 변수 a가 O에 가까울수록 입체영상의 깊이값은 작아지고, 1인 경우에는 입체영상의 깊이값은 유지되고, 1보다 클수록 입체영상의 깊이값은 커질 수 있다. In binocular parallax, the object distance seems to be a perspective of the object, and it can be seen that it represents the binocular parallax of the object. Therefore, in Equation 12, the closer the variable a is to O, the smaller the depth value of the stereoscopic image, and in the case of 1, the depth value of the stereoscopic image is maintained, and the greater than 1, the greater the depth value of the stereoscopic image.

또한 변경된 오브젝트 거리의 집합

Figure pat00016
는 다음의 수학식 13으로 나타낼 수 있다.Also set of changed object distances
Figure pat00016
Can be represented by the following equation (13).

Figure pat00017
Figure pat00017

일부 실시예로, 전자 장치(100)는 다음의 수학식 14를 이용하여 a를 산출할 수 있다.In some embodiments, the electronic device 100 may calculate a using Equation 14 below.

Figure pat00018
Figure pat00018

여기서, b는 깊이 설정값이다. 예를 들어, b가 0인 경우에는, 입체영상의 깊이값은 조절되지 않고 유지된다.Where b is the depth setting value. For example, when b is 0, the depth value of the stereoscopic image is maintained without being adjusted.

도 15는 도 14에 도시된 오브젝트의 변위가 변환된 후에 오브젝트의 좌표를 도시한 도면이다.FIG. 15 is a diagram illustrating coordinates of an object after the displacement of the object illustrated in FIG. 14 is converted.

도 15를 참조하면, 수학식 12에서 a가 2인 경우에는, 오브젝트(1510)의 오브젝트 거리는 2로 변경되고, 오브젝트(1520)의 오브젝트 거리는 2에서 4로 변경되며, 오브젝트(1530)의 오브젝트 거리는 3에서 6로 변경된다.Referring to FIG. 15, when a is 2 in Equation 12, the object distance of the object 1510 is changed to 2, the object distance of the object 1520 is changed from 2 to 4, and the object distance of the object 1530 is Changed from 3 to 6.

도 16은 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 일실시예를 도시한 도면이다.16 is a view showing a preferred embodiment of the stereoscopic image processing method according to the present invention.

도 16을 참조하면, 수신부(101)는 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신한다(S100). 상기 영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. Referring to FIG. 16, the receiver 101 receives image data including left eye view image data and right eye view image data (S100). The image data may be a stereo viewpoint image or a multiview image.

촬영 장치(90)는 사용자를 촬상한다(S105).The photographing apparatus 90 picks up the user (S105).

제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출한다(S110). 여기서, 상기 제1 마크 및 제2 마크는 도 3에서 도시된 마크(310, 320, 330)일 수 있고, 상기 안경은 도 4에 도시된 안경(400)일 수 있다.The controller 190 detects the first mark and the second mark of the glasses in the image frame captured by the photographing apparatus 90 (S110). Here, the first mark and the second mark may be the marks 310, 320, and 330 shown in FIG. 3, and the glasses may be the glasses 400 shown in FIG. 4.

제어부(190)는 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출한다(S115). 여기서 제어부(190)는 도 8에 도시된 각도 참조 테이블(800) 및 도 9에 도시된 각도 참조 테이블(900)을 이용하여 각도값을 산출할 수 있다.The controller 190 calculates an angle value based on the shape of at least one of the first mark and the second mark (S115). Herein, the controller 190 may calculate an angle value using the angle reference table 800 illustrated in FIG. 8 and the angle reference table 900 illustrated in FIG. 9.

제어부(190)는 각도값을 기초로 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인한다(S120). 여기서 제어부(190)는 각도값이 70도 이상인 경우에는, 시선 방향이 화면 방향이 아니라고 확인할 수 있고, 그렇지 않은 경우에는, 시선 방향이 화면 방향이라고 확인할 수 있다.The controller 190 checks whether the eyeline direction of the user wearing the glasses is the screen direction based on the angle value (S120). In this case, when the angle value is 70 degrees or more, the controller 190 may confirm that the gaze direction is not the screen direction. Otherwise, the controller 190 may identify that the gaze direction is the screen direction.

시선 방향이 화면 방향인 경우에는, 제어부(190)는 검출한 제1 마크 및 제2 마크 간의 거리값을 산출한다(S125). 여기서 거리값은 사용자 거리값일 수 있고, 시 거리일 수 있다. 또한 제어부(190)는 도 6에 도시된 거리 참조 테이블(600)을 이용하여 사용자 거리값을 산출할 수 있고, 수학식 6을 이용하여 시 거리를 산출할 수 있다.When the visual line direction is the screen direction, the controller 190 calculates a distance value between the detected first mark and the second mark (S125). The distance value may be a user distance value and may be a viewing distance. In addition, the controller 190 may calculate a user distance value using the distance reference table 600 shown in FIG. 6, and calculate a viewing distance using Equation 6.

제어부(190)는 산출한 거리값을 기초로 깊이 설정값을 산출한다(S130). 여기서 제어부(190)는 도 10에 도시된 깊이값 설정 참조 테이블(1000)을 이용하여 깊이 설정값을 산출할 수 있다. 또한 제어부(190)는 산출한 시 거리 및 기준 시거리의 비율을 기초로 깊이 설정값을 산출할 수 있다. 제어부(190)는 산출한 시 거리가 기준 시거리보다 작은 경우에는, 깊이 설정값을 음수로 설정할 수 있고, 산출한 시 거리가 기준 시거리인 경우에는, 깊이 설정값을 0으로 설정할 수 있으며, 산출한 시거리가 기준 시거리 보다 큰 경에는, 깊이 설정값을 양수로 설정할 수 있다. 여기서 기준 시거리는 제조시에 설정된 값일 수 있고, 수신부(101)가 수신한 값일 수 있다. 또한 기준 시거리는 입체영상 데이터에 포함된 것일 수 있다.The controller 190 calculates a depth setting value based on the calculated distance value (S130). Herein, the controller 190 may calculate the depth setting value using the depth value setting reference table 1000 illustrated in FIG. 10. In addition, the controller 190 may calculate the depth setting value based on the ratio of the calculated viewing distance and the reference viewing distance. When the calculated viewing distance is smaller than the reference viewing distance, the controller 190 may set the depth setting value to a negative value. When the calculated viewing distance is the reference viewing distance, the controller 190 may set the depth setting value to 0, and the calculated When the viewing distance is larger than the reference viewing distance, the depth setting value can be set positively. Here, the reference viewing distance may be a value set at the time of manufacture, or may be a value received by the receiver 101. Also, the reference viewing distance may be included in the stereoscopic image data.

제어부(190)는 산출한 깊이 설정값을 기초로 입체영상의 깊이값이 조절되도록 제어한다(S135). 여기서 변위 산출부(245)는 수신된 입체영상에서 오브젝트 거리를 산출할 수 있다. 이때 변위 산출부(245)는 수학식 10을 이용하여 오브젝트 거리를 산출할 수 있다. 변위 변경부(250)는 수학식 14를 이용하여 상기 깊이 설정값을 기초로 a값을 산출할 수 있다. 또한 변위 변경부(250)는 수학식 12를 이용하여 상기 산출된 a를 기초로 변경된 오브젝트 거리를 산출할 수 있다. 그리고 영상 재구성부(255)는 산출한 오브젝트 거리에 따라 오브젝트의 거리가 변경되도록 수신된 입체영상의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.The controller 190 controls the depth value of the stereoscopic image to be adjusted based on the calculated depth setting value (S135). Here, the displacement calculator 245 may calculate the object distance from the received stereoscopic image. In this case, the displacement calculator 245 may calculate the object distance using Equation 10. The displacement changing unit 250 may calculate a value based on the depth setting value using Equation 14. In addition, the displacement change unit 250 may calculate the changed object distance based on the calculated a using Equation 12. The image reconstructor 255 may reconstruct the left eye view image data and the right eye view image data of the received stereoscopic image such that the distance of the object is changed according to the calculated object distance.

디스플레이(150)는 입체영상을 디스플레이한다(S140). 여기서 상기 디스플레이된 입체영상은 깊이값이 조절된 입체영상일 수 있고, 수신된 깊이값 그대로 디스플레이되는 입체영상일 수 있다.The display 150 displays a stereoscopic image (S140). Here, the displayed stereoscopic image may be a stereoscopic image in which a depth value is adjusted, or a stereoscopic image displayed as it is.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer apparatus is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

Claims (20)

촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하는 단계;
상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하는 단계;
상기 거리값을 기초로 깊이 설정값을 산출하는 단계; 및
상기 산출된 깊이 설정값을 기초로 입체영상의 깊이값을 조절하는 단계를 포함하는 것을 특징으로 하는 입체영상 처리 방법.
Detecting a first mark and a second mark of the glasses in the captured image frame;
Calculating a distance value between the detected first mark and the detected second mark;
Calculating a depth setting value based on the distance value; And
And adjusting the depth value of the stereoscopic image based on the calculated depth setting value.
제 1항에 있어서,
상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치하는 것을 특징으로 하는 입체영상 처리 방법.
The method of claim 1,
And the first mark and the second mark are located on the left eye eye and right eye eye of the glasses, respectively.
제 1항에 있어서,
상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성되는 것을 특징으로 하는 입체영상 처리 방법.
The method of claim 1,
And the first mark and the second mark are formed of at least one of an LED light, a luminous material, and a fluorescent material.
제 1항에 있어서,
상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하는 단계를 더 포함하고,
상기 깊이 설정값을 산출하는 단계는,
상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출하는 단계를 포함하는 것을 특징으로 하는 입체영상 처리 방법.
The method of claim 1,
Calculating an angle value based on a shape of at least one of the first mark and the second mark,
Calculating the depth setting value,
And calculating the depth setting value based on the distance value and the angle value.
제 4항에 있어서,
상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출되는 것을 특징으로 하는 입체영상 처리 방법.
The method of claim 4, wherein
The angle value is calculated based on at least one of the ratio of the horizontal size, the horizontal size and the vertical size of the shape.
제 4항에 있어서,
상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하는 단계를 더 포함하고,
상기 확인 결과에 따라 상기 입체영상의 깊이값을 조절하는 단계의 수행 여부가 결정되는 것을 특징으로 하는 입체영상 처리 방법.
The method of claim 4, wherein
Determining whether a gaze direction of a user wearing the glasses is a screen direction based on the angle value;
And determining whether to perform the step of adjusting the depth value of the stereoscopic image according to the checking result.
제 6항에 있어서,
상기 화면 방향인지 확인하는 단계는,
상기 각도값이 사전에 설정된 각도 이상인지를 확인하는 단계를 더 포함하는 것을 특징으로 하는 입체영상 처리 방법.
The method according to claim 6,
Checking whether the screen orientation is,
And determining whether the angle value is greater than or equal to a preset angle.
제 4항에 있어서,
상기 깊이 설정값을 산출하는 단계는,
상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하는 단계; 및
상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출하는 단계를 포함하는 것을 특징으로 하는 입체영상 처리 방법.
The method of claim 4, wherein
Calculating the depth setting value,
Calculating a viewing distance using the distance value and the angle value; And
And calculating the depth setting value based on the calculated viewing distance.
제 8항에 있어서,
상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출되는 것을 특징으로 하는 입체영상 처리 방법.
The method of claim 8,
The depth setting value is calculated based on the ratio between the reference viewing distance and the calculated viewing distance.
제 1항에 있어서,
상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리인 것을 특징으로 하는 입체영상 처리 방법.
The method of claim 1,
And the distance value is a pixel distance between the first mark and the second mark.
입체영상을 수신하는 수신부; 및
촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하고, 상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하며, 상기 산출된 거리값을 기초로 깊이 설정값을 산출하고, 상기 산출된 깊이 설정값을 기초로 상기 수신된 입체영상의 깊이값의 조절을 제어하는 제어부를 포함하는 것을 특징으로 하는 전자 장치.
Receiving unit for receiving a stereoscopic image; And
The first mark and the second mark of the glasses are detected in the captured image frame, the distance value between the detected first mark and the detected second mark is calculated, and the depth setting value is determined based on the calculated distance value. And a controller configured to control the adjustment of the depth value of the received stereoscopic image based on the calculated depth setting value.
제 11항에 있어서,
상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
And the first mark and the second mark are located at the left eye and right eye of the glasses, respectively.
제 11항에 있어서,
상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성되는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
And the first mark and the second mark are formed of at least one of an LED light, a luminous material, and a fluorescent material.
제 11항에 있어서,
상기 제어부는,
상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하고, 상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The control unit,
And calculating an angle value based on a shape of at least one of the first mark and the second mark, and calculating the depth setting value based on the distance value and the angle value.
제 14항에 있어서,
상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출되는 것을 특징으로 하는 전자 장치.
The method of claim 14,
And the angle value is calculated based on at least one of a ratio of a horizontal size, a horizontal size, and a vertical size of the shape.
제 14항에 있어서,
상기 제어부는,
상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하고, 상기 확인 결과에 따라 상기 입체영상의 깊이값의 조절을 제어하는 것을 특징으로 하는 전자 장치.
The method of claim 14,
The control unit,
The electronic device may be configured to determine whether a line of sight of the user wearing the glasses is the screen direction based on the angle value, and control the adjustment of the depth value of the stereoscopic image according to the checking result.
제 16항에 있어서,
상기 제어부는,
상기 각도값이 사전에 설정된 각도보다 작으면 상기 사용자의 시선 방향이 화면 방향이라고 확인하는 것을 특징으로 하는 전자 장치.
17. The method of claim 16,
The control unit,
And when the angle value is smaller than a preset angle, confirming that the user's gaze direction is a screen direction.
제 14항에 있어서,
상기 제어부는,
상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하고, 상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출하는 것을 특징으로 하는 전자 장치.
The method of claim 14,
The control unit,
And calculates a viewing distance using the distance value and the angle value, and calculates the depth setting value based on the calculated viewing distance.
제 18항에 있어서,
상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출되는 것을 특징으로 하는 전자 장치.
19. The method of claim 18,
And the depth setting value is calculated based on a ratio between the reference viewing distance and the calculated viewing distance.
제 11항에 있어서,
상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
And the distance value is a pixel distance between the first mark and the second mark.
KR1020110045021A 2011-05-13 2011-05-13 Electronic device and method for processing a 3-dimensional image KR20120126897A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020110045021A KR20120126897A (en) 2011-05-13 2011-05-13 Electronic device and method for processing a 3-dimensional image
EP12166628A EP2523464A3 (en) 2011-05-13 2012-05-03 Apparatus and method for processing 3-dimensional image
EP13177713.8A EP2658270A3 (en) 2011-05-13 2012-05-03 Apparatus and method for processing 3-dimensional image
US13/468,315 US20120287235A1 (en) 2011-05-13 2012-05-10 Apparatus and method for processing 3-dimensional image
CN201210148757.6A CN102780902B (en) 2011-05-13 2012-05-14 Apparatus and method for processing 3-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110045021A KR20120126897A (en) 2011-05-13 2011-05-13 Electronic device and method for processing a 3-dimensional image

Publications (1)

Publication Number Publication Date
KR20120126897A true KR20120126897A (en) 2012-11-21

Family

ID=47512148

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110045021A KR20120126897A (en) 2011-05-13 2011-05-13 Electronic device and method for processing a 3-dimensional image

Country Status (1)

Country Link
KR (1) KR20120126897A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006731A1 (en) * 2014-07-09 2016-01-14 엘지전자 주식회사 Portable device that controls photography mode, and control method therefor
WO2018088730A1 (en) * 2016-11-08 2018-05-17 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006731A1 (en) * 2014-07-09 2016-01-14 엘지전자 주식회사 Portable device that controls photography mode, and control method therefor
US10334233B2 (en) 2014-07-09 2019-06-25 Lg Electronics Inc. Portable device that controls photography mode, and control method therefor
WO2018088730A1 (en) * 2016-11-08 2018-05-17 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Similar Documents

Publication Publication Date Title
US9451242B2 (en) Apparatus for adjusting displayed picture, display apparatus and display method
US20120287235A1 (en) Apparatus and method for processing 3-dimensional image
US9626803B2 (en) Method and apparatus for image processing in augmented reality systems
EP2549762B1 (en) Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
EP3039476B1 (en) Head mounted display device and method for controlling the same
US9456205B2 (en) Mobile terminal and method of controlling the operation of the mobile terminal
KR101911250B1 (en) Apparatus for processing a three-dimensional image and method for adjusting location of sweet spot for viewing multi-view image
US20090315981A1 (en) Image processing method and apparatus
EP2670149A2 (en) Apparatus and method for providing image in terminal
KR20130029333A (en) Image processing apparatus and image processing method thereof
US20130009949A1 (en) Method, system and computer program product for re-convergence of a stereoscopic image
KR20120126897A (en) Electronic device and method for processing a 3-dimensional image
KR101783608B1 (en) Electronic device and method for dynamically controlling depth in stereo-view or multiview sequence image
JP2013090272A (en) Video processing device, video processing method and video display device
KR20130020209A (en) Apparatus for processing a 3-dimensional image and method for changing an image mode of the same
JP2015149547A (en) Image processing method, image processing apparatus, and electronic apparatus
KR101758274B1 (en) A system, a method for displaying a 3-dimensional image and an apparatus for processing a 3-dimensional image
US11039116B2 (en) Electronic device and subtitle-embedding method for virtual-reality video
KR20130010613A (en) Apparatus and method for converting 2 dimensional image into 3 dimensional image
JP2012169822A (en) Image processing method and image processing device
KR101343552B1 (en) Image display apparatus displaying personalized three-dimensional image based on audience position and displaying method thereof
JP6131256B6 (en) Video processing apparatus and video processing method thereof
KR101804912B1 (en) An apparatus for displaying a 3-dimensional image and a method for displaying subtitles of a 3-dimensional image
KR20120081340A (en) Electronic device, glasses, pairing method of the electronic device and pairing method of the glasses
JP2013239963A (en) Image processing device, image display device and image processing method

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination