KR20120126897A - Electronic device and method for processing a 3-dimensional image - Google Patents
Electronic device and method for processing a 3-dimensional image Download PDFInfo
- Publication number
- KR20120126897A KR20120126897A KR1020110045021A KR20110045021A KR20120126897A KR 20120126897 A KR20120126897 A KR 20120126897A KR 1020110045021 A KR1020110045021 A KR 1020110045021A KR 20110045021 A KR20110045021 A KR 20110045021A KR 20120126897 A KR20120126897 A KR 20120126897A
- Authority
- KR
- South Korea
- Prior art keywords
- value
- mark
- distance
- calculated
- depth
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Abstract
Description
본 발명은 전자 장치 및 입체영상 처리 장치에 관한 것으로, 보다 상세하게는 입체영상을 디스플레이하는 전자 장치 및 입체영상 처리 방법에 관한 것이다.The present invention relates to an electronic device and a stereoscopic image processing device, and more particularly, to an electronic device and a stereoscopic image processing method for displaying a stereoscopic image.
최근 3 차원 영상을 표현하는 디스플레이 기술이 다양한 분야에서 연구 및 활용되고 있다. 특히 3차원 영상을 디스플레이하는 기술을 활용하여, 3차원 영상을 디스플레이하는 전자 장치가 주목을 받고 있다.Recently, display technology for representing 3D images has been researched and utilized in various fields. In particular, an electronic device displaying a 3D image by using a technology of displaying a 3D image is attracting attention.
3 차원 영상을 디스플레이하는 기술은 양안의 시차로 관찰자가 입체감을 느끼게 되는 양안 시차의 원리를 이용하는 것으로, 안경 방식(shutter glass method), 무안경 방식, 완전 3차원 방식 등으로 구분된다. 안경 방식에는 사용자가 별도의 편광 안경과 같은 별도의 장비를 착용해야 하는 문제점이 있으며, 무안경 방식에는 사용자가 특정 위치에서만 3차원 영상을 볼 수 있는 문제점이 있다. 따라서, 안경 방식 및 무안경 방식에는 여러 문제점들이 존재하므로, 최근에는 완전 3차원 방식에 대한 연구가 활발히 진행되고 있다.The technique of displaying a 3D image uses the principle of binocular parallax, in which an observer feels a stereoscopic feeling due to binocular disparity, and is classified into a shutter glass method, a glasses-free method, a full three-dimensional method, and the like. In the glasses method, the user has to wear separate equipment such as separate polarized glasses, and in the glassesless method, the user can see a 3D image only at a specific location. Therefore, since there are various problems in the spectacle method and the glasses-free method, the research on the full three-dimensional method has been actively conducted recently.
본 발명이 이루고자하는 기술적 과제는 시 거리에 맞추어 적절할 입체영상을 디스플레이 할 수 있는 전자 장치 및 입체영상 처리 방법을 제공하는데 있다.The present invention is to provide an electronic device and a stereoscopic image processing method capable of displaying a stereoscopic image appropriate to a viewing distance.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 처리 방법은 촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하는 단계, 상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하는 단계, 상기 거리값을 기초로 깊이 설정값을 산출하는 단계 및 상기 산출된 깊이 설정값을 기초로 입체영상의 깊이값을 조절하는 단계를 포함할 수 있다. 여기서, 상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치할 수 있다. 또한 상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 그리고, 상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리일 수 있다.In order to achieve the above technical problem, the stereoscopic image processing method according to the present invention comprises the steps of detecting a first mark and a second mark of the glasses in the image frame, the detected first mark and the detected second mark The method may include calculating a distance value of the liver, calculating a depth setting value based on the distance value, and adjusting a depth value of the stereoscopic image based on the calculated depth setting value. Here, the first mark and the second mark may be located on the left eye eye and right eye eye of the glasses, respectively. In addition, the first mark and the second mark may be formed of at least one of an LED light, a luminous material, and a fluorescent material. The distance value may be a pixel distance between the first mark and the second mark.
상기 입체영상 처리 방법은, 상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하는 단계를 더 포함할 수 있고, 상기 깊이 설정값을 산출하는 단계는, 상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출하는 단계를 포함할 수 있다. 여기서 상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출될 수 있다. The stereoscopic image processing method may further include calculating an angle value based on a shape of at least one of the first mark and the second mark, and calculating the depth set value comprises: the distance value And calculating the depth setting value based on the angle value. The angle value may be calculated based on at least one of the ratio of the horizontal size, the horizontal size, and the vertical size of the shape.
또한 상기 입체영상 처리 방법은, 상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하는 단계를 더 포함하고, 상기 확인 결과에 따라 상기 입체영상의 깊이값을 조절하는 단계의 수행 여부가 결정될 수 있다. 상기 화면 방향인지 확인하는 단계는, 상기 각도값이 사전에 설정된 각도 이상인지를 확인하는 단계를 더 포함할 수 있다.The stereoscopic image processing method may further include determining whether a gaze direction of a user wearing the glasses is a screen direction based on the angle value, and adjusting a depth value of the stereoscopic image according to the checking result. Whether or not to perform the steps may be determined. The determining of the screen direction may further include checking whether the angle value is greater than or equal to a preset angle.
상기 깊이 설정값을 산출하는 단계는, 상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하는 단계 및 상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출하는 단계를 포함할 수 있다. 상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출될 수 있다.The calculating of the depth setting value may include calculating a viewing distance using the distance value and the angle value, and calculating the depth setting value based on the calculated viewing distance. The depth setting value may be calculated based on a ratio between the reference viewing distance and the calculated viewing distance.
상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 전자 장치는, 입체영상을 수신하는 수신부 및 촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하고, 상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하며, 상기 산출된 거리값을 기초로 깊이 설정값을 산출하고, 상기 산출된 깊이 설정값을 기초로 상기 수신된 입체영상의 깊이값의 조절을 제어하는 제어부를 포함할 수 있다. 여기서, 상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치할 수 있다. 또한 상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 또한, 상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리일 수 있다.According to another aspect of the present invention, an electronic device includes a receiver for receiving a stereoscopic image and a first mark and a second mark of glasses in a captured image frame, and the detected first mark and Calculating a distance value between the detected second marks, calculating a depth setting value based on the calculated distance value, and controlling adjustment of a depth value of the received stereoscopic image based on the calculated depth setting value It may include a control unit. Here, the first mark and the second mark may be located on the left eye eye and right eye eye of the glasses, respectively. In addition, the first mark and the second mark may be formed of at least one of an LED light, a luminous material, and a fluorescent material. The distance value may be a pixel distance between the first mark and the second mark.
상기 제어부는, 상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하고, 상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출할 수 있다. 상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출될 수 있다.The controller may calculate an angle value based on the shape of at least one of the first mark and the second mark, and calculate the depth setting value based on the distance value and the angle value. The angle value may be calculated based on at least one of a ratio of a horizontal size, a horizontal size, and a vertical size of the shape.
상기 제어부는, 상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하고, 상기 확인 결과에 따라 상기 입체영상의 깊이값의 조절을 제어할 수 있다. 상기 제어부는, 상기 각도값이 사전에 설정된 각도보다 작으면 상기 사용자의 시선 방향이 화면 방향이라고 확인할 수 있다.The controller may determine whether the eyeline direction of the user wearing the glasses is the screen direction based on the angle value, and control the adjustment of the depth value of the stereoscopic image according to the checking result. The controller may determine that the user's gaze direction is a screen direction when the angle value is smaller than a preset angle.
상기 제어부는, 상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하고, 상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출할 수 있다. 상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출될 수 있다.The control unit may calculate a viewing distance using the distance value and the angle value, and calculate the depth setting value based on the calculated viewing distance. The depth setting value may be calculated based on a ratio between the reference viewing distance and the calculated viewing distance.
본 발명에 따른 전자 장치 및 입체영상 처리 방법에 의하면, 안경에 새겨진 마크를 이용하여 시 거리를 감지하므로, 정확하게 사용자의 시 거리를 감지할 수 있고, 감지된 시 거리에 맞추어 적절하게 입체영상의 깊이값을 조절하므로, 사용자는 입체영상을 편하게 시청할 수 있다.According to the electronic device and the stereoscopic image processing method according to the present invention, since the visual distance is detected using the mark engraved on the glasses, the visual distance of the user can be accurately detected, and the depth of the stereoscopic image is appropriately adjusted according to the detected visual distance. By adjusting the value, the user can watch a stereoscopic image comfortably.
도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 3은 안경의 마크의 실시예들을 도시한 도면,
도 4는 마크가 형성된 안경의 일실시예를 도시한 도면,
도 5는 촬상된 영상 프레임에서 추출된 안경의 마크 간의 간격을 개략적으로 도시한 도면,
도 6은 거리 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 7은 촬상된 영상 프레임에서 추출된 안경의 마크의 모양을 도시한 도면,
도 8은 각도 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 9는 각도 참조 테이블에 대한 바람직한 다른 실시예를 도시한 도면,
도 10은 깊이값 설정 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 11은 양안시차 방식을 도시한 도면,
도 12는 양안시차의 크기에 따른 물체의 거리감을 도시한 도면,
도 13은 입체영상의 깊이값을 조절하는 방법의 일실시예를 설명하기 위한 도면,
도 14는 영상에 포함된 오브젝트의 좌표를 도시한 도면,
도 15는 도 14에 도시된 오브젝트의 변위가 변환된 후에 오브젝트의 좌표를 도시한 도면, 그리고,
도 16은 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 일실시예를 도시한 도면이다.1 is a block diagram showing a configuration of a preferred embodiment of an electronic device according to the present invention;
2 is a block diagram showing a configuration of a preferred embodiment of the signal processing unit;
3 shows embodiments of the mark of the spectacles,
4 is a view showing an embodiment of a mark-shaped glasses,
FIG. 5 is a diagram schematically showing a distance between marks of glasses extracted from a captured image frame; FIG.
6 illustrates a preferred embodiment of a distance reference table;
7 is a view showing the shape of the mark of the glasses extracted from the captured image frame,
8 illustrates a preferred embodiment of an angular reference table;
9 illustrates another preferred embodiment of an angular reference table;
10 is a view showing a preferred embodiment of the depth value reference table;
11 is a diagram illustrating a binocular parallax scheme;
12 is a view showing a sense of distance of an object according to the size of binocular parallax;
13 is a view for explaining an embodiment of a method of adjusting a depth value of a stereoscopic image;
14 is a diagram illustrating coordinates of an object included in an image;
FIG. 15 shows coordinates of an object after displacement of the object shown in FIG. 14 is converted, and
16 is a view showing a preferred embodiment of the stereoscopic image processing method according to the present invention.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.Although the terms used in the present invention have been selected in consideration of the functions of the present invention, it is possible to use general terms that are currently widely used, but this may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, it is to be understood that the term used in the present invention should be defined based on the meaning of the term rather than the name of the term, and on the contents of the present invention throughout.
도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of a preferred embodiment of an electronic device according to the present invention.
도 1을 참조하면, 본 발명에 따른 전자 장치(100)는 수신부(101), 신호 처리부(140), 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180) 및 제어부(190)를 포함할 수 있다. 일부 실시예로, 전자 장치(100)는 촬영 장치(90)를 더 포함할 수 있다. 전자 장치(100)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있고 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.Referring to FIG. 1, the
수신부(101)는 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신한다. 수신부(101)는 상기 영상 데이터에 대한 방송 정보를 더 수신할 수 있다. 영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 영상 데이터는 적어도 하나의 좌안 시점 영상 데이터 및 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다.The
수신부(101)는 튜너부(110), 복조부(120), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(130)를 포함할 수 있다.The
튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.The
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다.The
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The
복조부(120)에서 출력한 스트림 신호는 신호처리부(140)로 입력될 수 있다. The stream signal output from the
이동통신부(115)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The
외부 신호 수신부(135)는 외부 장치와 전자 장치(100)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미할 수 있고, USB 메모리 또는 USB 하드 디스크 등의 저장 장치일 수 있다. 전자 장치(100)는 외부 신호 수신부(135)로부터 수신된 영상 신호 및 음성 신호가 디스플레이되도록 제어할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다. The
또한 외부 장치는 촬영 장치(90)일 수 있다. 촬영 장치(90)는 복수의 카메라를 포함할 수 있다. 촬영 장치(90)는 사람을 촬상할 수 있고 사람이 촬상된 영상 프레임을 전자 장치(100)로 전송할 수 있다.Also, the external device may be the photographing
신호처리부(140)는 복조부(210)가 출력한 스트림 신호를 역다중화하고 역다중화된 신호에 신호 처리 등을 수행한 후, 디스플레이(150)에 영상을 출력하고, 음성 출력부(160)로 음향(161)을 출력한다. 또한 신호 처리부(140)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 영상 데이터, 음성 데이터 및 방송 데이터를 수신할 수 있다. The
신호 처리부(140)는 제어부(190)로부터 깊이 설정값을 지시하는 신호를 수신할 수 있다. 그리고 신호 처리부(140)는 수신한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.The
일부 실시예로, 신호 처리부(140)는 영상 데이터에 포함된 오브젝트의 변위값을 산출하고, 깊이 설정값을 이용하여 산출된 변위값을 변경할 수 있다. 그리고 신호 처리부(140)는 변경된 변위값에 따라 상기 오브젝트의 변위값이 변경되도록 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.In some embodiments, the
디스플레이(150)는 영상(152)을 디스플레이한다. 여기서 영상(152)은 신호 처리부(140)가 재구성한 영상 데이터가 디스플레이되는 것일 수 있다. 즉 영상 데이터는 깊이값이 조절된 입체영상 데이터일 수 있다. 또한, 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 디스플레이(150)는 전자 장치의 사용자와 운영 체제 또는 운영 체제 상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다.The
음성 출력부(160)는 신호 처리부(140) 및 제어부(190)로부터 음성 데이터를 수신하고 수신한 음성 데이터가 재생된 음향(161)을 출력할 수 있다.The
입력장치(170)는 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있고 터치패드일 수 있다. 터치 스크린은 디스플레이(150)와 일체로 되어 있거나 별개의 구성요소일 수 있다. 터치 스크린이 디스플레이(150)의 전방에 배치됨에 따라 사용자는 GUI(153)를 직접 조작할 수 있다. 예를 들어, 사용자는 단지 제어될 객체 상에 그의 손가락을 올려놓을 수 있다. The
저장부(180)는 일반적으로 전자 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 예로서, 저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 전자 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함한다.The
저장부(180)는 안경의 마크에 대한 정보, 거리 참조 테이블, 각도 참조 테이블 및 깊이값 설정 정보 참조 테이블을 저장할 수 있다. 여기서 안경의 마크에 대한 정보는 마크의 이미지 데이터, 마크의 색상 정보 및 마크에 대한 설명 정보를 포함할 수 있다.The
제어부(190)는 명령어를 실행하고 전자 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 전자 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.The
제어부(190)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.The
제어부(190)는 사용자 조치(User Action)를 인식하고 인식한 사용자 조치에 기초하여 전자 장치(100)를 제어할 수 있다. 여기서 사용자 조치는 전자 장치 또는 리모컨의 물리적인 버튼의 선택, 터치 스크린 디스플레이면상의 소정의 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치로 촬영된 영상으로부터 인식되는 소정의 제스처의 실시 및 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 외부 신호 수신부(135)는 리모컨의 물리적인 버튼을 선택하는 사용자 조치에 대한 신호를 리모컨을 통해 수신할 수 있다. 제스처는 터치 제스처와 공간 제스처를 포함할 수 있다.The
입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.The
사용자가 하나 이상의 제스처를 행할 때, 입력장치(170)는 제스처 정보를 제어부(190)로 전달한다. 저장부(180)로부터의 명령어, 보다 상세하게는 제스처 작동 프로그램(181)을 사용하여, 제어부(190)는 제스처(171)를 해석하고 저장부(180), 디스플레이(150), 음성 출력부(160), 신호 처리부(140), 네트워크 인터페이스부(130) 및 입력장치(170) 등의 전자 장치(100)의 서로 다른 컴포넌트를 제어한다. 제스처(171)는 저장부(180)에 저장된 애플리케이션에서의 동작을 수행하고, 디스플레이(150) 상에 나타난 GUI 객체를 수정하며, 저장부(180)에 저장된 데이터를 수정하고, 네트워크 인터페이스부(130), 신호 처리부(140)에서의 동작을 수행하는 명령으로서 식별될 수 있다.When the user performs one or more gestures, the
제어부(190)는 시 거리를 기초로 깊이 설정값을 결정할 수 있다. 제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하고, 검출한 제1 마크 및 제2 마크 간의 거리값을 이용하여 시 거리를 산출할 수 있다. 또한 제어부(190)는 검출한 제1 마크 및 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하고, 산출한 각도값을 기초로 산출한 시 거리를 보정할 수 있다. 여기서 보정 전의 시 거리는 사용자 거리값으로 명명되고, 보정 후의 시 거리는 시거리로 명명될 수 있다.The
일부 실시예로, 제어부(190)는 결정한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다. 일부 실시예로, 제어부(190)는 신호 처리부(140)로 하여금 결정한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성하도록 제어할 수 있다.In some embodiments, the
도 2는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.2 is a block diagram showing the configuration of a preferred embodiment of the signal processor.
도 2를 참조하면, 신호 처리부(140)는 역다중화부(210), 오디오 디코더(220), 비디오 디코더(230), 영상 가공부(240), 스케일러(260), 믹서(270) 및 포맷터(280)를 포함할 수 있다.Referring to FIG. 2, the
역다중화부(210)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 입력부(135)로부터 스트림 신호를 수신할 수 있고, 역다중화부(210)는 수신된 스트림 신호를 영상 데이터, 음성 데이터 및 데이터로 역다중화하여 각각 비디오 디코더(230), 오디오 디코더(220) 및 제어부(190)로 출력할 수 있다.The
오디오 디코더(220)는 역다중화부(210)로부터 음성 데이터를 수신하고, 수신된 음성 데이터를 복원하여 복원된 데이터를 스케일러(260) 또는 음성 출력부(160)로 출력할 수 있다.The
비디오 디코더(230)는 역다중화부(210)로부터 영상 데이터를 수신하고, 수신된 영상 데이터를 복원하여 영상 가공부(240)에 출력한다. 여기서 영상 신호는 입체영상 신호를 포함할 수 있다. 비디오 디코더(230) 및 영상 가공부(240)는 하나의 모듈로 구성될 수 있다. 영상 가공부(240)가 수행하는 역할을 제어부(190)가 대신 수행하는 경우에는, 비디오 디코더(230)는 복원한 영상 데이터를 제어부(190)로 출력할 수 있다.The
영상 가공부(240)는 깊이 설정값에 따라 복원된 영상 데이터에 포함된 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다. 영상 가공부(240)는 변위 산출부(245), 변위 변경부(250) 및 영상 재구성부(255)를 포함할 수 있다.The
변위 산출부(245)는 영상 데이터에 포함된 오브젝트의 변위값을 산출한다. The
변위 변경부(250)는 깊이 설정값을 이용하여 변위 산출부(245)가 산출한 변위값을 변경한다. 여기서, 상기 변위 변경부는, 깊이 설정값 및 산출된 변위값을 기초로 상기 변경된 변위값을 산출할 수 있다.The
영상 재구성부(255)는 변위 변경부(250)가 변경한 변위값에 따라 상기 오브젝트의 변위값이 변경되도록 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다. The
스케일러(260)는 비디오 디코더(230), 영상 가공부(240) 및 제어부(190)에서 처리된 영상 데이터 및 오디오 디코더(220)에서 처리된 음성 데이터를 디스플레이(150) 또는 스피커(미도시)를 통하여 출력하기 위한 적절한 크기의 신호로 크기 조절(스케일링: scaling)한다. 구체적으로, 스케일러(260)는 입체영상을 수신하여 디스플레이(150)의 해상도 또는 소정 화면비(aspect ratio)에 맞도록 스케일링(scaling)한다. 디스플레이(150)는 제품 사양 별로 소정 해상도, 예를 들어 720x480 포맷, 1024x768 등을 갖는 영상 화면을 출력하도록 제작될 수 있다. 그에 따라서, 스케일러(260)는 다양한 값으로 입력될 수 있는 입체영상의 해상도를 해당 디스플레이의 해상도에 맞춰 변환할 수 있다.The
믹서(270)는 스케일러(260) 및 제어부(190)의 출력을 믹싱하여 출력한다.The
포맷터(280)는 입체영상을 구현하기 위하여 변환된 영상 데이터를 디스플레이(150)로 출력한다. 입체영상 디스플레이 방식이 패턴 리타드 방식인 경우에는, 포맷터(280)는 수신된 입체영상 프레임을 좌안 시점 영상 데이터 및 우아 시점 영상 데이터가 수평 또는 수직 방향으로 교번적으로 배열된 영상 프레임으로 샘플링하고, 샘플링한 영상 프레임을 출력할 수 있다.The
입체영상 디스플레이 방식이 셔터 글라스 방식인 경우에는, 포맷터(280)는 출력되는 입체영상 신호에 동기 신호(Sync signal)를 생성하여 안경(201)으로 전송할 수 있다. 포맷터(280)는 동기 신호의 전송을 위해 적외선 출력부(미도시)를 포함할 수 있다. 여기서, 동기 신호는 입체영상 신호에 따른 좌안 시점 영상 또는 우안 시점 영상의 디스플레이 시점과 셔터 안경(201)의 좌안 렌즈 또는 우안 렌즈의 개폐 시점을 동기시키기 위한 신호이다.When the 3D image display method is a shutter glass method, the
도 3은 안경의 마크의 실시예들을 도시한 도면이다.3 shows embodiments of the mark of the spectacles.
도 3을 참조하면, 안경의 마크는 마크(310), 마크(320) 및 마크(330) 중에 하나일 수 있다. 안경의 마크는 도 3에 도시된 실시예에 한정되지 않으며, 촬상된 영상 프레임의 포함된 안경의 피사체 상에서 식별가능한 마크는 본 발명의 안경의 마크로 사용가능하다. 또한 안경의 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 이에 따라 본 발명에 따른 전자 장치(100)는 어두운 환경에서도 사용자의 위치를 정확하게 추적할 수 있고, 추적된 사용자의 위치에 맞추어 최적의 깊이값을 갖는 입체영상을 디스플레이할 수 있다.Referring to FIG. 3, the mark of the glasses may be one of the
도 4는 마크가 형성된 안경의 일실시예를 도시한 도면이다.4 is a view illustrating an embodiment of glasses with marks.
도 4를 참조하면, 안경의 마크는 안경(400)에 표시될 수 있고, 동일한 형태의 두 개의 마크 또는 서로 다른 형태의 두 개의 마크가 안경(400)에 표시될 수 있다.Referring to FIG. 4, the mark of the glasses may be displayed on the
일예로, 안경의 마크로 마크(410) 및 마크(420)가 안경(400)에 표시될 수 있다. 마크(410)는 안경(400)의 우안 안구테에 위치하고, 마크(420)는 안경(400)의 좌안 안구테에 위치한다. For example, the
도 5는 촬상된 영상 프레임에서 추출된 안경의 마크 간의 간격을 개략적으로 도시한 도면이다.FIG. 5 is a diagram schematically illustrating a distance between marks of glasses extracted from a captured image frame.
도 5를 참조하면, 제어부(190)는 촬상된 영상 프레임(500)에서 제1 마크(510) 및 제2 마크(520)를 검출할 수 있다. 제어부(190)는 영상 프레임(500)에서 마크의 칼라 정보를 이용하여 제1 마크(510) 및 제2 마크(520)를 인식할 수 있다.Referring to FIG. 5, the
또한 제어부(190)는 제1 마크(510) 및 제2 마크(520) 간의 거리값(530)을 산출할 수 있다. 여기서 거리값(530)은 제1 마크(510) 및 제2 마크(520) 간의 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다.In addition, the
또한 제어부(190)는 거리값(530)을 기초로 사용자 거리값을 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 1로 거리값(530) x의 사용자 거리값 y을 산출할 수 있다.In addition, the
여기서, a는 기준 거리, c는 기준 거리일 때의 거리값을 지시하는 상수이고, b는 거리값(530)의 변화량에 따른 사용자 거리값의 변화의 비율을 지시하는 상수이다. 상수 a, b, c는 제조시에 결정될 수 있다. Here, a is a constant indicating a distance value when a reference distance and c is a reference distance, and b is a constant indicating a rate of change of the user distance value according to the change amount of the
도 6은 거리 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.6 illustrates a preferred embodiment of a distance reference table.
도 6을 참조하면, 제어부(190)는 거리 참조 테이블(600)을 이용하여 거리값(530)에 대한 사용자 거리값을 산출할 수 있다. 제어부(190)는 거리 참조 테이블(600)에서 거리값(530)과 연관되는 사용자 거리값을 검출할 수 있다. 예를 들면, 거리값(530)이 100픽셀일 때, 제어부(190)는 거리 참조 테이블(600)에서 100픽셀과 매핑된 사용자 거리값 2.2m를 검출할 수 있다. 또한 거리값(530)이 150픽셀일 때, 제어부(190)는 거리 참조 테이블(600)에서 150픽셀과 매핑된 사용자 거리값 2.0m를 산출할 수 있다.Referring to FIG. 6, the
만일 거리값(530)과 동일한 거리값이 거리 참조 테이블(600)에 존재하지 않는 경우에는, 제어부(190)는 거리값(530)과 가까운 거리값에 연관되는 사용자 거리값을 검출하고, 검출한 거리값을 이용하여 거리값(530)의 사용자 거리값을 산출할 수 있다. 거리값(530)이 거리 참조 테이블(600)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 2를 이용하여 거리값(530) x의 사용자 거리값 y을 산출할 수 있다.If the same distance value as the
여기서, x_low는 x 보다 작은 값 중 거리 참조 테이블(600)에 존재하는 거리값이고, x_high는 x 보다 큰 값 중 거리 참조 테이블(600)에 존재하는 거리값이며, y_high는 x_high의 사용자 거리값이고, y_low는 x_low의 사용자 거리값이다. 일예로, 거리값(530)이 125픽셀인 경우에는, 제어부(190)는 x_low로 100픽셀, x_high로 150픽셀을 선택할 수 있고, y_high로 2.0m를 검출하고 y_low로 2.2m를 걸출할 수 있다. 결과적으로 제어부(190)는 사용자 거리값을 2.1m로 산출할 수 있다.Here, x_low is a distance value existing in the distance reference table 600 among values smaller than x, x_high is a distance value existing in the distance reference table 600 among values larger than x, and y_high is a user distance value of x_high. , y_low is the user distance value of x_low. For example, when the
도 7은 촬상된 영상 프레임에서 추출된 안경의 마크의 모양을 도시한 도면이다.7 is a view showing the shape of the mark of the glasses extracted from the captured image frame.
도 7을 참조하면, 제어부(190)는 촬영된 영상 프레임(700)에서 하나의 마크(710)를 검출할 수 있다. 여기서 제어부(190)는 마크(710)의 칼라 정보를 이용하여 마크(710)를 인식할 수 있다. 마크(710)의 칼라 정보는 사전에 저장부(180)에 저장될 수 있다.Referring to FIG. 7, the
제어부(190)는 마크의 가로 간격(711)을 산출할 수 있다. 여기서 가로 간격(711)은 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다. 제어부(190)는 가로 간격(711)을 기초로 각도값을 산출할 수 있다. The
제어부(190)는 마크의 세로 간격(712)을 산출할 수 있다. 여기서 세로 간격(712)은 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다. 제어부(190)는 가로 간격(711) 및 세로 간격(712)을 기초로 각도값을 산출할 수 있다.The
도 8은 각도 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.8 is a diagram illustrating a preferred embodiment of the angular reference table.
도 8을 참조하면, 제어부(190)는 각도 참조 테이블(800)을 이용하여 가로 간격(711)에 대한 각도값을 산출할 수 있다. 제어부(190)는 각도 참조 테이블(800)에서 가로 간격(711)과 연관되는 각도값을 검출할 수 있다. 일예로, 가로 간격(711)이 10픽셀일 때, 제어부(190)는 각도 참조 테이블(800)에서 10픽셀과 매핑된 각도값 60도를 검출할 수 있다. 또한 가로 간격(711)이 15픽셀일 때, 제어부(190)는 각도 참조 테이블(800)에서 15픽셀과 매핑된 각도값 50도를 산출할 수 있다.Referring to FIG. 8, the
만일 가로 간격(711)과 동일한 가로 간격이 각도 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 가로 간격(711)과 가까운 가로 간격에 연관되는 각도값을 검출하고, 검출한 가로 간격을 이용하여 가로 간격(711)의 각도값을 산출할 수 있다. 일실시예로, 가로 간격(711)이 거리 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 3을 이용하여 가로 간격(711) x의 각도값 y을 산출할 수 있다.If the same horizontal interval as the
여기서, x_low는 x 보다 작은 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이고, x_high는 x 보다 큰 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이며, y_high는 x_high의 각도값이고, y_low는 x_low의 각도값이다. 일예로, 가로 간격(711)이 12.5픽셀인 경우에는, 제어부(190)는 x_low로 10픽셀, x_high로 15픽셀을 선택할 수 있고, y_high로 50도를 검출하고 y_low로 60도를 걸출할 수 있다. 결과적으로 제어부(190)는 각도값을 55도를 산출할 수 있다.Here, x_low is a horizontal interval existing in the angle reference table 800 among values smaller than x, x_high is a horizontal interval existing in the angle reference table 800 among values larger than x, y_high is an angle value of x_high, y_low is the angle value of x_low. For example, when the
또한 제어부(190)는 각도값에 연관된 위치각 계수를 산출할 수 있다. 일예의 산출 방법으로, 제어부(190)는 각도 참조 테이블(800)을 이용하여 위치각 계수를 산출할 수 있다. 예를 들어, 산출된 각도값이 50도이면, 제어부(190)는 위치각 계수로 2.0을 산출한다. In addition, the
또한 제어부(190)는 각도 참조 테이블(800)을 이용하여 가로 간격(711)에 연관된 위치각 계수를 산출할 수 있다. 예를 들어, 가로 간격(711)이 10픽셀이면, 제어부(190)는 위치각 계수로 2.2를 산출할 수 있다. 만일 산출된 가로 간격(711)과 연관된 위치각 계수가 각도 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 4를 이용하여 가로 간격(711)의 위치각 계수를 산출할 수 있다.In addition, the
여기서, x_low는 x 보다 작은 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이고, x_high는 x 보다 큰 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이며, y_high는 x_high의 위치각 계수이고, y_low는 x_low의 위치각 계수이다. 일예로, 비율이 12.5픽셀인 경우에는, 제어부(190)는 x_low로 10픽셀, x_high로 15픽셀을 선택할 수 있고, y_high로 2.0을 검출하고 y_low로 2.2를 걸출할 수 있다. 결과적으로 제어부(190)는 위치각 계수로 2.1을 산출할 수 있다.Here, x_low is the horizontal spacing present in the angular reference table 800 among values smaller than x, x_high is the horizontal spacing present in the angular reference table 800 among values larger than x, and y_high is the position angle coefficient of x_high. , y_low is the position angle coefficient of x_low. For example, when the ratio is 12.5 pixels, the
도 9는 각도 참조 테이블에 대한 바람직한 다른 실시예를 도시한 도면이다.9 shows another preferred embodiment of the angular reference table.
도 9를 참조하면, 제어부(190)는 각도 참조 테이블(900)을 이용하여 비율에 대한 각도값을 산출할 수 있다. 여기서 비율은 가로 간격(711) 및 세로 간격(712)의 비이다. 즉 비율은 다음의 수학식 5로 산출될 수 있다.Referring to FIG. 9, the
여기서, H는 가로 간격(711)이고, V는 세로 간격(712)이며, Y는 비율이다.Where H is the
제어부(190)는 각도 참조 테이블(900)에서 산출한 비율과 연관되는 각도값을 검출할 수 있다. 일예로, 비율이 0.5일 때, 제어부(190)는 각도 참조 테이블(900)에서 0.5와 매핑된 각도값 60도를 검출할 수 있다. 또한 비율이 0.64일 때, 제어부(190)는 각도 참조 테이블(900)에서 0.64와 매핑된 각도값 50도를 산출할 수 있다.The
또한 제어부(190)는 각도 참조 테이블(900)을 이용하여 위치각 계수를 산출할 수 있다. 예를 들어, 산출된 각도값이 50도이면, 제어부(190)는 위치각 계수로 2.0을 산출한다. 제어부(190)는 각도 참조 테이블(900)을 이용하여 비율과 연관된 위치각 계수를 산출할 수 있다. 예를 들어, 산출한 비율이 0.98일 때, 제어부(190)는 위치각 계수로 1.2를 산출할 수 있다.In addition, the
제어부(190)는 사용자 거리값 및 위치각 계수를 기초로 시 거리를 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 6을 기초로 시 거리 y를 산출할 수 있다.The
여기서, a는 위치각 계수이고, b는 사용자 거리값이다.Where a is a position angle coefficient and b is a user distance value.
또한 제어부(190)는 사용자 거리값 및 각도값을 기초로 시 거리를 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 7을 기초로 시 거리 y를 산출할 수 있다.In addition, the
여기서, a는 사용자 거리값이고, θ는 각도값이다.Here, a is a user distance value and θ is an angle value.
제어부(190)는 산출한 시 거리를 기초로 깊이 설정값을 산출할 수 있다.The
도 10은 깊이값 설정 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.FIG. 10 is a diagram illustrating a preferred embodiment of a depth value reference table. FIG.
도 10을 참조하면, 제어부(190)는 깊이값 설정 참조 테이블(1000)을 이용하여 산출한 시 거리에 적합한 깊이 설정값을 산출할 수 있다. 예를 들면, 제어부(190)는 산출한 시 거리가 기준 거리 1.4인 경우에는, 깊이 설정값으로 0을 산출할 수 있다. 또한 제어부(190)는 산출한 시 거리가 1m인 경우에는, 깊이 설정값으로 -2를 산출할 수 있다. 그리고 제어부(190)는 산출한 시 거리가 2m인 경우에는, 깊이 설정값으로 3을 산출할 수 있다.Referring to FIG. 10, the
산출한 시 거리가 특정 거리 이하인 경우에는, 제어부(190)는 깊이 설정값으로 0을 산출할 수 있다. 즉 특정 거리 이하인 경우에는, 제어부(190)는 입체영상의 깊이값을 조절하지 않을 수 있다.When the calculated viewing distance is less than or equal to the specific distance, the
또한 제어부(190)는 각도값을 기초로 사용자의 시선 방향이 화면 방향인지를 확인할 수 있다. 즉 제어부(190)는 각도값이 사전에 설정된 값 이상인 경우에는, 사용자의 시선 방향이 화면 방향이 아니라고 판단할 수 있고, 각도값이 사전에 설정된 값 이하인 경우에는, 사용자의 시선 방향이 화면 방향이라고 판단할 수 있다.In addition, the
제어부(190)는 시선 방향의 확인 결과에 따라 깊이 설정값을 0으로 산출할 수 있고, 입체영상의 깊이값을 조절하지 않을 수 있다. 즉 각도값이 70도 내지 90도인 경우에는, 제어부(190)는 깊이 설정값을 0으로 산출할 수 있다. 또한 각도값이 70도 내지 90도인 경우에는, 제어부(190)는 입체영상의 깊이값을 조절되지 않도록 제어할 수 있다.The
제어부(190)는 산출한 깊이 설정값을 기초로 입체영상의 깊이값을 조절할 수 있다.The
일부 실시예로, 제어부(190)는 시 거리 대신에 사용자 거리값을 기초로 깊이 설정값을 산출할 수 있다. 즉 제어부(190)는 깊이값 설정 참조 테이블(1000)을 이용하여 산출한 사용자 거리값에 적합한 깊이 설정값을 산출할 수 있다. 예를 들면, 제어부(190)는 산출한 사용자 거리값이 기준 거리 1.4인 경우에는, 깊이 설정값으로 0을 산출할 수 있고, 산출한 사용자 거리값이 1m인 경우에는, 깊이 설정값으로 -2를 산출할 수 있다.In some embodiments, the
도 11은 양안시차 방식을 도면이다.11 is a diagram illustrating a binocular parallax method.
도 11을 참조하면, 양안시차 방식은 양안 카메라 등으로 촬상된 적어도 하나의 좌안 시점 영상(1101) 및 우안 시점 영상(1102)을 시청자의 양 눈(1121, 1122)에 각각 보여줌으로써 공간감 또는 입체감을 제공하는 3차원 디스플레이 방식이다. 좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 양안 시차에 따라 깊이값이 달라지고 깊이값(Depth value)에 따라 시청자에게 제공되는 공간감 또는 입체감이 달라진다. 여기서 깊이값은 3차원 디스플레이 표면(1130)에서부터 표시된 3차원 영상(1113)까지의 거리이다.Referring to FIG. 11, in the binocular disparity method, at least one left
좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 간격이 좁을수록 깊이값이 작아져, 좌안(1121) 및 우안(1122)로부터 먼 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 작아질 수 있다. 좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 간격이 넓을수록 깊이값이 커져, 좌안(1121) 및 우안(1122)으로부터 가까운 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 커질 수 있다.The narrower the distance between the left
도 12는 양안시차의 크기에 따른 물체의 거리감을 도시한 도면이다.12 is a diagram illustrating a sense of distance of an object according to the size of binocular parallax.
도 12를 참조하면, 멀리 있는 물체(1210)를 양안으로 볼 때 좌안에 맺히는 상(1211) 및 우안에 맺히는 상(1212)의 간격이 좁아짐으로, 멀리 있는 물체(1210)를 볼 때의 양안 시차는 작다. 따라서 입체영상의 양안 시차를 작게 조절하여, 입체영상(1113)을 멀리 보이게 할 수 있고 입체영상(1113)의 깊이값이 작아지도록 조절할 수 있다.Referring to FIG. 12, the distance between the image 1211 formed in the left eye and the
가까이에 있는 물체(1220)를 양안으로 볼 때 좌안에 맺히는 상(1221) 및 우안에 맺히는 상(1222)의 간격이 넓어짐으로, 가까이에 있는 물체(1220)를 볼 때의 양안 시차는 크다. 즉 물체(1220)의 양안 시차는 물체(1210)의 양안 시차보다 크다. 따라서 입체영상의 양안 시차를 크게 조절하여, 입체영상(1113)을 가깝게 보이게 할 수 있고 입체영상(1113)의 깊이값이 커지도록 조절할 수 있다.As the distance between the
도 13은 입체영상의 깊이값을 조절하는 방법의 일실시예를 설명하기 위한 도면이다.FIG. 13 is a diagram for describing an embodiment of a method of adjusting a depth value of a stereoscopic image. FIG.
도 13을 참조하면, 전자 장치(100)는 입체영상(1300) 내의 물체(1310)의 양안 시차를 작게 하여 입체영상(1300)의 깊이값을 작게 할 수 있다. 즉 물체(1310)의 양안 시차를 더욱 작게 조절하여 물체를 원래의 거리보다 시청자에게 더욱 멀게 보이게 함으로써, 입체영상(1300)의 값이값을 작게 할 수 있다.Referring to FIG. 13, the
또한 전자 장치(100)는 입체영상(1300) 내의 물체(1320)의 양안 시차를 크게 하여 입체영상(1300)의 깊이값을 크게 할 수 있다. 즉 물체(1320)의 양안 시차를 더욱 크게 조절하여 물체를 원래의 거리보다 시청자에게 더욱 가깝게 보이게 함으로써, 입체영상(1300)의 값이값을 크게 할 수 있다.Also, the
도 14는 영상에 포함된 오브젝트의 좌표를 도시한 도면이다.14 is a diagram illustrating coordinates of an object included in an image.
도 14를 참조하면, 입체영상이 피사체의 좌표를 알 수 있는 벡터 그래픽으로 들어올 경우에는, 피사체의 좌표는 수학식 8 및 수학식 9에 따라 표시될 수 있다.Referring to FIG. 14, when a stereoscopic image enters a vector graphic in which the coordinates of the subject are known, the coordinates of the subject may be displayed according to Equations 8 and 9 below.
오브젝트 거리 는 오브젝트의 좌안 오브젝트의 위치와 상기 오브젝트의 우안 오브젝트의 위치의 차이를 의미하며, 오브젝트 간의 거리를 다음의 수학식 10으로 나타내질 수 있다. 여기서 좌안 오브젝트는 좌안 시점 영상 데이터에 포함된 오브젝트 또는 상기 오브젝트의 이미지를 표시하는 좌표를 의미하고, 우안 오브젝트는 우안 시점 영상 데이터에 포함된 오브젝트 또는 상기 오브젝트의 이미지를 표시하는 좌표를 의미한다. 즉 오브젝트(1410)의 좌안 오브젝트는 오브젝트(1411)이고 오브젝트(1410)의 우안 오브젝트는 우안 오브젝트(1412)이다.Object distance Denotes the difference between the position of the left eye object of the object and the position of the right eye object of the object, and the distance between the objects may be represented by
오브젝트(1410)의 오브젝트 거리는 1이고, 오브젝트(1420)의 오브젝트 거리는 2이며, 오브젝트(1430)의 오브젝트 거리는 3이다.The object distance of the
또한 오브젝트 거리의 집합 는 다음의 수학식 11로 나타낼 수 있다.Also set of object distances May be represented by Equation 11 below.
오브젝트 거리는 다음의 수학식 12를 이용하여 변경할 수 있다.The object distance may be changed using Equation 12 below.
여기서, 은 변경된 오브젝트 거리이다. a 는 입체감 정도를 나타내는 변수를 뜻하고, 변수 a의 값은 깊이 설정값 또는 깊이 설정값에 함수 관계를 갖는 값으로 설정될 수 있다.here, Is the changed object distance. a denotes a variable representing a degree of three-dimensional effect, and a value of the variable a may be set to a value having a function relationship with the depth setting value or the depth setting value.
양안 시차 방식에서 오브젝트 거리는 해당 오브젝트의 원근감을 듯하고, 해당 오브젝트의 양안 시차를 나타낸다고 볼 수 있다. 따라서, 수학식 12에서 변수 a가 O에 가까울수록 입체영상의 깊이값은 작아지고, 1인 경우에는 입체영상의 깊이값은 유지되고, 1보다 클수록 입체영상의 깊이값은 커질 수 있다. In binocular parallax, the object distance seems to be a perspective of the object, and it can be seen that it represents the binocular parallax of the object. Therefore, in Equation 12, the closer the variable a is to O, the smaller the depth value of the stereoscopic image, and in the case of 1, the depth value of the stereoscopic image is maintained, and the greater than 1, the greater the depth value of the stereoscopic image.
또한 변경된 오브젝트 거리의 집합 는 다음의 수학식 13으로 나타낼 수 있다.Also set of changed object distances Can be represented by the following equation (13).
일부 실시예로, 전자 장치(100)는 다음의 수학식 14를 이용하여 a를 산출할 수 있다.In some embodiments, the
여기서, b는 깊이 설정값이다. 예를 들어, b가 0인 경우에는, 입체영상의 깊이값은 조절되지 않고 유지된다.Where b is the depth setting value. For example, when b is 0, the depth value of the stereoscopic image is maintained without being adjusted.
도 15는 도 14에 도시된 오브젝트의 변위가 변환된 후에 오브젝트의 좌표를 도시한 도면이다.FIG. 15 is a diagram illustrating coordinates of an object after the displacement of the object illustrated in FIG. 14 is converted.
도 15를 참조하면, 수학식 12에서 a가 2인 경우에는, 오브젝트(1510)의 오브젝트 거리는 2로 변경되고, 오브젝트(1520)의 오브젝트 거리는 2에서 4로 변경되며, 오브젝트(1530)의 오브젝트 거리는 3에서 6로 변경된다.Referring to FIG. 15, when a is 2 in Equation 12, the object distance of the
도 16은 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 일실시예를 도시한 도면이다.16 is a view showing a preferred embodiment of the stereoscopic image processing method according to the present invention.
도 16을 참조하면, 수신부(101)는 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신한다(S100). 상기 영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. Referring to FIG. 16, the
촬영 장치(90)는 사용자를 촬상한다(S105).The photographing
제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출한다(S110). 여기서, 상기 제1 마크 및 제2 마크는 도 3에서 도시된 마크(310, 320, 330)일 수 있고, 상기 안경은 도 4에 도시된 안경(400)일 수 있다.The
제어부(190)는 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출한다(S115). 여기서 제어부(190)는 도 8에 도시된 각도 참조 테이블(800) 및 도 9에 도시된 각도 참조 테이블(900)을 이용하여 각도값을 산출할 수 있다.The
제어부(190)는 각도값을 기초로 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인한다(S120). 여기서 제어부(190)는 각도값이 70도 이상인 경우에는, 시선 방향이 화면 방향이 아니라고 확인할 수 있고, 그렇지 않은 경우에는, 시선 방향이 화면 방향이라고 확인할 수 있다.The
시선 방향이 화면 방향인 경우에는, 제어부(190)는 검출한 제1 마크 및 제2 마크 간의 거리값을 산출한다(S125). 여기서 거리값은 사용자 거리값일 수 있고, 시 거리일 수 있다. 또한 제어부(190)는 도 6에 도시된 거리 참조 테이블(600)을 이용하여 사용자 거리값을 산출할 수 있고, 수학식 6을 이용하여 시 거리를 산출할 수 있다.When the visual line direction is the screen direction, the
제어부(190)는 산출한 거리값을 기초로 깊이 설정값을 산출한다(S130). 여기서 제어부(190)는 도 10에 도시된 깊이값 설정 참조 테이블(1000)을 이용하여 깊이 설정값을 산출할 수 있다. 또한 제어부(190)는 산출한 시 거리 및 기준 시거리의 비율을 기초로 깊이 설정값을 산출할 수 있다. 제어부(190)는 산출한 시 거리가 기준 시거리보다 작은 경우에는, 깊이 설정값을 음수로 설정할 수 있고, 산출한 시 거리가 기준 시거리인 경우에는, 깊이 설정값을 0으로 설정할 수 있으며, 산출한 시거리가 기준 시거리 보다 큰 경에는, 깊이 설정값을 양수로 설정할 수 있다. 여기서 기준 시거리는 제조시에 설정된 값일 수 있고, 수신부(101)가 수신한 값일 수 있다. 또한 기준 시거리는 입체영상 데이터에 포함된 것일 수 있다.The
제어부(190)는 산출한 깊이 설정값을 기초로 입체영상의 깊이값이 조절되도록 제어한다(S135). 여기서 변위 산출부(245)는 수신된 입체영상에서 오브젝트 거리를 산출할 수 있다. 이때 변위 산출부(245)는 수학식 10을 이용하여 오브젝트 거리를 산출할 수 있다. 변위 변경부(250)는 수학식 14를 이용하여 상기 깊이 설정값을 기초로 a값을 산출할 수 있다. 또한 변위 변경부(250)는 수학식 12를 이용하여 상기 산출된 a를 기초로 변경된 오브젝트 거리를 산출할 수 있다. 그리고 영상 재구성부(255)는 산출한 오브젝트 거리에 따라 오브젝트의 거리가 변경되도록 수신된 입체영상의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.The
디스플레이(150)는 입체영상을 디스플레이한다(S140). 여기서 상기 디스플레이된 입체영상은 깊이값이 조절된 입체영상일 수 있고, 수신된 깊이값 그대로 디스플레이되는 입체영상일 수 있다.The
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer apparatus is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.
Claims (20)
상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하는 단계;
상기 거리값을 기초로 깊이 설정값을 산출하는 단계; 및
상기 산출된 깊이 설정값을 기초로 입체영상의 깊이값을 조절하는 단계를 포함하는 것을 특징으로 하는 입체영상 처리 방법.Detecting a first mark and a second mark of the glasses in the captured image frame;
Calculating a distance value between the detected first mark and the detected second mark;
Calculating a depth setting value based on the distance value; And
And adjusting the depth value of the stereoscopic image based on the calculated depth setting value.
상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치하는 것을 특징으로 하는 입체영상 처리 방법.The method of claim 1,
And the first mark and the second mark are located on the left eye eye and right eye eye of the glasses, respectively.
상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성되는 것을 특징으로 하는 입체영상 처리 방법.The method of claim 1,
And the first mark and the second mark are formed of at least one of an LED light, a luminous material, and a fluorescent material.
상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하는 단계를 더 포함하고,
상기 깊이 설정값을 산출하는 단계는,
상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출하는 단계를 포함하는 것을 특징으로 하는 입체영상 처리 방법.The method of claim 1,
Calculating an angle value based on a shape of at least one of the first mark and the second mark,
Calculating the depth setting value,
And calculating the depth setting value based on the distance value and the angle value.
상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출되는 것을 특징으로 하는 입체영상 처리 방법.The method of claim 4, wherein
The angle value is calculated based on at least one of the ratio of the horizontal size, the horizontal size and the vertical size of the shape.
상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하는 단계를 더 포함하고,
상기 확인 결과에 따라 상기 입체영상의 깊이값을 조절하는 단계의 수행 여부가 결정되는 것을 특징으로 하는 입체영상 처리 방법.The method of claim 4, wherein
Determining whether a gaze direction of a user wearing the glasses is a screen direction based on the angle value;
And determining whether to perform the step of adjusting the depth value of the stereoscopic image according to the checking result.
상기 화면 방향인지 확인하는 단계는,
상기 각도값이 사전에 설정된 각도 이상인지를 확인하는 단계를 더 포함하는 것을 특징으로 하는 입체영상 처리 방법.The method according to claim 6,
Checking whether the screen orientation is,
And determining whether the angle value is greater than or equal to a preset angle.
상기 깊이 설정값을 산출하는 단계는,
상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하는 단계; 및
상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출하는 단계를 포함하는 것을 특징으로 하는 입체영상 처리 방법.The method of claim 4, wherein
Calculating the depth setting value,
Calculating a viewing distance using the distance value and the angle value; And
And calculating the depth setting value based on the calculated viewing distance.
상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출되는 것을 특징으로 하는 입체영상 처리 방법.The method of claim 8,
The depth setting value is calculated based on the ratio between the reference viewing distance and the calculated viewing distance.
상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리인 것을 특징으로 하는 입체영상 처리 방법.The method of claim 1,
And the distance value is a pixel distance between the first mark and the second mark.
촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하고, 상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하며, 상기 산출된 거리값을 기초로 깊이 설정값을 산출하고, 상기 산출된 깊이 설정값을 기초로 상기 수신된 입체영상의 깊이값의 조절을 제어하는 제어부를 포함하는 것을 특징으로 하는 전자 장치.Receiving unit for receiving a stereoscopic image; And
The first mark and the second mark of the glasses are detected in the captured image frame, the distance value between the detected first mark and the detected second mark is calculated, and the depth setting value is determined based on the calculated distance value. And a controller configured to control the adjustment of the depth value of the received stereoscopic image based on the calculated depth setting value.
상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치하는 것을 특징으로 하는 전자 장치.12. The method of claim 11,
And the first mark and the second mark are located at the left eye and right eye of the glasses, respectively.
상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성되는 것을 특징으로 하는 전자 장치.12. The method of claim 11,
And the first mark and the second mark are formed of at least one of an LED light, a luminous material, and a fluorescent material.
상기 제어부는,
상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하고, 상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출하는 것을 특징으로 하는 전자 장치.12. The method of claim 11,
The control unit,
And calculating an angle value based on a shape of at least one of the first mark and the second mark, and calculating the depth setting value based on the distance value and the angle value.
상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출되는 것을 특징으로 하는 전자 장치.The method of claim 14,
And the angle value is calculated based on at least one of a ratio of a horizontal size, a horizontal size, and a vertical size of the shape.
상기 제어부는,
상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하고, 상기 확인 결과에 따라 상기 입체영상의 깊이값의 조절을 제어하는 것을 특징으로 하는 전자 장치.The method of claim 14,
The control unit,
The electronic device may be configured to determine whether a line of sight of the user wearing the glasses is the screen direction based on the angle value, and control the adjustment of the depth value of the stereoscopic image according to the checking result.
상기 제어부는,
상기 각도값이 사전에 설정된 각도보다 작으면 상기 사용자의 시선 방향이 화면 방향이라고 확인하는 것을 특징으로 하는 전자 장치.17. The method of claim 16,
The control unit,
And when the angle value is smaller than a preset angle, confirming that the user's gaze direction is a screen direction.
상기 제어부는,
상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하고, 상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출하는 것을 특징으로 하는 전자 장치.The method of claim 14,
The control unit,
And calculates a viewing distance using the distance value and the angle value, and calculates the depth setting value based on the calculated viewing distance.
상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출되는 것을 특징으로 하는 전자 장치.19. The method of claim 18,
And the depth setting value is calculated based on a ratio between the reference viewing distance and the calculated viewing distance.
상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리인 것을 특징으로 하는 전자 장치.12. The method of claim 11,
And the distance value is a pixel distance between the first mark and the second mark.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110045021A KR20120126897A (en) | 2011-05-13 | 2011-05-13 | Electronic device and method for processing a 3-dimensional image |
EP12166628A EP2523464A3 (en) | 2011-05-13 | 2012-05-03 | Apparatus and method for processing 3-dimensional image |
EP13177713.8A EP2658270A3 (en) | 2011-05-13 | 2012-05-03 | Apparatus and method for processing 3-dimensional image |
US13/468,315 US20120287235A1 (en) | 2011-05-13 | 2012-05-10 | Apparatus and method for processing 3-dimensional image |
CN201210148757.6A CN102780902B (en) | 2011-05-13 | 2012-05-14 | Apparatus and method for processing 3-dimensional image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110045021A KR20120126897A (en) | 2011-05-13 | 2011-05-13 | Electronic device and method for processing a 3-dimensional image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120126897A true KR20120126897A (en) | 2012-11-21 |
Family
ID=47512148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110045021A KR20120126897A (en) | 2011-05-13 | 2011-05-13 | Electronic device and method for processing a 3-dimensional image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120126897A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016006731A1 (en) * | 2014-07-09 | 2016-01-14 | 엘지전자 주식회사 | Portable device that controls photography mode, and control method therefor |
WO2018088730A1 (en) * | 2016-11-08 | 2018-05-17 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
-
2011
- 2011-05-13 KR KR1020110045021A patent/KR20120126897A/en not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016006731A1 (en) * | 2014-07-09 | 2016-01-14 | 엘지전자 주식회사 | Portable device that controls photography mode, and control method therefor |
US10334233B2 (en) | 2014-07-09 | 2019-06-25 | Lg Electronics Inc. | Portable device that controls photography mode, and control method therefor |
WO2018088730A1 (en) * | 2016-11-08 | 2018-05-17 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9451242B2 (en) | Apparatus for adjusting displayed picture, display apparatus and display method | |
US20120287235A1 (en) | Apparatus and method for processing 3-dimensional image | |
US9626803B2 (en) | Method and apparatus for image processing in augmented reality systems | |
EP2549762B1 (en) | Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor | |
EP3039476B1 (en) | Head mounted display device and method for controlling the same | |
US9456205B2 (en) | Mobile terminal and method of controlling the operation of the mobile terminal | |
KR101911250B1 (en) | Apparatus for processing a three-dimensional image and method for adjusting location of sweet spot for viewing multi-view image | |
US20090315981A1 (en) | Image processing method and apparatus | |
EP2670149A2 (en) | Apparatus and method for providing image in terminal | |
KR20130029333A (en) | Image processing apparatus and image processing method thereof | |
US20130009949A1 (en) | Method, system and computer program product for re-convergence of a stereoscopic image | |
KR20120126897A (en) | Electronic device and method for processing a 3-dimensional image | |
KR101783608B1 (en) | Electronic device and method for dynamically controlling depth in stereo-view or multiview sequence image | |
JP2013090272A (en) | Video processing device, video processing method and video display device | |
KR20130020209A (en) | Apparatus for processing a 3-dimensional image and method for changing an image mode of the same | |
JP2015149547A (en) | Image processing method, image processing apparatus, and electronic apparatus | |
KR101758274B1 (en) | A system, a method for displaying a 3-dimensional image and an apparatus for processing a 3-dimensional image | |
US11039116B2 (en) | Electronic device and subtitle-embedding method for virtual-reality video | |
KR20130010613A (en) | Apparatus and method for converting 2 dimensional image into 3 dimensional image | |
JP2012169822A (en) | Image processing method and image processing device | |
KR101343552B1 (en) | Image display apparatus displaying personalized three-dimensional image based on audience position and displaying method thereof | |
JP6131256B6 (en) | Video processing apparatus and video processing method thereof | |
KR101804912B1 (en) | An apparatus for displaying a 3-dimensional image and a method for displaying subtitles of a 3-dimensional image | |
KR20120081340A (en) | Electronic device, glasses, pairing method of the electronic device and pairing method of the glasses | |
JP2013239963A (en) | Image processing device, image display device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |