KR20130134103A - 단말기의 이미지 제공 장치 및 방법 - Google Patents
단말기의 이미지 제공 장치 및 방법 Download PDFInfo
- Publication number
- KR20130134103A KR20130134103A KR1020120057378A KR20120057378A KR20130134103A KR 20130134103 A KR20130134103 A KR 20130134103A KR 1020120057378 A KR1020120057378 A KR 1020120057378A KR 20120057378 A KR20120057378 A KR 20120057378A KR 20130134103 A KR20130134103 A KR 20130134103A
- Authority
- KR
- South Korea
- Prior art keywords
- distance
- eyes
- image
- screen
- terminal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013507 mapping Methods 0.000 claims abstract description 20
- 230000015654 memory Effects 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 단말기의 이미지 제공조절 장치 및 방법에 관한 것으로, 특히 사용자의 시선위치 및 거리에 따라 원근감을 느낄 수 있는 이미지를 제공할 수 있는 단말기의 이미지 제공조절 장치 및 방법에 관한 것이다.
이를 달성하기 위해 단말기의 이미지 제공 장치가, 카메라부와; 상기 카메라부를 통해 촬영된 얼굴에서 추출된 눈의 위치변화에 따라, 이미지를 구성하는 복수의 화면 레이어 각각에 대한 위치를 상이하게 배치하여, 상기 이미지를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.
이를 달성하기 위해 단말기의 이미지 제공 장치가, 카메라부와; 상기 카메라부를 통해 촬영된 얼굴에서 추출된 눈의 위치변화에 따라, 이미지를 구성하는 복수의 화면 레이어 각각에 대한 위치를 상이하게 배치하여, 상기 이미지를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.
Description
본 발명은 단말기의 이미지 제공조절 장치 및 방법에 관한 것으로, 특히 사용자의 시선위치 및 거리에 따라 원근감을 느낄 수 있는 이미지를 제공할 수 있는 단말기의 이미지 제공 장치 및 방법에 관한 것이다.
2차원 영상에 비해서 3차원 영상의 장점은 현장감(presence feeling), 현실감(real feeling), 자연감(natural feeling)을 느낄 수 있다는 점 때문에, 최근 3차원 영상처리기술이 교육, 훈련, 의료, 영화, 컴퓨터 게임에 이르기까지 여러 분야에 활용되고 있다.
현재, 이와 같은 3차원 영상 디스플레이 장치의 구현에 많은 연구가 이루어지고 있다. 3차원 영상 디스플레이 장치의 구성에는 입력기술, 처리기술, 전송기술, 표시기술, 소프트웨어(software)기술 등 다양한 기술이 요구되며, 특히 디스플레이 기술, 디지털 영상 처리 기술, 컴퓨터 그래픽 기술, 인간의 시각 시스템에 관한 연구가 필수적이다.
종래의 3차원 영상 디스플레이 장치는 안경을 이용한 디스플레이 장치와 무안경 방식의 디스플레이 장치가 있다. 안경을 이용한 3차원 디스플레이 장치는 광의 서로 다른 파장을 이용하여 색안경을 통해 보는 색분리 방식, 광의 진동방향이 다른 성질을 이용하는 편광 안경 방식, 그리고 좌우 영상을 시분할 방식으로 분리하여 보는 액정셔터 방식 등이 사용된다.
무안경 방식의 3차원 디스플레이 장치는 안경을 사용하지 않고 좌우 영상을 분리하여 사용자에게 3차원 입체 이미지를 제공하는 방식이 사용된다.
상기 3차원 입체 이미지를 제공하는 방식으로, 사용자의 머리(얼굴)의 위치변화로 뷰 포인트(view point) 변경을 인식하고, 사용자의 시선방향에 따라 이미지를 회전하거나 배치를 달리하여 표시부의 화면에 표시함으로서, 입체감 있게 있는 이미지를 사용자에게 제공할 수 있다.
그러나, 상기와 같이 단순히 사용자의 시선방향에 따라 이미지를 회전하여 이미지를 표시하는 경우에는, 실제 풍경을 보듯이 원경과 근경이 시선의 위치에 따라 달리 반응하여 원근감을 느낄 수 있는 듯한 효과를 주지 못하고 있다.
따라서 본 발명의 목적은 사용자의 시선위치 및 거리에 따라 원근감을 느낄 수 있는 이미지를 제공할 수 있는 단말기의 이미지 제공 장치 및 방법을 제공하는 것이다.
상기 목적을 달성하기 위한 단말기의 이미지 제공 장치가, 카메라부와; 상기 카메라부를 통해 촬영된 얼굴에서 추출된 눈의 위치변화에 따라, 이미지를 구성하는 복수의 화면 레이어 각각에 대한 위치를 상이하게 배치하여, 상기 이미지를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.
또한 상기 목적을 달성하기 위한 단말기의 이미지 제공 방법은, 카메라부를 통해 촬영된 얼굴에서 눈을 추출하는 과정과; 상기 추출된 눈의 위치변화에 따라, 이미지를 구성하는 복수의 화면 레이어 각각에 대한 위치를 상이하게 배치하여 상기 이미지를 표시하는 과정을 포함하는 것을 특징으로 한다.
본 발명은 단말기의 이미지 제공 장치 및 방법을 제공함으로써, 사용자의 시선위치에 따라 원경은 움직임이 적고 근경은 움직임이 큰 이미지를 제공하여 사용자에게 원근감을 느낄 수 있는 이미지를 제공할 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 단말기의 구성도.
도 2a - 도 2b는 본 발명의 실시 예에 따른 단말기에서 이미지를 제공하는 과정을 도시한 흐름도.
도 3a - 도 3b는 도 2a - 도 2b에서 3차원 공간에서 눈을 매핑하기 위한 구성요소를 설명하기 위한 도면.
도 4는 도 2a - 도 2b에서 눈이 매핑된 3차원 공간을 도시한 도면.
도 5a - 도 5b는 도 4의 3차원 공간에서 좌우이동 및 상하이동 된 눈의 위치를 도시한 도면.
도 6은 도 2a - 도 2b에서 복수의 화면 레이어를 설명하기 위한 도면.
도 7은 도 2a - 도 2b에서 이미지를 구성하는 복수의 화면 레이어 각각이 기준으로 설정된 위치에 배치되는 동작을 설명하기 위한 도면.
도 8은 도 2a - 도 2b에서 사용자의 두 눈의 거리변화에 따라 복수의 화면 레이어 각각의 위치를 변경하여 이미지를 표시하는 동작을 설명하기 위한 도면.
도 9는 본 발명의 실시 예에 따라 단말기에서 이미지를 구성하는 복수의 화면 레이어 이동에 따른 이미지 표시는 도시한 도면.
도 2a - 도 2b는 본 발명의 실시 예에 따른 단말기에서 이미지를 제공하는 과정을 도시한 흐름도.
도 3a - 도 3b는 도 2a - 도 2b에서 3차원 공간에서 눈을 매핑하기 위한 구성요소를 설명하기 위한 도면.
도 4는 도 2a - 도 2b에서 눈이 매핑된 3차원 공간을 도시한 도면.
도 5a - 도 5b는 도 4의 3차원 공간에서 좌우이동 및 상하이동 된 눈의 위치를 도시한 도면.
도 6은 도 2a - 도 2b에서 복수의 화면 레이어를 설명하기 위한 도면.
도 7은 도 2a - 도 2b에서 이미지를 구성하는 복수의 화면 레이어 각각이 기준으로 설정된 위치에 배치되는 동작을 설명하기 위한 도면.
도 8은 도 2a - 도 2b에서 사용자의 두 눈의 거리변화에 따라 복수의 화면 레이어 각각의 위치를 변경하여 이미지를 표시하는 동작을 설명하기 위한 도면.
도 9는 본 발명의 실시 예에 따라 단말기에서 이미지를 구성하는 복수의 화면 레이어 이동에 따른 이미지 표시는 도시한 도면.
이하 본 발명의 바람직한 실시 예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.
본 발명의 실시 예에 따른 단말기는 휴대 단말기와 고정 단말기를 포함한다. 여기서, 휴대 단말기는 휴대가 용이하게 이동 가능한 전자기기로서, 화상전화기, 휴대폰, 스마트 폰(smart phone), IMT-2000(International Mobile Telecommunication 2000) 단말기, WCDMA 단말기, UMTS(Universal Mobile Telecommunication Service) 단말기, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), DMB(Digital Multimedia Broadcasting) 단말기, E-Book, 휴대용 컴퓨터(Notebook, Tablet 등) 또는 디지털 카메라(Digital Camera) 등이 될 수 있다. 그리고 고정 단말기는 데스크탑(desktop) 개인용 컴퓨터 등이 될 수 있다.
도 1은 본 발명의 실시 예에 따른 단말기의 구성을 도시한 도면이다.
상기 도 1을 참조하면, 도 1은 본 발명의 실시 예에 따른 단말기의 구성을 도시한 도면이다.
상기 도 1을 참조하면, RF부(123)는 단말기의 무선 통신 기능을 수행한다. 상기 RF부(123)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기등을 포함한다. 데이터처리부(120)는 상기 송신되는 신호를 부호화 및 변조하는 송신기 및 상기 수신되는 신호를 복조 및 복호화 하는 수신기 등을 구비한다. 즉, 상기 데이터 처리부(120)는 모뎀(MODEM) 및 코덱(CODEC)으로 구성될 수 있다. 여기서 상기 코덱은 패킷데이터 등을 처리하는 데이터 코덱과 음성 등의 오디오 신호를 처리하는 오디오 코덱을 구비한다. 오디오 처리부(125)는 상기 데이터 처리부(120)의 오디오 코덱에서 출력되는 수신 오디오신호를 재생하거나 또는 마이크로부터 발생되는 송신 오디오신호를 상기 데이터 처리부(120)의 오디오 코덱에 전송하는 기능을 수행한다.
키 입력부(127)는 숫자 및 문자 정보를 입력하기 위한 키들 및 각종 기능들을 설정하기 위한 기능 키들을 구비한다.
메모리(130)는 프로그램 메모리, 데이터 메모리들로 구성될 수 있다. 상기 프로그램 메모리는 단말기의 일반적인 동작을 제어하기 위한 프로그램들 및 본 발명의 실시 예에 따라 사용자의 눈의 위치변화에 따라 복수의 화면 레이어 각각에 대한 위치를 상이하게 배치하여 원근감 있는 이미지를 표시하도록 제어하는 프로그램들을 저장할 수 있다. 또한 상기 데이터 메모리는 상기 프로그램들을 수행하는 중에 발생되는 데이터들을 일시 저장하는 기능을 수행한다.
또한 상기 메모리(130)는 본 발명의 실시 예에 따라, 복수의 이미지를 저장하고, 하나의 이미지는 순서적으로 깊이(depth)가 서로 다르게 미리 설정된 복수의 화면 레이어로 구성된다. 상기 복수의 화면 레이어를 겹쳤을 때 하나의 이미지로 표시하기 위해, 전체 또는 일부 화면 레이어는 투명하게 구성될 수 있다.
제어부(110)는 단말기의 전반적인 동작을 제어하는 기능을 수행한다.
상기 제어부(110)는 본 발명의 실시 예에 따라, 카메라부(140)를 통해 촬영된 얼굴에서 추출된 눈의 위치변화에 따라, 하나의 이미지를 구성하는 복수의 화면 레이어 각각에 대한 위치를 상이하게 배치하여, 원근감 있는 상기 이미지를 표시하도록 제어한다.
또한 상기 제어부(110)는 본 발명의 실시 예에 따라, 상기 카메라부(140)를 통해 촬영된 얼굴에서 두 눈을 추출하고, 상기 추출된 두 눈 간의 거리를 계산하여 측정하며, 상기 측정된 두 눈 간의 거리를 기준이 되는 두 눈 간의 (Eo)로 설정한다. 본 발명의 실시 예에서 상기 제어부(110)는 하나의 눈의 중심과 나머지 눈의 중심 간에 거리를 상기 두 눈 간의 거리로 계산한다.
그리고 상기 제어부(110)는 상기 기준이 되는 두 눈 간의 거리(Eo)에 대해 표시부(160)의 화면과 사용자간의 미리 설정된 거리(D0)를 상기 메모리(130)에서 추출한다.
일반적으로 사용자는 표시부(160)의 화면을 볼 수 있는 적절한 거리에서 이미지보기를 시작함으로, 상기 제어부(110)는 상기 표시부(160)의 화면에 이미지를표시하는 이미지 제공모드에서, 상기 카메라부(140)에 의해 촬영된 첫 번째 눈의 위치 즉, 촬영을 통해 추출된 두 눈 간의 거리를 기준이 되는 두 눈 간의 거리(Eo)로 설정할 수 있다. 따라서, 상기 제어부(110)는 첫 번째 촬영을 통해 상기 기준이 되는 두 눈 간의 거리(Eo)가 설정되면, 사용자가 표시부(160)의 화면을 볼 수 있는 적절한 거리라고 예측하여 미리 설정된 거리(D0)를 상기 메모리(130)에서 추출할 수 있다.
또는 상기 제어부(110)는 상기 이미지 제공모드에서, 임의로 설정된 기준이 되는 두 눈 간의 거리(Eo) 및 그에 대응되는 화면과 사용자간의 거리(D0)를 제공할 수 있으며, 이때 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심은 표시부(160) 화면의 중심과 대응된다.
또한 상기 제어부(110)는 본 발명의 실시 예에 따라, 상기 기준이 되는 두 눈 간의 거리(Eo)를 설정한 이후, 상기 카메라부(140)를 통해 촬영된 얼굴에서 두 눈을 추출하고, 상기 추출된 두 눈 간의 거리(En)를 계산하여 측정한다. 그리고 상기 제어부(110)는 상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)를 비교하며, 상기 비교결과 상이하면 상기 거리(En)를 측정한 두 눈을 3차원 공간에서 매핑하기 위한 구성요소를 추출하도로 제어한다.
상기 제어부(110)는 상기 3차원 공간에서 매핑하기 위한 구성요소로써, 상기 측정된 두 눈 간의 거리(En)에 대응되는 화면과 사용자간의 거리(Dn)를 추출하고, 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 상기 측정된 두 눈 간의 거리(En)의 중심(an)까지의 좌우 이동거리(Wn) 및/또는 상하 이동거리(Hn)를 추출한다.
그리고 상기 제어부(110)는 상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)간의 차이 값을 구하고, 상기 차이 값만큼 상기 화면과 사용자간의 거리(D0)에 적용하여, 상기 화면과 사용자간의 거리(Dn)를 추출할 수 있다.
또는 상기 제어부(110)는 상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)간의 차이 값을 구하고, 상기 메모리(130)에서 상기 차이 값에 해당하는 거리 값을 상기 화면과 사용자간의 거리(Dn)로 추출할 수 있다.
또한 상기 제어부(110)는 본 발명의 실시 예에 따라, 상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)간의 비교결과가 동일하면, 복수의 화면 레이어 각각을 기준으로 미리 설정된 위치에 배치하여 하나의 이미지로 상기 표시부(160)의 화면에 표시하도록 제어한다.
또한 상기 제어부(110)는 본 발명의 실시 예에 따라, 3차원 공간에서 매핑하기 위한 구성요소를 통해, 상기 거리(En)를 측정한 두 눈을 상기 3차원 공간에 매핑하고, 상기 3차원 공간의 화면 뒷 쪽에 설정되는 가상의 소실점(V)과 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)까지 이은 선을 중심선(Vm)으로 설정하도록 제어한다.
그리고 상기 제어부(110)는 상기 중심선(Vm)을 기준으로 이동되는 눈의 위치에 따라, 복수의 화면 레이어 각각에 대한 좌우 이동거리 및/또는 상하 이동거리를 하기 <식 1>을 통해 측정하도록 제어한다.
<식 1>
n > 1
Depth V : 가상의 소실점(V)과 표시부의 화면간의 미리 설정된 거리
Deth N : 복수의 화면 레이어 중 N번째 화면 레이어와 표시부의 화면 간의 미리 설정된 거리
Dn: 측정된 두 눈 간의 거리(En)에 대응되는 표시부의 화면과 사용자간의 거리.
Wn: 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 측정된 두 눈 간의 거리(En)까지의 좌측 또는 우측 이동거리
Hn: 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 측정된 두 눈 간의 거리(En)까지의 상측 또는 하측 이동거리
또한 상기 제어부(110)는 본 발명의 실 시예에 따라 상기 중심선(Vm)을 기준으로 이동되는 눈의 위치에 따라, 좌우 이동거리 및/또는 상하 이동거리가 측정된 복수의 화면 레이어 각각을 해당위치에 배치하여 원근감 있는 이미지를 표시하도록 제어한다.
상기 얼굴 추출부(170)는 카메라부(140)를 통해 촬영된 객체에서 사용자의 얼굴을 추출하고, 상기 추출된 얼굴에서 눈을 추출하여 상기 제어부(110)에게 제공한다.
카메라부(140)는 영상 데이터를 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라 센서와, 상기 카메라센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비한다. 여기서 상기 카메라 센서는 CCD 또는 CMOS센서라 가정하며, 상기 신호처리부는 DSP(Digital Signal Processor)로 구현할 수 있다. 또한 상기 카메라 센서 및 신호처리부는 일체형으로 구현할 수 있으며, 또한 분리하여 구현할 수도 있다.
또한 상기 카메라부(140)는 표시부(160)의 화면에 이미지를 제공할 때 자동 또는 수동으로 구동될 수 있다.
상기 영상처리부(150)는 상기 카메라부(140)에서 출력되는 영상신호를 표시부(160)에 표시하기 위한 ISP(Image Signal Processing)를 수행하며, 상기 ISP는 감마교정, 인터폴레이션, 공간적 변화, 이미지 효과, 이미지 스케일, AWB, AE,AF등과 같은 기능을 수행한다. 따라서 상기 영상처리부(150)는 상기 카메라부(140)에서 출력되는 영상신호를 프레임 단위로 처리하며, 상기 프레임 영상데이터를 상기 표시부(160)의 특성 및 크기에 맞춰 출력한다. 또한 상기 영상처리부(150)는 영상코덱을 구비하며, 상기 표시부(160)에 표시되는 프레임 영상데이터를 설정된 방식으로 압축하거나, 압축된 프레임 영상데이터를 원래의 프레임 영상데이터로 복원하는 기능을 수행한다. 여기서 상기 영상코덱은 JPEG 코덱, MPEG4 코덱, Wavelet 코덱 등이 될 수 있다. 상기 영상처리부(150)는 OSD(On Screen Display) 기능을 구비한다고 가정하며, 상기 제어부(110)의 제어하여 표시되는 화면크기에 따라 온 스크린 표시데이터를 출력할 수 있다.
상기 표시부(160)는 상기 영상처리부(150)에서 출력되는 영상신호를 화면으로 표시하며, 상기 제어부(110)에서 출력되는 사용자 데이터를 표시한다. 여기서 상기 표시부(160)는 LCD를 사용할 수 있으며, 이런 경우 상기 표시부(160)은 LCD제어부(LCD controller), 영상데이터를 저장할 수 있는 메모리 및 LCD표시소자 등을 구비할 수 있다. 여기서 상기 LCD를 터치스크린(touch screen) 방식으로 구현하는 경우, 입력부로 동작할 수도 있으며, 이때 상기 표시부(160)에는 상기 키 입력부(127)와 같은 키들을 표시할 수 있다.
또한 상기 표시부(160)는 본 발명의 실시 예에 따라 상기 카메라부(140)를 통해 촬영되는 사용자의 눈의 위치변화에 따라 원근감 있는 이미지를 표시할 수 있다.
상기와 같은 단말기에서 사용자의 눈의 위치변화에 따라 원근감 있는 이미지를 표시하는 동작을 도 2 - 도 8을 통해 상세히 살펴본다.
도 2a - 도 2b는 본 발명의 실시 예에 따른 단말기에서 이미지를 제공하는 과정을 도시한 흐름도이고, 도 3a - 도 3b는 도 2a - 도 2b에서 3차원 공간에서 눈을 매핑하기 위한 구성요소를 설명하기 위한 도면이며, 도 4는 도 2a - 도 2b에서 눈이 매핑된 3차원 공간을 도시한 도면이며, 도 5a - 도 5b는 도 4의 3차원 공간에서 좌우이동 및 상하이동 된 눈의 위치를 도시한 도면이며, 도 6은 도 2a - 도 2b에서 복수의 화면 레이어를 설명하기 위한 도면이며, 도 7은 도 2a - 도 2b에서 이미지를 구성하는 복수의 화면 레이어 각각이 기준으로 설정된 위치에 배치되는 동작을 설명하기 위한 도면이며, 도 8은 도 2a - 도 2b에서 사용자의 두 눈의 거리변화에 따라 복수의 화면 레이어 각각의 위치를 변경하여 원근감 있는 이미지를 표시하는 동작을 설명하기 위한 도면이며, 도 9는 본 발명의 실시 예에 따라 단말기에서 이미지를 구성하는 복수의 화면 레이어 이동에 따른 이미지 표시는 도시한 도면이다.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다.
상기 도 2a - 도 2b를 참조하면, 상기 이미지 제공모드에서 상기 카메라부(140)를 통해 사용자의 얼굴이 촬영되면, 상기 제어부(110)는 201단계에서 이를 감지하고, 상기 촬영된 얼굴을 상기 얼굴 추출부(170)에게 이를 제공한다. 상기 얼굴 추출부(170)는 202단계에서 상기 촬영된 얼굴에서 두 눈을 추출하여 상기 제어부(110)에게 제공하면, 상기 제어부(110)는 상기 추출된 두 눈 간의 거리를 측정하고, 첫 번째로 상기 측정된 상기 두 눈 간의 거리를 기준이 되는 두 눈 간의 거리(Eo)로 설정하는 203단계를 진행한다.
그리고 상기 제어부(110)는 상기 메모리(130)에서 상기 기준이 되는 두 눈 간의 거리(Eo)에 대응되는 상기 표시부(160)의 화면과 사용자간의 거리(Do)를 추출하는 204단계를 진행한다.
일반적으로 사용자는 표시부(160)의 화면을 볼 수 있는 적절한 거리에서 이미지보기를 시작함으로, 상기 제어부(110)는 이미지 제공모드에서 상기 카메라부(140)에 의해 촬영된 첫 번째 눈의 위치 즉, 촬영을 통해 추출된 두 눈 간의 거리를 기준이 되는 두 눈 간의 거리(Eo)로 설정할 수 있다. 따라서, 상기 제어부(110)는 첫 번째 촬영을 통해 기준이 되는 두 눈 간의 거리(Eo)가 설정되면, 사용자가 표시부(160)의 화면을 볼 수 있는 적절한 거리라고 예측하여 설정된 거리(D0)를 상기 메모리(130)에서 추출할 수 있다.
또는 상기 제어부(110)는 이미지 제공모드에서, 임의로 설정된 기준이 되는 두 눈 간의 거리(Eo) 및 그에 대응되는 화면과 사용자간의 거리(D0)를 제공할 수 있으며, 이때 기준이 되는 두 눈 간의 거리(Eo)의 중심은 표시부(160) 화면의 중심에 대응되다.
상기 기준이 되는 두 눈 간의 거리(Eo)를 추출한 이후, 상기 제어부(110)는 상기 표시부(160)의 화면에 순서적으로 깊이가 서로 다르게 미리 설정된 복수의 화면 레이어 각각을 기준으로 설정된 위치에 배치하여 하나의 이미지로써 상기 표시부(160)의 화면에 표시하는 209단계를 진행한다.
상기 209단계에서 표시되는 이미지는, 상기 기준이 되는 두 눈 간의 거리(Eo)에 대응되는 상기 화면과 사용자간의 거리(Do)일 때, 표시될 수 있는 기준이 되는 이미지가 될 수 있다.
그리고, 상기 기준이 되는 두 눈 간의 거리(Eo)를 추출한 이후, 상기 제어부(110)는 상기 카메라부(140)를 통해 사용자의 얼굴이 촬영되면, 상기 제어부(110)는 205단계에서 이를 감지하고, 상기 촬영된 얼굴을 상기 얼굴 추출부(170)에게 이를 제공한다. 상기 얼굴 추출부(170)는 206단계에서 상기 촬영된 얼굴에서 두 눈을 추출하여 상기 제어부(110)에게 제공하면, 상기 제어부(110)는 상기 추출된 두 눈 간의 거리(En)를 계산하여 측정하는 207단계를 진행한다.
그리고, 상기 제어부(110)는 상기 207단계에서 측정된 두 눈 간의 거리(En)와 상기 203단계에서 설정된 기준이 되는 두 눈 간의 거리(Eo)를 비교하고, 상기 비교결과 동일하면, 상기 제어부(110)는 208단계에서 이를 감지하고 상기 209단계를 진행한다.
그러나, 상기 비교결과 동일하지 않으면, 상기 제어부(110)는 상기 208단계에서 이를 감지하고, 상기 207단계에서 측정된 두 눈 간의 거리(En)와 상기 203단계에서 설정된 기준이 되는 두 눈 간의 거리(Eo)를 이용하여, 상기 207단계에서 상두 눈 간의 거리(En)를 측정한 두 눈을 3차원 공간에서 매핑하기 위한 구성요소를 추출하는 210단계를 진행한다.
상기 210단계에서 상기 제어부(110)는 3차원 공간에서 매핑하기 위한 구성요소로써, 상기 측정된 두 눈 간의 거리(En)에 대응되는 화면과 사용자간의 거리(Dn)를 추출하고, 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 상기 측정된 두 눈 간의 거리(En)의 중심(an)까지의 좌우 이동거리(Wn) 및/또는 상하 이동거리(Hn)를 추출한다.
상기 제어부(110)는 상기 측정된 두 눈 간의 거리(En)에 대응되는 화면과 사용자간의 거리(Dn)를 추출하기 위해, 상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)간의 차이 값을 구하고, 상기 차이 값만큼 상기 표시부(160)의 화면과 사용자간의 거리(D0)에 적용하여, 상기 화면과 사용자간의 거리(Dn)를 추출할 수 있다. 또는 상기 제어부(110)는 상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)간의 차이 값을 구하고, 상기 메모리(130)에서 상기 차이 값에 해당하는 거리 값을 상기 화면과 사용자간의 거리(Dn)로 추출할 수 있다.
상기 과정들을 상기 도 3a - 상기 도 3b를 통해 설명하면, 상기 도 3a는 사용자의 두 눈 간의 거리를 기반으로, 화면에서 사용자까지의 거리를 나타내고 있다.
상기 도 3a에서는 사용자의 얼굴위치(A0)에서 촬영된 얼굴에서 추출된 두 눈 간의 거리를 기준이 되는 두 눈 간의 거리(Eo)로 설정하고, 상기 메모리(130)에서 추출된 상기 기준이 되는 두 눈 간의 거리(Eo)에 대응되는 상기 표시부(160)의 화면과 사용자간의 거리(Do)를 나타내고 있다.
상기 기준이 되는 두 눈 간의 거리(Eo)를 설정한 이후, 사용자의 위치(A0)에서 좌측 및 하측으로 이동한 사용자의 얼굴위치(A1)에서 촬영된 얼굴에서 추출된 두 눈 간의 거리(E1)측정 및 상기 두 눈 간의 거리(E1)에 대응되는 상기 표시부(160)의 화면과 사용자간의 거리(D1)측정을 나타내고 있다. 이때 상기 표시부(160)의 화면과 사용자간의 거리(D1)가 상기 표시부(160)의 화면과 사용자간의 거리(Do)보다 작음으로, 사용자의 얼굴위치(A1)는 사용자의 얼굴위치(A0)보다 화면 가까이 위치하고 있음을 알 수 있다.
또는 상기 기준이 되는 두 눈 간의 거리(Eo)를 설정한 이후, 사용자의 위치(A0)에서 우측 및 상측으로 이동한 사용자의 얼굴위치(A2)에서 촬영된 얼굴에서 추출된 두 눈 간의 거리(E2)측정 및 상기 두 눈 간의 거리(E2)에 대응되는 상기 표시부(160)의 화면과 사용자간의 거리(D2)측정을 나타내고 있다. 이때 상기 표시부(160)의 화면과 사용자간의 거리(D2)가 상기 표시부(160)의 화면과 사용자간의 거리(Do)보다 큼 으로, 사용자의 얼굴위치(A1)는 사용자의 얼굴위치(A0)보다 화면 멀리 위치하고 있음을 알 수 있다.
상기 도 3b에서는, 사용자의 얼굴위치(A0)에서 설정된 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 사용자의 얼굴위치(A1)에서 측정된 상기 두 눈 간의 거리(E1)의 중심(a1)까지의 좌측 이동거리(W1) 및 하측 이동거리(H1) 측정을 나타고 있다. 또한 사용자의 얼굴위치(A0)에서 설정된 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 사용자의 얼굴위치(A2)에서 측정된 상기 두 눈 간의 거리(E2)의 중심(a2)까지의 우측 이동거리(W2) 및 상측 이동거리(H2) 측정을 나타내고 있다.
상기 210단계를 통해 3차원 공간에서 매핑하기 위한 구성요소(Dn, Wn, Hn)가 추출되면, 상기 제어부(110)는 상기 3차원 공간에서 매핑하기 위한 구성요소(Dn, Wn, Hn)를 통해 3차원 공간에서 상기 207단계에서 두 눈 간의 거리(En)를 측정한 두 눈을 매핑하는 211단계를 진행한다.
그리고, 상기 제어부(110)는 상기 211단계에서 눈이 매핑된 3차원 공간에서 화면의 뒤쪽에 가상의 소실점(V)을 설정하고, 상기 가상의 소실점(V)과 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)을 이은 선을 중심선(Vm)으로 설정하는 212단계를 진행한다.
상기 211단계- 상기 212단계를 상기 도 4 - 상기 도 5를 통해 설명하면, 상기 도 4는 상기 도 3a - 상기 도 3b를 통해 추출된 3차원 공간에서 매핑하기 위한 구성요소(D1, W1, H1)를 통해, 사용자의 얼굴위치(A1)에서의 두 눈이 3차원 공간에서 매핑되고, 상기 도 3a - 상기 도 3b를 통해 추출된 3차원 공간에서 매핑하기 위한 구성요소(D2, W2, H2)를 통해, 사용자의 얼굴위치(A2)에서의 두 눈이 3차원 공간에서 매핑되는 것을 나타내고 있다.
상기 도 5a는 상기 도 4와 같이 사용자의 얼굴위치(A1, A2)에 따라 사용자의 두 눈이 매핑된 3차원 공간에서 상측에서 바라본 모습으로, 사용자의 얼굴위치(A0)의 눈에서 좌우로 이동(x축 이동)된 사용자의 얼굴위치(A1,A2)의 눈들을 도시하고 있다.
또한 상기 도 5b는 상기 도 4와 같이 사용자의 얼굴위치(A1, A2)에 따라 사용자의 두 눈이 매핑된 3차원 공간에서 측면에서 바라본 모습으로, 사용자의 얼굴위치(A0)의 눈에서 상하로 이동(y축 이동)된 사용자의 얼굴위치(A1,A2)의 눈들을 도시하고 있다.
또한 상기 도 5a - 상기 도 5b에서는 상기 3차원 공간에서 화면의 뒤쪽에 가상의 소실점(V)을 설정하고, 상기 설정된 가상의 소실점(V)과 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)을 이은 선을 중심선(Vm)으로 설정하며, 상기 중심선(Vm)을 기준으로 사용자의 얼굴위치(A1, A2)에 따라 좌우 및/또는 상하 이동된 사용자의 눈을 도시하고 있다.
상기 212단계에서 상기 중심선(Vm)이 설정되면, 상기 제어부(110)는 상기 중심선(Vm)을 기준으로 좌우 이동 및/또는 상하 이동된 눈의 위치에 따라, 순서적으로 깊이가 다르게 미리 설정된 복수의 화면 레이어 각각에 대한 이동거리를 상기 <식 1>을 통해 측정하는 213단계를 진행한다.
상기 <식 1>을 통해 복수의 화면 레이어 각각에 대한 좌우 이동거리 또는/및 상하 이동거리를 측정한 상기 제어부(110)는 상기 복수의 화면 레이어 각각을 측정된 이동거리만큼 이동시켜서 해당위치에 배치함으로써, 상기 복수의 화면 레이어로 구성된 하나의 이미지를 사용자의 시선위치에 따라 원근감 있게 표시하는 214단계를 진행한다.
상기 도 6 - 상기 도 8을 통해 상기 213 단계 - 상기 214단계를 설명하면, 먼저 상기 도 6은 하나의 이미지를 구성하는 복수의 화면 레이어(layerA, Layer B, Layer C)를 나타내고 있다.
또한 상기 도 6과 같은 복수의 화면 레이어는 상기 도 7과 같이, 순서적으로 서로 다른 깊이(depth) 예를 들어, z축 방향으로 Layer A의 깊이는 depth A로 미리 설정되고, Layer B의 깊이는 depth B로 미리 설정되며, Layer C의 깊이는 depth C로 미리 설정된다.
상기 도 7은 상기 209단계에서와 같이 상기 기준이 되는 두 눈 간의 거리(Eo)에 대응되는 상기 표시부(160)의 화면과 사용자간의 거리(Do)일 때 상기 표시부(160)의 화면에 표시될 수 있는 기준이 되는 이미지가 될 수 있다.
상기 도 7과 같이, 사용자의 얼굴위치(A0)에서 상기 기준이 되는 이미지를 표시하는 동안, 사용자의 얼굴이 좌측 및 하측으로 이동함에 따라 사용자의 얼굴위치(A0)에서 사용자의 얼굴위치(A1)로 이동될 때, 상기 <식 1>을 통해 상기 복수의 화면 레이어(layer A, Layer B, Layer C) 각각에 대한 우측 이동거리 및 상측 이동거리가 측정된다.
상측에서 바라보는 상기 3차원 공간을 나타내는 상기 도 8에서는, 상기 <식 1>을 통해 측정된 우측 이동거리(d1 - d3)만큼 상기 복수의 화면 레이어(layer A, Layer B, Layer C) 각각이 해당 우측위치로 이동된다. 그리고 도시되어 있지는 않지만, 상기 <식 1>을 통해 측정된 상측 이동거리 만큼 상기 복수의 화면 레이어(layer A, Layer B, Layer C) 각각이 해당 상측 위치로 이동된다. 따라서 상기 도 8에서와 같이, 위치가 재배치된 복수의 레이어로 구성된 하나의 이미지가 상기 표시부(160)의 화면에 표시될 수 있다.
그리고 상기 도 8과 같이, 사용자 얼굴위치(A0)에서 사용자의 얼굴위치(A1)로 이동될 때, 복수의 화면 레이어의 이동방향은 상대적으로 반대방향으로 이동됨에 따라, 사용자의 시선방향 및 거리에 따라 사용자에게 원근감 있는 이미지를 제공할 수 있다.
상기 도 9는 하나의 이미지를 구성하는 복수의 화면 레이어의 이동에 따라 상기 표시부(160)의 화면에 표시되는 이미지를 도시하고 있다.
상기 도 9의 (a)는 상기 도 7과 같이 사용자의 얼굴위치(A0)에서 기준이 되는 이미지 표시를 도시하고 있으며, 상기 도 9의 (b)는 상기 도 9의 (a)에서 사용자의 얼굴이 우측으로 이동할 때, 복수의 화면 레이어가 좌측으로 이동된 후 표시되는 이미지를 도시하고 있다.
또한 상기 도 9의 (c)는 상기 도 9의 (a)에서 사용자의 얼굴이 좌측으로 이동할 때, 복수의 화면 레이어가 우측으로 이동된 후 표시되는 이미지를 도시하고 있으며, 상기 도 9의 (d)는 상기 도 9의 (a)에서 사용자의 얼굴이 좌측 및 하측으로 이동할 때, 복수의 화면 레이어가 우측 및 상측으로 이동된 후 표시되는 이미지를 도시하고 있다.
본 발명의 단말기의 이미지 제공 장치 및 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, 광학 디스크, 자기 테이프, 플로피 디스크, 하드 디스크, 비휘발성 메모리 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
110: 제어부, 130:메모리, 140:카메라부, 170:얼굴추출부
Claims (22)
- 단말기의 이미지 제공장치에 있어서,
카메라부와,
상기 카메라부를 통해 촬영된 얼굴에서 추출된 눈의 위치변화에 따라, 이미지를 구성하는 복수의 화면 레이어 각각에 대한 위치를 상이하게 배치하여, 상기 이미지를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 제1 항에 있어서,
상기 카메라부에서 촬영된 객체에서 얼굴을 추출하고, 상기 얼굴에서 두 눈을 추출하여 상기 제어부에게 제공하는 얼굴 추출부와,
순서적으로 깊이가 다르게 설정된 복수의 화면 레이어로 구성된 이미지를 저장하는 메모리를 더 포함하는 것을 특징으로 하는 특징으로 하는 단말기의 이미지 제공장치.
- 제1 항에 있어서, 상기 제어부는,
상기 카메라부를 통해 촬영된 얼굴에서 추출된 두 눈 간의 거리를 측정하고, 상기 측정된 두 눈 간의 거리를 기준이 되는 두 눈 간의 거리(Eo)로 설정하며, 상기 기준이 되는 두 눈 간의 거리(Eo)에 대해 미리 설정된 화면과 사용자간의 거리(D0)를 추출하도록 제어하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 제3 항에 있어서, 상기 제어부는,
상기 기준이 되는 두 눈 간의 거리(Eo)를 설정한 이후, 상기 카메라부를 통해 촬영된 얼굴에서 두 눈 간의 거리(En)를 측정하고, 상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)를 비교하며, 상기 비교결과 상이하면 상기 거리(En)를 측정한 두 눈을 3차원 공간에서 매핑하기 위한 구성요소를 추출하도로 제어하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 제4 항에 있어서, 상기 제어부는,
상기 3차원 공간에서 매핑하기 위한 구성요소는, 상기 측정된 두 눈 간의 거리(En)에 대응되는 화면과 사용자간의 거리(Dn), 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 상기 측정된 두 눈 간의 거리(En)의 중심(an)까지의 좌우 이동거리(Wn) 및 상하 이동거리(Hn)를 포함하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 제5 항에 있어서, 상기 제어부는,
상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)간의 차이에 따라, 상기 측정된 두 눈 간의 거리(En)에 대응되는 화면과 사용자간의 거리(Dn)를 추출하도록 제어하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 제4 항에 있어서, 상기 제어부는,
상기 비교결과 동일하면, 복수의 화면 레이어 각각을 기준으로 설정된 위치에 배치하여 이미지를 표시하도록 제어하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 제4 항에 있어서, 상기 제어부는,
3차원 공간에서 매핑하기 위한 구성요소를 통해, 상기 거리(En)를 측정한 두 눈을 상기 3차원 공간에 매핑하도록 제어하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 제8 항에 있어서, 상기 제어부는,
상기 3차원 공감에서 상기 두 눈이 매핑될 때, 상기 3차원 공간의 화면 뒷 쪽에 설정되는 가상의 소실점(V)과 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)까지 이은 선을 중심선(Vm)으로 설정하도록 제어하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 제9 항에 있어서, 상기 제어부는,
상기 중심선(Vm)을 기준으로 이동되는 눈의 위치에 따라, 복수의 화면 레이어 각각에 대한 좌우 이동거리 및 상하 이동거리를 하기 <식 1>을 통해 측정하도록 제어하는 것을 특징으로 하는 단말기의 이미지 제공장치.
<식 1>
n > 1
Depth V : 가상의 소실점(V)과 표시부의 화면간의 미리 설정된 거리
Deth N : 복수의 화면 레이어 중 N번째 화면 레이어와 표시부의 화면 간의 미리 설정된 거리
Dn: 측정된 두 눈 간의 거리(En)에 대응되는 표시부의 화면과 사용자간의 거리.
Wn: 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 측정된 두 눈 간의 거리(En)까지의 좌측 또는 우측 이동거리
Hn: 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 측정된 두 눈 간의 거리(En)까지의 상측 또는 하측 이동거리
- 제10 항에 있어서,
상기 중심선(Vm)을 기준으로 이동되는 눈의 위치에 따라, 좌우 이동거리 및 상하 이동거리가 측정된 복수의 화면 레이어 각각을 해당위치에 배치하여 이미지를 표시하도록 제어하는 것을 특징으로 하는 단말기의 이미지 제공장치.
- 단말기의 이미지 제공방법에 있어서,
카메라부를 통해 촬영된 얼굴에서 눈을 추출하는 과정과,
상기 추출된 눈의 위치변화에 따라, 이미지를 구성하는 복수의 화면 레이어 각각에 대한 위치를 상이하게 배치하여 상기 이미지를 표시하는 과정을 포함하는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제12 항에 있어서, 상기 표시하는 과정은,
기준이 되는 두 눈 간의 거리(Eo)설정 및 상기 기준이 되는 두 눈 간의 거리(Eo)에 대해 미리 설정된 화면과 사용자간의 거리(D0)를 추출하는 과정과,
상기 기준이 되는 두 눈 간의 거리(Eo)와 상기 카메라부를 통해 촬영된 얼굴에서 측정된 두 눈 간의 거리(En)를 비교하는 과정과,
상기 비교결과 상이하면, 상기 거리(En)를 측정한 두 눈을 3차원 공간에서 매핑하기 위한 구성요소를 추출하는 과정과,
상기 3차원 공간에서 매핑하기 위한 구성요소를 통해, 상기 거리(En)를 측정한 두 눈을 상기 3차원 공간에 매핑하는 과정과,
상기 3차원 공간에서 매핑된 두 눈의 위치에 따라, 상기 복수의 화면 레이어 각각에 대한 이동거리를 측정하는 과정과,
상기 이동거리가 측정된 복수의 화면 레이어 각각을 해당위치에 배치하여 상기 이미지를 표시하는 과정을 포함하는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제13 항에 있어서, 상기 거리(D0)를 추출하는 과정은,
상기 카메라부를 통해 촬영된 얼굴에서 추출된 두 눈 간의 거리를 측정하는 과정과,
상기 측정된 두 눈 간의 거리를 기준이 되는 두 눈 간의 거리(Eo)로 설정하는 과정과,
상기 기준이 되는 두 눈 간의 거리(Eo)에 대해 미리 설정된 화면과 사용자간의 거리(D0)를 추출하는 과정을 포함하는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제13 항에 있어서, 상기 구성요소를 추출하는 과정은,
상기 측정된 두 눈 간의 거리(En)에 대응되는 화면과 사용자간의 거리(Dn)를 추출하는 과정과,
상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 상기 측정된 두 눈 간의 거리(En)의 중심(an)까지의 좌우 이동거리(Wn) 및 상하 이동거리(Hn)를 추출하는 과정을 포함하는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제15 항에 있어서, 상기 거리(Dn)를 추출하는 과정은,
상기 측정된 두 눈 간의 거리(En)와 상기 기준이 되는 두 눈 간의 거리(Eo)간의 차이에 따라, 상기 측정된 두 눈 간의 거리(En)에 대응되는 화면과 사용자간의 거리(Dn)를 추출하는 과정을 포함하는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제13 항에 있어서,
상기 비교결과 동일하면, 복수의 화면 레이어 각각을 기준으로 설정된 위치에 배치하여 상기 이미지를 표시하는 과정을 더 포함하는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제13 항에 있어서, 상기 이동거리를 측정하는 과정은,
상기 3차원 공간에서 상기 두 눈이 매핑될 때, 상기 3차원 공간의 화면 뒷 쪽에 가상의 소실점(V)을 설정하는 과정과,
상기 가상의 소실점(V)에서 상기 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)까지 이은 선을 중심선(Vm)으로 설정하는 과정과,
상기 중심선(Vm)을 기준으로 이동되는 눈의 위치에 따라, 복수의 화면 레이어 각각에 대한 좌우 이동거리 및 상하 이동거리를 측정하는 과정을 포함하는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제18 항에 있어서, 상기 측정하는 과정은,
하기 <식 1>을 통해 이루어지는 것을 특징으로 하는 단말기의 이미지 제공방법.
<식 1>
n > 1
Depth V : 가상의 소실점(V)과 표시부의 화면간의 미리 설정된 거리
Deth N : 복수의 화면 레이어 중 N번째 화면 레이어와 표시부의 화면 간의 미리 설정된 거리
Dn: 측정된 두 눈 간의 거리(En)에 대응되는 표시부의 화면과 사용자간의 거리.
Wn: 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 측정된 두 눈 간의 거리(En)까지의 좌측 또는 우측 이동거리
Hn: 기준이 되는 두 눈 간의 거리(Eo)의 중심(a0)에서 측정된 두 눈 간의 거리(En)까지의 상측 또는 하측 이동거리
- 제13 항에 있어서, 상기 이미지를 표시하는 과정은,
좌우 이동거리 및 상하 이동거리가 측정된 복수의 화면 레이어 각각을 해당위치에 배치하여, 상기 이미지를 표시하는 과정을 포함하는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제12 항에 있어서,
상기 이미지를 구성하는 복수의 화면 레이어는 순서적으로 깊이가 다르게 미리 설정되는 것을 특징으로 하는 단말기의 이미지 제공방법.
- 제12 항 내지 제21 항 중 어느 한 항에 따른 방법을 수행하기 위 한 프로그램이 기록된 프로세서가 판독 가능한 기록매체.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120057378A KR20130134103A (ko) | 2012-05-30 | 2012-05-30 | 단말기의 이미지 제공 장치 및 방법 |
US13/894,909 US20130321368A1 (en) | 2012-05-30 | 2013-05-15 | Apparatus and method for providing image in terminal |
EP13169637.9A EP2670149A3 (en) | 2012-05-30 | 2013-05-29 | Apparatus and method for providing image in terminal |
CN2013102098616A CN103458179A (zh) | 2012-05-30 | 2013-05-30 | 用于在终端中提供图像的设备和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120057378A KR20130134103A (ko) | 2012-05-30 | 2012-05-30 | 단말기의 이미지 제공 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130134103A true KR20130134103A (ko) | 2013-12-10 |
Family
ID=48670349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120057378A KR20130134103A (ko) | 2012-05-30 | 2012-05-30 | 단말기의 이미지 제공 장치 및 방법 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130321368A1 (ko) |
EP (1) | EP2670149A3 (ko) |
KR (1) | KR20130134103A (ko) |
CN (1) | CN103458179A (ko) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150032165A (ko) * | 2013-09-17 | 2015-03-25 | 가시오게산키 가부시키가이샤 | 결합하는 동영상의 동영상 선별 장치, 동영상 선별 방법 및 기억 매체 |
KR20150078873A (ko) * | 2013-12-31 | 2015-07-08 | 주식회사 케이티 | 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치 |
KR20160026189A (ko) * | 2014-08-29 | 2016-03-09 | 삼성전자주식회사 | 깊이 영상 촬영 장치 및 깊이 정보 획득 방법 |
KR20170137615A (ko) * | 2016-06-03 | 2017-12-13 | 삼성전자주식회사 | 에피폴라 라인 레이저 포인트 스캐닝을 갖는 3차원 카메라를 위한 더블 리드아웃을 갖는 타임스탬프 에러 정정 |
KR20200079736A (ko) * | 2018-12-26 | 2020-07-06 | (주)신한항업 | 영상 정합을 이용한 3d 실내공간 자동 생성 방법 및 시스템 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140368425A1 (en) * | 2013-06-12 | 2014-12-18 | Wes A. Nagara | Adjusting a transparent display with an image capturing device |
CN105391997B (zh) * | 2015-11-05 | 2017-12-29 | 广东未来科技有限公司 | 立体显示装置的三维视点校正方法 |
GB2587188A (en) * | 2019-09-11 | 2021-03-24 | Charles Keohane John | 3D Display |
CN111683240B (zh) * | 2020-06-08 | 2022-06-10 | 深圳市洲明科技股份有限公司 | 一种立体显示装置及立体显示方法 |
CN114157854A (zh) * | 2022-02-09 | 2022-03-08 | 北京芯海视界三维科技有限公司 | 用于显示器的投放对象调整方法、装置及显示器 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5745197A (en) * | 1995-10-20 | 1998-04-28 | The Aerospace Corporation | Three-dimensional real-image volumetric display system and method |
US5574836A (en) * | 1996-01-22 | 1996-11-12 | Broemmelsiek; Raymond M. | Interactive display apparatus and method with viewer position compensation |
DE69706611T2 (de) * | 1996-06-27 | 2002-07-04 | Toshiba Kawasaki Kk | Stereoskopisches Display-System und -Verfahren |
US6525699B1 (en) * | 1998-05-21 | 2003-02-25 | Nippon Telegraph And Telephone Corporation | Three-dimensional representation method and an apparatus thereof |
US6985290B2 (en) * | 1999-12-08 | 2006-01-10 | Neurok Llc | Visualization of three dimensional images and multi aspect imaging |
US7342721B2 (en) * | 1999-12-08 | 2008-03-11 | Iz3D Llc | Composite dual LCD panel display suitable for three dimensional imaging |
JP2004226835A (ja) * | 2003-01-24 | 2004-08-12 | Pioneer Electronic Corp | 表示装置及び方法 |
JP4468370B2 (ja) * | 2004-09-08 | 2010-05-26 | 日本電信電話株式会社 | 三次元表示方法、装置およびプログラム |
DE102007056528B3 (de) * | 2007-11-16 | 2009-04-02 | Seereal Technologies S.A. | Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren |
US8363090B1 (en) * | 2008-07-17 | 2013-01-29 | Pixar Animation Studios | Combining stereo image layers for display |
TW201035966A (en) * | 2009-03-17 | 2010-10-01 | Chunghwa Picture Tubes Ltd | Method of observing a depth fused display |
JP2011090400A (ja) * | 2009-10-20 | 2011-05-06 | Sony Corp | 画像表示装置および方法、並びにプログラム |
JP2011164781A (ja) * | 2010-02-05 | 2011-08-25 | Sony Computer Entertainment Inc | 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法 |
JP2011182075A (ja) * | 2010-02-26 | 2011-09-15 | Hitachi Consumer Electronics Co Ltd | 画像処理装置 |
JP2011223482A (ja) * | 2010-04-14 | 2011-11-04 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
US8878773B1 (en) * | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
US20110304695A1 (en) * | 2010-06-10 | 2011-12-15 | Lg Electronics Inc. | Mobile terminal and controlling method thereof |
US9285586B2 (en) * | 2011-05-13 | 2016-03-15 | Sony Corporation | Adjusting parallax barriers |
-
2012
- 2012-05-30 KR KR1020120057378A patent/KR20130134103A/ko not_active Application Discontinuation
-
2013
- 2013-05-15 US US13/894,909 patent/US20130321368A1/en not_active Abandoned
- 2013-05-29 EP EP13169637.9A patent/EP2670149A3/en not_active Withdrawn
- 2013-05-30 CN CN2013102098616A patent/CN103458179A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150032165A (ko) * | 2013-09-17 | 2015-03-25 | 가시오게산키 가부시키가이샤 | 결합하는 동영상의 동영상 선별 장치, 동영상 선별 방법 및 기억 매체 |
KR20150078873A (ko) * | 2013-12-31 | 2015-07-08 | 주식회사 케이티 | 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치 |
KR20160026189A (ko) * | 2014-08-29 | 2016-03-09 | 삼성전자주식회사 | 깊이 영상 촬영 장치 및 깊이 정보 획득 방법 |
KR20170137615A (ko) * | 2016-06-03 | 2017-12-13 | 삼성전자주식회사 | 에피폴라 라인 레이저 포인트 스캐닝을 갖는 3차원 카메라를 위한 더블 리드아웃을 갖는 타임스탬프 에러 정정 |
KR20200079736A (ko) * | 2018-12-26 | 2020-07-06 | (주)신한항업 | 영상 정합을 이용한 3d 실내공간 자동 생성 방법 및 시스템 |
Also Published As
Publication number | Publication date |
---|---|
EP2670149A2 (en) | 2013-12-04 |
US20130321368A1 (en) | 2013-12-05 |
CN103458179A (zh) | 2013-12-18 |
EP2670149A3 (en) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20130134103A (ko) | 단말기의 이미지 제공 장치 및 방법 | |
EP3163401B1 (en) | Mobile terminal and control method thereof | |
US10219026B2 (en) | Mobile terminal and method for playback of a multi-view video | |
KR102080746B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
KR101954193B1 (ko) | 어레이 카메라, 전기 기기 및 그 동작방법 | |
KR101638919B1 (ko) | 이동 단말기 및 이동 단말기의 제어방법 | |
EP2846250A2 (en) | Mobile terminal and method for controlling the same | |
US10158807B2 (en) | Mobile terminal and method for controlling the same | |
EP3366036B1 (en) | Mobile terminal and controlling method thereof | |
KR20180092621A (ko) | 단말기 및 그 제어 방법 | |
US20180107360A1 (en) | Mobile terminal and method for controlling the same | |
KR20120057696A (ko) | 전자 기기 및 전자 기기의 제어 방법 | |
US10297060B2 (en) | Glasses-type mobile terminal and method of operating the same | |
KR20180037721A (ko) | 디스플레이 장치 | |
US20180181283A1 (en) | Mobile terminal and method for controlling the same | |
KR20150131837A (ko) | 이동 단말기 및 그것의 제어 방법 | |
US9270982B2 (en) | Stereoscopic image display control device, imaging apparatus including the same, and stereoscopic image display control method | |
EP3297270A1 (en) | Display apparatus | |
EP3115879A1 (en) | Mobile terminal | |
CN110807769A (zh) | 图像显示控制方法及装置 | |
CN111954058B (zh) | 图像处理方法、装置、电子设备以及存储介质 | |
CN113573120A (zh) | 音频的处理方法及电子设备 | |
EP3282686B1 (en) | Mobile terminal and operating method thereof | |
EP3599763A2 (en) | Method and apparatus for controlling image display | |
KR101783608B1 (ko) | 전자 장치 및 입체감 조정 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |