KR20130000231A - 양안의 위치 인식을 통한 3d 영상을 표시하는 모바일 기기 - Google Patents

양안의 위치 인식을 통한 3d 영상을 표시하는 모바일 기기 Download PDF

Info

Publication number
KR20130000231A
KR20130000231A KR1020110060810A KR20110060810A KR20130000231A KR 20130000231 A KR20130000231 A KR 20130000231A KR 1020110060810 A KR1020110060810 A KR 1020110060810A KR 20110060810 A KR20110060810 A KR 20110060810A KR 20130000231 A KR20130000231 A KR 20130000231A
Authority
KR
South Korea
Prior art keywords
distance
user
mobile device
display unit
eyes
Prior art date
Application number
KR1020110060810A
Other languages
English (en)
Other versions
KR101790096B1 (ko
Inventor
이선혁
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110060810A priority Critical patent/KR101790096B1/ko
Publication of KR20130000231A publication Critical patent/KR20130000231A/ko
Application granted granted Critical
Publication of KR101790096B1 publication Critical patent/KR101790096B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Environmental & Geological Engineering (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

3D 영상을 사용자에 최적화하여 디스플레이하는 모바일 기기로서, 상기 모바일 기기와 사용자 사이의 거리를 측정하는 거리 측정부; 상기 사용자의 양안 사이의 간격을 측정하는 양안 간격 인식부; 상기 측정된 거리 또는 상기 측정된 양안의 간격을 이용하여, 상기 모바일 기기의 디스플레이부의 이미지가 표시될 각도를 계산하는 각도 계산부; 및 상기 각도를 제어하기 위한 구동부를 포함하는, 모바일 기기가 개시된다.

Description

양안의 위치 인식을 통한 3D 영상을 표시하는 모바일 기기{MOBILE DEVICE FOR DISPLAYING 3D IMAGES UTILIZING THE DETECTION OF LOCATIONS OF TWO EYES}
본 발명은 입체(3D) 영상을 표시하는 장치에 관한 것으로서, 상세하게는 사용자의 양안의 위치 인식을 통한 3D 영상을 표시하는 모바일 기기에 관한 것이다.
일반적으로 안경 없이 3D 영상을 디스플레이하는 방식으로는 렌티큘라 방식과 배리어 방식이 존재한다. 렌티큘라 방식은 렌티큘라 렌즈 또는 시트 등을 이용하여 좌안과 우안에 각기 다른 영상을 제공하여 시청자가 좌안과 우안으로 인식한 영상을 합성하여 입체 영상을 인지하도록 하는 방식이다. 배리어 방식은 디스플레이부에 배리어를 규칙적으로 구비해놓고 배리어를 통과하여 좌안과 우안에 도달하는 영상이 서로 다르게 하여 시청자가 좌안과 우안으로 인식한 영상을 합성하여 입체 영상을 인지하도록 하는 방식이다.
이러한 두 방식은 디스플레이의 크기에 따라 그 장단점이 극명하게 드러나고 있으며, 제조 비용도 많이 소요되어 주로 안경을 사용하는 3D 영상 표시 방법이 시장을 지배하고 있다. 또한, 앞의 두 방식은 모바일 기기와 같은 소형 디스플레이에는 적합하지 않으므로, 소형 디스플레이에 적합하고 저렴한 비용으로 3D 영상을 표시할 수 있는 장치가 필요하다.
본 발명의 일 실시예는 소형 디스플레이에 적합하고 저렴한 비용으로 3D 영상을 표시할 수 있는 기술을 제공하고자 한다.
본 발명의 일 실시예에 따른 3D 영상을 사용자에 최적화하여 디스플레이하는 모바일 기기로서, 상기 모바일 기기는; 상기 모바일 기기와 사용자 사이의 거리를 측정하는 거리 측정부; 상기 사용자의 양안 사이의 간격을 측정하는 양안 간격 인식부; 상기 측정된 거리 또는 상기 측정된 양안의 간격을 이용하여, 상기 모바일 기기의 디스플레이부의 이미지가 표시될 각도를 계산하는 각도 계산부; 및 상기 각도를 제어하기 위한 구동부를 포함할 수 있다.
디스플레이부는 세로 방향으로 분할된 복수의 영역들로 나누어지며, 각각의 복수의 영역들은 교번하는 방식으로 각각 상기 사용자의 양안에 대응될 수 있다. 또한, 상기 복수의 영역들은 각각 상이한 각도로 회전하여 이미지를 표시할 수 있다. 상기 각도는 복수의 영역 중 하나와 좌안 또는 우안을 잇는 직선;과 좌안 및 우안을 잇는 직선;이 이루는 각일 수 있다.
상기 거리 측정부는 상기 모바일 기기와 상기 사용자의 우안 또는 좌안의 중심까지의 최단 거리를 측정할 수 있고, 또한 상기 디스플레이부의 각각의 영역들;과 상기 사용자의 우안 또는 좌안으로부터 상기 디스플레이부로 투영된 위치까지의 거리를 측정할 수 있다.
상기 계산부는 상기 거리와 상기 거리를 이용하여 상기 각도를 계산할 수 있다.
상기 구동부는 상기 각도를 제어하여, 상기 디스플레이부의 각각의 영역들의 영상이 상기 우안 및 상기 좌안으로 전달되도록 할 수 있다.
본 발명의 일 실시예에 따르면, 시청자(사용자)의 좌안과 우안 각각에 서로 다른 영상을 제공하여, 더 선명하고 정확한 3D 영상을 표시할 수 있다.
도 1은 본 발명의 일 실시예와 관련된 모바일 기기의 블록도이다.
도 2는 본 발명의 일 실시예와 관련된 모바일 기기와 사용자의 관계를 나타낸 것이다.
도 3은 도 2를 다른 시점에서 도시한 것이다.
도 4는 본 발명의 일 실시예와 관련된 모바일 기기의 블록도이다.
도 5는 본 발명의 일 실시예와 관련된 모바일 기기 동작 방법의 순서도이다.
이하, 본 발명과 관련된 모바일 기기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 명세서에서 설명되는 모바일 기기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다.
그러나, 본 명세서에 기재된 실시예에 따른 구성은 모바일 기기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
도 1은 본 발명의 일 실시예와 관련된 모바일 기기의 블록 구성도(block diagram)이다.
상기 모바일 기기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 모바일 기기가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 모바일 기기(100)와 무선 통신 시스템 사이 또는 모바일 기기(100)와 모바일 기기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 모바일 기기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치정보 모듈(115)은 모바일 기기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
또한 본 발명에서는 마이크가 음향센서로서 역할을 한다. 즉, 단말기에 대한 사용자의 동작을 감지하기 위해, 사용자가 단말기에 히팅을 하면, 이에 대한 진동을 상기 마이크(122)를 통해 감지할 수 있다. 이 마이크 대신에 쇼크센서(shock sensor)가 이용될 수 있다. 이 마이크 및 쇼크 센서는 센싱부를 대신하여, 사용자의 단말기에 대한 동작을 감지할 수 있게 된다.
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(140)는 모바일 기기(100)의 개폐 상태, 모바일 기기(100)의 위치, 사용자 접촉 유무, 모바일 기기의 방위, 모바일 기기의 가속/감속 등과 같이 모바일 기기(100)의 현 상태를 감지하여 모바일 기기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 모바일 기기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141), 터치센서(142) 및 기울기 센서(143)를 포함할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 및 햅틱 모듈(154) 등이 포함될 수 있다.
디스플레이부(151)는 모바일 기기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 모바일 기기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 모바일 기기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.
모바일 기기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들어, 모바일 기기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치센서(142)는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치센서(142)는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치센서(142)는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치센서(142)에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 모바일 기기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 모바일 기기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(153)는 모바일 기기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 모바일 기기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음향 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 모바일 기기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 모바일 기기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 모바일 기기(100) 내부의 각 구성 요소에 전달하거나, 모바일 기기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
식별 모듈은 모바일 기기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.
상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(controller, 180)는 통상적으로 모바일 기기 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
도 2는 본 발명의 일 실시예에 따른 모바일 기기(100)의 디스플레이부(151)와 그것을 응시하고 있는 사용자를 나타낸다. 도 2의 모바일 기기(100)는 예컨대 이동 통신 단말, PDA 단말, 음악-동영상 재생기 등을 포함할 수 있고, 이에 한정되는 것은 아니고 디스플레이부를 구비한 모바일 기기를 포함할 수 있음을 분명히 해야한다. 사용자는 모바일 기기(100)의 디스플레이부(151)를 응시하고 있다. 본 발명의 일 실시예에 따른 모바일 기기(100)의 디스플레이부(151)는 앞서 설명한 일반적인 디스플레이 유닛을 포함할 수 있다.
본 발명의 일 실시예에 따른 디스플레이부(151)는 그것의 길이 방향에 수직으로 분할된 영역(151-1, ..., 151-n)을 포함할 수 있다. 설명의 간략함을 위해 여기서 n은 짝수로 가정하나, 홀수 일수도 있다. 다시 말하면, 디스플레이부(151)를 복수 개의 열(column)들로 분할한 것이다. 이 분할은 물리적인 분할일 수 있고, 논리적인 분할일 수도 있다. 도 2에서는 모바일 기기(100)가 디스플레이부(151)의 길이 방향으로 누워있는 것으로 도시했으나, 이와 반대 방향으로, 즉 이와 수직방향으로 놓여있을 수 있고, 이러한 경우에는 디스플레이부(151)의 길이 방향으로 분할된 복수의 영역들로 구성될 수 있다.
분할된 영역(151-1, ..., 151-n)은 도시된 것처럼, 각각 교번하여 사용자의 좌안과 우안에 대응하는 영역일 수 있다. 교번한다는 것은 분할된 영역이 차례대로 좌안과 우안에 제공될 수 있음을 의미한다. 분할된 영역(151-1, 151-3, ..., 151-(n-1))은 좌안에 제공될 영상이고, 분할된 영역(151-2, 151-4, ..., 151-n)은 우안에 제공될 영상일 수 있다. 물론, 이 반대일 수도 있다. 이러한 디스플레이부(151)는 3D 카메라(좌안용 및 우안용 2개의 카메라)를 이용하여 촬영한 3D 영상을 순서대로 번갈아가면서 각각의 분할된 영역에 표시할 수 있다. 즉, 좌안용 카메라로 촬영한 영상을 사용자의 좌안으로, 우안용 카메라로 촬영한 영상을 우안으로 제공하도록 한다.
도 2는 설명의 명확함을 위해 모바일 기기(100)와 사용자를 실제 축적으로 도시하지 않았다. 사용자는 모바일 기기(100)로부터 Y만큼 떨어진 거리에서 모바일 기기(100)의 디스플레이부(151)를 응시하고 있다. 모바일 기기(100)는 사용자가 들고 있을 것이므로, 거리(Y)는 사용자의 팔의 길이 보다 작은 경우가 일반적일 것이다. 한편, 모바일 기기(100)를 어딘 가에 놓고 응시하고 있는 경우라도 모바일 기기(100)의 디스플레이부(151)의 크기로 인한 가시 거리로 인해 거리(Y)는 약 1.5m 이내일 것이다.
거리(Y)는 사용자와 모바일 기기(100) 사이의 최단 거리일 수 있고, 다시 말하면 이는 모바일 기기(100)와 사용자 사이의 수직 거리를 의미할 수 있다. 한편, 사용자의 한쪽 눈이 응시하고 있는 영역(도 2의 영역(151-1))과 사용자는 일정한 각도(θ)만큼 기울어져있다. 디스플레이부(151)의 각각의 영역(151-1 내지 151-n)과 사용자의 좌안 또는 우안 중 하나 사이의 각도(θ1 내지 θn)는 그 값이 다 다를 것이다. 물론, 사용자가 모바일 기기(100)의 디스플레이부(151)의 실질적인 중심을 마주보고 있다면, 각도(θ1 내지 θn/2) 와 각도(θn/2+1 내지 θn)는 서로 일치하는 값이 있을 수 있다. 여기서 설명의 간단함을 위해, 하나의 눈과 n개의 영역(151-1 내지 151-n)이 대응하는 n개의 각도를 구하는 것을 설명하고, 나머지 하나의 눈과 n개의 영역이 대응하는 각도를 구하는 것은 동일하므로 설명을 생략하도록 한다.
사용자의 좌안과 우안에 각각 대응하는 디스플레이부(151)의 분할된 영역의 영상을 제공하기 위해서는 각도(θ1 내지 θn)를 계산하여야 한다. 이 각도를 계산하여, 디스플레이부(151)에서 어떠한 방식으로든 각도만큼 회전된 영상을 제공하면, 좌안과 우안에 의도된 영상이 입력될 수 있다. 이 각도(θ1 내지 θn)를 계산하기 위해서 도 2에 도시된 거리(X)를 계산할 필요가 있을 수 있다. 또한, 사용자의 양안의 간격(E)으로 인해, 거리(X)와 각도(θ1 내지 θn)는 좌안과 우안에 대해 상이할 수 있다.
사용자는 모바일 기기(100)의 디스플레이부(151)를 응시하고 있다고 가정하므로, 사용자의 양안과 디스플레이부(151)와의 최단 거리를 이루는 직선을 가정하고, 이 직선과 디스플레이부(151)의 표면이 만나는 지점(이하, "시선 위치"라 하고, 좌안과 우안의 "시선 위치"는 서로 다를 수 있음)과, 이 시선 위치가 속하는 디스플레이부(151)의 복수의 영역(151-1 내지 151-n) 중 하나의 영역을 정의할 수 있다. 따라서, 거리(X)는 분할된 영역(151-1 내지 151-n)과 상기 사이의 최단 수평거리로 정의할 수 있다.
따라서, 도 2에서 도시된 사용자와 모바일 기기 사이의 삼각형 형상은 직각 삼각형이므로, 거리(X, Y)를 구했다면 이 두 값을 이용하여 각도(θ1 내지 θn)를 삼각함수를 이용하여 계산할 수 있다. 도 2에서 참고적으로, 거리(X)를 계산하기 위한 직선이 영역(151-1)의 맨 왼쪽 끝까지 연장되어 있는 것으로 도시되었으나, 반드시 한쪽 가장 자리까지의 거리가 아니라, 상기 영역의 가운데 지점까지 연장될 수 있다.
도 3은 본 발명의 일 실시예를 설명하기 위해 도 2를 간단하게 도시한 도이다. 도 3은 도 2의 상황을 위쪽에서 내려 바라보고 있다고 가정하고 도시한 것이다. 모바일 기기의 경우, 사용자와 모바일 기기 사이의 거리(Y)가 상대적으로 가깝고(앞서 설명한 것처럼, 약 1.5m 이내일 가능성이 매우 높음), 이로 인해 양안 사이의 간격(E)도 무시할 수 없는 길이가 될 수 있다. 따라서, 사용자 양안의 간격(E), 거리(X), 거리(Y) 및 각도(θ)를 구하는 방법을 설명하도록 한다. 도 3에서, 거리(X)를 측정하기 위한 직선이 영역(151) 각각의 임의의 지점까지 연장된 것으로 도시되었으나, 본 발명은 이에 한정되는 것이 아님을 밝혀둔다. 참고로, 거리(X) 측정을 위한 직선은 각 영역의 중심까지 연장되는 것이 바람직할 수 있다.
도 3에서 각도(θ1)는 사용자의 좌안과 복수의 영역 중 하나 사이의 각도이고, 거리(X1)는 좌안의 "시선 위치"와 디스플레이부(151)의 복수의 영역 중 하나 까지의 거리이며, 거리(Y1)는 사용자의 좌안과 좌안의 "시선 위치"까지의 직선 거리이다. 각도(θ2), 거리(X2) 및 거리(Y2)는 사용자의 우안과 관련된 상기의 각도(θ1), 거리(X1) 및 거리(Y1)와 대응하는 값이다. 도 3에서 좌안과 우안 각각에 해당하는 각도와 거리를 도시하고 위에서 정의했지만, 아래에서는 간단함을 위해 단순히 거리(X), 거리(Y) 및 각도(θ)를 구한다고 기재하고, 이는 사용자의 좌안 및 우안에 대한 값을 모두 측정 또는 계산하는 것에 해당한다.
본 발명의 일 실시예에 따라, 사용자 양안의 간격(E), 거리(X), 거리(Y) 및 각도(θ)를 구할 수 있는 방법 중 하나는 모바일 기기(100)에 내장된 카메라의 특성을 이용하는 것이다. 카메라 렌즈의 초점 거리, 줌 정보, 및 렌즈 크기(CCD 또는 CMOS 크기) 등을 이용하면, 촬영된 이미지 상의 피사체의 크기를 추정할 수 있고, 따라서 양안의 간격(E), 거리(X) 및 거리(Y)를 구할 수 있다. 그러나, 이 방법은 오차가 다소 클 것이고, 더욱 정확한 값을 위해서는 위의 E, X 및 Y에 대한 실제 값을 사용자가 입력하는 방법이 있을 수 있다. 실제 값을 이용하면, 정확한 결과를 보장할 수 있겠지만 사용자가 일일이 입력해야 하는 번거로움이 있다. 따라서, 번거로움을 해소할 수 있는, 대체가능한 적절한 방법을 여기서 제공하고자 한다.
사용자의 양안의 간격(E)을 계산하는 방법에 대해서 설명한다. 앞서 설명한 것처럼, 모바일 기기(100)는 전면(디스플레이부 표시 방향으로)에 근접 센서(141)를 구비하고 있다. 먼저, 모바일 기기(100)의 메모리(160), 멀티미디어 모듈(181) 또는 기타 연산이 가능한 유닛에는 물체의 실제 크기를 저장해놓은 데이터가 저장되어 있을 수 있다. 예컨대, 모바일 기기의 카메라(121)와 근접 센서(141)를 이용하여, 근접 센서(141)가 동작하는 최대 거리(Lmax)에 놓인 100원짜리 동전의 정면을 촬영할 수 있다. 100원짜리 동전의 직경 또는 다른 값을 저장해놓고, 위에서 촬영된 사진(이미지) 상의 100원짜리 동전의 크기와의 비율(R)을 계산할 수 있다. 이 값은 이후에 각각의 사용자의 양안의 간격(E)을 계산하기 위해 사용될 값일 수 있다.
사용자는 모바일 기기의 디스플레이부(151) 측으로 눈 부위를 중심으로 근접시키고, 이렇게 하면 근접 센서(141)는 사용자의 근접을 인식하여 그 위치 및 그 시점에서 카메라(121)를 동작시켜 촬영을 하게 된다. 촬영된 이미지에서 실제 양안 사이의 간격의 길이(e)와 위에서 계산한 비율(R)을 이용하여, 실제 사용자의 양안의 간격(E)을 계산할 수 있다. 예컨대, E = α×(e×R) + β 일 수 있다. 여기서, α 및 β는 오차를 보정하기 위한 상수일 수 있다. 따라서, α 및 β는 적용 환경에 따라 생략될 수도 있다.
또한, 사용자의 양안의 간격(E)을 계산하는 방법으로는, 크기를 알고 있는 사물과 함께 사용자의 얼굴을 촬영하는 방법이 있다. 앞서 예시한 100원짜리 동전, 또는 만약 그 크기가 작아 불편하다면, 각종 음료수 병을 이용할 수 있다. 사용될 기준이 될 사물은 표준화된 크기를 갖는 물체이어야 한다. 이러한 사물과 함께 사용자의 얼굴을 촬영하여, 촬영된 이미지 상의 사용자의 얼굴과 사물의 비율을 계산하여, 실제의 사용자의 양안의 간격(E)을 계산할 수 있다.
다음으로, 거리(X)를 계산하는 방법을 제안한다. 거리(X)는 앞서 설명한 것처럼, 사용자의 양안의 중심을 연결하는 직선이 모바일 기기의 디스플레이부(151)의 평면과 평행을 이루는 경우, 사용자의 좌안 및 우안의 중심으로부터 각각 디스플레이부(151)의 표면을 포함하는 평면으로 직선을 연장한 경우, 이 직선이 상기 평면과 만나는 점(이하, "시선 위치"라고 함)이 속하는 분할된 영역(151-1 내지 151-n)의 중심;과 표시될 영상이 속하는 분할된 영역(151-1 내지 151-n)까지의 거리이다. 즉, 사용자의 양안이 디스플레이부(151)로 수직 방향으로 투영된 디스플레이부(151) 상의 위치와, 표시될 영상의 분할된 영역(151-1 내지 151-n)까지의 거리이다.
거리(X)는 보통 사용자가 양안의 중심을 디스플레이부(151)의 중심에 대응하도록 놓고 응시하게 때문에, 별도로 계산하지 않아도 디스플레이부(151)의 크기에 종속되는 값일 수 있다. 따라서, 앞서 계산한 사용자의 양안의 간격(E)을 이용하여 디스플레이부(151)에 투영된 사용자의 양안의 위치를 계산할 수 있다. 즉, 디스플레이부(151)의 중심으로부터 사용자의 양안의 간격(E)으로 떨어진 두 개의 점을 찾으면, 이들이 디스플레이부(151) 상의 두 개의 "시선 위치"일 수 있다. 두 개의 "시선 위치"로부터 디스플레이부(151)의 분할된 영역(151-1 내지 151-n) 각각 까지의 거리가 거리(X)가 될 것이다.
또한, 앞서 획득한 근접 센서의 최대 거리(Lmax)에서의 사용자의 양안을 촬영한 이미지 또는 사용자가 디스플레이부(151)를 응시(3D 영상을 시청)하고 있는 상황에서 사용자의 양안을 촬영한 이미지를 이용하여, 거리(X)를 계산하는 방법을 고려할 수 있다. 모바일 기기의 카메라(121)의 위치에 따라, 사용자를 촬영한 이미지가 다를 수 있지만, 사용자가 디스플레이부(151)를 정면으로 디스플레이부(151)의 중심을 바라보고 있을 때 촬영한 이미지에는 사용자 얼굴의 중심이 촬영된다고 가정한다. 카메라(121)의 위치에 따른 이미지 상의 사용자 얼굴의 오차는 본 발명에서는 다루지 않도록 한다.
카메라(121)(또는 렌즈) 정보와 이미지 정보를 이용하여 카메라(121) 렌즈의 화각과 사용자의 얼굴(즉, 피사체)까지의 거리 값을 얻을 수 있다. 앞의 두 값과, 촬영된 이미지의 크기를 이용하여 "시선 위치"를 계산할 수 있다. 이 "시선 위치"는 사용자와 모바일 기기(100)와의 위치나, 사용자의 얼굴 형상에 따라 디스플레이부(151) 내에 있을 수도 있고, 디스플레이부(151)의 외부에 존재할 수도 있다. 계산된 "시선 위치"를 이용하여 거리(X)를 계산할 수 있다.
다음으로, 거리(Y)를 계산하는 방법을 제안하도록 한다. 거리(Y)는 모바일 기기(100)의 디스플레이부(151)와 사용자의 양안까지의 수직 거리를 지칭한다. 다시 말하면, 거리(Y)는 디스플레이부(151)의 표면을 포함하는 평면과 사용자의 좌안 및 우안 까지의 최단 거리일 수 있다.
거리(Y)는 앞서 언급한 사용자의 얼굴(즉, 피사체)까지의 거리일 수 있다. 앞서 언급한 것처럼, 카메라(또는 렌즈) 정보, 사용자가 디스플레이부(151)를 응시(3D 영상을 시청)하고 있는 상황에서 사용자의 양안을 촬영한 이미지, 이 이미지의 구체적인 정보를 이용하여 사용자의 얼굴(즉, 피사체)까지의 거리 값을 얻을 수 있다.
또한, 초음파 센서를 이용하는 방법이 있을 수 있다. 초음파 센서는 초음파의 이동 속도와 초음파가 물체로부터 반사되어 되돌아올 때까지 소요된 시간을 측정하여, 물체까지의 거리를 계산할 수 있다. 이를 통해, 사용자가 디스플레이부(151)를 응시(3D 영상을 시청)하고 있는 상황에서, 초음파 센서는 사용자까지의 거리, 즉 거리(Y)를 계산할 수 있다. 다만, 이 방법은 모바일 기기(100)에 초음파 센서(미도시)를 구비해야 하는 제약사항이 존재한다.
또한, GPS 정보를 이용하는 방법이 있을 수 있다. 최근에 출시되고 있는 모바일 기기(100)는 일반적으로 GPS 수신기를 구비하고 있다. 따라서 이 방법은 별도의 추가적인 구성 요소가 필요하지않는 장점이 있다. 모바일 기기(100)를 사용자의 얼굴에 밀착 시킨 상태, 예컨대 통화하는 상태에서의 GPS 정보를 획득할 수 있다. 그리고나서, 사용자가 3D 영상을 시청하기 위해 디스플레이부(151)를 응시하고 있는 경우의 GPS 정보를 획득할 수 있다. 이 획득된 두 개의 GPS 정보를 이용하여, 거리(Y)를 계산할 수 있다.
또한, 앞서 획득한 근접 센서(141)의 최대 거리(Lmax)에서의 100원짜리 동전을 촬영한 이미지를 이용하여 거리(Y)를 계산할 수 있다. 상기 최대 거리(Lmax)는 근접 센서(141)의 규격에 따라 결정되어 있으므로, 최대 거리는 이미 알고 있는 상태이다. 사용자가 3D 영상을 시청하기 위해 디스플레이부를 응시하고 있는 위치에서, 100원짜리 동전을 사용자의 양안 근방에 놓고 촬영을 할 수 있다. 앞서 언급한 것처럼, 100원짜리 동전은 그 크기를 알고 있는 사물 또는 물체의 일 예이고, 다른 기준이 되는 사물 또는 물체가 사용될 수 있다. 최대 거리(Lmax)와 최대 거리에서 촬영된 이미지 상의 100원짜리 동전의 직경의 비율과, 사용자의 양안 근처에서 촬영한 이미지 상의 100원짜리 동전의 직경을 이용하여, 거리(Y)를 계산할 수 있다.
디스플레이부(151)의 각각의 영역(151-1 내지 151-n)과 사용자의 눈 사이의 각도(θ1 내지 θn)를 계산하는 방법을 제안한다. 각도(θ1 내지 θn)는 위에서 계산한 거리(X) 및 거리(Y)를 이용하여 삼각함수를 통해 계산할 수 있다. 도 3에서는 간단함을 위해 θ1 및 θ2만 도시하였고, 이 두 개의 각은 서로 연속되지 않으나, 실제로는 n개의 영역(151-1 내지 151-n)과 사용자의 각각의 눈과 대응하는 2n개의 각도가 존재함을 인식해야 한다.
한편, 모델링 기법을 이용한 각도(θ1 내지 θn) 계산 방법도 고려할 수 있다. 사람의 인체 구조상 양안의 간격(E)은 대부분 비슷할 것이다. 따라서, 미리 정해진 양안의 간격(E)과 각도(θ1 내지 θn) 사이의 매핑 테이블을 생성할 수 있다. 양안의 간격(E)은 복수로 구비하고, 이러한 양안의 간격(E)과 각도(θ1 내지 θn) 사이의 매핑 테이블을 거리(Y)에 따라 생성할 수 있다. 따라서, 매핑 테이블들을 메모리(160)에 저장해 놓고, 앞서 언급한 거리(Y)를 계산하는 방법 중 하나를 이용하여 거리(Y)를 측정하여 적절한 각도(θ1 내지 θn)를 탐색할 수 있다. 또한, 양안의 간격(E), 거리(Y)에 따른 각도(θ1 내지 θn)를 정의해놓은 매핑 테이블을 구성하여 저장해놓을 수도 있다.
또한, 앞에서 설명한 거리(X, Y) 및 각도(θ1 내지 θn)를 계산하는 방법은, 좌안 또는 우안 중 하나에 대한 값만 구하고, 양안의 간격(E)을 이용하여 반대쪽의 값들을 구하는 방법도 고려할 수 있다. 사용자의 "시선 위치"가 디스플레이부의 중앙에 대응하여 위치한 경우, 각도(θ1 내지 θn) 또한 좌안과 우안이 서로 대응될 것이다. 한편, 사용자의 "시선 위치"가 디스플레이부의 중앙에 대응하여 위치하지 않은 경우라도, 좌안 또는 우안 중 어느 하나에 대한 값들을 계산하고 나면 반대쪽의 값들을 계산할 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자의 양안의 위치 인식을 통한 3D 영상을 표시하는 모바일 기기(400)를 도시한다. 모바일 기기(400)는 3D 영상을 사용자에 최적화하여 디스플레이하는 모바일 기기로서, 상기 모바일 기기와 사용자까지의 거리(Y)를 측정하는 거리 측정부(401); 상기 사용자의 양안 사이의 간격(E)을 측정하는 양안 간격 인식부(402); 상기 측정된 거리(Y) 또는 상기 측정된 양안의 간격(E)을 이용하여, 상기 모바일 기기의 디스플레이부의 이미지가 표시될 각도를 계산하는 각도 계산부(403); 및 상기 각도를 제어하기 위한 구동부(404)를 포함할 수 있다.
거리 측정부(401)는 모바일 기기와 사용자 사이의 거리(Y)를 측정할 수 있다. 거리(Y)는 모바일 기기와 사용자 사이의 수직거리 또는 최단 거리일 수 있다. 거리(Y)를 계산 또는 측정하는 방법에는 앞서 언급한 여러 방법을 이용할 수 있으나, 이들에 한정되는 것은 아니다. 거리(Y)는 사용자의 팔 길이 보다는 짧을 것이다. 또한, 앞서 언급한 모델링 기법을 이용한다면, 거리(Y)를 직접 계산할 뿐만 아니라, 양안의 간격(E), 거리(Y)에 따른 각도(θ1 내지 θn)를 정의해놓은 매핑 테이블을 구성하고나서, 이 매핑 테이블에서 거리(Y) 값을 선택 또는 결정하는 것도 거리(Y)를 계산 또는 측정하는 것에 포함될 수 있다.
양안 간격 인식부(402)는 사용자의 양안 사이의 간격(E)을 계산 또는 측정할 수 있다. 양안 사이의 간격(E)은 사용자의 좌안의 중심과 우안 중심 사이의 거리일 수 있다. 양안 사이의 간격(E)을 계산 또는 측정하는 방법에는 앞서 언급한 여러 방법을 이용할 수 있으나, 이들에 한정되는 것은 아니다. 또한, 앞서 언급한 모델링 기법을 이용한다면, 양안 사이의 간격(E)을 직접 계산 또는 측정할 뿐만 아니라, 양안의 간격(E), 거리(Y)에 따른 각도(θ1 내지 θn)를 정의해놓은 매핑 테이블을 구성하고나서, 이 매핑 테이블에서 양안 사이의 간격(E) 값을 선택 또는 결정하는 것도 양안 사이의 간격(E)을 계산 또는 측정하는 것에 포함될 수 있다.
각도 계산부(403)는 모바일 기기의 디스플레이부의 이미지가 표시될 각도(θ1 내지 θn)를 계산할 수 있다. 각도(θ1 내지 θn)를 계산 또는 측정하는 방법에는 앞서 언급한 여러 방법을 이용할 수 있으나, 이들에 한정되는 것은 아니다.
또한, 앞서 언급한 모델링 기법을 이용한다면, 각도(θ1 내지 θn)를 직접 계산할 뿐만 아니라, 양안의 간격(E), 거리(Y)에 따른 각도(θ1 내지 θn)를 정의해놓은 매핑 테이블을 구성하고나서, 이 매핑 테이블에서 각도(θ1 내지 θn) 값을 선택 또는 결정하는 것도 양안 사이의 간격(E)을 계산 또는 측정하는 것에 포함될 수 있다.
모바일 기기의 디스플레이부는 세로 방향으로 분할된 복수의 영역들로 나누어지며, 각각의 복수의 영역들은 교번하는 방식으로 각각 상기 사용자의 양안에 대응될 수 있다. 즉, 도 2 및 도 3에 도시된 것처럼, 디스플레이부(151)는 복수 개의 영역(151-1 내지 151-n)으로 분할되며, 각각의 영역들은 좌안 및 우안에 교번하는 방식으로 대응될 수 있다.
상기 각도(θ1 내지 θn)는 디스플레이부의 복수의 영역 중 하나와 좌안 또는 우안을 잇는 직선;과 좌안 및 우안을 잇는 직선이 이루는 각이다. 즉, 디스플레이부로부터 나오는 영상이 회전될 각을 의미할 수 있다.
구동부(404)는 계산된 각도만큼 디스플레이부를 제어 또는 회전시킬 수 있다. 계산된 각도(θ1 내지 θn)는 사용자의 좌안 또는 우안으로 3D 영상을 제공하기 위한 것이고, 디스플레이부의 분할된 영역을 각각 제어하여 계산된 각도만큼 회전시킬 수 있다. 계산된 각도의 범위는 대략 -90° 내지 +90° 사이일 수 있다.
구동부(404)는 디스플레이부 자체를 회전시킬 수 있다. 다시 말하면, 디스플레이부가 도 2에서 도시된 것처럼 복수의 영역(151-1 내지 151-n)으로 분할되어 있고, 이 각각의 영역들은 각각이 임의의 각도로 회전이 가능한 부분일 수 있다. 따라서, 이러한 경우에 구동부(404)는 각각의 영역을 계산된 각도(θ1 내지 θn)로 회전시킬 수 있다.
한편, 구동부(404)는 디스플레이부로부터 비롯되는 광선의 각도를 변경시킬 수 있다. 일반적인 디스플레이부가 표면으로부터 90°의 각으로 방출되나, 본 발명의 일 실시예에 따른 디스플레이부의 구동부(404)는 이 각도를 변경시켜, 사용자의 좌안 및 우안으로 3D 영상의 좌안용 영상 및 우안용 영상을 제공할 수 있다.
또한, 디스플레이부의 복수의 영역들은 각각 상이한 각도로 회전하여 이미지를 표시할 수 있다. 복수의 영역들은 구동부에 의해 그 각도가 제어되며, 사용자의 좌안 또는 우안의 위치로 각각 적절하게 회전하여 3D 영상의 좌안용 영상 및 우안용 영상이 각각 좌안 및 우안에 입사되도록 할 수 있다.
거리 측정부(401)는 거리(Y)를 측정함에 있어서, 모바일 기기와 상기 사용자의 우안 또는 좌안의 중심까지의 최단 거리를 측정할 수 있다. 또한, 거리 측정부(401)는 디스플레이부의 복수의 영역들 각각;과 상기 디스플레이부로 투영된 상기 사용자의 우안 또는 좌안까지의 거리(X)를 측정할 수 있다. 거리(X, Y)에 대한 설명은 앞에서 상세히 언급했으므로, 여기서는 생략하도록 한다.
또한, 계산부(403)는 상기 거리(X), 상기 거리(Y) 및 상기 사용자의 양안 사이의 간격(E)을 이용하여 각도(θ1 내지 θn)를 계산할 수 있다.
도 5는 본 발명의 일 실시예에 따른 사용자의 양안의 위치 인식을 통한 3D 영상을 표시하는 방법을 도시한다. 이 방법은 모바일 기기와 사용자 사이의 거리를 계산 또는 측정하는 단계(S510); 사용자의 양안 사이의 간격을 계산 또는 측정하는 단계(S520); 위의 단계들에서 계산 또는 측정된 값들 중 적어도 하나를 이용하여, 디스플레이부로부터 표시될 이미지의 표시 각도를 계산하는 단계(S540); 및 상기 계산된 각도를 제어하여 디스플레이하는 단계(S550)를 포함할 수 있다.
또한, 상기 방법은 디스플레이부의 분할된 복수의 영역들과 디스플레이부로 투영된 사용자의 양안의 상기 디스플레이부 상의 대응 위치까지의 거리를 계산 또는 측정하는 단계(S530)를 더 포함할 수 있다. 도 4에서 도시된 점선 박스는 선택사항임을 나타내기 위함이다. 도 5에 도시된 방법은 도 1 내지 도 4에서 설명한 모바일 기기를 동작시키기 위한 방법으로서, 특별히 언급하지 않은 부분은 앞선 설명들로서 대체할 수 있다.
본 발명의 실시예들을 설명하기 위해 사용한 단어 입사, 방출 및 제공 등은 디스플레이부에 표시된 영상이 사용자의 양안으로 입력 혹은 양안에서 인식됨을 나타내기 위해 사용한 것이다. 따라서, 이러한 용어의 사전적인 의미에 본 발명은 제한되지 않음을 분명히 한다.
또한, 본 발명의 일실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 이동통신 단말기 및 이에 적용되는 제어방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (8)

  1. 3D 영상을 사용자에 최적화하여 디스플레이하는 모바일 기기로서,
    상기 모바일 기기와 사용자 사이의 거리를 측정하는 거리 측정부;
    상기 사용자의 양안 사이의 간격을 측정하는 양안 간격 인식부;
    상기 측정된 거리 또는 상기 측정된 양안의 간격을 이용하여, 상기 모바일 기기의 디스플레이부의 이미지가 표시될 각도를 계산하는 각도 계산부; 및
    상기 각도를 제어하기 위한 구동부를 포함하는, 모바일 기기.
  2. 제1항에 있어서, 상기 디스플레이부는 세로 방향으로 분할된 복수의 영역들로 나누어지며, 각각의 복수의 영역들은 교번하는 방식으로 각각 상기 사용자의 양안에 대응되는, 모바일 기기.
  3. 제2항에 있어서, 상기 복수의 영역들은 각각 상이한 각도로 회전하여 이미지를 표시하는, 모바일 기기.
  4. 제2항에 있어서,
    상기 각도는 복수의 영역 중 하나와 좌안 또는 우안을 잇는 직선;과 좌안 및 우안을 잇는 직선;이 이루는 각인, 모바일 기기.
  5. 제1항에 있어서, 상기 거리 측정부는,
    상기 모바일 기기와 상기 사용자의 우안 또는 좌안의 중심까지의 최단 거리를 측정하는, 모바일 기기.
  6. 제1항에 있어서, 상기 거리 측정부는,
    상기 디스플레이부의 각각의 영역들;과 상기 사용자의 우안 또는 좌안으로부터 상기 디스플레이부로 투영된 위치까지의 거리를 측정하는, 모바일 기기.
  7. 제6항에 있어서, 상기 계산부는,
    상기 거리와 상기 거리를 이용하여 상기 각도를 계산하는, 모바일 기기.
  8. 제1항에 있어서, 상기 구동부는,
    상기 각도를 제어하여, 상기 디스플레이부의 각각의 영역들의 영상이 상기 우안 및 상기 좌안으로 전달되도록 하는, 모바일 기기.


KR1020110060810A 2011-06-22 2011-06-22 양안의 위치 인식을 통한 3d 영상을 표시하는 모바일 기기 KR101790096B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110060810A KR101790096B1 (ko) 2011-06-22 2011-06-22 양안의 위치 인식을 통한 3d 영상을 표시하는 모바일 기기

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110060810A KR101790096B1 (ko) 2011-06-22 2011-06-22 양안의 위치 인식을 통한 3d 영상을 표시하는 모바일 기기

Publications (2)

Publication Number Publication Date
KR20130000231A true KR20130000231A (ko) 2013-01-02
KR101790096B1 KR101790096B1 (ko) 2017-11-20

Family

ID=47833856

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110060810A KR101790096B1 (ko) 2011-06-22 2011-06-22 양안의 위치 인식을 통한 3d 영상을 표시하는 모바일 기기

Country Status (1)

Country Link
KR (1) KR101790096B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150130819A (ko) * 2014-05-14 2015-11-24 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10742968B2 (en) 2014-12-01 2020-08-11 Samsung Electronics Co., Ltd. Apparatus for recognizing pupillary distance for 3D display
WO2022196869A1 (ko) * 2021-03-15 2022-09-22 삼성전자 주식회사 머리 착용형 디스플레이 장치, 그 장치에서의 동작 방법 및 저장매체

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100417656B1 (ko) * 2001-09-05 2004-02-11 임희빈 액정 패널을 이용한 입체 화상 구현 장치

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150130819A (ko) * 2014-05-14 2015-11-24 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10742968B2 (en) 2014-12-01 2020-08-11 Samsung Electronics Co., Ltd. Apparatus for recognizing pupillary distance for 3D display
WO2022196869A1 (ko) * 2021-03-15 2022-09-22 삼성전자 주식회사 머리 착용형 디스플레이 장치, 그 장치에서의 동작 방법 및 저장매체
US11960643B2 (en) 2021-03-15 2024-04-16 Samsung Electronics Co., Ltd. Head mounted display apparatus, method for operating the same, and computer-readable recording medium

Also Published As

Publication number Publication date
KR101790096B1 (ko) 2017-11-20

Similar Documents

Publication Publication Date Title
KR102014775B1 (ko) 휴대 단말기 및 그 제어 방법
US8941721B2 (en) Mobile terminal and method for controlling operation of the mobile terminal
US8862111B2 (en) Mobile terminal and method of controlling the same
KR101685980B1 (ko) 이동 단말기 및 그 제어방법
KR101887058B1 (ko) 입체영상 처리 장치 및 입체영상 처리 장치의 전력 제어 방법
KR20120116292A (ko) 이동 단말기 및 이동 단말기의 제어방법
KR20100128489A (ko) 이동단말기 및 그 제어방법
KR101614024B1 (ko) 이동 단말기 및 이동 단말기에서의 화면 표시 제어 방법
KR20120048116A (ko) 이동 단말기 및 그 제어방법
KR101633336B1 (ko) 이동 단말기 및 그 제어방법
KR101790096B1 (ko) 양안의 위치 인식을 통한 3d 영상을 표시하는 모바일 기기
KR20140052570A (ko) 이동단말기 및 그 제어 방법
KR20130085209A (ko) 부분 3차원 디스플레이를 구비한 이동 단말기
KR20130068732A (ko) 입체영상 처리 장치 및 입체영상 처리 장치의 시야각을 확장하기 위한 방법
KR20120093601A (ko) 이동 단말기 및 그 제어방법
KR101892636B1 (ko) 이동 단말기 및 그 3d 이미지 생성 방법
KR20120109151A (ko) 이동 단말기 및 그 제어방법
KR20130053476A (ko) 휴대 단말기 및 그 제어 방법
KR20140124274A (ko) 단말기 및 그것의 제어방법
KR101853663B1 (ko) 이동 단말기
KR20120011138A (ko) 이동 단말기 및 그를 이용한 증강 현실 정보의 편집 방법
KR20110132771A (ko) 이동 단말기 및 그 제어 방법
KR20110130751A (ko) 이동 단말기 및 그 제어 방법
KR101799269B1 (ko) 이동 단말기 및 그 제어방법
KR20130058203A (ko) 이동 단말기 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant