KR20060027167A - 3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을수행하는 디스플레이장치 - Google Patents

3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을수행하는 디스플레이장치 Download PDF

Info

Publication number
KR20060027167A
KR20060027167A KR1020040076020A KR20040076020A KR20060027167A KR 20060027167 A KR20060027167 A KR 20060027167A KR 1020040076020 A KR1020040076020 A KR 1020040076020A KR 20040076020 A KR20040076020 A KR 20040076020A KR 20060027167 A KR20060027167 A KR 20060027167A
Authority
KR
South Korea
Prior art keywords
content
user
information
display
dimensional
Prior art date
Application number
KR1020040076020A
Other languages
English (en)
Other versions
KR100573895B1 (ko
Inventor
윤상식
Original Assignee
주식회사 팬택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팬택 filed Critical 주식회사 팬택
Priority to KR1020040076020A priority Critical patent/KR100573895B1/ko
Publication of KR20060027167A publication Critical patent/KR20060027167A/ko
Application granted granted Critical
Publication of KR100573895B1 publication Critical patent/KR100573895B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을 수행하는 디스플레이장치에 관한 것으로, 3차원으로 디스플레이된 영상 또는 동영상의 가상 돌출면을 사용자가 접촉하면 사용자 접촉을 감지하고 이에 따라 디스플레이된 영상 또는 동영상에 관련된 다음 디스플레이 동작 또는 다음 기능이 수행되도록 하는 것을 특징으로 한다. 본 발명에 따르면, 본 발명은 3차원 디스플레이 장치에서 디스플레이한 3차원 영상 또는 동영상을 사용자가 3차원 영상/동영상의 가상 표면을 접촉하면 이러한 행위를 사용자 인터페이스로 감지하여 사용자가 접촉한 가상 표면의 영역 또는 접촉 사실에 대응된 다음 디스플레이 동작을 제어함으로써 3차원 디스플레이에 대한 새롭고 쉬운 사용자 인터페이스 방법을 제공하는 효과가 있다.
3차원 디스플레이, 3차원 컨텐츠, 사용자 인터페이스, 동작감시

Description

3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을 수행하는 디스플레이장치{User interface method using 3dimension displaying picture and display device using that method}
도 1은 일반적인 디스플레이장치에서 디스플레이 관련 부분의 블록 구성도.
도 2는 본 발명의 실시예에 따른 이동통신단말기에서 디스플레이 관련 부분의 블록 구성도.
도 3은 본 발명의 실시예에 따른 3차원 컨텐츠에 대한 표본화를 수행하는 것을 보인 도면.
도 4는 본 발명의 실시예에 따른 동작감시 센서부의 장착 상태도.
도 5는 본 발명의 실시예에 따른 3차원 영상을 통한 사용자 인터페이스 방법을 보인 순서도.
본 발명은 디스플레이장치에 관한 것으로, 특히, 3차원 영상의 디스플레이가 가능한 디스플레이 장치에서의 사용자 인터페이스(User Interface) 방법 및 이 방법을 수행하는 디스플레이장치에 관한 것이다.
일반적으로 디스플레이장치에 이용되는 화상표시장치로는 음극선관(CRT: Cathode Ray Tube), 액정표시장치(LCD: Liquid Crystal Display), 가스플라즈마(PDP: Plasma Display Panel), 유기EL(OLED: Organic Light Emitting Diode) 등이 있으며, 디스플레이장치 중 PDA, 핸드폰, 노트북, 스마트폰 등은 액정표시장치와 유기EL을 화상표시장치로 이용하고 있다.
현재 디스플레이장치는 영상 또는 동영상 등을 2차원적으로 표시하는 기종이 대부분이며, 디스플레이 기술의 발달로 영상 또는 동영상 등을 3차원적으로 표시하는 기종이 개발되어 출시되고 있다.
이러한 디스플레이장치는 도 1에 도시된 바와 같이, 일반적인 외부입력부(10), 컨텐츠 저장부(20), MPU(Main Process Unit; 30), 구동제어부(40)와, 디스플레이부(50)를 포함한다.
여기서 디스플레이장치가 2차원용이면 상기 구동제어부(40)는 2차원 표시를 위한 제어 동작을 하게 되고, 디스플레이부(50)는 2차원적으로 영상/동영상을 디스플레이하는 평판 디스플레이이며, 컨텐츠 저장부(20)에는 2차원용 영상/동영상 정보가 저장된다. 반면에 3차원용이면 상기 구동제어부(40)는 3차원 표시를 위한 제어 동작을 하게 되고 디스플레이부(50)는 3차원 디스플레이가 가능한 3차원용 디스플레이부이며, 컨텐츠 저장부(20)는 3차원용 영상/동영상 정보가 저장된다.
이러한 구성에서 외부입력부(10)는 사용자 인터페이스를 제공하는 키패드 또는 터치 패드이며 사용자 입력을 MPU(24)에 전달한다. 컨텐츠 저장부(20)는 데이터 수신장치(A)로부터 수신된 영상 또는 동영상 등의 멀티미디어 컨텐츠를 저장하고 자체적으로 멀티미디어 컨텐츠를 저장하고 있으며 MPU(24)의 제어에 따라 디스플레이될 멀티미디어 컨텐츠의 정보를 디스플레이부(50)에 제공한다.
상기 MPU(30)는 이동통신단말기의 전반적인 동작을 위해 정보 또는 기능 처리를 담당하며, 상기 구동제어부(40)는 디스플레이부(50)를 구동시키기 위한 제어 동작을 수행하고, 상기 디스플레이부(50)는 구동제어부(40)의 제어에 따라 액정표시장치(LCD) 또는 유기EL(OLED) 등을 통해서 멀티미디어 컨텐츠를 포함하는 각종 정보를 2차원 또는 3차원으로 표시한다.
그런데 종래의 디스플레이장치에서 제공하는 사용자 인터페이스는 외부입력장치(10)를 이용하였다. 즉, 종래에는 3차원용이든 2차원용이든 간에 사용자가 키패드를 조작하거나 터치 펜 등을 이용하여 기능 및 출력 정보를 선택하는, 사용자 인터페이스 방법이 사용되었다.
그러나 종래의 사용자 인터페이스 방법은 3차원 디스플레장치를 통해 다양화된 영상/동영상을 처리할 수 있는 다양한 환경과 시스템을 지원하는데 적절하지 못한 문제가 있다. 즉, 3차원 디스플레이는 시각적으로 x, y, z축으로 영상을 디스플레이하므로 단순 평면으로 디스플레이하는 2차원 디스플레이에 비해 많은 시각적 효과 또는 이벤트 연출 또는 기능의 다양성을 가질 수 있는데, 이러한 3차원 디스플레이에서만의 추가적인 기능을 만족시키는 3차원 디스플에이용의 새로운 사용자 인터페이스 방법이 요구된다.
본 발명은 종래의 문제점을 해결하기 위한 것으로, 3차원 디스플레이에 적합 한 새로운 사용자 인터페이스 방법을 제공하는 것을 목적으로 한다. 특히 본 발명은 3차원으로 표시된 입체 영상 중 허공에 돌출된 부분(육안으로 느끼는 입체적 부분)을 사용자가 터치하는 것을 감지하고 이를 사용자 입력으로 인식하여 처리하는 사용자 인터페이스 방법을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명은 3차원 디스플레이 장치에 있어서, 사용자의 키 조작에 따른 명령 신호를 발생하는 외부입력부; 디스플레이될 x, y, z 좌표값을 포함하는 3차원 컨텐츠 정보가 저장된 컨텐츠 저장부; 상기 컨텐츠 저장부에 저장된 3차원 컨텐츠 정보별로 사용자 입력에 대응하여 다음 상태로 상기 3차원 컨텐츠 정보를 동작 제어할 컨텐츠 제어정보 및 이 컨텐츠 제어정보에 매핑된 가상버튼의 좌표값을 저장하고 있는 파라미터 저장부; 상기 3차원 컨텐츠 정보를 3차원적으로 디스플레이하는 3D 디스플레이부; 상기 3D 디스플레이부의 동작을 제어하는 구동제어부; 상기 3D 디스플레이부의 디스플레이 패널 상에 위치하는 물체를 감지하여 상기 물체에 대한 x, y, z의 위치좌표값을 생성하는 동작감시 센서부; 및 상기 컨텐츠 저장부에 저장된 3차원 컨텐츠 정보 각각에 대하여 패널유격의 좌표값을 이용한 표본화를 수행하고 표본화한 상기 패널유격의 좌표값을 포함하여 상기 가상버튼을 설정하며, 상기 동작감시 센서부로부터 입력되는 x, y, z의 위치좌표값에 상기 가상버튼에 해당하는 패널유격의 좌표값이 포함되어 있으면 해당 가상버튼에 매핑된 상기 컨텐츠 제어정보에 따라 상기 3D 디스플레이부의 디스플레이 동작을 제어하는 MPU를 포함하는 것을 특징으로 하는 3차원 영상을 통한 사용자 인터페 이스 방법을 수행하는 디스플레이장치를 제공한다.
또한 상기 목적을 달성하기 위한 본 발명은 3차원 컨텐츠 정보를 3차원으로 디스플레이하는 3차원 디스플레이 장치를 이용한 3차원 영상을 통한 사용자 인터페이스 방법에 있어서, 3차원 컨텐츠 정보에 대응된 컨텐츠 제어정보에 따라 상기 3차원 컨텐츠 정보 중 패널유격의 좌표값을 표본화하여 상기 표본화한 좌표값으로 지정되는 가상버튼을 만드는 제1 단계; 상기 가상버튼의 표본화한 좌표값과 상기 컨텐츠 제어정보를 매핑시켜 저장하는 제2 단계; 상기 제2 단계 후 해당 3차원 컨텐츠 정보가 3차원으로 디스플레이되면, 디스플레이된 3차원 영상의 상기 패널유격의 좌표값에 사용자의 접촉이 있는지를 감지하는 제3 단계; 상기 사용자의 접촉이 있으면, 사용자가 접촉한 상기 패널유격의 좌표값을 획득하는 제4 단계; 상기 패널유격의 좌표값에 대응하는 상기 3차원 컨텐츠 제어정보를 판단하는 제5 단계; 상기 판단한 3차원 컨텐츠 제어정보에 따라 현재 디스플레이된 3차원 영상의 다음 동작을 제어하는 제6 단계를 포함하는 3차원 영상을 통한 사용자 인터페이스 방법을 제공한다.
또한 본 발명은 상기 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
이하, 첨부한 도면을 참조로 하여 본 발명에 따른 바람직한 실시 예를 설명한다.
설명에 앞서, 이하의 실시예에서는 본 발명의 디스플레이장치로 이동통신단말기를 일 예로 하여 설명한다. 일 예에 따른 본 발명의 이동통신단말기는 영상/동 영상을 3차원으로 디스플레이하는 3차원 디스플레이용 이동통신단말기이나, 3차원 디스플레이 전용일 수 있고 2차원 디스플레이 기능을 포함하는 듀얼 디스플레이 모드의 이동통신단말기 일 수 있다. 듀얼 디스플레이 모드일 경우에, 3차원 디스플레이 구성과 2차원 디스플레이 구성을 하드웨어적으로 구비하고 디스플레이할 정보가 3차원 디스플레이를 지원하는 지에 따라 하드웨어 구성을 선택적으로 구동시켜 3차원 또는 2차원으로 디스플레이한다.
이하에서는 본 발명의 실시예에 따른 이동통신단말기가 3차원 디스플레이 전용인 경우에 대하여 설명한다. 도 2는 본 발명의 실시예에 따른 이동통신단말기에서 디스플레이 관련 부분의 블록 구성도이다.
도 2에 도시된 바와 같이, 본 발명의 이동통신단말기는 외부입력장치(100), 컨텐츠 저장부(200), 파라미터(parameter) 저장부(300), MPU(400), 구동제어부(500), 동작감시 센서부(600), 및 3D 디스플레이부(700)를 포함하여 이루어진다.
상기 외부입력부(100)는 다수의 키 또는 버튼 등으로 이루어져 사용자 입력에 대응하는 명령 신호를 발생하는, 사용자의 직접적 접촉에 대응하는 사용자 인터페이스 장치이다. 컨텐츠 저장부(200)는 제1 컨텐츠 저장부(210)와 제2 컨텐츠 제장부(220)로 이루어진다. 제1 컨텐츠 메모리(210)는 자체적으로 저장되어 있는 각종 멀티미디어 정보 등과 더불어 3차원 영상/동영상 정보가 저장하고 있으며, 제2 컨텐츠 메모리(220)는 외부로부터 수신된 3차원 영상/동영상 정보를 저장한다.
파라미터 저장부(300)는 상기 제1 및 제2 컨텐츠 메모리(210, 220)에 저장된 3차원 컨텐츠 정보에 대한 컨텐츠 제어정보를 저장하고 있다. 상기 컨텐츠 제어정 보는 3차원 컨텐츠를 외부입력부(100) 또는 동작감시부(600)를 통해 입력된 사용자 입력에 따라 동작 제어할 정보이다. 예를 들면, 컨텐츠 제어정보는 디스플레이된 3차원 컨텐츠 즉, 3차원 영상을 사용자 입력에 따라 작게 축소 또는 확대시키거나 다른 형태로 변형시키거나 사용자가 지정한 부분을 돌출 또는 안으로 들어가게 하거나 또는, 특정 동작을 하게 하는 정보를 말한다. 컨텐츠 제어정보는 컨텐츠별로 각기 다를 수 있으며, 이렇게 각기 다르기 때문에 해당 사용자 입력에 따른 컨텐츠 제어정보가 없거나 3차원 영상을 다른 형태로 디스플레이되게 한다.
MPU(400)는 컨텐츠 이동통신단말기의 전반적인 동작을 위해 정보 또는 기능 처리를 담당하며, 특히 외부입력부(100)로부터 입력되는 사용자 입력에 따라 파라미터 저장부(300)에서 사용자 입력에 따른 컨텐츠 제어정보를 파악하고 이에 대응된 3차원 컨텐츠 정보를 컨텐츠 저장부(200)로부터 읽어들여 3차원 컨텐츠가 디스플레이되도록 제어한다.
구동제어부(500)는 MPU(400)의 제어에 따라 3D 디스플레이부(700)의 동작을 제어하며, 3D 디스플레이부(700)는 입력되는 3차원 컨텐츠를 3차원적으로 디스플레이한다.
여기서, 3차원 컨텐츠 정보에는 컨텐츠에 대한 영상을 입체적으로 표시되도록 하기 위한 입체정보가 포함되어 있다. 상기 입체정보는 디스플레이 패널의 xy 평면의 좌표값과 이 xy 평면의 좌표값에 대응하는 z 좌표값으로 이루어진다. z 좌표값은 상기 xy 평면의 수직인 방향의 값으로 디스플레이부(700)에 표시되는 화상이 입체감을 가지도록 하는 값이며, 다수의 z 좌표값들로 인해 3차원 영상의 가상 돌출면(표면)이 형성된다.
이하에서는 디스플레이 패널과 3차원 영상의 돌출면까지의 거리를 '패널유격'이라고 하며, 패널유격의 수치값을 z값이라고 한다.
한편, 본 발명의 MPU(400)는 제1 및 제2 컨텐츠 저장부(210, 220)에 저장된 3차원 컨텐츠 정보를 대상으로 하여 도 3에 도시된 바와 같이 각 3차원 컨텐츠의 z값에 대한 표본화를 수행한다. 도 3은 본 발명의 실시예에 따른 3차원 컨텐츠에 대한 표본화를 수행하는 것을 보인 도면이다.
3차원 컨텐츠에 대한 표본화를 수행하는 것은 디스플레이된 3차원 영상의 가상 돌출면을 가상입력패드로 가정하면 가상입력패드에 가상버튼을 만드는 과정이다. 3차원 영상의 가상 돌출면은 도 3의 (a)에 도시된 바와 같이 디스플레이 패널(42)의 픽셀(43)의 수에 대응하는 z 좌표값들(41)로 이루어지는데, 모든 픽셀(43)에 대응된 z 좌표값을 감지 대상으로 하게 되면 사용자의 손 또는 펜이 어떠한 z 좌표(즉, 가상 돌출면)를 접촉하는지를 알 수 없게 된다.
이러한 문제를 해결하기 위해 표본화가 필요하다. 표본화는 전체 z 좌표 중에서 일정 거리만큼 떨어진 z 좌표값만을 유효값으로 설정하고, 유효값의 z 좌표를 포함하는 영역을 가상버튼으로 판단하는 것이다.
결국 가상버튼은 3차원 영상의 가상 돌출면 중 사용자가 접촉한 영역을 감지하기 위해 표본화된 특정의 x, y, z 좌표값이 된다. 이때 가상버튼을 이루는 좌표값은 하나인 것이 양호하나, 경우에 따라 다수의 표본화된 좌표값으로 이루어질 수 있다. 여기서 표본화된 좌표값 간의 거리는 적어도 사용자 접촉을 구분할 수 있을 정도로 넓은 것이 양호하다.
표본화 과정을 설명하면, MPU(400)는 우선 컨텐츠 저장부(200)에 저장된 각각의 3차원 컨텐츠 정보(41)를 읽어들이고, 읽어들인 3차원 컨텐츠 정보 중에서 디스플레이 판넬(42)의 각 픽셀(43)에서의 x,y 좌표값에 대응하는 z값(패널유격; 43)을 파악한 후, z값 중 설정된 일정간격의 z값만을 추출하여 표본화한다. 이와 같이 표본화된 결과(44)가 도 3의 (b)에 도시된 a 내지 h이며, 상기 표본화된 a 내지 h에 대한 정보는 x, y, x의 좌표로 하여 해당 컨텐츠 제어정보에 매핑되어 저장된다. 표본화된 a 내지 h는 각각의 가상버튼의 역할을 한다.
본 발명은 컨텐츠 제어정보에 따라 표본화된 a 내지 h를 동일한 사용자 입력으로 설정하거나 각각 다른 사용자 입력으로 설정하는 과정을 가진다. 즉, 동일한 사용자 입력으로 설정하는 경우는 컨텐츠 제어정보에 현재 디스플레이된 3차원 영상에 대한 다음 디스플레이될 정보(또는 다음의 동작 상태)가 하나인 경우로서, a 내지 h 중 하나가 사용자에 의해 접촉되면 디스플레이된 3차원 영상을 기 설정된 다음의 3차원 영상 정보로 바꾸어 디스플레이하는 것이다. 그리고 각기 다른 사용자 입력으로 설정하는 경우는 현재 디스플레이된 3차원 영상에 대한 다음 디스플레이될 정보가 2 이상인 경우로서, a 내지 h가 다음 디스플레이될 정보의 수만큼의 군(群 )으로 나뉘어지고 동일 군의 가상버튼에 사용자가 접촉하면 해당하는 다음 디스플레이될 3차원 정보가 디스플레이되게 한다.
한편, 동작감시 센서부(600)는 사용자가 어떤 가상버튼을 눌렀는지를 감지하 고 이를 MPU(600)에 알리는 기능을 수행한다. 동작감시 센서부(600)는 사용자가 어떤 가상 버튼을 눌렀는지를 감지하기 위해서 디스플레이 패널(42) 상에 위치하는 물체와의 거리를 측정하는 기능을 가지는 센서들로 이루어져 있다. 상기 센서는 초음파 센서 또는 적외선 센서 또는 광 센서 또는 근접센서 등일 수 있다.
동작감시 센서부(600)를 이루는 센서는 물체를 반사하여 수신되는 신호를 통해 송출 및 수신 시간을 파악함으로써 물체와의 거리를 산출한다. 여기서 동작감시 센서부(600)는 도 6에 도시된 바와 같이 단위 센서가 n*m의 매트릭스(matrix) 형태로 이루어져 있으며, 각 단위 센서에 대한 좌표에 대한 위치 정보가 고정 설정되어 있다.
따라서 MPU(400)는 단위 센서로부터 입력되는 신호로 물체와의 거리 정보와 단위 센서의 고정 위치 정보를 파악하여 물체의 x, y, z 좌표를 파악하게 된다. 상기 단위 센서의 고정 위치 정보는 평면 좌표 정보이고, 물체와의 거리 정보는 평면 좌표에 수직인 좌표 정보가 된다.
MPU(600)는 동작감시 센서부(600)로부터 입력되는 정보에 따라 다음 디스플레이할 3차원 컨텐츠 정보를 판단하고, 그에 따른 디스플레이가 이루어지도록 제어한다.
이하, 도 4와 도 5를 참조로 하여 3차원 영상을 통한 사용자 인터페이스 방법을 설명한다. 도 4는 본 발명의 실시예에 따른 동작감시 센서부의 장착 상태도이고, 도 5는 본 발명의 실시예에 따른 3차원 영상을 통한 사용자 인터페이스 방법을 보인 순서도이다.
이하에서 설명되는 본 발명의 실시예는 도 4에 도시된 바와 같이, 동작감시 센서부(600)가 디스플레이 패널(42)의 상단에 수직으로 설치되어 있는 경우에 대한 것이다. 이 경우에 동작감시 센서부(600)의 각 센서들은 x 좌표값과 z 좌표값을 고정위치값으로 지정되어 있으며, 측정된 물체와의 거리를 y 좌표값으로 한다.
외부입력부(100)를 통한 사용자의 요구에 따라 MPU(400) 및 구동제어부(500)의 제어에 따라 컨텐츠 저장부(200)에 저장된 특정 3차원 컨텐츠가 디스플레이부(700)의 디스플레이 패널(42)에 3차원 영상 또는 동영상으로 디스플레이된다(S501).
이렇게 디스플레이된 3차원 영상 또는 동영상은 도 4에 도시된 바와 같이, 컨텐츠의 3차원 정보에 따라 디스플레이 패널(42)과 임의의 패널유격을 가지는 형태로 디스플레이되어 가상 돌출면을 형성한다. 이에 사용자는 3차원 컨텐츠를 입체적으로 느끼게 된다.
이러한 상태에서 사용자가 손이나 펜 등으로 3차원 영상 또는 동영상의 가상 돌출면에 대한 접촉을 시도하면 사용자의 손이나 펜은 디스플레이 패널(42) 상에 위치하게 되고, 이에 직선 방향으로 적외선 또는 초음파 등을 계속적으로 송출하고 있는 동작감시 센서부(600)는 사용자의 손이나 펜을 감지한다(S502).
동작감지 센서부(600)의 센서들(Smn) 중 사용자의 손이나 펜의 수평 방향에 위치한 센서는 사용자의 손이나 펜에 반사되어 오는 신호에 의해 사용자 접촉을 감지하게 된다. 그러면 동작감지 센서부(600)는 사용자 접촉을 감지한 센서에 수신된 신호를 분석하고 연산처리하여 사용자의 손이나 펜에 대한 거리를 산출하게 되며, 이렇게 산출한 거리를 y 좌표값으로 하고 사용자 접촉을 감지한 센서의 고정 위치값을 x, z 값으로 하여 MPU(400)에 제공한다(S503).
MPU(400)는 동작감시 센서부(600)로부터 감시물체의 좌표값을 포함하는 동작 감시 신호를 수신하면, 수신된 좌표값 중에서 표본화한 좌표값이 있는지를 파악한다(S504). MPU(400)는 S504 과정을 통해 표본화한 좌표값이 없으면 동작감시 센서부(600)로부터 새로운 감시 신호를 대상으로 표본화 좌표값이 있는지를 파악하는 과정을 수행하고, 표본화한 좌표값이 있으면(S505). 표본화한 좌표값에 매핑된 컨텐츠 제어정보를 파라미터 저장부(300)로부터 판단한다(S506).
그리고 MPU(400)는 파악한 해당 좌표값에 매핑된 컨텐츠 제어 정보에 3차원 컨텐츠 정보를 판단하고(S507), 이 3차원 컨텐츠 정보를 컨텐츠 저장부(210)로부터 읽어들여 구동 제어부(500)에 제공한다. 이에 구동 제어부(500)는 수신한 3차원 컨텐츠 정보를 3D 디스플레이부(700)에 제공하여 현재 디스플레이된 3차원 영상/동영상을 사용자 접촉에 부응하여 제공받은 3차원 컨텐츠 정보로 바꾸어 디스플레이한다(S508).
이상에서 본 발명에 대한 기술사상을 첨부도면과 함께 서술하였지만 이는 본 발명의 바람직한 실시예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한, 이 기술분야의 통상의 지식을 가진 자라면 누구나 본 발명의 기술사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사 실이다.
본 발명은 3차원 디스플레이 장치에서 디스플레이한 3차원 영상 또는 동영상을 사용자가 3차원 영상/동영상의 가상 표면을 접촉하면 이러한 행위를 사용자 인터페이스로 감지하여 사용자가 접촉한 가상 표면의 영역 또는 접촉 사실에 대응된 다음 디스플레이 동작을 제어함으로써 3차원 디스플레이에 대한 새롭고 쉬운 사용자 인터페이스 방법을 제공하는 효과가 있다.

Claims (10)

  1. 3차원 디스플레이 장치에 있어서,
    사용자의 키 조작에 따른 명령 신호를 발생하는 외부입력부;
    디스플레이될 x, y, z 좌표값을 포함하는 3차원 컨텐츠 정보가 저장된 컨텐츠 저장부;
    상기 컨텐츠 저장부에 저장된 3차원 컨텐츠 정보별로 사용자 입력에 대응하여 다음 상태로 상기 3차원 컨텐츠 정보를 동작 제어할 컨텐츠 제어정보 및 이 컨텐츠 제어정보에 매핑된 가상버튼의 좌표값을 저장하고 있는 파라미터 저장부;
    상기 3차원 컨텐츠 정보를 3차원적으로 디스플레이하는 3D 디스플레이부;
    상기 3D 디스플레이부의 동작을 제어하는 구동제어부;
    상기 3D 디스플레이부의 디스플레이 패널 상에 위치하는 물체를 감지하여 상기 물체에 대한 x, y, z의 위치좌표값을 생성하는 동작감시 센서부; 및
    상기 컨텐츠 저장부에 저장된 3차원 컨텐츠 정보 각각에 대하여 패널유격의 좌표값을 이용한 표본화를 수행하고 표본화한 상기 패널유격의 좌표값을 포함하여 상기 가상버튼을 설정하며, 상기 동작감시 센서부로부터 입력되는 x, y, z의 위치좌표값에 상기 가상버튼에 해당하는 패널유격의 좌표값이 포함되어 있으면 해당 가상버튼에 매핑된 상기 컨텐츠 제어정보에 따라 상기 3D 디스플레이부의 디스플레이 동작을 제어하는 MPU를 포함하는 것을 특징으로 하는 3차원 영상을 통한 사용자 인터페이스 방법을 수행하는 디스플레이장치.
  2. 제1항에 있어서,
    상기 컨텐츠 제어정보는 하나 이상인 것을 특징으로 하는 3차원 영상을 통한 사용자 인터페이스 방법을 수행하는 디스플레이장치.
  3. 제2항에 있어서,
    상기 컨텐츠 제어정보는
    상기 특정 3차원 컨텐츠 정보에 대응한 다음 디스플레이될 3차원 컨텐츠 정보를 포함하는 것을 특징으로 하는 3차원 영상을 통한 사용자 인터페이스 방법을 수행하는 디스플레이장치.
  4. 제2항에 있어서,
    상기 컨텐츠 제어정보는
    상기 특정 3차원 컨텐츠 정보에 대응한 다음 디스플레이될 멀티미디어 정보를 포함하는 것을 특징으로 하는 3차원 영상을 통한 사용자 인터페이스 방법을 수행하는 디스플레이장치.
  5. 제1항에 있어서,
    상기 MPU는 3차원 컨텐츠 정보에 대한 패널유격의 좌표값 중에서 설정된 거리를 간격으로 하는 상기 좌표값을 표본값으로 하는 것을 특징으로 하는 3차원 영 상을 통한 사용자 인터페이스 방법을 수행하는 디스플레이장치.
  6. 제4항에 있어서,
    상기 가상버튼은 하나 이상의 표본화한 패널유격의 좌표값을 포함하는 것을 특징으로 하는 3차원 영상을 통한 사용자 인터페이스 방법을 수행하는 디스플레이장치.
  7. 제1항에 있어서,
    상기 동작감시 센서부는 물체와의 거리를 측정하는 거리측정센서로 이루어지며, 상기 거리측정센서가 매트릭스 형태로 설치되어 있으며 각 거리측정센서에 대한 상기 매트릭스에서의 위치 좌표가 설정되어 있는 것을 특징으로 하는 사용자 인터페이스 방법을 수행하는 디스플레이장치.
  8. 3차원 컨텐츠 정보를 3차원으로 디스플레이하는 3차원 디스플레이 장치를 이용한 3차원 영상을 통한 사용자 인터페이스 방법에 있어서,
    3차원 컨텐츠 정보에 대응된 컨텐츠 제어정보에 따라 상기 3차원 컨텐츠 정보 중 패널유격의 좌표값을 표본화하여 상기 표본화한 좌표값으로 지정되는 가상버튼을 만드는 제1 단계;
    상기 가상버튼의 표본화한 좌표값과 상기 컨텐츠 제어정보를 매핑시켜 저장하는 제2 단계;
    상기 제2 단계 후 해당 3차원 컨텐츠 정보가 3차원으로 디스플레이되면, 디스플레이된 3차원 영상의 상기 패널유격의 좌표값에 사용자의 접촉이 있는지를 감지하는 제3 단계;
    상기 사용자의 접촉이 있으면, 사용자가 접촉한 상기 패널유격의 좌표값을 획득하는 제4 단계;
    상기 패널유격의 좌표값에 대응하는 상기 3차원 컨텐츠 제어정보를 판단하는 제5 단계;
    상기 판단한 3차원 컨텐츠 제어정보에 따라 현재 디스플레이된 3차원 영상의 다음 동작을 제어하는 제6 단계를 포함하는 3차원 영상을 통한 사용자 인터페이스 방법.
  9. 제8항에 있어서,
    상기 제3 단계는 물체와의 거리를 산출하는 거리측정센서가 매트릭스 형태로 설치된 동작감시 장치를 통해 상기 사용자 접촉을 감지하고,
    상기 제4 단계는 상기 동작감시 장치에서 발생하는 상기 사용자 접촉 지점에 대한 x, y, z 좌표값을 상기 패널유격의 좌표값으로 하는 것을 특징으로 하는 3차원 영상을 통한 사용자 인터페이스 방법.
  10. 디스플레이 장치에,
    3차원 컨텐츠 정보에 대응된 컨텐츠 제어정보에 따라 상기 3차원 컨텐츠 정 보 중 패널유격의 좌표값을 표본화하여 상기 표본화한 좌표값으로 지정되는 가상버튼을 만드는 제1 단계;
    상기 가상버튼의 표본화한 좌표값과 상기 컨텐츠 제어정보를 매핑시켜 저장하는 제2 단계;
    상기 제2 단계 후 해당 3차원 컨텐츠 정보가 3차원으로 디스플레이되면, 디스플레이된 3차원 영상의 상기 패널유격의 좌표값에 사용자의 접촉이 있는지를 감지하는 제3 단계;
    상기 사용자의 접촉이 있으면, 사용자가 접촉한 상기 패널유격의 좌표값을 획득하는 제4 단계;
    상기 패널유격의 좌표값에 대응하는 상기 3차원 컨텐츠 제어정보를 판단하는 제5 단계;
    상기 판단한 3차원 컨텐츠 제어정보에 따라 현재 디스플레이된 3차원 영상의 다음 동작을 제어하는 제6 단계를 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
KR1020040076020A 2004-09-22 2004-09-22 3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을수행하는 디스플레이장치 KR100573895B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040076020A KR100573895B1 (ko) 2004-09-22 2004-09-22 3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을수행하는 디스플레이장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040076020A KR100573895B1 (ko) 2004-09-22 2004-09-22 3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을수행하는 디스플레이장치

Publications (2)

Publication Number Publication Date
KR20060027167A true KR20060027167A (ko) 2006-03-27
KR100573895B1 KR100573895B1 (ko) 2006-04-26

Family

ID=37138308

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040076020A KR100573895B1 (ko) 2004-09-22 2004-09-22 3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을수행하는 디스플레이장치

Country Status (1)

Country Link
KR (1) KR100573895B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104714630A (zh) * 2013-12-12 2015-06-17 联想(北京)有限公司 手势识别方法、系统和计算机
US9658596B2 (en) 2012-09-13 2017-05-23 Samsung Electronics Co., Ltd. Apparatus and method for adjusting holographic image
CN108228027A (zh) * 2017-12-29 2018-06-29 努比亚技术有限公司 一种信息处理的方法、设备及计算机可读存储介质
KR20210108718A (ko) * 2020-02-26 2021-09-03 이화여자대학교 산학협력단 스트레처블 디스플레이를 이용한 입체 컨텐츠 출력 장치 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101097453B1 (ko) * 2008-09-09 2011-12-23 네오뷰코오롱 주식회사 키패드 장치, 이를 구비하는 모바일 기기 및 키패드 제어 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9658596B2 (en) 2012-09-13 2017-05-23 Samsung Electronics Co., Ltd. Apparatus and method for adjusting holographic image
CN104714630A (zh) * 2013-12-12 2015-06-17 联想(北京)有限公司 手势识别方法、系统和计算机
CN104714630B (zh) * 2013-12-12 2017-12-29 联想(北京)有限公司 手势识别方法、系统和计算机
CN108228027A (zh) * 2017-12-29 2018-06-29 努比亚技术有限公司 一种信息处理的方法、设备及计算机可读存储介质
KR20210108718A (ko) * 2020-02-26 2021-09-03 이화여자대학교 산학협력단 스트레처블 디스플레이를 이용한 입체 컨텐츠 출력 장치 및 방법

Also Published As

Publication number Publication date
KR100573895B1 (ko) 2006-04-26

Similar Documents

Publication Publication Date Title
KR101019254B1 (ko) 공간 투영 및 공간 터치 기능이 구비된 단말 장치 및 그 제어 방법
US9544556B2 (en) Projection control apparatus and projection control method
CN107562288B (zh) 基于红外触控装置的响应方法、红外触控装置和介质
AU2013223015A1 (en) Method and apparatus for moving contents in terminal
US10422996B2 (en) Electronic device and method for controlling same
KR20120113511A (ko) 디스플레이 장치 및 이의 오브젝트 표시 방법
KR20130092074A (ko) 제어 기기를 이용한 전자기기의 제어 방법 및 장치
US20120092332A1 (en) Input device, input control system, method of processing information, and program
US9753585B2 (en) Determine a position of an interaction area
CN106325726A (zh) 触控互动方法
KR100573895B1 (ko) 3차원 영상을 통한 사용자 인터페이스 방법 및 이 방법을수행하는 디스플레이장치
KR101019255B1 (ko) 깊이 센서 방식의 공간 터치 무선단말기, 이의 데이터 처리방법 및 스크린장치
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
JP2018116346A (ja) 入力制御装置、表示装置、及び入力制御方法
EP2612224A1 (en) System and method for touch screen
WO2013076824A1 (ja) タッチパネル装置における情報処理方法、および、タッチパネル装置
CN111327822B (zh) 一种控制摄像头移动的方法及电子设备
CN108255317B (zh) 光标控制方法和装置
KR100644636B1 (ko) 정보처리 단말기의 화면 확대 장치 및 방법
JP2001516096A (ja) ユーザ入力の検出および処理システム
KR101004671B1 (ko) 공간 투영 및 공간 터치 기능이 구비된 네트워크 단말 장치및 그 제어 방법
KR20130017339A (ko) 마우스 기능 제공 휴대 전자기기 및 그 운용 방법
CN114115776B (zh) 显示控制方法、装置、电子设备及存储介质
KR101515912B1 (ko) 이미지 공유가 가능한 사용자 단말기 및 이의 제어 방법
KR102136739B1 (ko) 디스플레이 유닛 상의 입력 위치를 검출하는 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120403

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130405

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160401

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170926

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180927

Year of fee payment: 13