KR20230069742A - 입체영상 디스플레이의 제스처 기반 3d 인터페이스 처리 시스템 - Google Patents

입체영상 디스플레이의 제스처 기반 3d 인터페이스 처리 시스템 Download PDF

Info

Publication number
KR20230069742A
KR20230069742A KR1020210156086A KR20210156086A KR20230069742A KR 20230069742 A KR20230069742 A KR 20230069742A KR 1020210156086 A KR1020210156086 A KR 1020210156086A KR 20210156086 A KR20210156086 A KR 20210156086A KR 20230069742 A KR20230069742 A KR 20230069742A
Authority
KR
South Korea
Prior art keywords
stereoscopic image
gesture
image display
space
information
Prior art date
Application number
KR1020210156086A
Other languages
English (en)
Inventor
윤홍수
심승보
신동규
Original Assignee
가온그룹 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가온그룹 주식회사 filed Critical 가온그룹 주식회사
Priority to KR1020210156086A priority Critical patent/KR20230069742A/ko
Publication of KR20230069742A publication Critical patent/KR20230069742A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 일반적으로 입체영상 디스플레이(예: 플렌옵틱 디스플레이)에 대해 사용자가 3D 인터페이스를 조작하는 기술에 관한 것이다. 특히, 본 발명은 입체영상 디스플레이 전면에 가상으로 형성된 입체조작 공간에서 이루어지는 사용자의 제스처를 공간센싱 디바이스가 적외선 센서 등을 이용하여 입체적으로 센싱하여 입체영상 표시장치로 그 센싱정보를 전달함으로써 입체 영상에 대한 자연스러운 3D 영상조작을 가능하게 하는 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템에 관한 것이다. 본 발명에 따르면 입체영상 디스플레이에 제스처 기반으로 3D 인터페이스를 적용할 수 있게 하여 입체 영상에 대한 3D 영상조작을 사용자가 자신의 의도에 맞게 자연스럽게 입력할 수 있는 장점이 있다. 이를 통해, 사용자 편의성을 향상시키고 입체 영상의 특징인 실감성을 제대로 발현할 수 있게 된다. 본 발명은 플렌옵틱 영상에 양호하게 적용될 수 있다.

Description

입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템 {gesture-based 3D interface system for 3D video display}
본 발명은 일반적으로 입체영상 디스플레이에 대해 사용자가 3D 인터페이스를 조작하는 기술에 관한 것이다.
특히, 본 발명은 입체영상 디스플레이 전면에 가상으로 형성된 입체조작 공간에서 이루어지는 사용자의 제스처를 공간센싱 디바이스가 적외선 센서 등을 이용하여 입체적으로 센싱하여 입체영상 표시장치로 그 센싱정보를 전달함으로써 입체 영상에 대한 자연스러운 3D 영상조작을 가능하게 하는 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템에 관한 것이다.
최근들에 입체영상 기술에 대한 관심이 높아지고 있다. [도 1]은 현재 제안되고 있는 다양한 종류의 영상을 개념적으로 나타내는 도면이다. 일반적으로 영상(video)이란 현실 세계의 사물(피사체)을 카메라로 촬영한 결과물로서, 종래로 2차원 평면 영상을 의미하였다. 기술적으로 2차원 영상은 초점평면(캔버스 평면)에 기록된 2차원 이미지로 표현될 수 있다.
3차원 입체 영상을 구현하기 위해 종래로 스테레오 영상과 깊이정보 부가영상이 제안되었고, 최근에는 플렌옵틱(plenoptic) 영상이 제안되었다. 스테레오 영상은 양안시차로 깊이감을 표현하는 기술이고, 깊이정보 부가영상은 RGB(Red Green Blue)와 깊이 정보의 조합을 통해 3차원 효과를 구현하는 기술이다. 플렌옵틱(plenoptic) 영상은 실제 공간에 실제 사물이 노출된 상태에서의 빛 정보를 포함하여 영상 데이터를 작성하는 기술이다. 즉, 영상(화면)을 구성하는 각 픽셀에 대하여 여러 방향에 대한 빛의 세기와 컬러 정보가 제공되며, 입체영상 표시장치는 이들 정보를 사용하여 디스플레이 화면 상에 피사체를 실제 공간에서처럼 입체적으로 묘사할 수 있다.
플렌옵틱 영상정보는 공간 영역(spatial domain) 정보와 각 영역(angular domain) 정보를 포함한다. 공간 영역 정보는 3차원 공간에서의 피사체에 관련된 정보이고, 각 영역 정보는 피사체가 노출되어 있는 빛 조사 방향에 관련된 정보이다. 플렌옵틱 영상정보는 좌표계(θ, Φ, λ, t, x, y, z,)에 대한 세기(intensity)로 표현 가능한데, 이중에서 θ과 Φ는 빛의 방향, λ는 파장(컬러), t는 시간, (x, y, z)는 관측자의 3차원 위치를 나타낸다. 이를 통해 피사체의 3차원 각각의 점에서의 빛의 세기를 디지털화하여 나타낸다.
입체영상 표시장치는 이러한 플렌옵틱 영상정보에 기초하여 피사체에 대한 현실 세계의 빛 재현이 가능하다. 또한, 입체영상 표시장치는 공간 영역 정보와 각 영역 정보를 활용하여 플렌옵틱 영상에 대해 다양한 입체(3D) 영상처리를 수행할 수 있다. 이러한 3D 영상처리로는 원근시점 이동(perspective viewing change), 재초점(refocusing), 3차원 깊이정보 추출(depth of field extraction) 등이 있다. 예를 들어, 플렌옵틱 영상은 초점(focal point)과 시점(viewing point)을 선택할 수 있다. 즉, 사용자가 지정하는 위치에 초점이나 시점을 맞추어 화면에 표시하는 것이다.
플렌옵틱 영상은 깊이정보를 정확하게 추출하여 활용할 수 있다. [도 2]는 플렌옵틱 영상에서 깊이정보를 획득하는 예를 나타내는 도면이다. 플렌옵틱 영상 재초점을 이용하여 여러 초점위치에서의 영상(초점영상)을 생성하는데, 그 결과를 초점스택(focal stack)이라 부른다. 초점영상(focal image)의 각 픽셀(x, y)에 대해 초점값(focus)을 획득하고, 초점스택 내에서 최고의 초점값을 지닌 초점영상의 초점위치를 해당 픽셀의 깊이로 선택한다. 깊이 맵을 이용하여 플렌옵틱 영상에서 객체를 분할할 수 있다.
이처럼 플렌옵틱 영상은 사용자가 여러가지 3D 조작을 하기에 매우 적합하다. 그런데, 현실에서는 사용자가 입체영상 표시장치에 플렌옵틱 영상에 관한 조작을 입력하기가 불편하였다.
플렌옵틱 디스플레이 표면에는 특수한 광학렌즈들이 조밀하게 형성되어 필름 형태로 부착되어 있다. 이러한 광학렌즈로 인하여 사용자가 디스플레이 표면을 터치하면서 제스처 기반으로 조작하는 것은 곤란하였다. 그에 따라, 현재는 컴퓨터 키보드나 메뉴 설정 등을 통해 플렌옵틱 영상을 조작하고 있는데, 이는 상당히 조작이 불편하고 플렌옵틱 기술의 적용 범위를 제한하는 요소이다. 특히, 플렌옵틱 영상의 장점인 다양한 3D 영상처리를 사용자가 자연스럽게 이용하기에는 부적합한 방식이다.
본 발명의 목적은 일반적으로 입체영상 디스플레이에 대해 사용자가 3D 인터페이스를 조작하는 기술을 제공하는 것이다.
특히, 본 발명의 목적은 입체영상 디스플레이 전면에 가상으로 형성된 입체조작 공간에서 이루어지는 사용자의 제스처를 공간센싱 디바이스가 적외선 센서 등을 이용하여 입체적으로 센싱하여 입체영상 표시장치로 그 센싱정보를 전달함으로써 입체 영상에 대한 자연스러운 3D 영상조작을 가능하게 하는 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템을 제공하는 것이다.
한편, 본 발명의 해결 과제는 이들 사항에 제한되지 않으며 본 명세서의 기재로부터 다른 해결 과제가 이해될 수 있다.
상기의 목적을 달성하기 위하여 본 발명은 입체영상 디스플레이에 대하여 사용자의 제스처 기반으로 3D 영상조작을 제공하기 위한 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템을 제공한다.
본 발명에 따른 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템은, 입체 영상을 재생 및 디스플레이하는 입체영상 표시장치(100); 입체영상 디스플레이 화면 전방의 공간에 가상의 모션인식 공간인 입체조작 가상공간을 설정하고 내장 센서에 의해 입체조작 가상공간에서의 입체적인 사용자 동작을 인식한 제스처 센싱정보를 입체영상 표시장치(100)로 제공하는 공간센싱 디바이스(200);를 포함하여 구성된다. 이때, 입체영상 표시장치(100)는 공간센싱 디바이스(200)로부터 제공되는 제스처 센싱정보에 기초하여 그 재생중인 입체 영상에 대한 3D 영상 조작을 수행하도록 구성된다.
본 발명에서 입체영상 표시장치(100)는, 입체 영상의 데이터를 저장하는 입체영상 파일저장부(110); 입체 영상의 데이터를 재생 및 디스플레이하는 입체영상 재생표시부(120); 입체 영상의 디스플레이 표시에 대해 3D 영상처리를 수행하는 입체영상 영상처리부(130); 공간센싱 디바이스(200)로부터 제스처 센싱정보를 수신하는 제스처정보 수신부(140); 제스처 센싱정보에 대응하여 입체영상 영상처리부(130)의 3D 영상처리를 제어하는 입체영상 영상제어부(150);를 포함하여 구성될 수 있다.
또한, 본 발명에서 공간센싱 디바이스(200)는 입체영상 표시장치(100)의 디스플레이 화면에 근접하여 입체조작 가상공간을 설정함으로써 입체영상 표시장치(100)에 대한 3D 터치 인터페이스를 가상으로 제공하도록 구성되는 것이 바람직하다.
또한, 본 발명에서 공간센싱 디바이스(200)는, 적외선 반사에 의해 외부 물체에 대한 이격 정보를 획득하는 복수의 적외선 센서모듈(210); 복수의 적외선 센서모듈(210)을 통해 입체영상 표시장치(100)의 디스플레이 화면에 근접하여 가상의 모션인식 공간인 입체조작 가상공간을 설정하는 조작공간 설정부(220); 복수의 적외선 센서모듈(210)로부터 이격 정보를 제공받아 입체조작 가상공간에서의 사용자 동작에 대응하는 다축 움직임 정보를 생성하는 사용자동작 인식부(230); 시간 흐름에 따른 다축 움직임 정보를 추적하여 사용자 동작에 대응하여 제스처 센싱정보를 생성하는 제스처정보 생성부(240); 제스처 센싱정보를 유무선 통신을 통해 입체영상 표시장치(100)로 제공하는 제스처정보 송신부(250);를 포함하여 구성될 수 있다.
한편, 본 발명에 따른 컴퓨터프로그램은 컴퓨터에 이상과 같은 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템의 운용 방법을 실행시키기 위하여 비휘발성 저장매체에 저장된 것이다.
본 발명에 따르면 입체영상 디스플레이에 제스처 기반으로 3D 인터페이스를 적용할 수 있게 하여 입체 영상에 대한 3D 영상조작을 사용자가 자신의 의도에 맞게 자연스럽게 입력할 수 있는 장점이 있다. 이를 통해, 사용자 편의성을 향상시키고 입체 영상의 특징인 실감성을 제대로 발현할 수 있게 된다.
[도 1]은 현재 제안되고 있는 다양한 종류의 영상을 개념적으로 나타내는 도면.
[도 2]는 플렌옵틱 영상에서 깊이정보를 획득하는 예를 나타내는 도면.
[도 3]은 본 발명에 따른 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템의 전체 구성을 나타내는 도면.
[도 4]는 본 발명에서 입체영상 표시장치의 디스플레이 화면에 근접하여 입체조작 가상공간을 설정한 예를 나타내는 도면.
[도 5]는 본 발명에서 입체영상 표시장치의 내부 구성을 나타내는 블록도.
[도 6]은 본 발명에서 공간센싱 디바이스의 내부 구성을 나타내는 블록도.
이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다.
[도 3]은 본 발명에 따른 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템의 전체 구성을 나타내는 도면이다. 본 발명은 입체영상 디스플레이에 대하여 컴퓨터 키보드나 메뉴 설정 등을 활용하는 것이 아니라 사용자의 제스처 기반으로 3D 영상조작을 제공하기 위한 기술을 제공한다. 본 발명은 플렌옵틱 디스플레이에 양호하게 적용될 수 있다. 하지만, 다른 형태의 입체영상 기술에 적용되는 것을 배제하는 것은 아니다.
[도 3]을 참조하면, 본 발명에 따른 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템은 입체 영상을 재생 및 디스플레이하는 입체영상 표시장치(100)와 사용자 동작을 인식하여 입체영상 표시장치(100)로 전달하는 공간센싱 디바이스(200)를 포함하여 구성된다.
공간센싱 디바이스(200)는 입체영상 디스플레이 화면 전방의 공간에 가상의 모션인식 공간인 입체조작 가상공간을 설정한다. 사용자가 입체조작 가상공간 내에서 무언가 입체(3D)적인 동작을 하면 공간센싱 디바이스(200)는 내장 센서(예: 복수의 적외선 센서)에 의해 사용자 동작을 인식한다. 공간센싱 디바이스(200)는 자신이 인식한 사용자 동작, 즉 손의 위치(x축, y축 정보) 및 깊이(z축 정보)를 분석하여 제스처 센싱정보를 생성하고 이를 입체영상 표시장치(100)로 제공한다.
입체영상 표시장치(100)는 공간센싱 디바이스(200)로부터 제공되는 제스처 센싱정보에 기초하여 그 재생중인 입체 영상에 대한 3D 영상 조작(예: 원근시점 이동, 재초점, 3차원 깊이정보 추출 등)을 수행한다.
이때, 공간센싱 디바이스(200)는 [도 4]에 나타낸 바와 같이 입체영상 표시장치(100)의 디스플레이 화면에 근접하여 입체조작 가상공간을 설정하도록 구성되는 것이 바람직하다. 이 경우, 사용자가 입체영상 표시장치(100)의 디스플레이 화면에 터치 조작을 하였을 때에 그에 대응하여 입체 영상에 대한 3D 영상 조작을 제공하는 것이 가능하다. 즉, 입체영상 표시장치(100)에 대한 3D 터치 인터페이스를 가상으로 제공할 수 있는 것이다.
[도 5]는 본 발명에서 입체영상 표시장치(100)의 내부 구성을 나타내는 블록도이다. [도 5]를 참조하면, 본 발명에서 입체영상 표시장치(100)는 입체영상 파일저장부(110), 입체영상 재생표시부(120), 입체영상 영상처리부(130), 제스처정보 수신부(140), 입체영상 영상제어부(150)를 포함하여 구성될 수 있다.
이하에서는 입체영상 표시장치(100)를 구성하는 내부 구성에 대해 기술한다.
먼저, 입체영상 파일저장부(110)는 입체 영상의 데이터를 저장하는 구성요소이다. 이때, 입체 영상의 데이터가 스토리지 공간에 고정적으로 저장되어 있을 수도 있고, 외부로부터 스트리밍 수신되어 D램(DRAM) 공간에 임시로 잠시 저장되어 있는 방식일 수도 있다.
입체영상 재생표시부(120)는 입체 영상의 데이터를 재생 및 디스플레이하는 구성요소이다.
입체영상 영상처리부(130)는 입체 영상의 디스플레이 표시에 대해 3D 영상처리(예: 원근시점 이동, 재초점, 3차원 깊이정보 추출 등)를 수행하는 구성요소이다.
제스처정보 수신부(140)는 공간센싱 디바이스(200)로부터 유무선 통신을 통해 제스처 센싱정보를 수신하는 구성요소이다.
입체영상 영상제어부(150)는 이 제스처 센싱정보에 대응하여 입체영상 영상처리부(130)의 3D 영상처리를 제어하는 구성요소이다. 예를 들어, 시점이나 초점을 변경하는 조작 등이 될 수 있다.
[도 6]은 본 발명에서 공간센싱 디바이스(200)의 내부 구성을 나타내는 블록도이다. [도 6]을 참조하면, 본 발명에서 공간센싱 디바이스(200)는 복수의 적외선 센서모듈(210), 조작공간 설정부(220), 사용자동작 인식부(230), 제스처정보 생성부(240), 제스처정보 송신부(250)를 포함하여 구성될 수 있다.
이하에서는 공간센싱 디바이스(200)를 구성하는 내부 구성에 대해 기술한다.
복수의 적외선 센서모듈(210)은 적외선 반사에 의해 외부 물체에 대한 이격 정보를 획득하는 구성요소이다. 즉, 일정 주기마다 적외선을 송출한 후에 반사되어 돌아오는 시간을 측정함으로써 자신의 앞에 물체가 존재하는지 여부와, 만일 외부 물체가 존재한다면 자신과의 이격 거리는 얼마나 되는지에 관한 정보를 획득한다.
조작공간 설정부(220)는 복수의 적외선 센서모듈(210)을 통해 입체영상 표시장치(100)의 디스플레이 화면에 근접하여 가상의 모션인식 공간인 입체조작 가상공간을 설정하는 구성요소이다. 입체조작 가상공간은 입체영상 표시장치(100) 상에서 입체 영상을 시청하고 있는 사람이 자연스럽게 모션을 취할 수 있는 공간, 즉 입체영상 디스플레이 화면 전방의 공간에 형성될 수 있다. 특히, 입체조작 가상공간이 [도 4]에 나타낸 바와 같이 입체영상 표시장치(100)의 디스플레이 화면에 근접하여 설정되는 경우에는 입체영상 표시장치(100)에 대한 3D 터치 인터페이스를 가상으로 제공할 수 있으므로 바람직하다. 조작공간 설정부(220)는 카메라 모듈과 같이 입체영상 디스플레이 화면의 바운더리(경계)를 식별할 수 있는 구성요소를 활용하여 구현될 수 있다.
사용자동작 인식부(230)는 복수의 적외선 센서모듈(210)로부터 이격 정보를 제공받아 입체조작 가상공간에서의 사용자 동작에 대응하는 다축 움직임 정보를 생성하는 구성요소이다. 즉, 입체조작 가상공간에서 사용자가 손가락이 존재하면 복수의 적외선 센서모듈(210)이 손가락의 위치를 x축, y축, z축 상에서 획득한다. 따라서 입체조작 가상공간에서 사용자가 손가락으로 어떤 동작을 취하면 손가락의 위치에 대한 일련의 값들이 생성된다.
제스처정보 생성부(240)는 시간 흐름에 따른 다축 움직임 정보를 추적하여 사용자 동작에 대응하여 제스처 센싱정보를 생성하는 구성요소이다.
제스처정보 송신부(250)는 제스처 센싱정보를 유무선 통신을 통해 입체영상 표시장치(100)로 제공하는 구성요소이다. 입체영상 표시장치(100)는 이 제스처 센싱정보를 수신하면 그에 기초하여 입체 영상에 대한 3D 영상 조작(예: 원근시점 이동, 재초점, 3차원 깊이정보 추출 등)을 수행한다.
한편, 본 발명은 컴퓨터가 읽을 수 있는 비휘발성 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현되는 것이 가능하다. 이러한 비휘발성 기록매체로는 다양한 형태의 스토리지 장치가 존재하는데 예컨대 하드디스크, SSD, CD-ROM, NAS, 자기테이프, 웹디스크, 클라우드 디스크 등이 있고 네트워크로 연결된 다수의 스토리지 장치에 코드가 분산 저장되고 실행되는 형태도 구현될 수 있다. 또한, 본 발명은 하드웨어와 결합되어 특정의 절차를 실행시키기 위하여 매체에 저장된 컴퓨터프로그램의 형태로 구현될 수도 있다.
100 : 입체영상 표시장치
110 : 입체영상 파일저장부
120 : 입체영상 재생표시부
130 : 입체영상 영상처리부
140 : 제스처정보 수신부
150 : 입체영상 영상제어부
200 : 공간센싱 디바이스
210 : 적외선 센서모듈
220 : 조작공간 설정부
230 : 사용자동작 인식부
240 : 제스처정보 생성부
250 : 제스처정보 송신부

Claims (4)

  1. 입체영상 디스플레이에 대하여 사용자의 제스처 기반으로 3D 영상조작을 제공하기 위한 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템으로서,
    입체 영상을 재생 및 디스플레이하는 입체영상 표시장치(100);
    입체영상 디스플레이 화면 전방의 공간에 가상의 모션인식 공간인 입체조작 가상공간을 설정하고 내장 센서에 의해 상기 입체조작 가상공간에서의 입체적인 사용자 동작을 인식한 제스처 센싱정보를 상기 입체영상 표시장치(100)로 제공하는 공간센싱 디바이스(200);
    를 포함하여 구성되고,
    상기 입체영상 표시장치(100)는 상기 공간센싱 디바이스(200)로부터 제공되는 제스처 센싱정보에 기초하여 상기 재생중인 입체 영상에 대한 3D 영상 조작을 수행하도록 구성되는 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템.
  2. 청구항 1에 있어서,
    상기 입체영상 표시장치(100)는,
    입체 영상의 데이터를 저장하는 입체영상 파일저장부(110);
    입체 영상의 데이터를 재생 및 디스플레이하는 입체영상 재생표시부(120);
    입체 영상의 디스플레이 표시에 대해 3D 영상처리를 수행하는 입체영상 영상처리부(130);
    상기 공간센싱 디바이스(200)로부터 제스처 센싱정보를 수신하는 제스처정보 수신부(140);
    상기 제스처 센싱정보에 대응하여 상기 입체영상 영상처리부(130)의 3D 영상처리를 제어하는 입체영상 영상제어부(150);
    를 포함하여 구성되는 것을 특징으로 하는 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템.
  3. 청구항 1에 있어서,
    상기 공간센싱 디바이스(200)는 상기 입체영상 표시장치(100)의 디스플레이 화면에 근접하여 입체조작 가상공간을 설정함으로써 상기 입체영상 표시장치(100)에 대한 3D 터치 인터페이스를 가상으로 제공하도록 구성되는 것을 특징으로 하는 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템.
  4. 청구항 3에 있어서,
    상기 공간센싱 디바이스(200)는,
    적외선 반사에 의해 외부 물체에 대한 이격 정보를 획득하는 복수의 적외선 센서모듈(210);
    상기 복수의 적외선 센서모듈(210)을 통해 상기 입체영상 표시장치(100)의 디스플레이 화면에 근접하여 가상의 모션인식 공간인 입체조작 가상공간을 설정하는 조작공간 설정부(220);
    상기 복수의 적외선 센서모듈(210)로부터 이격 정보를 제공받아 상기 입체조작 가상공간에서의 사용자 동작에 대응하는 다축 움직임 정보를 생성하는 사용자동작 인식부(230);
    시간 흐름에 따른 상기 다축 움직임 정보를 추적하여 사용자 동작에 대응하여 제스처 센싱정보를 생성하는 제스처정보 생성부(240);
    상기 제스처 센싱정보를 유무선 통신을 통해 상기 입체영상 표시장치(100)로 제공하는 제스처정보 송신부(250);
    를 포함하여 구성되는 것을 특징으로 하는 입체영상 디스플레이의 제스처 기반 3D 인터페이스 처리 시스템.
KR1020210156086A 2021-11-12 2021-11-12 입체영상 디스플레이의 제스처 기반 3d 인터페이스 처리 시스템 KR20230069742A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210156086A KR20230069742A (ko) 2021-11-12 2021-11-12 입체영상 디스플레이의 제스처 기반 3d 인터페이스 처리 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210156086A KR20230069742A (ko) 2021-11-12 2021-11-12 입체영상 디스플레이의 제스처 기반 3d 인터페이스 처리 시스템

Publications (1)

Publication Number Publication Date
KR20230069742A true KR20230069742A (ko) 2023-05-19

Family

ID=86546725

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210156086A KR20230069742A (ko) 2021-11-12 2021-11-12 입체영상 디스플레이의 제스처 기반 3d 인터페이스 처리 시스템

Country Status (1)

Country Link
KR (1) KR20230069742A (ko)

Similar Documents

Publication Publication Date Title
US11676349B2 (en) Wearable augmented reality devices with object detection and tracking
US11782513B2 (en) Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US20220158498A1 (en) Three-dimensional imager and projection device
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US8570372B2 (en) Three-dimensional imager and projection device
US9886102B2 (en) Three dimensional display system and use
US9939914B2 (en) System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9824485B2 (en) Presenting a view within a three dimensional scene
CN102959616B (zh) 自然交互的交互真实性增强
US8388146B2 (en) Anamorphic projection device
US11954268B2 (en) Augmented reality eyewear 3D painting
CN110377148B (zh) 计算机可读介质、训练对象检测算法的方法及训练设备
CA2914012A1 (en) Shared and private holographic objects
CN107407959A (zh) 基于姿势的三维图像的操纵
KR101177058B1 (ko) 마커 기반 3차원 입체 시스템
KR101414362B1 (ko) 영상인지 기반 공간 베젤 인터페이스 방법 및 장치
KR20230069742A (ko) 입체영상 디스플레이의 제스처 기반 3d 인터페이스 처리 시스템
Bhowmik Natural and intuitive user interfaces with perceptual computing technologies
Olwal An introduction to augmented reality
Hamadouche Augmented reality X-ray vision on optical see-through head mounted displays

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application