KR20130078322A - 3d 영상 제어 장치 및 방법 - Google Patents

3d 영상 제어 장치 및 방법 Download PDF

Info

Publication number
KR20130078322A
KR20130078322A KR1020110147193A KR20110147193A KR20130078322A KR 20130078322 A KR20130078322 A KR 20130078322A KR 1020110147193 A KR1020110147193 A KR 1020110147193A KR 20110147193 A KR20110147193 A KR 20110147193A KR 20130078322 A KR20130078322 A KR 20130078322A
Authority
KR
South Korea
Prior art keywords
image
user object
virtual tool
tool
sensing
Prior art date
Application number
KR1020110147193A
Other languages
English (en)
Other versions
KR101745332B1 (ko
Inventor
이권주
서성주
박두식
유병인
최창규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110147193A priority Critical patent/KR101745332B1/ko
Priority to US13/585,258 priority patent/US9207756B2/en
Publication of KR20130078322A publication Critical patent/KR20130078322A/ko
Application granted granted Critical
Publication of KR101745332B1 publication Critical patent/KR101745332B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상 도구를 이용하여 3D 영상을 제어하는 장치 및 방법이 개시된다. 3D 영상 제어 장치는, 3D 영상을 제어하는 사용자 오브젝트(user object)를 센싱하고, 사용자 오브젝트의 움직임과 매칭하는 타겟 가상 도구를 결정할 수 있다. 그리고, 결정된 타겟 가상 도구를 3D 영상과 함께 디스플레이할 수 있다.

Description

3D 영상 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING 3D IMAGE}
사용자 오브젝트에 따라 3D 영상의 디스플레이를 제어하고, 제어된 3D 영상을 재생하는 장치 및 방법에 관한 것이다.
3D 영상 제어 장치는, 사용자 오브젝트의 멀티 터치를 이용하여 3D 영상의 디스플레이를 제어한다.
예를 들어, 3D 영상 제어 장치는 3D 영상을 디스플레이하는 스크린과 사용자 오브젝트 사이의 거리가 근접하거나 또는, 사용자 오브젝트가 스크린을 직접 터치(touch)함에 따라, 3D 영상의 디스플레이를 제어한다.
이때, 3D 영상을 제어하려는 사용자 오브젝트의 실제 위치와 디스플레이되는 3D 영상의 공간 위치 간의 불일치, 시선의 불일치가 발생할 수 있다. 이러한 공간 위치 및 시선의 불일치로 인해 3D 영상을 제어하는데 어려움이 존재한다.
특히, 3D 영상을 제어하기 위해 사용자 오브젝트가 스크린에 가까이 다가감에 따라, 사용자의 눈과 3D 영상 사이에 사용자 오브젝트가 위치할 수 있다. 그러면, 사용자 오브젝트에 의해 3D 영상이 가려지게 되어 3D 영상의 입체감이 사라지거나 또는 자연스럽게 3D 영상을 재생하기 어렵다.
이에 따라, 사용자 오브젝트가 3D 영상의 디스플레이를 방해하지 않으면서 3D 영상을 제어하고, 자연스러운 입체감을 갖는 3D 영상을 재생할 수 있는 기술이 필요하다.
본 3D 영상 제어 장치는, 가상 도구(Virtual Tool)를 이용하여 3D 영상을 제어하는 사용자 오브젝트(user object)를 센싱하는 센싱부, 상기 사용자 오브젝트의 센싱에 기초하여 타겟 가상 도구를 결정하는 결정부, 및 상기 타겟 가상 도구를 상기 3D 영상과 함께 디스플레이하는 디스플레이부를 포함할 수 있다.
또한, 상기 디스플레이부는, 상기 사용자 오브젝트가 3D 영상의 입체감을 방해하지 않도록 3D 영상의 주변에 상기 가상 도구의 실행 도구를 디스플레이할 수 있다.
또한, 상기 디스플레이부는, 상기 사용자 오브젝트를 센싱함에 따라 획득된 사용자 오브젝트의 공간 좌표, 및 3D 영상의 공간 좌표에 기초하여 결정된 3D 영상의 주변에 가상 도구의 실행 도구를 디스플레이할 수 있다.
또한, 센싱부는, 상기 사용자 오브젝트를 센싱함에 따라 사용자 오브젝트의 공간 좌표와 사용자 오브젝트의 모양(shape)을 획득할 수 있다.
또한, 상기 결정부는, 상기 사용자 오브젝트의 공간 좌표 및 모양에 기초하여 사용자 오브젝트의 움직임을 결정할 수 있다.
또한, 상기 결정부는, 상기 3D 영상의 주변에 디스플레이되는 실행 도구들 중에서 상기 사용자 오브젝트의 움직임과 매칭하는 실행 도구를 결정하고, 상기 사용자 오브젝트의 움직임과 매칭하는 실행 도구에 대응하는 가상 도구를 상기 타겟 가상 도구로 결정할 수 있다.
또한, 상기 센싱부는, 상기 디스플레이부의 외곽(bezel) 및 상기 디스플레이부의 하부 중 적어도 하나에 배치될 수 있다.
또한, 상기 디스플레이부는, 상기 3D 영상에 설정된 가상 도구의 종류에 따라 서로 다른 속성의 가상 도구를 디스플레이할 수 있다.
또한, 상기 센싱부는, 카메라, 초음파 스캔 장치, 레이저(Laser) 스캔 장치, 및 센서 어레이(sensor array) 중 적어도 하나를 이용하여 상기 사용자 오브젝트를 센싱할 수 있다.
본 3D 영상 제어 방법은, 가상 도구(Virtual Tool)를 이용하여 3D 영상을 제어하는 사용자 오브젝트(user object)를 센싱하는 단계, 상기 사용자 오브젝트의 센싱에 기초하여 타겟 가상 도구를 결정하는 단계, 및 상기 타겟 가상 도구를 상기 3D 영상과 함께 디스플레이하는 단계를 포함할 수 있다.
또한, 상기 디스플레이하는 단계는, 상기 사용자 오브젝트가 3D 영상의 입체감을 방해하지 않도록 3D 영상의 주변에 상기 가상 도구의 실행 도구를 디스플레이할 수 있다.
또한, 상기 결정하는 단계는, 상기 3D 영상의 주변에 디스플레이되는 실행 도구들 중에서 상기 사용자 오브젝트의 움직임과 매칭하는 실행 도구를 결정하는 단계, 및 상기 사용자 오브젝트의 움직임과 매칭하는 실행 도구에 대응하는 가상 도구를 상기 타겟 가상 도구로 결정하는 단계를 포함할 수 있다.
또한, 상기 디스플레이하는 단계는, 상기 3D 영상에 설정된 가상 도구의 종류에 따라 서로 다른 속성의 가상 도구를 디스플레이할 수 있다.
본 발명의 일실시예에 따르면, 가상 도구를 이용함에 따라 3D 영상의 입체감을 유지하면서 3D 영상의 디스플레이를 제어할 수 있다.
도 1은 가상 도구를 이용한 3D 영상 제어 장치의 전반적인 구성을 도시한 도면이다.
도 2는 도 1의 3D 영상 제어 장치에서 3D 영상 주변에 복수의 가상 도구를 디스플레이하는 구성을 도시한 도면이다.
도 3은 3D 영상 제어 장치의 세부 구성을 도시한 블록 다이어그램이다.
도 4는 도 3의 3D 영상 제어 장치에서 회전 가상 도구를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 5는 도 3의 3D 영상 제어 장치에서 이동 가상 도구를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 6은 도 3의 3D 영상 제어 장치에서 스캐일링 가상 도구를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 7은 도 3의 3D 영상 제어 장치에서 컷팅 가상 도구를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 8은 도 3의 3D 영상 제어 장치에서 센서 어레이를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 9는 도 3의 3D 영상 제어 장치에 의해 수행되는 3D 영상 제어 방법을 설명하기 위해 제공되는 플로우차트이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 가상 도구를 이용한 3D 영상 제어 장치의 전반적인 구성을 도시한 도면이다.
도 1에 따르면, 3D 영상 제어 장치(101)는 3D 영상(102) 및 3D 영상의 디스플레이를 제어하는 가상 도구(Virtual Tool: 103)을 디스플레이할 수 있다.
이때, 3D 영상 제어 장치(101)는 사용자에게 3D 영상의 입체감을 방해하지 않으면서, 가상 도구를 디스플레이 할 수 있다. 여기서, 3D 영상 제어를 위한 사용자의 조작 수단인 사용자 오브젝트는 사용자의 손, 스틱, 펜 등을 포함할 수 있다. 그리고, 가상 도구는, 3D 영상 제어를 위한 태스크(Task)에 대응하여 3D 영상에 설정된 제어 도구이다. 예를 들어, 가상 도구는, 3D 영상의 이동을 제어하는 이동 가상 도구, 회전을 제어하는 회전 가상 도구, 컷팅(cutting)을 제어하는 컷팅 가상 도구, 스캐일링(scaling)을 제어하는 스캐일링 가상 도구 등을 포함할 수 있다.
일례로, 도 2를 참고하면, 3D 영상 제어 장치(101)는 사용자 오브젝트가 3D 영상의 입체감을 방해하지 않도록, 3D 영상(201)의 주변에 가상 도구의 실행 도구들(201~204)을 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(101)는 3D 영상의 공간 좌표와 사용자 오브젝트를 센싱하여 획득한 사용자 오브젝트의 공간 좌표에 기초하여 3D 영상과 이웃하는 주변 공간을 3D 영상의 입체감을 방해하지 않는 공간을 결정하고, 결정된 공간에 가상 도구의 실행 도구들을 디스플레이할 수 있다. 여기서, 실행 도구는 가상 도구를 실행하기 위해 제공되는 것으로서, 아이콘, 메뉴, 애니메이션, 이미지 형태를 가질 수 있다.
그리고, 3D 영상 제어 장치(101)는 센싱된 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양(shape)에 기초하여 사용자 오브젝트의 움직임(movement)을 결정할 수 있다. 예를 들어, 사용자 오브젝트의 움직임은, 사용자 오브젝트의 제스처(gesture)를 포함할 수 있다.
이어, 3D 영상 제어 장치(101)는 3D 영상의 주변에 디스플레이되는 실행 도구들 중에서 사용자 오브젝트의 움직임과 매칭하는 실행 도구를 결정할 수 있다.
그리고, 3D 영상 제어 장치(101)는 사용자 오브젝트의 움직임과 매칭하는 실행 도구에 대응하는 가상 도구를 타겟 가상 도구(target virtual tool)로 결정할 수 있다.
그러면, 3D 영상 제어 장치(101)는 3D 영상과 타겟 가상 도구를 함께 디스플레이할 수 있다. 또한, 타겟 가상 도구와 3D 영상은 사용자 오브젝트의 움직임(movement)과 매칭하여 변경되어 디스플레이 될 수 있다. 여기서, 움직임은, 사용자의 제스처(gesture) 및 모양(shape)을 포함할 수 있다.
도 3은 3D 영상 제어 장치의 세부 구성을 도시한 블록 다이어그램이다.
도 3에 따르면, 3D 영상 제어 장치(300)는, 센싱부(301), 결정부(302), 및 디스플레이부(303)를 포함할 수 있다.
센싱부(301)는, 가상 도구(Virtual Tool)를 이용하여 3D 영상을 제어하려는 사용자 오브젝트(user object)를 센싱할 수 있다.
여기서, 사용자 오브젝트는 사용자의 손, 스틱, 펜 등을 포함할 수 있다. 그리고, 가상 도구는, 3D 영상 제어를 위한 태스크(Task)에 대응하여 3D 영상에 설정된 제어 도구이다. 예를 들어, 가상 도구는, 3D 영상의 이동을 제어하는 이동 가상 도구, 회전을 제어하는 회전 가상 도구, 컷팅(cutting)을 제어하는 컷팅 가상 도구, 스캐일링(scaling)을 제어하는 스캐일링 가상 도구 등을 포함할 수 있다.
그리고, 센싱부(301)는 디스플레이부(303)의 외곽(bezel), 디스플레이부(303)의 하부 및 내부 중 적어도 하나에 배치되어 사용자 오브젝트를 센싱할 수 있다. 여기서, 센싱부(301)는 카메라, 초음파 스캔 장치, 레이저 스캔 장치, 및 센서 어레이 중 적어도 하나를 포함할 수 있다.
예를 들어, 디스플레이부(303)의 외각에 하나 이상의 카메라, 초음파 스캔 장치, 또는 레이저(laser) 스캔 장치가 배치될 수 있다. 여기서, 카메라는 깊이 카메라(depth camera), 및 다시점 카메라(multi-view camera)를 포함할 수 있다. 그리고, 레이저 스캔 장치를 이용하는 경우, 센싱부(301)는 레이저 스캐닝(Laser scanning)을 통해 사용자 오브젝트를 센싱할 수 있다. 이때, 디스플레이부(303)의 내부 또는 하부에 센서 어레이(sensor array)가 배치될 수 있다. 이처럼, 센서 어레이를 이용하는 경우, 센싱부(301)는 사용자 오브젝트의 공간 좌표뿐만 아니라, 3D 영상으로부터 사용자 오브젝트까지의 거리, 사용자 오브젝트의 모양을 센싱할 수 있다.
이처럼, 센싱부(301)는 사용자 오브젝트를 센싱하여 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양(shape)을 획득할 수 있다. 그리고, 센서 어레이를 이용하는 경우, 센싱부(301)는 3D 영상으로부터 사용자 오브젝트까지의 거리를 추가로 획득할 수 있다.
결정부(302)는 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양에 기초하여 사용자 오브젝트의 움직임(movement)을 결정할 수 있다. 여기서, 사용자 오브젝트의 움직임은, 사용자 오브젝트의 제스처(gesture)를 포함할 수 있다.
이때, 결정부(302)는 3D 영상의 주변에 디스플레이되는 가상 도구의 실행 도구들 중에서 사용자 오브젝트의 움직임과 매칭하는 실행 도구를 결정하고, 사용자 오브젝트의 움직임과 매칭하는 실행 도구에 대응하는 가상 도구를 타겟 가상 도구로 결정할 수 있다.
일례로, 사용자 오브젝트로 사용자의 손이 이용되는 경우, 결정부(302)는 사용자 오브젝트의 공간 좌표와 사용자 오브젝트의 모양에 기초하여 사용자의 손이 상하로 컷팅하는 동작을 취하고 있음을 결정할 수 있다. 다시 말해, 결정부(302)는 사용자 오브젝트의 움직임이 컷팅에 해당하는 것으로 결정할 수 있다.
그리고, 결정부(302)는 디스플레이되는 가상 도구의 실행 도구들 중에서 컷팅과 매칭하는 실행 도구를 결정하고, 결정된 실행 도구에 대응하는 컷팅 가상 도구를 타겟 가상 도구로 결정할 수 있다.
디스플레이부(303)는 3D 영상의 주변에 가상 도구의 실행 도구를 디스플레이할 수 있다. 이때, 디스플레이부(303)는 아이콘, 메뉴, 애니메이션, 또는 이미지 형태의 실행 도구를 3D 영상 주변에 하나 이상 디스플레이할 수 있다.
그리고, 디스플레이부(303)는 사용자 오브젝트의 움직임과 매칭하는 타겟 가상 도구와 3D 영상을 함께 디스플레이할 수 있다.
일례로, 3D 영상 주변에 컷팅 가상 도구에 대응하는 실행 도구 1, 이동 가상 도구에 대응하는 실행 도구 2, 회전 가상 도구에 대응하는 실행 도구 3, 및 스캐일링 가상 도구에 대응하는 실행 도구 4가 디스플레이되고, 사용자 오브젝트의 움직임이 컷팅에 해당하는 경우, 결정부(302)는 실행 도구 1에 대응하는 컷팅 가상 도구를 타겟 가상 도구로 결정할 수 있다. 그러면, 디스플레이부(303)는 3D 영상과 타겟 가상 도구를 함께 디스플레이할 수 있다. 이때, 디스플레이부(303)는 3D 영상의 입체감을 방해하지 않도록 3D 영상 주변에 타겟 가상 도구를 디스플레이할 수 있다. 예를 들어, 컷팅 가상 도구는 나이프(knife), 가위, 커터 칼 등의 속성을 포함할 수 있다. 다시 말해, 디스플레이부(303)는 사용자 오브젝트가 3D 영상의 컷팅을 용이하게 제어할 수 있도록 나이프, 가위, 또는 커터 칼 형태의 컷팅 가상 도구를 디스플레이할 수 있다.
이처럼, 디스플레이부(303)는 가상 도구의 종류에 따라 서로 다른 속성의 가상 도구를 디스플레이할 수 있다. 예를 들어, 타겟 가상 도구가 회전 가상 도구인 경우, 디스플레이부(303)는 사용자 오브젝트가 3D 영상의 회전 제어를 용이하게 할 수 있도록 트랙볼(Trackball) 형태의 회전 가상 도구를 디스플레이할 수 있다. 그리고, 타겟 가상 도구가 스캐일링 가상 도구인 경우, 디스플레이부(303)는 사용자 오브젝트가 3D 영상의 줌인(Zoom-in) 및 줌아웃(Zoom-out) 제어를 용이하게 제어할 수 있도록 툴바(tool bar) 형태의 회전 가상 도구를 디스플레이할 수 있다. 마찬가지로, 타겟 가상 도구가 이동 가상 도구인 경우, 사용자 오브젝트가 3D 영상의 이동을 용이하게 제어할 수 있도록 포크, 화살표, 또는 집게 형태의 이동 가상 도구를 디스플레이할 수 있다.
그러면, 센싱부(301)는 타겟 가상 도구를 이용하여 3D 영상을 제어하는 사용자 오브젝트를 센싱할 수 있다. 그리고, 결정부(302)는 사용자 오브젝트의 센싱을 통해 결정된 사용자 오브젝트의 움직임에 기초하여 변경하고자 하는 타겟 3D 영상을 결정할 수 있다. 그러면, 디스플레이부(303)는 결정된 3D 영상을 디스플레이할 수 있다.
일례로, 타겟 가상 도구가 컷팅 가상 도구이고, 컷팅 가상 도구를 이용하여 사용자 오브젝트가 3D 영상을 컷팅하는 동작을 수행하는 경우, 센싱부(301)는 3D 영상의 컷팅하는 사용자 오브젝트를 센싱할 수 있다. 그러면, 결정부(303)는 사용자 오브젝트의 공간 좌표 및 모양에 기초하여 사용자 오브젝트의 움직임이 가로 컷팅, 세로 컷팅, 대각선 컷팅, 한번 컷팅, 두 번 컷팅 등을 나타내는지 여부를 결정할 수 있다. 그리고, 결정부(303)는 사용자 오브젝트의 움직임과 매칭하는 3D 영상을 타겟 3D 영상으로 결정할 수 있다. 그러면, 디스플레이부(303)는 타겟 3D 영상을 타겟 가상 도구와 함께 디스플레이할 수 있다.
도 4는 도 3의 3D 영상 제어 장치에서 회전 가상 도구를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 4를 참고하면, 3D 영상 제어 장치(400)의 외곽에는 카메라, 초음파 스캔 장치, 레이저 스캔 장치 등이 배치될 수 있다.
이때, 3D 영상 제어 장치(400)는 3D 영상(401)의 공간 좌표에 기초하여 3D 영상의 주변에 위치하며, 3D 영상(401)의 입체감을 방해하지 않는 공간에 회전 가상 도구(402)를 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(400)는 회전 가상 도구의 속성에 기초하여 트랙볼 형태의 회전 가상 도구(402)를 디스플레이할 수 있다.
그리고, 3D 영상 제어 장치(400)는 카메라를 이용하여 회전 가상 도구(402)를 조작하는 사용자 오브젝트(403)를 센싱할 수 있다. 이어, 3D 영상 제어 장치(400)는 사용자 오브젝트(403)의 센싱을 통해 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양을 획득할 수 있다. 그러면, 3D 영상 제어 장치(400)는 사용자 오브젝트의 공간 좌표와 모양에 기초하여 사용자 오브젝트의 움직임을 결정할 수 있다. 이때, 3D 영상 제어 장치(400)는 사용자 오브젝트의 움직임이 회전 가상 도구를 이용하여 3D 영상을 특정 방향으로 회전한 것인지 여부를 결정할 수 있다. 예를 들어, 특정 방향으로의 회전은, 왼쪽으로 회전, 오른쪽으로 회전, 위에서 아래로 회전, 아래에서 위로 회전, 또는 대각선 방향으로 회전을 포함할 수 있다.
그리고, 3D 영상 제어 장치(400)는 결정된 사용자 오브젝트의 움직임과 매칭하는 3D 영상을 타겟 3D 영상으로 결정할 수 있다. 이어, 3D 영상 제어 장치(400)는 디스플레이되는 3D 영상을 타겟 3D 영상으로 변경하여 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(400)는 타겟 3D 영상과 타겟 가상 도구를 함께 디스플레이할 수 있다. 이에 따라, 사용자 오브젝트가 회전 가상 도구를 이용하여 3D 영상을 왼쪽으로 회전하는 경우, 3D 영상 제어 장치(400)는 왼쪽으로 회전하는 3D 영상(401) 및 왼쪽으로 회전하는 회전 가상 도구를 함께 디스플레이할 수 있다.
도 5는 도 3의 3D 영상 제어 장치에서 이동 가상 도구를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 5를 참고하면, 3D 영상 제어 장치(500)의 외곽에는 카메라, 초음파 스캔 장치, 레이저 스캔 장치 등이 배치될 수 있다.
이때, 3D 영상 제어 장치(500)는 3D 영상(501)의 공간 좌표에 기초하여 3D 영상의 주변에 위치하며, 3D 영상(501)의 입체감을 방해하지 않는 공간에 이동 가상 도구(502)를 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(500)는 이동 가상 도구의 속성에 기초하여 포크 형태의 이동 가상 도구(502)를 디스플레이할 수 있다.
그리고, 3D 영상 제어 장치(500)는 카메라를 이용하여 이동 가상 도구(502)를 조작하는 사용자 오브젝트(503)를 센싱할 수 있다. 이어, 3D 영상 제어 장치(500)는 사용자 오브젝트(503)의 센싱을 통해 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양을 획득할 수 있다. 그러면, 3D 영상 제어 장치(500)는 사용자 오브젝트의 공간 좌표와 모양에 기초하여 사용자 오브젝트의 움직임을 결정할 수 있다. 예를 들어, 3D 영상 제어 장치(500)는 사용자 오브젝트의 움직임이 이동 가상 도구를 이용하여 3D 영상을 앞, 뒤, 상, 하, 좌, 우, 대각선 등의 특정 방향으로 이동하려는 것인지 여부를 결정할 수 있다.
이어, 3D 영상 제어 장치(500)는 결정된 사용자 오브젝트의 움직임과 매칭하는 3D 영상을 타겟 3D 영상으로 결정할 수 있다. 이어, 3D 영상 제어 장치(500)는 디스플레이되는 3D 영상을 타겟 3D 영상으로 변경하여 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(500)는 타겟 3D 영상과 타겟 가상 도구를 함께 디스플레이할 수 있다. 이에 따라, 사용자 오브젝트가 이동 가상 도구를 이용하여 3D 영상을 오른쪽으로 이동하는 경우, 3D 영상 제어 장치(500)는 오른쪽으로 이동하는 3D 영상을 타겟 3D 영상(504)으로 디스플레이할 수 있다. 이때, 3D 영상을 오른쪽으로 이동함에 따라 사용자 오브젝트(503) 및 3D 영상(501)의 위치가 변경될 수 있다. 그러면, 3D 영상 제어 장치(500)는 타겟 3D 영상(504)의 공간 좌표 및 오른쪽 이동에 따라 변경된 사용자 오브젝트(506)의 공간 좌표에 기초하여 이동 가상 도구(505)를 디스플레이할 수 있다.
이처럼, 3D 영상 제어 장치(500)는 3D 영상 및 사용자 오브젝트의 오른쪽 이동에 기초하여 이동 가상 도구(505)를 오른쪽으로 이동하여 디스플레이 함에 따라, 오른쪽으로 이동한 위치에서도 사용자 오브젝트(506)가 계속하여 자연스럽게 3D 영상을 제어할 수 있도록 제공할 수 있다. 그리고, 3D 영상 제어 장치(500)는 이동된 3D 영상(504)의 공간 좌표 및 이동된 사용자 오브젝트(506)의 공간 좌표에 기초하여 이동 가상 도구(505)를 디스플레이함에 따라, 3D 영상(504)의 입체감을 방해하지 않는 공간에 이동 가상 도구(505)를 디스플레이할 수 있다.
도 6은 도 3의 3D 영상 제어 장치에서 스캐일링 가상 도구를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 6을 참고하면, 3D 영상 제어 장치(600)의 외곽에는 카메라, 초음파 스캔 장치, 레이저 스캔 장치 등이 배치될 수 있다.
이때, 3D 영상 제어 장치(600)는 3D 영상(601)의 공간 좌표에 기초하여 3D 영상의 주변에 위치하며, 3D 영상(601)의 입체감을 방해하지 않는 공간에 스캐일링 가상 도구(602)를 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(600)는 스캐일링 가상 도구의 속성에 기초하여 툴바(tool bar) 형태의 스캐일링 가상 도구(602)를 디스플레이할 수 있다.
그리고, 3D 영상 제어 장치(600)는 카메라를 이용하여 스캐일링 가상 도구(602)를 조작하는 사용자 오브젝트(603)를 센싱할 수 있다. 이어, 3D 영상 제어 장치(600)는 사용자 오브젝트(603)의 센싱을 통해 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양을 획득할 수 있다. 그러면, 3D 영상 제어 장치(600)는 사용자 오브젝트의 공간 좌표와 모양에 기초하여 사용자 오브젝트의 움직임을 결정할 수 있다. 예를 들어, 3D 영상 제어 장치(600)는 사용자 오브젝트의 움직임이 스캐일링 가상 도구를 이용하여 3D 영상을 특정 비율로 줌인 또는 줌아웃하려는 것인지 여부를 결정할 수 있다.
이어, 3D 영상 제어 장치(600)는 결정된 사용자 오브젝트의 움직임과 매칭하는 3D 영상을 타겟 3D 영상으로 결정할 수 있다. 이어, 3D 영상 제어 장치(600)는 디스플레이되는 3D 영상을 타겟 3D 영상으로 변경하여 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(600)는 타겟 3D 영상과 타겟 가상 도구인 스캐일링 가상 도구를 함께 디스플레이할 수 있다. 예를 들어, 사용자 오브젝트가 스캐일링 가상 도구를 이용하여 3D 영상을 줌인하는 경우, 3D 영상 제어 장치(600)는 줌인된 3D 영상을 타겟 3D 영상으로 결정하여 디스플레이할 수 있다. 마찬가지로, 사용자 오브젝트가 스캐일링 가상 도구를 이용하여 3D 영상을 줌인하는 경우, 3D 영상 제어 장치(600)는 줌아웃된 3D 영상을 타겟 3D 영상으로 결정하여 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(600)는 줌인 또는 줌아웃된 3D 영상의 주변에 스캐일링 가상 도구를 디스플레이할 수 있다.
도 7은 도 3의 3D 영상 제어 장치에서 컷팅 가상 도구를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 7을 참고하면, 3D 영상 제어 장치(700)의 외곽에는 카메라, 초음파 스캔 장치, 레이저 스캔 장치 등이 배치될 수 있다.
이때, 3D 영상 제어 장치(700)는 3D 영상의 공간 좌표에 기초하여 3D 영상의 주변에 위치하며, 3D 영상의 입체감을 방해하지 않는 공간에 컷팅 가상 도구(702)를 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(700)는 컷팅 가상 도구의 속성에 기초하여 나이프(knife) 형태의 컷팅 가상 도구(702)를 디스플레이할 수 있다.
그리고, 3D 영상 제어 장치(700)는 카메라를 이용하여 컷팅 가상 도구(602)를 조작하는 사용자 오브젝트(702)를 센싱할 수 있다. 이어, 3D 영상 제어 장치(700)는 사용자 오브젝트(703)의 센싱을 통해 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양을 획득할 수 있다. 그러면, 3D 영상 제어 장치(700)는 사용자 오브젝트의 공간 좌표와 모양에 기초하여 사용자 오브젝트의 움직임을 결정할 수 있다. 예를 들어, 3D 영상 제어 장치(700)는 사용자 오브젝트의 움직임이 컷팅 가상 도구를 이용하여 3D 영상을 특정 비율로 한번 이상 컷팅하는 것인지 여부를 결정할 수 있다.
이어, 3D 영상 제어 장치(700)는 결정된 사용자 오브젝트의 움직임과 매칭하는 3D 영상을 타겟 3D 영상으로 결정할 수 있다. 이어, 3D 영상 제어 장치(700)는 디스플레이되는 3D 영상을 타겟 3D 영상으로 변경하여 디스플레이할 수 있다. 이때, 3D 영상 제어 장치(700)는 타겟 3D 영상과 타겟 가상 도구인 컷팅 가상 도구를 함께 디스플레이할 수 있다. 예를 들어, 사용자 오브젝트가 컷팅 가상 도구를 이용하여 3D 영상을 3회 컷팅한 경우, 3D 영상 제어 장치(700)는 3회 컷팅된 3D 영상(701)을 타겟 3D 영상으로 결정할 수 있다. 그리고, 3D 영상 제어 장치(700)는 3회 컷팅된 3D 영상(701)과 컷팅 가상 도구(702)를 함께 디스플레이할 수 있다.
도 8은 도 3의 3D 영상 제어 장치에서 센서 어레이를 이용하여 3D 영상을 제어하는 동작을 설명하기 위해 제공되는 도면이다.
도 8을 참고하면, 3D 영상 제어 장치(800)에 마련된 디스플레이부(801)의 내부 또는 하부에는 센서 어레이(802)가 배치될 수 있다. 도 8의 3D 영상 제어 장치(800)는 도 4의 3D 영상 제어 장치(400)에서 카메라 대신에 센서 어레이를 이용하여 사용자 오브젝트를 센싱하는 동작을 제외하고는, 도 4의 3D 영상 제어 장치(400)의 동작과 동일하다.
3D 영상 제어 장치(800)는 센서 어레이(802)를 이용하여 회전 가상 도구(804)를 조작하는 사용자 오브젝트(805)를 센싱할 수 있다. 예를 들어, 센서 어레이(802)는 사용자 오브젝트(804)를 센싱함에 따라, 사용자 오브젝트의 공간 좌표, 사용자 오브젝트의 모양, 및 사용자 오브젝트와 3D 영상(803) 간의 거리를 획득할 수 있다.
그러면, 3D 영상 제어 장치(800)는 사용자 오브젝트의 공간 좌표, 사용자 오브젝트의 모양, 및 사용자 오브젝트와 3D 영상(803) 간의 거리 중 적어도 하나를 이용하여 사용자 오브젝트의 움직임을 결정할 수 있다. 그리고, 3D 영상 제어 장치(800)는 사용자 오브젝트의 움직임과 매칭하는 타겟 3D 영상을 디스플레이할 수 있다. 여기서, 회전 가상 도구를 이용하여 타겟 3D 영상을 결정 및 디스플레이하는 동작은 도 4에서 이미 설명하였으므로, 중복되는 설명은 생략하기로 한다.
도 9는 도 3의 3D 영상 제어 장치에 의해 수행되는 3D 영상 제어 방법을 설명하기 위해 제공되는 플로우차트이다.
도 9를 참고하면, 901 단계에서, 3D 영상 제어 장치는 3D 영상을 디스플레이할 수 있다.
이어, 902 단계에서, 3D 영상 제어 장치는 3D 영상의 주변에 가상 도구의 실행 도구를 디스플레이할 수 있다. 여기서, 실행 도구는 가상 도구를 실행하기 위해 제공되는 것으로서, 아이콘, 메뉴, 애니메이션, 이미지 형태를 가질 수 있다.
이때, 3D 영상 제어 장치는, 3D 영상의 입체감을 방해하지 않는 공간에 가상 도구의 실행 도구를 디스플레이할 수 있다. 예를 들어, 3D 영상 제어 장치는 3D 영상의 공간 좌표와 사용자 오브젝트의 공간 좌표에 기초하여 3D 영상의 입체감을 방해하지 않는 공간을 결정하고, 결정된 공간에 가상 도구의 실행 도구를 디스플레이할 수 있다.
그리고, 903 단계에서, 3D 영상 제어 장치는 사용자 오브젝트를 센싱할 수 있다. 이때, 3D 영상 제어 장치에 마련된 디스플레이부의 외곽(bezel), 디스플레이부의 하부 및 내부 중 적어도 하나에 카메라, 초음파 스캔 장치, 레이저 스캔 장치, 및 센서 어레이 중 적어도 하나가 배치될 수 있다. 그러면, 3D 영상 제어 장치는, 카메라, 초음파 스캔 장치, 레이저 스캔 장치, 및 센서 어레이 중 적어도 하나를 이용하여 사용자 오브젝트를 센싱할 수 있다.
이때, 3D 영상 제어 장치는 사용자 오브젝트를 센싱함에 따라 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양(shape)을 획득할 수 있다.
일례로, 카메라를 이용하는 경우, 3D 영상 제어 장치는, 사용자 오브젝트의 공간 좌표 및 사용자 오브젝트의 모양(shape)을 획득할 수 있다.
다른 예로, 센서 어레이를 이용하는 경우, 3D 영상 제어 장치는, 사용자 오브젝트의 공간 좌표, 사용자 오브젝트의 모양(shape) 및 3D 영상으로부터 사용자 오브젝트까지의 거리를 획득할 수 있다.
그러면, 904 단계에서, 3D 영상 제어 장치는 사용자 오브젝트의 공간 좌표, 사용자 오브젝트의 모양, 및 3D 영상으로부터 사용자 오브젝트까지의 거리 중 적어도 하나에 기초하여 사용자 오브젝트의 움직임을 결정할 수 있다.
이어, 905 단계에서, 3D 영상 제어 장치는 사용자 오브젝트의 움직임에 기초하여 타겟 가상 도구 및 타겟 3D 영상 중 적어도 하나를 결정하여 디스플레이할 수 있다. 이때, 3D 영상 제어 장치는, 가상 도구의 종류에 따라 서로 다른 속성의 가상 도구를 디스플레이할 수 있다.
일례로, 3D 영상 제어 장치는 3D 영상 주변에 가상 도구의 실행 도구들이 디스플레이된 상태에서 사용자 오브젝트의 움직임과 매칭하는 실행 도구를 결정할 수 있다. 예를 들어, 결정된 실행 도구에 대응하는 가상 도구가 회전 가상 도구인 경우, 3D 영상 제어 장치는, 회전 가상 도구를 타겟 가상 도구로 결정할 수 있다. 그리고, 3D 영상 제어 장치는 타겟 가상 도구를 3D 영상 주변에 디스플레이할 수 있다.
다른 예로, 회전 가상 도구가 디스플레이된 상태에서 사용자 오브젝트의 움직임이 왼쪽으로 회전으로 결정된 경우, 3D 영상 제어 장치는, 타겟 가상 도구를 회전 가상 도구로 결정할 수 있다. 이때, 이전 타겟 가상 도구와 현재 타겟 가상 도구가 회전 가상 도구로 동일하므로, 3D 영상 제어 장치는, 3D 영상의 디스플레이를 변경하는 것으로 결정할 수 있다. 그리고, 3D 영상 제어 장치는, 사용자 오브젝트의 움직임과 매칭하는 3D 영상을 타겟 3D 영상으로 결정할 수 있다. 예를 들어, 3D 영상 제어 장치는, 왼쪽으로 회전하는 3D 영상을 타겟 3D 영상으로 결정할 수 있다. 이어, 3D 영상 제어 장치는, 왼쪽으로 회전하는 3D 영상과 회전 가상 도구를 함께 디스플레이할 수 있다.
또 다른 예로, 회전 가상 도구가 디스플레이된 상태에서 사용자 오브젝트의 움직임이 컷팅으로 결정된 경우, 3D 영상 제어 장치는, 컷팅 가상 도구를 타겟 가상 도구로 결정할 수 있다. 이때, 이전 타겟 가상 도구는 회전 가상 도구이고, 현재 타겟 가상 도구는 컷팅 가상 도구로 서로 상이함에 따라, 3D 영상 제어 장치는, 가상 도구의 디스플레이를 변경하는 것으로 결정할 수 있다. 그러면, 3D 영상 제어 장치는, 회전 가상 도구에서 컷팅 가상 도구로 변경하여 디스플레이할 수 있다. 이때, 사용자 오브젝트가 3D 영상을 컷팅하는 동작이 센싱되어 사용자 오브젝트의 움직임이 3회 컷팅으로 결정된 경우, 3D 영상 제어 장치는, 3회 컷팅된 3D 영상을 타겟 3D 영상으로 결정할 수 있다. 그리고, 3D 영상 제어 장치는, 3회 컷팅된 3D 영상과 컷팅 가상 도구를 함께 디스플레이할 수 있다.
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
300: 3D 영상 제어 장치
301: 센싱부
302: 결정부
303: 디스플레이부

Claims (18)

  1. 가상 도구(Virtual Tool)를 이용하여 3D 영상을 제어하는 사용자 오브젝트(user object)를 센싱하는 센싱부;
    상기 사용자 오브젝트의 센싱에 기초하여 타겟 가상 도구를 결정하는 결정부; 및
    상기 타겟 가상 도구를 상기 3D 영상과 함께 디스플레이하는 디스플레이부
    를 포함하는 3D 영상 제어 장치.
  2. 제1항에 있어서,
    상기 디스플레이부는,
    상기 사용자 오브젝트가 3D 영상의 입체감을 방해하지 않도록 3D 영상의 주변에 상기 가상 도구의 실행 도구를 디스플레이하는 것을 특징으로 하는 3D 영상 제어 장치.
  3. 제1항에 있어서,
    상기 디스플레이부는,
    상기 사용자 오브젝트를 센싱함에 따라 획득된 사용자 오브젝트의 공간 좌표, 및 3D 영상의 공간 좌표에 기초하여 결정된 3D 영상의 주변에 가상 도구의 실행 도구를 디스플레이하는 것을 특징으로 하는 3D 영상 제어 장치.
  4. 제1항에 있어서,
    상기 센싱부는,
    상기 사용자 오브젝트를 센싱함에 따라 사용자 오브젝트의 공간 좌표와 사용자 오브젝트의 모양(shape)을 획득하는 것을 특징으로 하는 3D 영상 제어 장치.
  5. 제4항에 있어서,
    상기 결정부는,
    상기 사용자 오브젝트의 공간 좌표 및 모양에 기초하여 사용자 오브젝트의 움직임을 결정하는 것을 특징으로 하는 3D 영상 제어 장치.
  6. 제7항에 있어서,
    상기 결정부는,
    상기 3D 영상의 주변에 디스플레이되는 실행 도구들 중에서 상기 사용자 오브젝트의 움직임과 매칭하는 실행 도구를 결정하고, 상기 사용자 오브젝트의 움직임과 매칭하는 실행 도구에 대응하는 가상 도구를 상기 타겟 가상 도구로 결정하는 것을 특징으로 하는 3D 영상 제어 장치.
  7. 제1항에 있어서,
    상기 센싱부는,
    상기 디스플레이부의 외곽(bezel) 및 상기 디스플레이부의 하부 중 적어도 하나에 배치되는 것을 특징으로 하는 3D 영상 제어 장치.
  8. 제1항에 있어서,
    상기 디스플레이부는,
    상기 3D 영상에 설정된 가상 도구의 종류에 따라 서로 다른 속성의 가상 도구를 디스플레이하는 것을 특징으로 하는 3D 영상 제어 장치.
  9. 제1항에 있어서,
    상기 센싱부는,
    카메라, 초음파 스캔 장치, 레이저 스캔 장치(Laser), 및 센서 어레이(sensor array) 중 적어도 하나를 이용하여 상기 사용자 오브젝트를 센싱하는 것을 특징으로 하는 3D 영상 제어 장치.
  10. 가상 도구(Virtual Tool)를 이용하여 3D 영상을 제어하는 사용자 오브젝트(user object)를 센싱하는 단계;
    상기 사용자 오브젝트의 센싱에 기초하여 타겟 가상 도구를 결정하는 단계; 및
    상기 타겟 가상 도구를 상기 3D 영상과 함께 디스플레이하는 단계
    를 포함하는 3D 영상 제어 방법.
  11. 제10항에 있어서,
    상기 디스플레이하는 단계는,
    상기 사용자 오브젝트가 3D 영상의 입체감을 방해하지 않도록 3D 영상의 주변에 상기 가상 도구의 실행 도구를 디스플레이하는 것을 특징으로 하는 3D 영상 제어 방법.
  12. 제10항에 있어서,
    상기 디스플레이하는 단계는,
    상기 사용자 오브젝트를 센싱함에 따라 획득된 사용자 오브젝트의 공간 좌표, 및 3D 영상의 공간 좌표에 기초하여 결정된 3D 영상의 주변에 가상 도구의 실행 도구를 디스플레이하는 것을 특징으로 하는 3D 영상 제어 방법.
  13. 제10항에 있어서,
    상기 센싱하는 단계는,
    상기 사용자 오브젝트를 센싱함에 따라 사용자 오브젝트의 공간 좌표와 사용자 오브젝트의 모양(shape)을 획득하는 것을 특징으로 하는 3D 영상 제어 방법.
  14. 제13항에 있어서,
    상기 결정하는 단계는,
    상기 사용자 오브젝트의 공간 좌표 및 모양에 기초하여 사용자 오브젝트의 움직임을 결정하는 것을 특징으로 하는 3D 영상 제어 방법.
  15. 제14항에 있어서,
    상기 결정하는 단계는,
    상기 3D 영상의 주변에 디스플레이되는 실행 도구들 중에서 상기 사용자 오브젝트의 움직임과 매칭하는 실행 도구를 결정하는 단계; 및
    상기 사용자 오브젝트의 움직임과 매칭하는 실행 도구에 대응하는 가상 도구를 상기 타겟 가상 도구로 결정하는 단계
    를 포함하는 3D 영상 제어 방법.
  16. 제10항에 있어서,
    상기 디스플레이하는 단계는,
    상기 3D 영상에 설정된 가상 도구의 종류에 따라 서로 다른 속성의 가상 도구를 디스플레이하는 것을 특징으로 하는 3D 영상 제어 방법.
  17. 제10항에 있어서,
    상기 센싱하는 단계는,
    카메라, 초음파 스캔 장치, 레이저(Laser) 스캔 장치, 및 센서 어레이(sensor array) 중 적어도 하나를 이용하여 상기 사용자 오브젝트를 센싱하는 것을 특징으로 하는 3D 영상 제어 방법.
  18. 제10항 내지 17항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.
KR1020110147193A 2011-12-30 2011-12-30 3d 영상 제어 장치 및 방법 KR101745332B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110147193A KR101745332B1 (ko) 2011-12-30 2011-12-30 3d 영상 제어 장치 및 방법
US13/585,258 US9207756B2 (en) 2011-12-30 2012-08-14 Apparatus and method for controlling 3D image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110147193A KR101745332B1 (ko) 2011-12-30 2011-12-30 3d 영상 제어 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20130078322A true KR20130078322A (ko) 2013-07-10
KR101745332B1 KR101745332B1 (ko) 2017-06-21

Family

ID=48694460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110147193A KR101745332B1 (ko) 2011-12-30 2011-12-30 3d 영상 제어 장치 및 방법

Country Status (2)

Country Link
US (1) US9207756B2 (ko)
KR (1) KR101745332B1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US20140214369A1 (en) * 2012-10-31 2014-07-31 Jim Watson Method for providing parametric data for cad software
WO2015065341A1 (en) * 2013-10-29 2015-05-07 Intel Corporation Gesture based human computer interaction
US10168873B1 (en) * 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
US10416834B1 (en) 2013-11-15 2019-09-17 Leap Motion, Inc. Interaction strength using virtual objects for machine control
TWD165580S (zh) * 2014-03-07 2015-01-21 金寶電子工業股份有限公司 具變化外觀之顯示螢幕的圖形化使用者介面
USD774540S1 (en) 2014-05-08 2016-12-20 Express Scripts, Inc. Display screen with a graphical user interface
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US9740011B2 (en) 2015-08-19 2017-08-22 Microsoft Technology Licensing, Llc Mapping input to hologram or two-dimensional display
US10983661B2 (en) 2016-10-24 2021-04-20 Microsoft Technology Licensing, Llc Interface for positioning an object in three-dimensional graphical space

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197416A (ja) 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> ロボット動作点教示装置
JPH11195140A (ja) 1997-12-27 1999-07-21 Canon Inc データ処理方法及び装置並びに記憶媒体
US6762778B1 (en) * 1999-06-10 2004-07-13 Dassault Systemes Three dimensional graphical manipulator
WO2002071337A1 (en) * 2001-03-01 2002-09-12 Volume Interactions Pte Ltd A display apparatus
JP2003085590A (ja) 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
JP4347112B2 (ja) 2004-03-31 2009-10-21 アルパイン株式会社 仮想インタフェース制御装置
US7932909B2 (en) 2004-04-16 2011-04-26 Apple Inc. User interface for controlling three-dimensional animation of an object
KR100603019B1 (ko) 2004-07-01 2006-07-24 한국과학기술연구원 햅틱 인터페이스를 이용한 도자기 디자인 시스템
EP1966767A2 (en) 2005-12-31 2008-09-10 BRACCO IMAGING S.p.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ("dextronet")
US20070279436A1 (en) 2006-06-02 2007-12-06 Hern Ng Method and system for selective visualization and interaction with 3D image data, in a tunnel viewer
US7969435B1 (en) * 2007-11-09 2011-06-28 Spaceclaim Corporation, Inc. Method for modifying any modeled surface as a lofted surface
US7830377B1 (en) * 2008-01-09 2010-11-09 Spaceclaim Corporation, Inc. Systems and methods for using a single tool for the creation and modification of solids and surfaces
DE102008027485B4 (de) 2008-06-09 2010-02-11 Gsi Helmholtzzentrum Für Schwerionenforschung Gmbh Deposition einer Solldosisverteilung in einem zyklisch bewegten Zielgebiet
JP2010026818A (ja) 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc 画像処理プログラム、画像処理装置及び画像処理方法
US8400398B2 (en) 2009-08-27 2013-03-19 Schlumberger Technology Corporation Visualization controls
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
US20120005624A1 (en) * 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US8643569B2 (en) * 2010-07-14 2014-02-04 Zspace, Inc. Tools for use within a three dimensional scene

Also Published As

Publication number Publication date
US9207756B2 (en) 2015-12-08
KR101745332B1 (ko) 2017-06-21
US20130169594A1 (en) 2013-07-04

Similar Documents

Publication Publication Date Title
KR20130078322A (ko) 3d 영상 제어 장치 및 방법
JP6702489B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
CN102947783B (zh) 多点触控标记菜单和有方向性的和弦手势
US10031608B2 (en) Organizational tools on a multi-touch display device
JP5839220B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9423876B2 (en) Omni-spatial gesture input
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US9489040B2 (en) Interactive input system having a 3D input space
EP3217258B1 (en) Method and system for editing scene in three-dimensional space
JP6116934B2 (ja) アイコン操作装置
US20160196692A1 (en) Virtual lasers for interacting with augmented reality environments
US10203837B2 (en) Multi-depth-interval refocusing method and apparatus and electronic device
CN111161396B (zh) 虚拟内容的控制方法、装置、终端设备及存储介质
US20130155108A1 (en) Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture
US9501098B2 (en) Interface controlling apparatus and method using force
US11070724B2 (en) Image processing apparatus and method
US9594436B2 (en) Three-dimensional image display device, cursor display method therefor, and computer program
JP6325659B2 (ja) 操作画面表示装置、操作画面表示方法およびプログラム
US9483878B2 (en) Contextual editing using variable offset surfaces
JP5646532B2 (ja) 操作入力装置、操作入力方法、及び、プログラム
JP2012058896A (ja) 情報処理装置、プログラムおよび情報処理方法
JP6711616B2 (ja) グラフィック要素の選択
JP6514416B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2018036942A (ja) 3次元ユーザインタフェース装置および3次元操作用プログラム
KR101668747B1 (ko) 3차원 애니메이션 컨텐츠 저작 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant