KR20100004438A - 3d 오브젝트 조작 방법 - Google Patents

3d 오브젝트 조작 방법 Download PDF

Info

Publication number
KR20100004438A
KR20100004438A KR1020080064600A KR20080064600A KR20100004438A KR 20100004438 A KR20100004438 A KR 20100004438A KR 1020080064600 A KR1020080064600 A KR 1020080064600A KR 20080064600 A KR20080064600 A KR 20080064600A KR 20100004438 A KR20100004438 A KR 20100004438A
Authority
KR
South Korea
Prior art keywords
pointer
user
input
changing
captured
Prior art date
Application number
KR1020080064600A
Other languages
English (en)
Inventor
이원희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020080064600A priority Critical patent/KR20100004438A/ko
Publication of KR20100004438A publication Critical patent/KR20100004438A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 3D 오브젝트 조작 방법에 관한 것으로, 구체적으로 3차원 공간으로 구성된 가상 환경에서 오브젝트를 선택 및 이동하거나 오브젝트들을 조립하는 3D 오브젝트 조작 방법에 관한 것이다. 본 발명에 따르면, 사용자는 3차원 가상 환경에서 보다 용이하게 오브젝트를 선택 및 이동시킬 수 있다.
가상 환경, 3D TV, 홀로그램, 3D 오브젝트 조작

Description

3D 오브젝트 조작 방법{Method for handling 3D object}
본 발명은 3D 오브젝트 조작 방법에 관한 것으로, 구체적으로 3차원 공간으로 구성된 가상 환경에서 오브젝트를 선택 및 이동하거나 오브젝트들을 조립하는 3D 오브젝트 조작 방법에 관한 것이다.
일반적으로 입체 영상은 오브젝트와 소정의 거리 간격을 두고서 서로 다른 좌, 우 각도에서 오브젝트를 촬상한 후 이를 합성하여 재생하는 경우, 사용자가 오브젝트를 3차원으로 직접 보는 것과 같은 입체감을 제공하는 영상 신호 혹은 영상을 의미한다.
이러한 입체 영상을 구현하는 방법을오는 LCD 셔터법, 색채 필터법, 착시법 등이 있다. LCD 셔터법은 각각 따로 제어되는 2매의 LCD 셔터를 좌우 눈앞에 배치하고, 이를 교대로 개/폐(on/off)하여 특정한 시간에는 한쪽의 영상만을 볼 수 있게 하는 방식이다. 예컨대, 비디오 디스플레이 화면이 좌측에 해당하는 영상을 주사하는 동안 우측 영상을 차단하고 반대로 우측에 해당하는 영상을 주사하는 동안 좌측 영상을 차단하여 인간으로 하여금 두 가지 서로 다른 영상 소스를 대응하는 눈으로 볼 수 있게 하는 방법이다. 이러한 LCD 셔터방법은 다른 방식에서와 같이 색채감의 상실이나 좌/우 시각의 편중이 없어 깨끗한 영상을 얻을 수 있는 반면에 온-오프 제어를 위한 전자회로 등이 필요하게 된다.
상술한 방식으로 구현된 3차원 가상 환경에서 오브젝트를 생성하거나 조작하여 이들을 변형 또는 조립하여 새로운 구조물을 만드는 등 다양한 시뮬레이션 작업을 수행할 수 있다.
종래에는 상기 시뮬레이션 작업을 수행하기 위해 가상 환경 상에서 마우스를 사용하였다. 마우스는 x,y 축을 설정하여, 마우스의 움직임에 따라 모니터에서 3D 포인터 또는 커서가 이동시켜 오브젝트를 조작하였다.
하지만, 종래의 마우스는 2차원 디스플레이에서 사용하기 적합하도록 구성되며, 사용자는 마우스를 평면상에서 이동하여 3D 포인터 또는 커서를 이동시켰다. 따라서, 3차원의 가상 환경에서 사용하기에는 조작이 불편하고, 3D 포인터를 3차원 상에 위치한 오브젝트로 직접 이동시켜 오브젝트를 선택하고 이를 조작하여 시뮬레이션을 수행하기 불편하다는 문제점이 있다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 3차원 가상 환경에서 오브젝트를 선택 및 이동시키는 3D 오브젝트 조작 방법을 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법은 3D 포인터로 오브젝트를 포인팅하는 단계; 및 상기 포인팅된 오브젝트를 캡쳐하여 상기 오브젝트의 위치 및 자세를 조작가능한 상태로 만드는 단계;를 포함한다.
본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법은 3D 포인터로 제 1 오브젝트를 포인팅하는 단계; 상기 포인팅된 제 1 오브젝트를 캡쳐하여 오브젝트의 위치 및 자세를 변경가능한 상태로 만드는 단계; 및 상기 제 1 오브젝트의 캡쳐된 위치를 변경하는 단계;를 포함한다.
본 발명에 따르면, 사용자는 3차원 가상 환경에서 보다 용이하게 오브젝트를 선택 및 이동시킬 수 있다.
본 발명에 따르면, 사용자는 3D 포인터로 오브젝트를 캡쳐하고 상기 오브젝트의 캡쳐된 위치를 변경하여 오브젝트와 오브젝트를 조립하는 작업을 보다 용이하게 수행할 수 있다.
이하 첨부한 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다.
도 1 내지 도 4는 본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법에서 오브젝트의 포인팅 및 캡쳐를 설명하는 도면이다.
본 발명에서 오브젝트를 포인팅하는 것은 오브젝트를 조작하기 위해 특정 오브젝트를 선택하여 활성화하는 과정을 의미한다. 본 발명의 일 실시예에서는 3D 포인터(16)를 사용하여 오브젝트를 포인팅한다.
본 발명에서 오브젝트를 캡쳐하는 것은 포인팅된 오브젝트를 상기 3D 포인터(16)로 이동시키고 상기 3D 3D 포인터(16)에 고정시켜 상기 3D 포인터(16)를 조작함으로써 상기 오브젝트의 위치 및 자세를 조작하여 오브젝트를 조작 가능한 상태로 만드는 것을 의미한다.
도 1에는 3D 입체 TV(11) 및 입력 장치(12)가 도시되고, 상기 3D 입체 TV(11)는 다수의 오브젝트(13,14,15) 및 3D 포인터(16)를 표시하고 있다. 3D 입체 TV(11)는 상기 다수의 오브젝트(13,14,15) 및 3D 포인터(16)를 3D 영상으로 표시할 수 있다.
3D 영상을 표시하는 방법으로는 종래의 LCD 셔터법, 색채 필터법, 착시법 등을 사용할 수 있다. LCD 셔터법을 사용하는 경우, 사용자는 양안에 LCD 셔터 글래스를 착용하여 상기 3D 입체 TV(11)로부터 3D 영상을 볼 수 있다. 상기 다수의 오브젝트(13,14,15) 및 상기 3D 포인터(16)가 표시되는 3차원의 가상 환경은 홀로그램으로도 표시될 수 있다.
도 1에서 상기 3D 포인터(16)는 정육면체 형상으로 표시되나, 이에 제한되지 않고 3차원 화살표 형상 또는 3차원의 손가락 형상 등 다양한 형상으로 표시될 수 있다.
상기 입력 장치(12)는 제 1 입력부(121), 제 2 입력부(122) 및 제 3 입력부(123)를 포함한다. 사용자는 상기 입력 장치(12)를 손에 쥐고, 손가락으로 상기 제 1 입력부(121), 제 2 입력부(122) 및 제 3 입력부(123)를 누르거나 당겨 입력 신호를 생성한다. 상기 생성된 입력 신호를 통해 상기 3D 입체 TV(11)에 표시된 상기 3D 포인터(16)를 조작할 수 있다.
상기 3D 입체 TV(11)에 표시된 상기 다수의 오브젝트(13,14,15)는 가상 환경인 3차원 공간 상에 위치하며, 도 1에 도시된 상기 다수의 오브젝트(13,14,15)는 상기 3D 포인터(16)에 비해 z축으로 양의 방향만큼 이동된 상태이다. 즉, 3차원 공간에서 상기 3D 포인터(16)가 상기 다수의 오브젝트(13,14,15)보다 사용자에게 더 가까운 위치에 위치한다.
사용자는 상기 입력 장치(12)의 위치를 공간 상에서 변경함으로써 상기 3D 포인터(16)를 가상 환경 상에서 이동시킬 수 있다. 사용자는 상기 입력 장치(12)를 6자유도 중 적어도 하나에 따라 이동시킬 수 있다. 즉,사용자는 상기 입력 장치(12) x,y,z축 방향으로 병진 이동시키거나, x,y,z축을 기준으로 회전 이동시킬 수 있다.
상기 입력 장치(12)는 가상 환경을 제어하는 제어 장치(미도시)와 무선 또는 유선으로 연결되어 사용자의 제스쳐에 따른 입력 신호를 상기 제어 장치로 송신한다. 상기 제어 장치는 상기 사용자의 제스쳐에 따른 입력 신호를 수신하여 그에 대 응하는 오브젝트 또는 3D 포인터의 조작이 상기 3D 입체 TV(11)에 표시되도록 제어할 수 있다.
도 2에서는 사용자가 상기 제 1 입력부(121)를 통해 상기 3D 포인터(16)를 조작하는 모습을 나타낸다. 본 발명의 일 실시예에 따르면, 사용자가 상기 제 1 입력부(121)를 통해 입력 신호를 입력하는 경우, 상기 3D 포인터(16)는 상기 3D 포인터(16)로부터 연장된 직선(17)을 z축 방향으로 발산할 수 있다.
실시예에 따라, 상기 3D 포인터(16)는 처음부터 상기 3D 포인터(16)로부터 연장된 직선(17)을 발산할 수 있다. 즉, 가상 환경에서 상기 3D 포인터(16)는 항상 상기 연장된 직선(17)을 발산하고 있으며, 이 경우, 사용자는 상기 제 1 입력부(121)를 통해 입력 신호를 입력할 필요는 없다.
도 3에서는 사용자가 공간 상에서 상기 입력 장치(12)의 위치를 변경하여 가상 환경 상에서 상기 3D 포인터(16)의 위치를 변경한다. 도 3과 같이, 사용자는 공간 상에서 상기 입력 장치(12)를 전후, 좌우, 상하로 이동시키고, x,y,z축을 기준으로 회전시켜 상기 3D 포인터(16)의 위치를 변경하거나 상기 3D 포인터(16)로부터 연장된 직선(17)이 가리키는 곳을 변경할 수 있다.
따라서, 도 3과 같이, 사용자는 다수의 오브젝트(13,14,15) 중 하나를 포인팅할 수 있다. 도 3에서 사용자는 상기 3D 포인터(16)로 도넛 형태의 오브젝트(13)를 포인팅하였다. 상기 오브젝트(13)가 포인팅되었는지 여부는 상기 3D 포인터(16)로부터 연장된 직선(17)이 가상 환경 상에서 z축 끝까지 발산하지 않고 상기 오브젝트(13)에 의해 차단되는 것으로 확인할 수 있다.
실시예에 따라, 상기 오브젝트(13)가 포인팅되는 경우, 상기 오브젝트(13)의 색깔이 기존의 색깔과 다른 색으로 변경되도록 설정하여 사용자가 상기 오브젝트(13)의 포인팅 여부를 더욱 용이하게 식별할 수 있도록 할 수 있다.
이와 같이, 상기 3D 포인터(16)로부터 연장된 직선(17)이 상기 오브젝트(13)를 포인팅하게 함으로써 사용자는 상기 3D 포인터(16)를 상기 오브젝트(13)까지 직접 이동시키지 않고도 상기 오브젝트(13)를 조작할 수 있게 된다.
도 4는 사용자가 상기 제 3 입력부(123)를 통해 상기 오브젝트(13)를 조작하는 모습을 도시한다.
도 4에서 상기 입력 장치(12)는 권총 형상으로 형성되고, 상기 제 3 입력부(123)는 방아쇠 형상으로 형성되나, 상기 입력 장치(12) 및 상기 제 1,2,3 입력부(121,122,123)의 형상은 이에 제한되지 않고 사용자가 조작하기 편한 다양한 형상으로 형성될 수 있다.
도 4에서는, 사용자가 상기 제 3 입력부(123)를 통해 입력 신호를 입력하면, 상기 포인팅된 오브젝트(13)는 상기 3D 포인터(16)로 이동하게 된다. 본 발명의 일 실시예에 따르면, 상기 포인팅된 오브젝트(13)는 상기 3D 포인터(16)가 위치한 좌표까지 평행이동하여, 상기 3D 포인터(16)와 접촉한다. 다만, 실시예에 따라, 상기 포인팅된 오브젝트(13)는 상기 3D 포인터(16)와 일정 거리 이격되도록 평행이동하여 상기 3D 포인터(16)와 접촉하지 않을 수도 있다.
사용자가 상기 제 3 입력부(123)를 통해 입력 신호를 계속적으로 입력하는 경우, 즉, 도 4에서 상기 제 3 입력부(123)를 계속 당기고 있는 경우, 상기 3D 포 인터(16)는 상기 포인팅된 오브젝트(13)를 고정할 수 있다. 즉, 사용자는 상기 제 3 입력부(123)를 통해 지속적인 입력 신호를 입력함으로써, 상기 3D 포인터(16)를 통해 상기 오브젝트(13)를 조작할 수 있는 상태를 유지할 수 있다.
사용자가 상기 제 3 입력부(123)를 통한 입력을 중지하는 경우, 상기 포인팅된 오브젝트(13)는 원래의 위치로 되돌아갈 수 있고, 실시예에 따르면, 가상 환경에 중력을 작용시켜 실제 물리 환경과 같이 연직 방향으로 낙하하도록 설정할 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법은 상기 3D 포인터(16)로 상기 오브젝트(13)를 포인팅하는 단계, 상기 포인팅된 오브젝트(13)를 캡쳐하는 단계를 포함한다.
상기 오브젝트(13)를 포인팅하는 단계는 상기 3D 포인터(16)로부터 연장된 직선이 상기 오브젝트(13)에 접촉하는 단계를 포함한다.
상기 오브젝트(13)를 캡쳐하는 단계는 상기 포인팅된 오브젝트(13)가 상기 3D 포인터(16)로 이동하는 단계 및 상기 3D 포인터(16)가 상기 오브젝트(13)를 고정하는 단계를 포함한다.
도 5는 사용자가 공간 상에서 상기 입력 장치(12)의 위치를 변경하여, 가상 환경 상에서 상기 오브젝트(13)의 위치를 변경하는 모습을 나타낸다.
도 5와 같이, 사용자는 상기 입력 장치(12)를 x,y,z축으로 평행 이동하거나 x,y,z축을 기준으로 회전 이동시켜, 상기 3D 포인터(16)에 의해 캡쳐된 상기 오브젝트(13)의 위치를 변경할 수 있다.
이 경우, 상기 오브젝트(13)는 상기 3D 포인터(16)에 캡쳐된 상태이며, 이는 도 5와 같이 사용자가 상기 제 3 입력부(123)를 통해 지속적인 입력 신호를 입력함으로써 유지될 수 있다.
상기 캡쳐된 오브젝트(13)의 위치를 변경하는 단계는 사용자의 제스쳐에 따른 입력 신호를 수신하는 단계 및 상기 수신된 입력 신호에 응답하여 상기 오브젝트(13)의 위치를 변경하는 단계를 포함한다.
상기 사용자의 제스쳐는 상기 오브젝트(13)가 캡쳐된 상태에서 입력 장치(12)의 위치를 공간 상에서 변경하는 동작, 예컨대 상기 제 3 입력부(123)를 당기고 있는 상태에서 상기 입력 장치(12)를 6자유도로 이동시키는 동작이다. 상기 동작은 상기 입력 장치(12)를 6자유도 중 적어도 하나에 따라 이동시키는 동작일 수 있다. 즉, 상기 입력 장치(12)를 x,y,z축 평행이동, x,y,z축을 기준으로 한 회전 이동을 연성하여 이동시킬 수 있다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법에서 오브젝트의 캡쳐된 위치를 변경하는 과정을 설명하는 도면이다.
상기 오브젝트(13)의 캡쳐된 위치를 변경하는 단계는 상기 오브젝트(13)를 홀딩하는 단계, 상기 3D 포인터(16)의 포인팅 위치를 변경하는 단계 및 상기 오브젝트(13)를 상기 변경된 포인팅 위치에서 캡쳐하는 단계를 포함한다.
도 6에 도시된 바와 같이, 사용자는 상기 제 3 입력부(123)와 제 2 입력부(122)를 통해 입력 신호를 생성하여 캡쳐된 오브젝트(13)를 홀딩할 수 있다.
사용자는 상기 제 3 입력부(123)를 계속적으로 당기면서 상기 오브젝트(13) 를 캡쳐한 상태를 유지할 수 있다. 상기 오브젝트(13)가 캡쳐된 상태에서, 사용자는 상기 제 2 입력부(122)를 통해 입력 신호를 생성하여 상기 오브젝트(13)를 홀딩한다.
오브젝트(13)를 홀딩하는 것은 3차원 가상 환경 공간 상에서 상기 오브젝트(13)가 위치하는 공간에 상기 오브젝트(13)를 고정시켜 상기 3D 포인터(16)가 움직여도 상기 오브젝트(13)는 상기 3D 포인터(16)를 따라 움직이지 않도록 하는 것을 의미한다.
즉, 상기 오브젝트(13)를 캡쳐한 상태에서는 상기 오브젝트(13)는 상기 3D 포인터(16)와 함께 이동하지만, 상기 오브젝트(13)를 홀딩한 상태에서는 상기 3D 포인터(16)의 움직임에 관계 없이 상기 오브젝트(13)는 홀딩한 위치에서 정지한 상태를 유지한다. 사용자는 상기 오브젝트(13)를 홀딩함으로써 상기 3D 포인터(16)가 상기 오브젝트(13)를 캡쳐한 위치를 변경할 수 있다.
실시예에 따라, 상기 오브젝트(13)를 홀딩하는 경우, 상기 오브젝트(13)의 색깔을 캡쳐한 상태의 오브젝트(13) 색깔과 다르게 설정하여 사용자가 상기 오브젝트(13)의 홀딩을 용이하게 식별하도록 할 수 있다.
도 7과 같이, 사용자는 공간 상에서 상기 입력 장치(12)의 위치를 변경하여 가상 환경 상에서 상기 3D 포인터(16)의 위치를 변경할 수 있다. 사용자는 상기 제 3 입력부(123) 및 상기 제 2 입력부(122)를 통해 입력 신호를 생성하면서, 즉 상기 제 3 입력부(123)를 당기고 상기 제 2 입력부(122)를 누르는 상태에서, 상기 입력 장치(12)를 공간 상에서 이동시킨다. 사용자는 상기 입력 장치(12)를 통해 상기 3D 포인터(16)를 이동시키면서 상기 오브젝트(13)의 캡쳐된 위치를 변경할 수 있다. 이 경우, 상기 오브젝트(13)는 홀딩된 상태이므로 상기 3D 포인터(16)의 이동에 관계 없이 정지 상태를 유지한다.
상기 오브젝트(13) 상에서 상기 3D 포인터(16)의 위치를 변경한 후, 사용자는 상기 제 2 입력부(122)를 통한 입력 신호 생성을 중단한다. 이 경우, 상기 오브젝트(13)는 상기 3D 포인터(16)의 변경된 위치를 기준으로 캡쳐된다. 상술한 과정을 통해, 사용자는 상기 오브젝트(13)의 캡쳐된 위치를 변경할 수 있다.
가상 환경 상에서 상기 3D 포인터(16)로 오브젝트를 조작하는 도중, 상기 3D 포인터(16)가 오브젝트의 고정된 위치에만 위치하여 오브젝트를 캡쳐하면 사용자는 오브젝트의 조작에 불편함을 느낄 수 있다. 이는 사용자가 상기 입력 장치(12)를 공간 상에서 직접 이동시키면서 상기 3D 포인터(16)를 조작하기 때문에 발생한다. 즉, 사용자가 오브젝트를 크게 회전시켜 다른 오브젝트에 조립하고자 하는 경우, 사용자의 손목에 큰 부담이 있을 수 있다.
이러한 경우 사용자는 도 7 및 도 8과 같은 과정을 통해 상기 3D 포인터(16)가 상기 오브젝트(13)를 캡쳐한 위치를 변경시켜 오브젝트의 조작을 보다 용이하게 구현할 수 있다.
도 8 내지 도 10은 본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법에서 제 1 오브젝트를 제 2 오브젝트에 조립하는 과정을 설명하는 도면이다.
도 8에서 상기 3D 입체 TV(11)는 상술한 바와 같이 캡쳐된 위치가 변경된 오브젝트(13)(이하 제 1 오브젝트(13))와 제 2 오브젝트(18)를 3D 영상으로 표시한 다. 사용자는 상기 입력 장치(12)의 제 3 입력부(123)를 통해 입력 신호를 생성함으로써 상기 제 1 오브젝트(13)를 캡쳐하고 있다.
도 9에 도시된 바와 같이, 사용자는 공간 상에서 상기 입력 장치(12)의 위치를 변경함으로써 가상 환경 상에서 상기 캡쳐된 제 1 오브젝트(13)의 위치를 변경할 수 있다. 최종적으로 사용자는 상기 제 1 오브젝트(13)를 상기 제 2 오브젝트(18)의 일부분과 접촉하는 위치까지 위치를 변경한다.
상기 제 1 오브젝트(13)를 가상 환경 상에서 이동시키는 과정은 도 5에서 설명한 과정과 동일하다.
도 10에서 사용자는 상기 입력 장치(12)의 제 3 입력부(123)를 통한 입력 신호 생성을 중단한다. 상기 제 3 입력부(123)를 통한 입력 신호의 생성을 중단하는 경우, 상기 제 1 오브젝트(13)의 캡쳐는 해제된다. 상기 제 1 오브젝트(13)가 상기 제 2 오브젝트(18)에 접촉하지 않은 경우, 상기 제 1 오브젝트(13)의 캡쳐가 해제되면 상술한 바와 같이 상기 제 1 오브젝트(13)는 원래의 위치로 되돌아가거나 중력이 작용하는 경우 연직 방향으로 낙하할 수 있다.
하지만, 상기 제 1 오브젝트(13)가 상기 제 2 오브젝트(18)에 접촉한 경우, 상기 제 1 오브젝트(13)의 캡쳐가 해제되면 상기 제 1 오브젝트(13)는 상기 제 2 오브젝트(18)와 결합하여 상기 제 2 오브젝트(18)에 고정될 수 있다.
실시예에 따라, 상기 제 1 오브젝트(13)는 상기 제 2 오브젝트(18)에 접촉하지 않고 소정의 거리만큼 이격된 위치로 접근한 경우에도 상기 제 2 오브젝트(18)와 결합되도록 설정될 수 있다. 따라서, 사용자는 상기 제 1 오브젝트(13)를 상기 제 2 오브젝트(18)와 완전히 접촉시키지 않고 근접시킴으로써 상기 제 1 오브젝트(13)와 상기 제 2 오브젝트(18)를 결합할 수 있다.
상술한 바와 같이, 사용자의 제 1 입력에 따라 상기 제 1 오브젝트(13)를 상기 제 2 오브젝트(18)로 이동시키는 단계 및 사용자의 제 2 입력에 따라 상기 제 1 오브젝트(13)를 상기 제 2 오브젝트(18)에 결합하는 단계를 통해 상기 제 1 오브젝트(13)와 상기 제 2 오브젝트(18)를 조립할 수 있다.
상기 제 1 입력은 사용자가 상기 입력 장치(12)의 위치를 공간 상에서 변경하는 동작이며, 상기 제 2 입력은 사용자가 상기 입력 장치(12)를 통해 상기 제 1 오브젝트(13)의 캡쳐를 해제하는 동작이다. 상기 제 1 오브젝트(13)의 캡쳐를 해제하는 동작은 도 10에서 상기 제 3 입력부(123)를 통한 입력 신호 생성을 중단하는 동작이다.
본 발명의 다른 실시예에 따르면, 상기 제 1 오브젝트(13)가 상기 제 2 오브젝트(18)와 결합하는 형태는 기설정되어 있을 수 있다. 필요에 따라 특정 오브젝트가 다른 특정 오브젝트와 결합하는 경우, 정해진 형태로만 결합하는 경우가 있다. 이 경우, 상기 특정 오브젝트가 상기 다른 특정 오브젝트와 결합하면 상기 특정 오브젝트가 상기 다른 특정 오브젝트의 정해진 위치에 결합되도록 설정할 수 있다.
예를 들어, 도 9와 같이 상기 제 1 오브젝트(13)를 상기 제 2 오브젝트(18)의 일단에 접촉시키고 도 10과 같이 상기 제 1 오브젝트(13)의 캡쳐를 해제하여도, 도 11과 같이 상기 제 1 오브젝트(13)는 상기 제 2 오브젝트(18)의 측면에 결합되도록 설정할 수 있다.
본 발명의 다른 실시예에 따르면, 상기 3D 포인터(16)는 다수 개이며, 상기 각각의 3D 포인터는 서로 다른 오브젝트를 조작할 수 있다.
도 12는 본 발명의 다른 실시예에 따른 3D 오브젝트 조작 방법에서 다수의 3D 포인터로 오브젝트를 조작하는 모습을 설명하는 도면이다.
도 12에 도시된 바와 같이, 상기 3D 입체 TV(11)는 다수의 3D 포인터(161,162)를 표시하고, 사용자는 상기 다수의 3D 포인터(161,162)를 통해 상기 제 1 오브젝트(13) 및 상기 제 2 오브젝트(18)를 조작할 수 있다.
두 개의 3D 포인터(161,162)를 사용하는 경우, 사용자는 양손으로 상기 두 개의 3D 포인터(161,162)를 조작할 수 있다. 도 12에서 사용자는 제 1 입력장치(124)와 제 2 입력장치(128)를 통해 상기 두 개의 3D 포인터(161,162)를 조작하며, 각각의 입력장치는 각각의 3D 포인터를 조작하도록 제 1 입력부, 제 2 입력부, 제 3 입력부를 포함할 수 있다. 상기 각각의 입력 장치를 통해 3D 포인터 및 오브젝트를 조작하는 방법은 상술한 하나의 입력 장치를 통해 3D 포인터 및 오브젝트를 조작하는 방법과 동일하다.
이상 실시예를 통해 본 발명을 설명하였으나, 위 실시예는 단지 본 발명의 사상을 설명하기 위한 것이며, 이에 한정되지 않는다. 당업자는 위에 설명한 실시예에 다양한 변형이 가해질 수 있음을 이해할 것이다. 본 발명의 범위는 첨부된 특허청구범위의 해석을 통해서만 정해진다.
도 1 내지 도 4는 본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법에서 오브젝트의 포인팅 및 캡쳐를 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법에서 캡쳐된 오브젝트의 이동을 설명하는 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법에서 오브젝트의 캡쳐된 위치를 변경하는 과정을 설명하는 도면이다.
도 8 내지 도 10은 본 발명의 일 실시예에 따른 3D 오브젝트 조작 방법에서 제 1 오브젝트를 제 2 오브젝트에 조립하는 과정을 설명하는 도면이다.
도 11은 본 발명의 다른 실시예에 따른 3D 오브젝트 조작 방법에서 제 1 오브젝트와 제 2 오브젝트가 기설정된 형태로 결합된 모습을 설명하는 도면이다.
도 12는 본 발명의 다른 실시예에 따른 3D 오브젝트 조작 방법에서 다수의 3D 포인터로 오브젝트를 조작하는 모습을 설명하는 도면이다.

Claims (14)

  1. 3D 포인터로 오브젝트를 포인팅하는 단계; 및
    상기 포인팅된 오브젝트를 캡쳐하여 상기 오브젝트의 위치 및 자세를 조작가능한 상태로 만드는 단계;
    를 포함하는 3D 오브젝트 조작 방법.
  2. 제 1항에 있어서,
    상기 캡쳐된 오브젝트의 위치를 변경하는 단계를 더 포함하는 3D 오브젝트 조작 방법.
  3. 제 2항에 있어서, 상기 캡쳐된 오브젝트 위치 변경 단계는
    사용자의 제스쳐에 따른 입력 신호를 수신하는 단계; 및
    상기 수신된 입력 신호에 응답하여 상기 오브젝트의 위치를 변경하는 단계;
    를 포함하는 3D 오브젝트 조작 방법.
  4. 제 3항에 있어서,
    상기 사용자의 제스쳐는 상기 오브젝트가 캡쳐된 상태에서 입력 장치의 위치를 공간 상에서 변경하는 동작인 3D 오브젝트 조작 방법.
  5. 제 4항에 있어서,
    상기 동작은 상기 입력 장치를 6 자유도 중 적어도 하나에 따라 이동시키는 동작인 3D 오브젝트 조작 방법.
  6. 제 1항에 있어서, 상기 오브젝트 포인팅 단계는
    상기 3D 포인터로부터 연장된 직선이 상기 오브젝트에 접촉하는 단계를 포함하는 3D 오브젝트 조작 방법.
  7. 제 1항에 있어서, 상기 오브젝트 캡쳐 단계는
    상기 포인팅된 오브젝트가 상기 3D 포인터로 이동하는 단계; 및
    상기 3D 포인터가 상기 오브젝트를 고정하는 단계;
    를 포함하는 3D 오브젝트 조작 방법.
  8. 3D 포인터로 제 1 오브젝트를 포인팅하는 단계;
    상기 포인팅된 제 1 오브젝트를 캡쳐하여 상기 제 1 오브젝트의 위치 및 자세를 조작가능한 상태로 만드는 단계; 및
    상기 제 1 오브젝트의 캡쳐된 위치를 변경하는 단계;
    를 포함하는 3D 오브젝트 조작 방법.
  9. 제 8항에 있어서, 상기 제 1 오브젝트의 캡쳐된 위치를 변경하는 단계는
    상기 제 1 오브젝트를 홀딩하는 단계;
    상기 3D 포인터의 포인팅 위치를 변경하는 단계; 및
    상기 제 1 오브젝트를 상기 변경된 포인팅 위치에서 캡쳐하는 단계;
    를 포함하는 3D 오브젝트 조작 방법.
  10. 제 8항에 있어서,
    사용자의 제 1 입력에 따라 상기 제 1 오브젝트를 제 2 오브젝트로 이동시키는 단계; 및
    사용자의 제 2 입력에 따라 상기 제 1 오브젝트를 상기 제 2 오브젝트에 결합하는 단계;
    를 더 포함하는 3D 오브젝트 조작 방법.
  11. 제 10항에 있어서,
    상기 제 1 입력은 입력 장치의 위치를 공간 상에서 변경하는 동작인 3D 오브젝트 조작 방법.
  12. 제 10항에 있어서,
    상기 제 2 입력은 상기 제 1 오브젝트의 캡쳐를 해제하는 동작인 3D 오브젝트 조작 방법.
  13. 제 10항에 있어서,
    상기 제 1 오브젝트가 상기 제 2 오브젝트와 결합하는 형태는 기설정되어 있는 3D 오브젝트 조작 방법.
  14. 제 8항에 있어서,
    상기 3D 포인터는 다수 개이며, 상기 각각의 3D 포인터는 서로 다른 오브젝트를 조작하는 3D 오브젝트 조작 방법.
KR1020080064600A 2008-07-03 2008-07-03 3d 오브젝트 조작 방법 KR20100004438A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080064600A KR20100004438A (ko) 2008-07-03 2008-07-03 3d 오브젝트 조작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080064600A KR20100004438A (ko) 2008-07-03 2008-07-03 3d 오브젝트 조작 방법

Publications (1)

Publication Number Publication Date
KR20100004438A true KR20100004438A (ko) 2010-01-13

Family

ID=41814009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080064600A KR20100004438A (ko) 2008-07-03 2008-07-03 3d 오브젝트 조작 방법

Country Status (1)

Country Link
KR (1) KR20100004438A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120029597A (ko) * 2010-09-17 2012-03-27 엘지전자 주식회사 이동 단말기 및 이것의 영상 처리 방법
US10133470B2 (en) 2012-10-09 2018-11-20 Samsung Electronics Co., Ltd. Interfacing device and method for providing user interface exploiting multi-modality

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120029597A (ko) * 2010-09-17 2012-03-27 엘지전자 주식회사 이동 단말기 및 이것의 영상 처리 방법
US10133470B2 (en) 2012-10-09 2018-11-20 Samsung Electronics Co., Ltd. Interfacing device and method for providing user interface exploiting multi-modality

Similar Documents

Publication Publication Date Title
JP6027747B2 (ja) 空間相関したマルチディスプレイヒューマンマシンインターフェース
KR101074940B1 (ko) 입체이미지 상호 연동 시스템
EP2676450B1 (en) Providing an interactive experience using a 3d depth camera and a 3d projector
Stuerzlinger et al. The value of constraints for 3D user interfaces
Stavness et al. pCubee: a perspective-corrected handheld cubic display
Bruder et al. Touching the void revisited: Analyses of touch behavior on and above tabletop surfaces
US20120113223A1 (en) User Interaction in Augmented Reality
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
Kiyokawa et al. Vlego: A simple two-handed modeling environment based on toy blocks
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
CN109416589A (zh) 交互系统与交互方法
KR101441882B1 (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 디스플레이 표시면 둘레의 가상 평면을 사용하여 전자기기를 제어하는 방법
US20170177077A1 (en) Three-dimension interactive system and method for virtual reality
CA2675276A1 (en) System and method for controlling a virtual reality environment by an actor in the virtual reality environment
JP2020511709A (ja) 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース
Stellmach et al. Investigating Freehand Pan and Zoom.
Caruso et al. Interactive augmented reality system for product design review
Hachet et al. Touch-based interfaces for interacting with 3D content in public exhibitions
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
Ismail et al. Implementation of natural hand gestures in holograms for 3D object manipulation
KR20100004438A (ko) 3d 오브젝트 조작 방법
WO2014061310A1 (ja) 表示物制御システム、表示物制御方法及びプログラム
Matsumaru et al. Three-dimensional aerial image interface, 3DAII
Djajadiningrat et al. Cubby: a multiscreen movement parallax display for direct manual manipulation
Teather et al. Evaluating visual/motor co-location in fish-tank virtual reality

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination