KR20120137390A - 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법 - Google Patents

3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법 Download PDF

Info

Publication number
KR20120137390A
KR20120137390A KR1020127025308A KR20127025308A KR20120137390A KR 20120137390 A KR20120137390 A KR 20120137390A KR 1020127025308 A KR1020127025308 A KR 1020127025308A KR 20127025308 A KR20127025308 A KR 20127025308A KR 20120137390 A KR20120137390 A KR 20120137390A
Authority
KR
South Korea
Prior art keywords
movement
pointer
virtual environment
region
dimensional virtual
Prior art date
Application number
KR1020127025308A
Other languages
English (en)
Other versions
KR101513343B1 (ko
Inventor
세바스띠안 보끄
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20120137390A publication Critical patent/KR20120137390A/ko
Application granted granted Critical
Publication of KR101513343B1 publication Critical patent/KR101513343B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 3차원 가상 환경을 브라우징하는 사용자의 휴먼 인터페이스 디바이스에 의해 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법, 시스템 및 디바이스에 관한 것이다. 휴먼 인터페이스 디바이스는 3차원 가상 환경에 액세스하기 위한 클라이언트 디바이스에 연결된다. 3차원 가상 환경은 적어도 하나의 애플리케이션 서버에서 전개된다. 클라이언트 디바이스 및 적어도 하나의 애플리케이션서버는 통신 링크를 통해 연결된다. 본 방법은 우선 2차원 표면에서 포인트의 위치를 검출함으로써 2차원 표면에서 시작 포인트를 결정하고 그 다음 시작 포인트에 기초하여, 시작 포인트를 둘러싸는 표면 상의 제 1 내부 영역을 할당하고, 제 1 영역을 둘러싸는, 표면 상의 제 2 영역을 할당하고, 제 2 영역을 둘러싸는, 표면 상의 제 3 영역을 할당한다. 또한, 객체 움직임 제어 명령은 포인터의 움직임 및 움직임이 발생하고 검출되는 영역과 연관된 객체 움직임 제어 기능에 기초하여 생성된다.

Description

3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법{METHOD FOR CONTROLLING MOTIONS OF AN OBJECT IN A 3-DIMENSIONAL VIRTUAL ENVIRONMENT}
본 발명은 청구항 제 1 항의 전제부에서 설명된 바와 같은 3차원 가상 환경(3-Dimensional Virtual Environment)에서 객체의 움직임을 제어하기 위한 방법, 청구항 제 5 항의 전제부에서 설명된 바와 같은 시스템에 관한 것이다.
현재, 3차원 가상 환경에서 정확하고, 부드럽게 그리고 직관적으로 움직이는 객체는, HID로서 또한 지칭되며, 가상 현실 및/또는 사람의 두 손의 좌표에 대해 특별하게 제작되어, 각 손은 아날로그 입력 디바이스 상에서 2-자유도(two degrees of freedom)를 제어하는, 휴먼 인터페이스 디바이스(Human Interface Dvices)를 필요로 한다.
3차원 가상 환경에서 객체의 움직임 제어를 위해 사용되는 잘 알려진 콘솔 패드는, 두 아날로그 조이스틱을 지원하는 전형적인 홈 게임 시스템에서 구현되는 솔루션이다. 각 아날로그 조이스틱은 각각 2-자유도를 허용한다. 상호작용 스킴은 타겟 애플리케이션의 유용성 요구사항에 의존하지만 3차원 가상 세계에서 아바타에 대한 통상적인 제어 스킴은 아바타의 선형 움직임을 제어하는 하나의 조이스틱(일반적으로 좌측)과 카메라 각도의 움직임을 제어하는 다른 조이스틱(일반적으로 우측)이다.
닌텐도 위(Nintendo Wii)에 의해 지원되는 것과 같은 더 강력한 제어 디바이스는 또한 3차원 세계에서 움직임을 캡쳐하기 위해 두 손의 좌표를 필요로 하며, 한 손은 넌척(Nunchuck) 상에서 제공되는 아날로그 스틱을 통해 2개의 자유도를 제어하고 다른 손은 Wii 리모콘을 기울임으로써 2개의 추가 자유도를 제어한다.
또한, 2004년 12월 23일 공개된 공개 번호 US2004/0260507의 US 특허 출원 공개는 각도 및 선형 속도를 측정하기 위한 전용 센서 하드웨어를 개시하고 반면 전문적인 가상 현실 VR 시스템에서 사용되는 더 진보된 트랙킹 기술은 고충실도의 완전한 여섯 개의 자유도를 캡쳐하지만 값비싼, 전용의 복잡한 장비를 사용한다.
2009년 8월 20일 공개된 공개 번호 US2009/0209343의 US 특허 출원 공개는 손 및 신체 움직임을 세컨드 라이프(Second Life) 내의 아바타의 움직임으로 변환함으로써 작동하는 카메라 시스템을 개시한다. 약간 앞으로 기울이면 아바타가 걸어가고, 더 빠르게 기울이면 아바타는 뛰어가며, 너무 빠르게 기울이면 떨어질 것이다.
3차원 환경에서 객체의 움직임을 제어하기 위한 이전에 설명된 시스템의 각각은 시스템에서 복잡도가 필요한 곳에서 이 움직임을 제어하기 위해 상대적으로 복잡한 시스템, 즉, 3차원 세계에서 객체의 움직임을 제어하기 위해 필요한 사람의 몸짓, 및 신체 좌표의 레벨을 분석하기 위한 카메라 셋업 및 프로세싱 환경이 필요하다는 점에서 어려움이 있다.
본 발명의 목적은 위에서 알려진 타입의 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법을 제공하되, 이러한 3차원 가상 환경에서 객체를 제어하기 위한 시스템의 복잡도는 감소시키는 것이다.
본 발명에 따라, 이 목적은 청구항 제 1 항에 따른 방법, 청구항 제 5 항에 따른 시스템, 청구항 제 7 항에 따른 객체 움직임 제어 모듈(Object Motion control Module), 청구항 제 9 항에 따른 관련 클라이언트 디바이스 및 청구항 제 10 항에 따른 관련 휴먼 인터페이스 디바이스에 의해 달성된다.
실제로 먼저 2차원 표면상에서 포인터의 초기 위치를 검출함으로써 2차원 표면상에서 시작 포인트를 결정하고 이 결정된 시작포인트에 기초하여, 시작 포인트를 둘러싸는 2차원 표면 상의 제 1 영역을 할당하고, 상기 제 1 영역을 둘러싸는, 2차원 표면 상의, 제 2 영역을 할당하고, 그 다음 제 2 영역을 둘러싸는, 표면 상의 제 3 영역을 할당하고, 이어서 객체 움직임 제어 기능을 각 할당 영역에 할당함으로써, 표면상에서 포인터의 연속적인 움직임 및 움직임이 검출되는 영역과 연관된 객체 움직임 제어 기능에 기초하여 객체 움직임 제어 명령이 생성된다.
할당된 제 2 영역은 제 1 할당 영역을 포함하지 않는 할당 영역이고 제 3 할당 영역은 제 1 할당 영역 및 제 2 할당 영역을 포함하지 않는 할당 영역이다.
본 발명의 추가적인 장점은 오직 하나의 손 상호작용이 필요하고 솔루션은 오프 더 쉘프 하드웨어(off-the-shelf hardware)(예를 들어, 터치 감지형 표면)를 사용하여 용이하게 구현될 수 있다는 것이고, 세 개의 자유도를 허용하고 보통 게이머에게 충분하거나 직관적인 방식으로 3차원 가상 환경을 탐색하기에 충분한 3차원 환경에서 객체의 각도 및 선형 속도를 제어하는 것을 가능하게 한다.
본 발명의 다른 특징적 특성은 청구항 제 2 항, 제 6 항 및 제 8 항에서 설명된다.
제 1 할당 영역 내에서 포인터의 움직임이 발생한다면 객체 움직임 제어 기능은 3차원 가상 환경에서 객체의 움직임이 없다는 것을 의미하되, 제 2 영역 내에서 포인터의 움직임이 검출되면, 객체 움직임 제어 기능은 3차원 가상 환경에서 객체의 각도 움직임만이 포함/지시됨을 의미하되, 여기서 각속도는 포인트의 움직임으로부터 유도되거나, 포인트의 움직임이 제 3 영역 내에서 검출된 경우에, 객체 움직임 제어 기능은 3차원 가상 환경에서 객체의 회전 및 선형 움직임이 포함/지시됨을 의미하고, 여기서 각속도 및 선형 속도는 포인트의 움직임으로부터 유도된다.
청구항에서 사용된 '포함하는'이라는 용어는 이후에 열거된 수단으로 한정되는 것으로서 해석되지 않도록 유의해야할 것이다. 따라서, '수단 A 및 B를 포함하는 디바이스'라는 표현의 범위는 컴포넌트 A 및 B 만으로 구성되는 디바이스에 제한되어서는 안 된다. 이는 본 발명과 관련하여, 디바이스의 단지 관련 컴포넌트가 A 및 B뿐이라는 것을 의미한다.
유사하게, 청구항에서 또한 사용된 '연결된'이라는 용어는, 직접 접속에만 한정되는 것으로서 해석되지 않도록 유의해야할 것이다. 따라서, '디바이스 B에 연결된 디바이스 A'라는 표현의 범위는 디바이스 A의 출력이 디바이스 B의 입력에 직접 접속되는 디바이스 또는 시스템에 제한되어서는 안 된다. 이는 A의 출력과 B의 입력 사이에 경로가 존재하고 다른 디바이스 또는 수단을 포함하는 경로가 될 수 있음을 의미한다.
본 발명의 상기 및 다른 객체 및 특징은 더욱 명백해질 것이고 본 발명 자체는 첨부 도면과 함께 취해진 실시예의 다음 설명을 참조하여 가장 잘 이해될 것이다.
도 1은 본 발명의 구현예가 실현되는 디바이스 및 커플링 네트워크를 갖는 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 시스템을 도시한다.
도 2는 본 발명에 따른 3차원 가상 환경에서 객체의 움직임을 제어하는 시스템에서 사용하기 위한, 객체 움직임 제어 모듈의 기능적 구조를 도시한다.
도 3a는 시작 포인트 및 제 1, 제 2 및 제 3 영역이 할당되는 2차원 표면을 도시한다.
도 3b는 시작 포인트 및 제 1, 제 2 및 제 3 할당 영역에 대해 상대적인 2차원 표면 상에서의 포인트의 움직임을 도시한다.
다음의 문단에서, 도면을 참조하면, 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 시스템 및 본 발명에 따른 관련 디바이스의 구현예가 설명될 것이다. 본 설명의 제 1 문단에서 각각의 도면, 도 1 및 도 2에서 제시되는 바와 같은 이의 기능적 부분을 갖는 이 네트워크의 주요 요소가 설명된다. 제 2 문단에서, 이전에 언급된 네트워크 요소 사이의 모든 접속 및 설명된 기능적 부분이 정의된다. 이어지는 문단에서 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 시스템의 실제 실행이 설명된다.
도 1에서 제시된 바와 같이, 본 발명의 이 실시예의 필수적인 요소는, 세컨드 라이프(Second Life), 원더랜드(Wonderland), 오픈크로크(OpenCroque), 솔립시스(Solipsys) 또는 임의의 다른 3차원 가상 환경/세계와 같은 3차원 가상 환경(3DVE)을 전개하는 애플리케이션 서버(3D-AS)이다. 간결함을 위해 오직 하나의 애플리케이션 서버(3D-AS)가 도시되었지만, 일반적으로 하나 이상의 이러한 애플리케이션 서버가 존재한다. 또한 3차원 가상 환경에 액세스하기 위한 클라이언트 디바이스(CLD)가 존재하되 여기서 클라이언트 디바이스(CLD)는 일반적으로 개인용 컴퓨터, 개인용 디지털 보조장치와 같은 모바일 PC, 또는 모바일 폰 등이며 또한 클라이언트 디바이스(CLD)는 DSL, 케이블, WiFi 또는 다른 것을 통해 인터넷 액세스를 갖는다. 클라이언트 디바이스(CLD)는 일반적으로 또한 세컨드 라이프와 같은 3차원 가상 환경(3DVE)에 액세스하기 위한 클라이언트 애플리케이션을 실행한다.
이러한 3차원 가상 환경(3DVE)에서 사용자 아바타와 같은 객체의 움직임을 제어하기 위해 휴먼 인터페이스 디바이스(HID)가 존재하고, 본 발명에서 모바일 통신 디바이스는 터치 스크린을 갖되, 대안으로서 또한 랩탑 컴퓨터의 터치 패드 또는 클라이언트 디바이스(CLD)를 제어하기 위해 사용되는 마우스가 될 수 있다. 본 발명에서 개시된 바와 같은 상호작용 메커니즘은 휴먼 인터페이스 디바이스(HID) 상에서 3차원 환경을 렌더링하는 것을 필요로 하지 않고 휴먼 인터페이스 디바이스(HID)와 최종 사용자의 직접적인 시선 맞춤이 필요로 하지 않는다는 것에 유의하는 것이 중요하다.
휴먼 인터페이스 디바이스(HID)는 유선 또는 무선 접속을 통해 클라이언트 디바이스(CLD)에 연결될 수 있다. 유선 접속은 USB, 파이어와이어, 직렬 포트, 이더넷, 파이버 또는 임의의 다른 접속이 될 수 있다. 무선 접속 기술은 와이파이, 와이맥스, 블루투스, 적외선, 3G, LTE 또는 임의의 다른 무선 접속을 포함한다. 클라이언트 디바이스(CLD)는 인터넷 접속 또는 인트라넷, 블루투스, 와이파이, 와이맥스, 3G 네트워크 등과 같은 임의의 다른 적합한 접속을 통해 직접 또는 간접적으로, 애플리케이션 서버(3D-AS)에 연결될 수 있으며, 예를 들어 액세스 네트워크를 통해 연결된다.
또한 클라이언트 디바이스(CLD) 또는 애플리케이션 서버(3D-AS)는 HID로부터의 입력 데이터를 3차원 세계 내에서 객체의 의도된 움직임으로 변환하기 위한 객체 움직임 제어 모듈(OMCM)을 포함할 수 있다. 대안적으로 객체 움직임 제어 모듈(OMCM)의 기능은 클라이언트 디바이스(CLD), 애플리케이션 서버(3D-AS) 및 임의의 추가 중개 디바이스에 분산될 수 있다.
객체 움직임 제어 모듈(OMCM)은 우선 표면이 랩탑 컴퓨터 디바이스의 터치패드 또는 PDA의 터치 감지형 스크린이 될 수 있는 2차원 표면상에서 포인터의 위치를 검출함으로써 2차원 표면상의 시작 포인트를 결정하는 것이 가능한 초기 포인터 검출부(an initial pointer detection part;IPDP)를 포함한다. 대안으로, 2차원 표면인 데스크(desk) 또는 다른 표면 위에서 이동하는 휴먼 인터페이스 디바이스(HID)로서 마우스의 경우에 마우스 버튼의 누름은 상호작용의 시작 포인트를 나타낸다.
또한 결정된 시작 포인트에 기초하여, 시작 포인트를 둘러싸는, 표면 상의 제 1 (원형) 영역, 제 1 영역을 둘러싸는, 표면 상의 제 2 (원형) 영역, 제 2 영역을 둘러싸는, 표면 상의 제 3 (원형) 영역 할당하도록 구성된 구역 할당부(a zone allocation part;ZAP), 및 포인터의 움직임에 기초하고 추가적으로 상기 움직임이 발생하는 할당 영역의 각각과 연관되는 객체 움직임 제어 기능에 기초하여 객체 움직임 제어 명령을 생성하는 것이 가능한 객체 움직임 제어 명령 생성부(object motion control instruction generating part;IGP)가 존재한다.
도 3a 및 도 3b에서 할당된 영역 I, II, III가 원형으로서 제시되었지만, 이러한 각각의 영역은 원형 대신 삼각형, 직사각형이 될 수 있거나 임의의 다른 적합한 형상을 가질 수 있음을 유의해야할 것이다. 본 실시예에서, 다른 적합한 형상이 대신 선택될 수 있지만 이들 할당 영역은 원형이 되는 것으로 가정된다.
본 방법 및 시스템에서 의미하는 객체 움직임 제어 기능은,
1. 포인터의 움직임이 제 1 (원형) 영역 내에서 검출되는 경우 3차원 가상 환경에서 객체의 움직임이 없는 것, 또는
2. 제 2 (원형) 영역 내에서 포인터의 움직임이 결정/검출되는 경우, 3차원 가상 환경에서 객체의 움직임은 각도 움직임이되, 여기서 객체의 움직임의 각속도는 포인터의 움직임으로부터 유도됨, 또는
3. 포인터의 움직임이 제 3 영역 내에서 검출되는 경우, 3차원 가상 환경에서 객체의 움직임은 회전 및 선형 움직임이되, 여기서 움직임의 회전 및 선형 속도는 포인터의 움직임으로부터 유도되는 것이다.
객체 움직임 제어 모듈(OMCM)은, 객체 움직임 제어 명령 생성부(IGP)에 연결된 구역 할당부(ZAP)에 또한 연결된 초기 포인터 검출부(IPDP)의 입력 단자이기도 한 입력 단자(I2)를 갖는다. 객체 움직임 제어 명령 생성부(IGP)는 객체 움직임 제어 모듈(OMCM)의 출력 단자이기도 한 출력 단자를 갖는다.
본 발명의 실행을 설명하기 위해 사용자는 그의 휴먼 인터페이스 디바이스(HID), 예를 들어 그의 PDA의 터치 감지형 표면 또는 그의 클라이언트 디바이스(CLD), 예를 들어 개인용 컴퓨터, 게임 콘솔 또는 스크린을 구비한 범용 단자에 연결된 터치 스크린이라도 사용하고 3차원 가상 환경(3DVE)을 브라우징하기 위한 클라이언트 애플리케이션을 사용하여 세컨드 라이프 또는 원더랜드와 같은 3차원 가상 환경(3DVE)을 브라우징한다는 것이 가정된다.
사용자는 세컨드 라이프를 브라우징하는 것을 시작하고 세컨드 라이프를 통해 그의 아바타로 돌아다니기를 원한다고 가정된다. 세컨드 라이프에서 아바타의 움직임을 제어하기 위해, 사용자는 의도된 상호작용에 따라 특정 위치에서 터치 감지형 표면을 손가락 또는 포인팅 디바이스로 터치하기 시작한다. 초기 포인트 검출부(IPDP)는 이 첫 번째 터치에 기초하여 2차원 표면, 즉, 터치 스크린상에서 포인터의 초기 위치를 검출함으로써 2차원 표면상의 시작 포인트를 결정한다. 이 결정된 시작 포인트에 기초하여, 구역 할당부(ZAP)는 시작 포인트를 둘러싸는 터치 스크린 표면 상의 제 1 영역, 제 1 영역을 둘러싸는, 터치 스크린 표면 상의 제 2 영역 그리고 제 2 영역을 둘러싸는, 터치 스크린 표면 상의 제 3 영역을 할당한다.
이러한 각각의 영역은 원형, 삼각형, 직사각형이 될 수 있고 또는 임의의 다른 적합한 형상을 가질 수 있다는 것에 유의해야한다. 본 실시예에서, 다른 적합한 형상이 대신 선택될 수 있지만 이들 영역은 원형이 되는 것으로 가정된다.
이들 세 개의 앞서 언급된 할당된 감지 영역의 위치는, 포인터, 즉 손가락이 터치 감지형 표면상에 초기에 위치되는 터치 감지형 영역 상의 위치로부터 유도되고, 이들 할당된 감지형 영역은, 포인터, 즉 손가락이 표면상에서 드래그(dragged)되고 있는 한, 동일한 위치에 남아있다.
본 실시예에서 이들 할당된, 즉, 원으로 경계 지어진 영역은, 또한 보통의 터치 스크린상에서 그래픽같은 것을 디스플레이하는 것이 가능하다면 터치 감지형 표면상에서 시각적 피드백으로서 나타날 수 있으나, 배터리 수명을 절약하기 위해서는, 이는 필수사항은 아니다.
또한, 터치 감지형 표면상에서 손가락 또는 포인팅 디바이스의 움직임은 트랙킹되고, 이 움직임이 발생하는 영역과 연관된 객체 움직임 제어 기능과의 조합으로 이 움직임에 기초하여, 객체 움직임 제어 명령 생성부(IGP)는 객체 움직임 제어 명령을 생성한다.
사용자의 손가락 또는 포인팅 디바이스가 제 1 (원형) 영역 내에서 움직이고 있는 경우, 객체 움직임 제어 명령 생성부(IGP)에 의해 객체 움직임 제어 명령이 생성되지 않는다. 사용자의 손가락 또는 포인팅 디바이스가 제 1 (내부) 영역 외부에서 슬라이딩하여 제 1 영역으로 다시 되돌아가거나 터치 감지형 표면과의 접촉을 느슨하게 하고(예를 들어, 올려진 손가락) 있는 경우, 객체를 이동시키는 것을 멈추게 하기 위한 객체 움직임 제어 명령이 IGP에 의해 생성된다.
이 객체 움직임 제어 명령 생성부(IGP)는 전혀 객체의 이동이 존재하지 않도록, 3차원 가상 환경(3DVE)에 지시하는 객체 움직임 제어 명령을 생성한다.
그 다음 사용자의 손가락 또는 포인팅 디바이스가 제 1 영역으로부터 제 2 원형 영역으로 그리고 제 2 원형 영역 내에서 이동된다면, 이 영역과 연관된 객체 움직임 제어 기능에 따라, 3차원 가상 환경에서 객체의 움직임은 각도 움직임이다. 제 2 영역(제 1 영역 외부 및 제 3 영역 외부)과 연관된 객체 움직임 제어 기능은 각도 움직임만이 3차원 가상 환경(3DVE)의 객체 상으로 시행되고, 여기서 정규화된 각속도는, Δθ의 크기 및 부호(도 3a 참조)의 변이로부터 유도되며, 여기서 이 각도는, 제 1 영역 외부 손가락의 현재 위치, 원의 중심 및 드래그되는 손가락이 초기에 제 1 원의 경계와 교차하는 포인트에 의해 형성되는 각도이다. Δθ의 크기가 커지면, 각속도가 증가한다. Δθ의 크기가 줄어들면, 각속도가 감소한다. Δθ의 부호가 변화하면, 각도 회전의 방향이 변화할 것이다.
그 다음 사용자는 그의 손가락 또는 포인팅 디바이스를 제 2 영역 외부에서 "회전 및 선형 움직임 감지 영역"의 가장 바깥쪽으로서 지칭될 수 있는 제 3 영역으로 드래그할 수 있다.
객체 움직임 제어 명령 생성부(IGP)는 또한 제 3 영역 내의 움직임 및 이 제 3 영역과 연관된 객체 움직임 제어 기능에 기초하여 추가적인 선형 객체 움직임 제어 명령을 생성하되, 여기서 이 객체 움직임 제어 기능은 포인팅 디바이스가 가장 내부의 원을 떠날 때 유도되는 회전 움직임 외에 정규화된 선형 움직임 컴포넌트를 수반한다. 손가락이 제 2 원 외부에서 드래그될 때, 객체의 현재 방위(orientation)에 대해 상대적인 선형 움직임의 방향은 방향 v로부터 유도되고(도 3b 참조), 이 벡터는 원의 중심으로부터 손가락이 제 1 원을 최초에 떠나는 포인트로 그려진다. 포인팅 디바이스가 제 1 원 외부의 표면상에서 드래그되고 있는 한 상대적인 방향이 고정된다. 손가락이 표면상에서 더 이상 드래그되지 않거나 제 1 원 내부로 되돌아가지 않는다면 이는 리셋된다. 제 2 영역(원) 외부에서, 정규화된 속도는, 손가락이 현재 드래그되는 포인트와 제 2 원 사이의 거리를 나타내는 세그먼트(ΔR)의 길이의 변이로부터 유도된다. 또한 중심으로부터 손가락이 더 드래그되면, 더 빠르게 아바타가 이동할 것이다. 제 2 원에 더 가깝게 손가락이 드래그되면, 더 느리게 아바타가 이동할 것이다. 손가락이 제 2 원 내부로 다시 드래그되면, 객체 움직임 제어 기능은 선형 움직임을 중지하도록 명령한다.
예를 들어, 손가락이 제 3 영역으로 드래그될 때,
- 북쪽을 가리키는 벡터 v, ΔR>0 및 Δθ=0는 앞으로 걸어가는 아바타에 대응한다.
- 북쪽을 가리키는 벡터 v, ΔR>0 및 Δθ>0는 앞으로 걸어가면서 동시에 좌측을 향하여 회전하는 아바타에 대응한다.
- 북쪽을 가리키는 벡터 v, ΔR>0 및 Δθ<0는 앞으로 걸어가면서 동시에 우측을 향하여 회전하는 아바타에 대응한다.
- 동쪽을 가리키는 벡터 v, ΔR>0 및 Δθ=0는 오른쪽으로 총을 쏘는(strafing) 아바타에 대응한다.
객체 움직임 제어 기능에 의해 생성되는 정규화된 움직임의 민감도는 사용자의 유용성 요구사항에 적합한 사용자 인터페이스를 통해 설정될 수 있고 생성된 연관 데이터는 3D 애플리케이션 특정 CLD 인터페이스에 의해 수용되는 특정 데이터 표현 및 프로토콜에 대해 적용될 수 있다.
휴먼 인터페이스 디바이스(HID)의 추가 버튼은 지면으로부터 예를 들어 점프 또는 비행하기 위해 3차원 가상 환경(3DVE) 내에서 객체의 움직임을 시행하도록 할당될 수 있다.
마지막으로 주목해야할 것은 본 발명의 실시예가 기능적 블록의 측면으로 상술되었다는 것이다. 상기 주어진, 이들 블록의 기능적 설명으로부터, 전자 디바이스를 디자인하는 당업자에게 이들 블록의 실시예가 잘 알려진 전자 컴포넌트를 사용하여 어떻게 제조될 수 있는지가 명백할 것이다. 따라서 기능적 블록의 콘텐츠의 자세한 아키텍처는 제공되지 않는다.
특정 장치와 관련하여 본 발명의 원리가 상기 설명되었지만, 첨부된 청구항에서 정의된 바와 같이, 이 설명은 본 발명의 범위에 대한 제한으로서가 아닌 단지 예시의 방식으로 이루어짐이 명백하게 이해될 것이다.

Claims (10)

  1. 3차원 가상 환경을 브라우징하는 사용자의 휴먼 인터페이스 디바이스(a Human Interface Device;HID)에 의해 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법에 있어서,
    상기 휴먼 인터페이스 디바이스(HID)는 상기 3차원 가상 환경에 액세스하기 위한 클라이언트 디바이스(CLD)에 연결되고, 상기 3차원 가상 환경은 적어도 하나의 애플리케이션 서버(3D-AS)에서 전개되고, 상기 클라이언트 디바이스(CLD) 및 상기 적어도 하나의 애플리케이션 서버(3D-AS)는 통신 링크를 통해 연결되고,
    상기 방법은,
    2차원 표면에서 포인터의 위치를 검출함으로써 상기 2차원 표면에서 시작 포인트를 결정하는 단계와,
    상기 시작 포인트에 기초하여, 상기 시작 포인트를 둘러싸는, 상기 표면 상의 제 1 영역(I), 상기 제 1 영역을 둘러싸는, 상기 표면 상의 제 2 영역(II) 및 상기 제 2 영역을 둘러싸는, 상기 표면 상의 제 3 영역(III)을 할당하는 단계와,
    상기 포인터의 움직임 및 상기 움직임이 검출되는 영역과 연관되는 객체 움직임 제어 기능에 기초하여 객체 움직임 제어 명령을 생성하는 단계를 포함하는
    방법.

  2. 제 1 항에 있어서,
    상기 객체 움직임 제어 기능은,
    상기 제 1 영역(I) 내에서 상기 포인터의 상기 움직임이 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 움직임이 없거나,
    상기 포인터의 상기 움직임이 상기 제 2 영역(II) 내에서 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 움직임은 오직 각도 움직임이며 각속도는 상기 포인터의 상기 움직임으로부터 유도되고,
    상기 포인터의 상기 움직임이 상기 제 3 영역(III) 외부에서 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 움직임은 회전 및/또는 선형 움직임이며 상기 회전 및/또는 선형 움직임의 속도는 상기 포인터의 상기 움직임으로부터 유도되는
    방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 휴먼 인터페이스 디바이스(HID)는 터치 감지형 표면(a touch sensitive surface)을 갖는 클라이언트 디바이스이고 상기 2차원 표면에서 상기 시작 포인트를 결정하는 단계는 상기 터치 감지형 표면의 2차원 표면에서 상기 포인터의 위치를 검출하는
    방법.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 휴먼 인터페이스 디바이스(HID)는 컴퓨터 마우스이고 상기 2차원 표면에서 상기 시작 포인트를 결정하는 단계는 마우스 버튼의 클릭에 의해 상기 2차원 표면상에서 이동하는 상기 마우스의 초기 시작 포인트를 검출하는
    방법.
  5. 3차원 가상 환경 애플리케이션에서 객체의 움직임을 제어하기 위한 시스템에 있어서,
    상기 시스템은, 상기 객체의 움직임을 제어하기 위해 3차원 가상 환경을 브라우징하는 사용자의 휴먼 인터페이스 디바이스(HID)를 포함하고, 상기 3차원 가상 환경 애플리케이션을 전개하기 위해 적어도 하나의 애플리케이션 서버(3D-AS)를 더 포함하며,
    상기 시스템은, 또한 2차원 표면에서 포인터의 위치를 검출함으로써 상기 2차원 표면에서 시작 포인트를 결정하도록 구성된 초기 포인터 검출부(an initial pointer detection part;IPDP)와,
    결정된 상기 시작 포인트에 기초하여, 상기 시작 포인트를 둘러싸는 상기 표면 상의 제 1 영역(I), 상기 제 1 영역(I)을 둘러싸는, 상기 표면 상의 제 2 영역(II) 및 상기 제 2 영역(II)을 둘러싸는, 상기 표면 상의 제 3 영역(III)을 할당하도록 구성된 구역 할당부(a zone allocation part;ZAP)와,
    상기 포인터의 움직임 및 상기 움직임이 발생하는 영역과 연관된 객체 움직임 제어 기능에 기초하여 객체 움직임 제어 명령을 생성하도록 구성된 객체 움직임 제어 명령 생성부(IGP)를 포함하는
    시스템.
  6. 제 5 항에 있어서,
    상기 객체 움직임 제어 기능은,
    상기 제 1 영역(I) 내에서 상기 포인터의 상기 움직임이 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 움직임이 없거나,
    상기 포인터의 상기 움직임이 상기 제 2 영역(II) 내에서 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 움직임은 오직 각도 움직임이며, 상기 각도 움직임은 상기 포인터의 상기 움직임으로부터 유도되고,
    상기 포인터의 상기 움직임이 상기 제 3 영역(III) 외부에서 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 상기 움직임이 회전 및/또는 선형 속도이며 상기 회전 및/또는 선형 속도는 상기 포인터의 상기 움직임으로부터 유도되는
    시스템.
  7. 제 5 항 또는 제 6 항에 따른 시스템에서 사용하기 위한 객체 움직임 제어 모듈(Object Motion control Module;OMCM)에 있어서,
    2차원 표면에서 포인터의 위치를 검출함으로써 상기 2차원 표면에서 시작 포인트를 결정하도록 구성된 초기 포인터 검출부(IPDP)와,
    결정된 상기 시작 포인트에 기초하여, 상기 시작 포인트를 둘러싸는, 상기 표면 상의 제 1 영역(I), 상기 제 1 영역(I)을 둘러싸는, 상기 표면 상의 제 2 영역(II) 및 상기 제 2 영역(II)을 둘러싸는, 상기 표면 상의 제 3 영역(III)을 할당하도록 구성된 구역 할당부(ZAP)와,
    상기 포인터의 움직임 및 상기 움직임이 발생하는 영역과 연관된 객체 움직임 제어 기능에 기초하여 객체 움직임 제어 명령을 생성하도록 구성된 객체 움직임 제어 명령 생성부(IGP)를 포함하는
    객체 움직임 제어 모듈(OMCM).
  8. 제 7 항에 있어서,
    상기 객체 움직임 제어 기능은,
    상기 제 1 영역(I) 내에서 상기 포인터의 상기 움직임이 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 움직임이 없거나,
    상기 포인트의 상기 움직임이 상기 제 2 영역(II) 내에서 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 움직임은 오직 각도 움직임이며 상기 각도 움직임은 상기 포인터의 상기 움직임으로부터 유도되고,
    상기 포인트의 상기 움직임이 상기 제 3 영역(III) 외부에서 판별 또는 검출되는 경우 상기 3차원 가상 환경에서 상기 객체의 상기 움직임이 회전 및/또는 선형 움직임이고 회전 및/또는 선형 속도는 상기 포인터의 상기 움직임으로부터 유도되는
    객체 움직임 제어 모듈(OMCM).
  9. 제 5 항 또는 제 6 항에 따른 시스템에서 사용하기 위한 클라이언트 디바이스(CLD)에 있어서,
    제 7 항 또는 제 8 항에 따른 객체 움직임 제어 모듈을 포함하는
    클라이언트 디바이스(CLD).
  10. 제 5 항 또는 제 6 항에 따른 시스템에서 사용하기 위한 휴먼 인터페이스 디바이스(HID)에 있어서,
    제 5 항 또는 제 6 항에 따른 객체 움직임 제어 모듈을 포함하는
    휴먼 인터페이스 디바이스(HID).
KR1020127025308A 2010-02-26 2011-02-16 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법 KR101513343B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10305200.7A EP2362302B1 (en) 2010-02-26 2010-02-26 Method for controlling motions of an object in a 3-dimensional virtual environment
EP10305200.7 2010-02-26
PCT/EP2011/052287 WO2011104154A1 (en) 2010-02-26 2011-02-16 Method for controlling motions of an object in a 3-dimensional virtual environment

Publications (2)

Publication Number Publication Date
KR20120137390A true KR20120137390A (ko) 2012-12-20
KR101513343B1 KR101513343B1 (ko) 2015-04-17

Family

ID=42342677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127025308A KR101513343B1 (ko) 2010-02-26 2011-02-16 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법

Country Status (6)

Country Link
US (1) US8907946B2 (ko)
EP (1) EP2362302B1 (ko)
JP (1) JP5658286B2 (ko)
KR (1) KR101513343B1 (ko)
CN (1) CN102770836B (ko)
WO (1) WO2011104154A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102664988B (zh) * 2012-03-23 2014-02-19 中国科学院软件研究所 一种基于智能手机的三维交互方法及系统
US11181938B2 (en) * 2012-08-31 2021-11-23 Blue Goji Llc Full body movement control of dual joystick operated devices
CN103823705A (zh) * 2013-11-08 2014-05-28 广州菲动软件科技有限公司 虚拟角色转向控制方法及其系统
JP6793255B2 (ja) * 2017-03-20 2020-12-02 グーグル エルエルシー 仮想現実における保持オブジェクトの安定化

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7269632B2 (en) * 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
KR100543701B1 (ko) 2003-06-17 2006-01-20 삼성전자주식회사 공간형 입력 장치 및 방법
JP4819467B2 (ja) * 2005-10-04 2011-11-24 任天堂株式会社 オブジェクト移動制御プログラムおよび情報処理装置
KR100791287B1 (ko) * 2005-10-26 2008-01-04 삼성전자주식회사 그래픽 객체의 3차원 동작을 제어하는 장치 및 방법
US8698735B2 (en) * 2006-09-15 2014-04-15 Lucasfilm Entertainment Company Ltd. Constrained virtual camera control
US8269729B2 (en) * 2007-01-31 2012-09-18 Perceptive Pixel Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
JP4933381B2 (ja) 2007-08-23 2012-05-16 株式会社コナミデジタルエンタテインメント ネットワークゲームシステム、ネットワークゲームシステムの制御方法、ゲーム装置、ゲーム装置の制御方法及びプログラム
JP5252879B2 (ja) * 2007-10-25 2013-07-31 株式会社カプコン 操作制御装置、及び、この操作制御装置を実現するためのプログラム
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
CN103324386A (zh) * 2008-08-22 2013-09-25 谷歌公司 移动设备上的三维环境中的导航

Also Published As

Publication number Publication date
JP2013520736A (ja) 2013-06-06
US20120313935A1 (en) 2012-12-13
CN102770836B (zh) 2015-04-15
US8907946B2 (en) 2014-12-09
JP5658286B2 (ja) 2015-01-21
EP2362302A1 (en) 2011-08-31
CN102770836A (zh) 2012-11-07
WO2011104154A1 (en) 2011-09-01
EP2362302B1 (en) 2018-06-06
KR101513343B1 (ko) 2015-04-17

Similar Documents

Publication Publication Date Title
US11221730B2 (en) Input device for VR/AR applications
US11093053B2 (en) Input device
CN107533373B (zh) 虚拟现实中经由手与对象的场境敏感碰撞的输入
US9298266B2 (en) Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US8050891B2 (en) Sensor mapping
US9007299B2 (en) Motion control used as controlling device
US20200310561A1 (en) Input device for use in 2d and 3d environments
US20130057472A1 (en) Method and system for a wireless control device
EP2733574A2 (en) Controlling a graphical user interface
US20150067603A1 (en) Display control device
KR20150103240A (ko) 깊이 기반 사용자 인터페이스 제스처 제어
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
JP2013025666A (ja) 情報処理装置、情報処理方法及び入力装置
KR101513343B1 (ko) 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법
EP2538308A2 (en) Motion-based control of a controllled device
Daiber et al. Designing gestures for mobile 3D gaming
CN113467625A (zh) 虚拟现实的控制设备、头盔和交互方法
Chen et al. An integrated framework for universal motion control
JP5956481B2 (ja) 入力装置、入力方法、及びコンピュータが実行可能なプログラム
KR20170124593A (ko) 지능형 상호작용 방법, 장비 및 시스템
JP2016224595A (ja) システム、方法、およびプログラム
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
KR101219292B1 (ko) 표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법
WO2008040366A1 (en) Polar coordinates computer input method and devices
Hachet et al. 3DOF elastic control on mobile devices

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180410

Year of fee payment: 4