KR20110045564A - 3차원 아바타 제어 장치 및 방법 - Google Patents

3차원 아바타 제어 장치 및 방법 Download PDF

Info

Publication number
KR20110045564A
KR20110045564A KR1020090102192A KR20090102192A KR20110045564A KR 20110045564 A KR20110045564 A KR 20110045564A KR 1020090102192 A KR1020090102192 A KR 1020090102192A KR 20090102192 A KR20090102192 A KR 20090102192A KR 20110045564 A KR20110045564 A KR 20110045564A
Authority
KR
South Korea
Prior art keywords
avatar
pointer
change
dimensional
command
Prior art date
Application number
KR1020090102192A
Other languages
English (en)
Inventor
이현정
박준아
욱 장
한승주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090102192A priority Critical patent/KR20110045564A/ko
Publication of KR20110045564A publication Critical patent/KR20110045564A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

사용자 입력 장치를 이용하여 가상 공간에서 움직이는 아바타의 움직임을 제어하는 3차원 아바타 제어 장치 및 방법이 개시된다. 3차원 아바타 제어 장치는 3차원 공간에서 움직이는 하나 이상의 포인터에 대한 하나 이상의 3차원 위치 정보를 감지한다. 3차원 아바타 제어 장치는 감지된 3차원 위치 정보를 이용하여 포인터의 3차원 공간상의 위치 및 방향의 변화를 추적하고, 3차원 가상 공간에서 움직이는 3차원 아바타를 추적된 위치 및 방향의 변화에 대응하는 위치 및 방향으로 움직이는 움직임 명령을 생성한다. 3차원 아바타 제어 장치는 생성된 명령에 따라 3차원 가상 공간에서 3차원 아바타가 움직이는 영상을 생성하여 사용자에게 제공한다.
가상 공간, 3차원 아바타, 사용자 입력 장치, 센서, 주행 동작

Description

3차원 아바타 제어 장치 및 방법{Apparatus for controlling 3 dimensional avatar and method thereof}
사용자 입력 장치를 이용하여 가상 공간에서 움직이는 아바타의 움직임을 제어하는 시스템에 관한 것이다.
컴퓨터가 만든 가상 세계에서 사용자가 현실에서와 같은 체험을 간접 경험할 수 있도록 하는 기술에 대한 연구가 진행되고 있다. 또한, 컴퓨터의 가상 현실을 사용자가 실제와 같이 느끼도록 하기 위해서, 사용자의 실제 동작이 가상 세계에 존재하는 아바타에 반영될 수 있도록 하기 위한 기술이 중요시되고 있다. 그러나, 기존의 조이스틱, 키패드와 같은 사용자 입력 장치를 이용하여 가상 세계 또는 가상 공간의 아바타에 대한 움직임을 제어하는 경우, 3차원 아바타를 제어하기 불편하고 현실감이 저하될 수 있다.
입력 장치를 이용한 사용자의 아바타 제어 동작과 직관적으로 3차원 아바타의 가상 공간에서의 동작을 매핑하여, 사용자가 3차원 아바타를 손쉽게 제어할 수 있는 3차원 아바타 제어 장치 및 방법이 제공된다.
일 측면에 따른 3차원 아바타 제어 장치는, 감지부, 제어부 및 영상 처리부를 포함한다. 감지부는 3차원 공간에서 움직이는 하나 이상의 포인터에 대한 하나 이상의 3차원 위치 정보를 감지한다. 제어부는 감지된 3차원 위치 정보를 이용하여 포인터의 3차원 공간상의 위치 및 방향의 변화를 추적하고, 3차원 가상 공간에서 움직이는 3차원 아바타를 추적된 위치 및 방향의 변화에 대응하는 위치 및 방향으로 움직이는 움직임 명령을 생성한다. 영상 처리부는 생성된 명령에 따라 3차원 가상 공간에서 3차원 아바타가 움직이는 영상을 생성하는 영상 처리부를 포함한다.
제어부는 아바타의 전진, 후진, 회전 및 비상 동작 및 이들 동작의 적어도 2이상의 결합된 동작 중 적어도 하나를 지시하는 명령을 생성할 수 있다.
제어부는 포인터의 새로 입력되는 움직임의 방향이 포인터의 이전 움직임 방향과 반대이면, 3차원 아바타의 움직임을 정지시키는 명령을 생성할 수 있다.
제어부는 포인터의 위치의 변화가 미리 설정된 변화량 이상이 되면, 3차원 아바타의 움직임의 속도를 증가시키는 명령을 생성할 수 있다.
3차원 아바타 제어 장치는, 영상을 출력하는 표시부를 더 포함할 수 있다.
감지부는 포인터로부터 접촉 신호를 수신하고, 제어부는 접촉 신호를 이용하여 하나 이상의 3차원 위치 정보가 유효한 정보인지 여부를 결정할 수 있다.
포인터가 2개인 경우, 제어부는 감지부로터 전달되는 2개의 포인터의 3차원 공간상의 위치 및 방향의 변화를 각각 추적하고, 하나의 포인터의 위치 및 방향의 변화가, 다른 하나의 포인터의 위치 및 방향의 변화와 동일한 경우, 하나의 포인터의 위치의 방향 및 방향의 변화에 따라 3차원 아바타를 움직이는 명령을 생성할 수 있다.
제어부는 감지부로터 전달되는 2개의 포인터의 3차원 공간상의 위치 및 방향의 변화를 각각 추적하고, 하나의 포인터의 위치 및 방향의 변화가, 다른 하나의 포인터의 위치 및 방향의 변화와 다른 경우, 하나의 포인터의 위치 및 방향의 변화에 따라 3차원 아바타의 이동 범위를 설정하는 명령을 생성하고, 다른 하나의 포인터의 위치 및 방향의 변화에 따라 3차원 아바타를 움직이는 명령을 생성할 수 있다.
다른 측면에 따른 3차원 아바타 제어 방법은, 3차원 공간에서 움직이는 하나 이상의 포인터에 대한 하나 이상의 3차원 위치 정보를 감지하는 동작과, 감지된 3차원 위치 정보를 이용하여 포인터의 3차원 공간상의 위치 및 방향의 변화를 추적하는 동작과, 3차원 가상 공간에서 움직이는 3차원 아바타를 추적된 위치 및 방향의 변화에 대응하는 위치 및 방향으로 움직이는 움직임 명령을 생성하는 동작과, 생성된 명령에 따라 3차원 가상 공간에서 3차원 아바타가 움직이는 영상을 생성하는 동작을 포함한다.
입력 장치를 이용한 사용자의 아바타 제어 동작과 직관적으로 3차원 아바타의 가상 공간에서의 동작을 매핑하여 3차원 아바타의 동작을 제어함으로써, 사용자가 3차원 아바타를 손쉽게 제어할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 사용자가 포인터를 이용하여 3차원 아바타를 제어하는 동작의 일 예를 나타내는 도면이다.
사용자는 3차원 아바타 제어 장치(200)로부터 떨어진 위치에서 하나 이상의 포인터(110, 120)를 이용하여 3차원 아바타 제어 장치(200)의 화면상의 3차원 공간에서 3차원 아바타(10)의 움직임을 제어한다. 아바타는 가상 공간에서 사용자의 의도에 따라 동작하는 가상 객체를 나타낸다. 아바타는 가상 공간의 형태에 따라 사람, 동물, 물체 등의 다양한 형상으로 나타낼 수 있다.
사용자는 양손에 포인터(110, 120)를 잡고 공간에서 동작을 실시하여 아바타(10)의 움직임을 제어한다. 아바타의 움직임은 3D 가상 공간을 탐사하는 다양한 동작을 포함할 수 있다. 아바타의 움직임은 아바타의 전진, 후진, 회전 및 비상 동작 및 이들 동작의 적어도 2이상의 결합된 동작을 포함할 수 있다.
아바타는 사용자가 조작하는 포인터(110, 120) 위치 및 방향의 변화에 대응하도록 움직인다. 예를 들어, 사용자가 포인터를 앞으로 내밀면, 아바타는 3차원 공간에서 앞으로 직진한다. 도 1에는 사용자가 2개의 포인터를 사용하고 있으나, 사용자는 하나의 포인터를 이용할 수 있으며, 사용자가 아바타(10)를 제어하기 위한 포인터의 개수, 종류 및 형태는 제한이 없다.
도 2는 3차원 아바타 제어 장치의 구성의 일 예를 나타내는 도면이다.
3차원 아바타 제어 장치(200)는 감지부(210), 제어부(220), 영상 처리부(230), 출력부(240) 및 저장부(240)를 포함할 수 있다.
감지부(210)는 통신 모듈로 구성되어, 포인터로부터 감지된 3차원 위치 정보를 수신하는 방식으로 포인터의 3차원 위치 정보를 감지할 수 있다. 또는, 감지부(210)는 적외선 센서를 이용하여 적외선 마커가 부착된 포인터를 감지하는 것과 같이 포인터의 3차원 위치 정보를 직접 감지하도록 구성될 수도 있다.
감지부(210)는 포인터에 대한 3차원 위치 정보를 감지하는 위치 정보 감지부(212) 및 포인터에 구비된 접촉 버튼 등의 입력에 의해 생성된 접촉 신호를 감지하는 접촉 신호 감지부(214)를 포함할 수 있다.
3차원 위치 정보는 포인터에 구비된, 가속도 센서, 각속도 센서 및 지자기 센서, 초음파 센서 등으로부터 생성되는 다양한 형태의 감지 값으로부터 생성될 수 있다. 3차원 위치 정보는 포인터로부터 위치 정보 감지부(212)로 수신될 수 있다. 또한, 위치 정보 감지부(212)는 3차원 위치 정보를 감지할 수 있도록 초음파 센서, 포인터에 구비된 적외선 마커를 감지하는 적외선 카메라(도시되지 않음)를 포함하여 구성될 수 있다.
접촉 신호 감지부(214)는 포인터에 접촉 센서, 터치 센서 및/또는 압력 센서 가 구비되어, 접촉 신호가 수신되는 경우 선택적으로 포함될 수 있다.
제어부(220)는 3차원 아바타 제어 장치(200)의 감지부(210), 영상 처리부(230), 출력부(240) 및 저장부(250)의 동작을 제어한다. 제어부(220)는 감지 신호 처리부(222), 인식부(224)를 포함할 수 있다.
감지 신호 처리부(222)는 위치 정보 감지부(212)에서 감지된 위치 정보를 처리하여 포인터의 3차원 위치 및 자세를 계산할 수 있다. 감지 신호 처리부(222)는 포인터로부터 전달된, 다양한 센서들로부터 감지된 정보들을 감지된 정보의 종류에 따라 계산할 수 있다.
상세하게는, 감지 신호 처리부(222)는 포인터의 가속도 센서로부터 감지된 가속도 센서의 출력을 적분하는 계산, 포인터의 가속도 센서의 중력 성분을 이용한 포인터의 기울임 계산, 포인터의 각속도 센서의 출력을 적분하는 계산, 포인터의 지자기 센서의 출력을 이용한 방위각 계산, 초음파 센서를 이용한 거리 및 위치 계산을 수행할 수 있다. 또한, 감지 신호 처리부(222)는 감지부(210)에 구비된 초음파 센서 또는 적외선 센서의 출력을 이용한 거리 및 위치 계산을 수행할 수 있다. 감지 신호 처리부(222)는 감지된 센서 출력값들에 대한 계산 과정을 수행하고, 각 센서 출력값들에 대한 계산 결과를 종합적으로 융합하여 예를 들어, 칼만 필터를 이용하여 포인터의 위치 및 자세를 계산할 수 있다. 포인터의 위치는 (x, y, z)의 좌표 값으로 나타낼 수 있으며, 자세는 해당 위치에서의 각 좌표 축의 회전 각도인 (θx, θy, θz)로 나타낼 수 있다.
또한, 감지 신호 처리부(222)는 소정의 시간동안 누적된 포인터의 3차원 위치 정보를 이용하여 포인터의 움직임(또는 움직임의 궤적)을 추적할 수 있다. 감지 신호 처리부(222)는 감지된 3차원 위치 정보를 이용하여 포인터의 3차원 공간상의 위치 및 방향의 변화를 추적할 수 있다. 인식부(224)는 3차원 가상 공간에서 움직이는 3차원 아바타를 검출된 위치 및 방향의 변화에 대응하는 위치 및 방향으로 움직이는 명령을 생성할 수 있다.
또한, 감지 신호 처리부(222)는 포인터로부터 접촉 신호 감지부(214)를 통해 입력된 접촉 신호를 이용하여 3차원 위치 정보의 유효성을 판별할 수 있다. 예를 들어, 아바타의 움직임 제어를 시작할 때 사용자는 잡고 있는 포인터의 접촉 센서(또는 버튼)에 압력을 주어 터치 감도 값이나 압력 감도 값에 변화를 주어서 생성되는 접촉 신호를 3차원 아바타 제어 장치(200)에 전달하여, 입력의 유효함을 3차원 아바타 제어 장치(200)에 알릴 수 있다. 또한, 사용자는 포인터의 접촉 센서로부터 접촉 신호를 생성하도록 압력을 가하는 등의 방식으로 3차원 아바타 제어 장치(200)에 아바타의 움직임 제어를 종료하였음을 알릴 수 있다. 포인터가 2개이고, 각 포인터에 접촉 센서가 장착되어 있는 경우에, 3차원 아바타 제어 장치(200)는 접촉 신호가 입력되는 포인터에 대한 3차원 위치 정보만이 유효하다고 판별하고, 유효하다고 판별된 3차원 위치 정보만을 처리할 수 있다.
인식부(224)는 3차원 위치 및 자세 정보를 이용하여 3차원 아바타의 움직임을 제어하는 명령을 생성한다. 인식부(224)는 포인터의 위치 및 방향과 3차원 아바타의 위치 및 방향을 지시하는 명령은 일대일로 매핑되어 저장부(250)에 저장되 어 있는 정보를 이용하여 아바타의 움직임을 제어하는 명령을 생성할 수 있다. 인식부(224)는 기본적인 포인터의 이동뿐만 아니라 일정 기간 동안의 3차원 위치 및 자세의 추적으로 어떠한 의미를 지니는 동작인지를 판별한다. 인식 과정을 통해 아바타의 움직임을 제어하는 명령어를 생성한다.
인식부(224)는 포인터의 새로 입력되는 움직임의 방향이 포인터의 이전 움직임 방향과 반대이면, 3차원 아바타의 움직임을 정지시키는 명령을 생성할 수 있다. 인식부(224)는 포인터의 위치의 변화가 미리 설정된 변화량 이상이 되면, 3차원 아바타의 움직임의 속도를 증가시키는 명령을 생성할 수 있다.
포인터가 2개인 경우, 인식부(224)는 감지부(210)로터 전달되는 2개의 포인터의 3차원 공간상의 위치 및 방향의 변화를 각각 추적할 수 있다. 인식부(224)는 하나의 포인터의 위치 및 방향의 변화가, 다른 하나의 포인터의 위치 및 방향의 변화와 동일한 경우, 하나의 포인터의 위치의 방향 및 방향의 변화에 따라 3차원 아바타를 움직이는 명령을 생성할 수 있다. 인식부(224)는 하나의 포인터의 위치 및 방향의 변화가, 다른 하나의 포인터의 위치 및 방향의 변화와 다른 경우, 하나의 포인터의 위치 및 방향의 변화에 따라 3차원 아바타의 이동 범위를 설정하는 명령을 생성하고, 다른 하나의 포인터의 위치 및 방향의 변화에 따라 3차원 아바타를 움직이는 명령을 생성할 수 있다.
영상 처리부(230)는 생성된 명령에 따라 3차원 가상 공간에서 3차원 아바타가 움직이는 영상을 생성한다.
표시부(240)는 영상 처리부(226)에 처리된 영상을 출력한다. 표시부(240)는 3차원 가상 공간 및 포인터의 위치 변화에 따라 가상 공간에서 움직이는 3차원 아바타를 표시할 수 있다.
저장부(250)는 3차원 아바타 제어 장치(200)의 동작에 필요한 운영체제, 애플리케이션 및 데이터를 저장할 수 있다. 저장부(250)는 인식부(224)에서 인식된 3차원 포인터의 움직임(또는 움직임의 궤적) 데이터에 대응하는 아바타의 동작의 움직임을 나타내는 아바타 움직임 데이터의 매핑된 정보가 저장될 수 있다. 인식부(224)는 저장부(250)는 3차원 포인터의 움직임(또는 움직임의 궤적) 데이터에 대응하는 아바타의 움직임 데이터를 참조하여 아바타의 움직임을 지시하는 명령을 생성할 수 있다.
입력 장치를 이용한 사용자의 아바타 제어 동작과 직관적으로 3차원 아바타의 가상 공간에서의 동작을 매핑하여 3차원 아바타의 동작을 제어함으로써, 사용자가 3차원 아바타를 손쉽게 제어할 수 있다.
도 3은 3차원 아바타의 동작의 일 예를 나타내는 도면이다.
포인터의 이동 및 회전에 따라 3차원 아바타도 이동 및 회전한다. 아바타의 방향 전환은 아바타가 지면에서 좌회전, 우회전 등으로 방향으로 바꾸거나, 비상 상태의 방향 변경을 포함한다. 초기에 아바타는 사용자와 같은 방향으로 서 있도록 설정될 수 있다.
도 3에서 그림(310)은 아바타가 전진하는 동작을 나타내고, 그림(320)는 아바타가 우회전하는 동작을 나타내고, 그림(330)은 아바타가 비상하는 동작을 나타내고, 그림(340)은 아바타가 비상 상태에서 직진하는 동작을 나타내고, 그림(350) 은 아바타가 비상 상태에서 좌회전하는 동작을 나타낸다. 이외에도, 포인터의 이동 및 회전에 따라서 아바타는 좌회전하여 직진하거나, 비상 상태에서 후진하거나, 비상 상태에서의 높이 업/다운 등 3차원 공간에서 다양한 동작을 수행할 수 있다.
도 4a 및 도 4b는 1개의 포인터의 움직임과 아바타의 동작의 대응 관계의 일 예를 나타내는 도면이다.
현재의 포인터의 위치와 방향이 아바타와 일치하는 상태를 가정하고 입력이 시작된다. 도 4a 및 도 4b에 도시된 바와 같이 1개의 포인터가 이용되는 경우 포인터의 방향 및 위치의 변화가 아바타의 방향 및 위치의 변경에 직관적으로 매핑된 데이터가 저장부(250) 또는 인식부(224)에 포함될 수 있다. 인식부(224)는 포인터의 위치 및 방향의 변화 정보에 따른 아바타의 동작의 매핑 정보를 이용하여 아바타의 동작을 제어하는 명령을 생성할 수 있다. 이와 같은 매핑 정보는, 아바타 동작, 아바타의 움직임 데이터, 포인터 동작 데이터, 및 포인터 동작 설명 데이터를 포함할 수 있다. 포인터 동작 설명 데이터는 사용자에 3차원 아바타 제어 장치(200)의 사용 방법을 제공하는데 이용될 수 있다.
도 4a 및 도 4b에서, x축과 y축으로 이루어진 xy 평면은 3차원 아바타 제어 장치(200)의 표시부(240)에 대응하고, z축은 포인터의 표시부(240) 사이의 거리를 나타내는 축을 나타낸다.
도 4a에 도시된 바와 같이, 사용자가 화면으로 향한 상태에서 포인터를 일정 거리 화면쪽으로 이동하면 아바타의 전진이 시작된다. 사용자가 화면 방향으로의 이동 거리가 미리 설정된 거리(또는 거리 변화량)이상이 되면 전진 속도가 증가되 는 전진 가속 상태가 될 수 있다. 아바타의 전진 상태에서 아바타의 이동 거리에 따라 전진 속도가 비례하여 증가할 수 있다. 아바타의 전진 상태에서 포인터를 원래 위치로 뒤로 이동하여 되돌리면 아바타의 전진은 멈출 수 있다.
사용자가 포인터를 3차원 아바타 제어 장치(200)의 화면 반대 방향으로 일정 거리 이동하면 아바타의 후진이 진행될 수 있다. 사용자가 포인터를 왼쪽 방향으로 회전하면 아바타는 좌회전할 수 있다. 사용자가 포인터를 오른쪽 방향으로 회전하면 아바타가 우회전할 수 있다. 또한, 사용자가 포인터를 좌수평방향으로 이동하면, 아바타는 좌측 방향으로 직진할 수 있다.
도 4b를 참조하면, 아바타는 사용자가 포인터의 높이를 높였다 낮추는 동작에 따라 비상 동작을 수행한다. 아바타의 비상 상태에서, 사용자가 포인터를 앞으로 일정 거리 이동시키면, 아바타는 비상 후 주행한다.
또한, 아바타의 비상 상태에서 사용자가 포인터를 높였다 낮추는 동작으로 아바타의 높이를 올릴 수 있다. 아바타의 비상 상태에서 사용자가 포인터를 낮추었다 높이는 동작으로 아바타의 높이를 낮출 수 있다.
아바타의 비상 상태에서 사용자가 포인터를 낮췄다 높이는 동작에서 가장 낮은 위치를 일정 시간 예를 들어, 약 2초 유지하여 아바타의 비상을 종료할 수 있다.
도 5a 및 도 5b는 2개의 포인터의 움직임과 아바타의 동작의 대응 관계의 일 예를 나타내는 도면이다.
기본적으로 2개의 포인터를 같은 방향으로 이동하고, 이 이동 방향에 따라 아바타를 제어할 수 있다. 도 5a 및 도 5b에 도시된 바와 같이 2개의 포인터가 이용되는 경우 2개의 포인터의 방향 및 위치의 변화가 아바타의 방향 및 위치의 변경에 매핑된 데이터가 저장부(250) 또는 인식부(224)에 포함될 수 있다. 인식부(224)는 2개의 포인터의 위치 및 방향의 변화 정보가 서로 일치한다고 판단하면, 일치되는 포인터의 위치 및 방향의 변화 정보에 따른 아바타의 동작의 매핑 정보를 이용하여 아바타의 동작을 제어하는 명령을 생성할 수 있다.
사용자가 화면으로 향한 상태에서 2개의 포인터를 일정 거리 화면쪽으로 이동하면 아바타의 전진이 시작된다. 화면 방향으로의 이동 거리에 따라 전진 속도가 증가되는 전진 가속 상태가 될 수 있다. 아바타의 전진 상태에서 포인터를 원래 위치로 뒤로 이동하여 되돌리면 아바타의 전진은 멈출 수 있다.
사용자가 포인터를 3차원 아바타 제어 장치(200)의 화면 반대 방향으로 일정 거리 이동하면 아바타의 후진이 진행된다. 사용자가 2개의 포인터를 왼쪽 방향으로 회전하면 아바타는 좌회전한다. 또한, 사용자가 2개의 포인터를 좌수평방향으로 이동하면, 아바타는 좌측 방향으로 직진할 수 있다.
도 5b를 참조하면, 사용자가 2개의 포인터의 높이를 높였다 낮추는 동작이 아바타의 비상은 아바타를 공중으로 들어올리는 동작에 대응된다. 아바타의 비상 상태에서, 사용자가 2개의 포인터를 앞으로 일정 거리 이동시키면, 아바타는 비상 후 주행한다.
또한, 아바타의 비상 상태에서 사용자가 2개의 포인터를 높였다 낮추는 동작으로 아바타의 높이를 올릴 수 있다. 아바타의 비상 상태에서 사용자가 2개의 포 인터를 낮추었다 높이는 동작으로 아바타의 높이를 낮출 수 있다.
아바타의 비상 상태에서 사용자가 2개의 포인터를 낮췄다 높이는 동작에서 가장 낮은 위치를 일정 시간 예를 들어, 약 2초 유지하여 아바타의 비상을 종료할 수 있다.
인식부(224)는 2개의 포인터의 위치 및 방향의 변화 정보가 서로 일치하지 않는다고 판단하면, 하나의 포인터로부터 수신된 3차원 위치 정보에 기초하여 아바타 조정의 시작과 끝을 지정하고, 다른 포인터로부터 수신된 3차원 위치 정보에 기초하여 아바타의 진행 방향을 조정할 수 있다. 도 5a 및 도 5b에 도시된 경우 이외에도 다양한 방식으로 아바타가 제어될 수 있다.
도 6은 3차원 아바타 제어 방법의 일 예를 나타내는 흐름도이다.
3차원 공간에서 움직이는 하나 이상의 포인터에 대한 하나 이상의 3차원 위치 정보를 감지한다(610). 3차원 위치 정보는 위치 감지를 위한 다양한 센서 출력 값으로부터 계산될 수 있다. 감지된 3차원 위치 정보를 이용하여 포인터의 3차원 공간상의 위치 및 방향의 변화를 추적한다(620). 3차원 가상 공간에서 움직이는 3차원 아바타를 검출된 위치 및 방향의 변화에 대응하는 위치 및 방향으로 움직이는 명령을 생성한다(630). 생성된 명령에 따라 3차원 가상 공간에서 3차원 아바타가 움직이는 영상을 생성한다(640).
접촉 센서가 적용된 포인터의 경우, 접촉 센서가 온(on) 상태부터 오프(off) 상태까지의 포인터의 3차원 위치 정보를 처리하여 아바타의 움직임을 제어할 수 있다.
도 7은 포인터의 움직임에 따른 아바타의 움직임 제어 방법의 일 예를 나타내는 흐름도이다.
3차원 아바타 제어 장치(200)는 포인터 입력 신호를 처리하고(710), 사용자가 포인터를 앞으로 내밀거나 뒤로 빼거나, 옆으로 이동시키는 등의 움직임 제어를 하여, 포인터의 모션 신호가 xz 평면 기반의 이동이라고 결정하면(720), 아바타가 포인터 이동 방향에 따라 이동하도록 제어한다(730).
3차원 아바타 제어 장치(200)는 포인터의 모션 신호가 xz 평면에서의 회전이라고 결정하면(740), 아바타가 결정된 회전 방향에 맞게 회전하도록 제어한다(750). 즉, 포인터를 왼쪽으로 또는 오른쪽으로 돌리면 아바타는 좌회전 또는 우회전을 실행한다.
3차원 아바타 제어 장치(200)는 포인터의 모션 신호가 y축 기반 신호이라고 결정하면(760), 아바타가 비상 관련 동작를 실행하도록 제어한다(770).
도 8은 포인터의 움직임에 따른 아바타의 전진 및 후진 동작에 대한 제어 방법의 일 예를 나타내는 흐름도이다.
3차원 아바타 제어 장치(200)는 아바타가 정지 상태에서(810), -z 방향의 포인터의 이동이 발생하면(812), 아바타가 직진을 실행한다(814). 직진 상태에서(814), +z 방향의 포인터 이동이 발생되면(816), 아바타의 직진 속도가 느려지거나 정지 상태로 된다(910). 직진 상태에서(814), -z 방향의 포인터 이동이 더 발생되면(818), 아바타의 직진 속도가 빨라진다(820). 예를 들어, 아바타가 앞으로 걷고 있다 뛰는 동작을 수행한다. 아바타의 전진 가속 상태에서(820), + 방향의 포인터 이동이 발생되면(822), 아바타의 전진 속도가 느려져 전진 상태가 된다(814).
아바타가 정지 상태에서(810), +z 방향의 포인터 이동이 발생되면(824), 아바타는 후진하게 된다(826). 후진 상태에서(826), -z 방향의 포인터 이동이 발생하면(828), 아바타의 직진 속도가 느려지거나 정지 상태로 된다(810). 후진 상태에서(826), +z 방향의 포인터 이동이 더 발생되면(830), 아바타의 후진 속도가 빨라진다(832). 아바타의 후진 가속 상태에서(832), -z 방향의 포인터 이동이 발생되면(832), 아바타의 후진 속도가 느려져 후진 상태가 된다(826).
본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.
도 1은 사용자가 포인터를 이용하여 3차원 아바타를 제어하는 동작의 일 예를 나타내는 도면이다.
도 2는 3차원 아바타 제어 장치의 구성의 일 예를 나타내는 도면이다.
도 3은 3차원 아바타의 동작의 일 예를 나타내는 도면이다.
도 4a 및 도 4b는 1개의 포인터의 움직임과 아바타의 동작의 대응 관계의 일 예를 나타내는 도면이다.
도 5a 및 도 5b는 2개의 포인터의 움직임과 아바타의 동작의 대응 관계의 일 예를 나타내는 도면이다.
도 6은 3차원 아바타 제어 방법의 일 예를 나타내는 흐름도이다.
도 7은 포인터의 움직임에 따른 아바타의 움직임 제어 방법의 일 예를 나타내는 흐름도이다.
도 8은 포인터의 움직임에 따른 아바타의 전진 및 후진 동작에 대한 제어 방법의 일 예를 나타내는 흐름도이다.

Claims (12)

  1. 3차원 공간에서 움직이는 하나 이상의 포인터에 대한 하나 이상의 3차원 위치 정보를 감지하는 감지부;
    상기 감지된 3차원 위치 정보를 이용하여 상기 포인터의 3차원 공간상의 위치 및 방향의 변화를 추적하고, 3차원 가상 공간에서 움직이는 3차원 아바타를 상기 추적된 위치 및 방향의 변화에 대응하는 위치 및 방향으로 움직이는 움직임 명령을 생성하는 제어부; 및
    상기 생성된 명령에 따라 상기 3차원 가상 공간에서 상기 3차원 아바타가 움직이는 영상을 생성하는 영상 처리부를 포함하는 3차원 아바타 제어 장치.
  2. 제1항에 있어서,
    상기 제어부는 상기 아바타의 전진, 후진, 회전 및 비상 동작 및 이들 동작의 적어도 2이상의 결합된 동작 중 적어도 하나를 지시하는 명령을 생성하는 3차원 아바타 제어 장치.
  3. 제1항에 있어서,
    상기 제어부는 상기 포인터의 새로 입력되는 움직임의 방향이 상기 포인터의 이전 움직임 방향과 반대이면, 상기 3차원 아바타의 움직임을 정지시키는 명령을 생성하는 3차원 아바타 제어 장치.
  4. 제1항에 있어서,
    상기 제어부는 상기 포인터의 위치의 변화가 미리 설정된 변화량 이상이 되면, 상기 3차원 아바타의 움직임의 속도를 증가시키는 명령을 생성하는 3차원 아바타 제어 장치.
  5. 제1항에 있어서,
    상기 영상을 출력하는 표시부를 더 포함하는 3차원 아바타 제어 장치.
  6. 제1항에 있어서,
    상기 감지부는 상기 포인터로부터 접촉 신호를 수신하고, 상기 제어부는 상기 접촉 신호를 이용하여 상기 하나 이상의 3차원 위치 정보가 유효한 정보인지 여부를 결정하는 3차원 아바타 제어 장치.
  7. 제1항에 있어서,
    상기 포인터가 2개인 경우, 상기 제어부는 상기 감지부로터 전달되는 2개의 포인터의 3차원 공간상의 위치 및 방향의 변화를 각각 추적하고, 하나의 포인터의 위치 및 방향의 변화가, 다른 하나의 포인터의 위치 및 방향의 변화와 동일한 경우, 상기 하나의 포인터의 위치의 방향 및 방향의 변화에 따라 상기 3차원 아바타를 움직이는 명령을 생성하는 3차원 아바타 제어 장치.
  8. 제1항에 있어서,
    상기 제어부는 상기 감지부로터 전달되는 2개의 포인터의 3차원 공간상의 위치 및 방향의 변화를 각각 추적하고, 상기 하나의 포인터의 위치 및 방향의 변화가, 다른 하나의 포인터의 위치 및 방향의 변화와 다른 경우, 상기 하나의 포인터의 위치 및 방향의 변화에 따라 상기 3차원 아바타의 이동 범위를 설정하는 명령을 생성하고, 상기 다른 하나의 포인터의 위치 및 방향의 변화에 따라 상기 3차원 아바타를 움직이는 명령을 생성하는 3차원 아바타 제어 장치.
  9. 3차원 공간에서 움직이는 하나 이상의 포인터에 대한 하나 이상의 3차원 위치 정보를 감지하는 단계;
    상기 감지된 3차원 위치 정보를 이용하여 상기 포인터의 3차원 공간상의 위치 및 방향의 변화를 추적하는 단계;
    상기 3차원 가상 공간에서 움직이는 3차원 아바타를 상기 추적된 위치 및 방향의 변화에 대응하는 위치 및 방향으로 움직이는 움직임 명령을 생성하는 단계; 및
    상기 생성된 명령에 따라 상기 3차원 가상 공간에서 상기 3차원 아바타가 움직이는 영상을 생성하는 단계를 포함하는 3차원 아바타 제어 방법.
  10. 제9항에 있어서,
    상기 움직임 명령을 생성하는 단계는 아바타의 전진, 후진, 회전 및 비상 동작 및 이들 동작의 적어도 2이상의 결합된 동작 중 적어도 하나를 지시하는 명령을 생성하는 단계를 포함하는 3차원 아바타 제어 방법.
  11. 제9항에 있어서,
    상기 포인터의 새로 입력되는 움직임의 방향이 상기 포인터의 이전 움직임 방향과 반대이면, 상기 3차원 아바타의 움직임을 정지시키는 명령을 생성하는 단계를 더 포함하는 3차원 아바타 제어 방법.
  12. 제9항에 있어서,
    상기 포인터의 위치의 변화가 미리 설정된 변화량 이상이 되면, 상기 3차원 아바타의 움직임의 속도를 증가시키는 명령을 생성하는 단계를 더 포함하는 3차원 아바타 제어 방법.
KR1020090102192A 2009-10-27 2009-10-27 3차원 아바타 제어 장치 및 방법 KR20110045564A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090102192A KR20110045564A (ko) 2009-10-27 2009-10-27 3차원 아바타 제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090102192A KR20110045564A (ko) 2009-10-27 2009-10-27 3차원 아바타 제어 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20110045564A true KR20110045564A (ko) 2011-05-04

Family

ID=44240600

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090102192A KR20110045564A (ko) 2009-10-27 2009-10-27 3차원 아바타 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20110045564A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102543337B1 (ko) * 2022-03-21 2023-06-14 가천대학교 산학협력단 아바타를 생성한 사용자의 생체정보 기반 색채힐링콘텐츠를 제공하기 위한 사용자 맞춤 색채힐링콘텐츠 제공 시스템 및 방법
KR20230137536A (ko) * 2022-03-21 2023-10-05 가천대학교 산학협력단 아바타를 생성하여 콘텐츠를 수행하는 사용자 맞춤 실감콘텐츠 테스트베드 최적온도를 산출하기 위한 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102543337B1 (ko) * 2022-03-21 2023-06-14 가천대학교 산학협력단 아바타를 생성한 사용자의 생체정보 기반 색채힐링콘텐츠를 제공하기 위한 사용자 맞춤 색채힐링콘텐츠 제공 시스템 및 방법
KR20230137536A (ko) * 2022-03-21 2023-10-05 가천대학교 산학협력단 아바타를 생성하여 콘텐츠를 수행하는 사용자 맞춤 실감콘텐츠 테스트베드 최적온도를 산출하기 위한 시스템 및 방법

Similar Documents

Publication Publication Date Title
US10521011B2 (en) Calibration of inertial measurement units attached to arms of a user and to a head mounted device
US11016116B2 (en) Correction of accumulated errors in inertial measurement units attached to a user
US20190332171A1 (en) Tracking Arm Movements to Generate Inputs for Computer Systems
US9152248B1 (en) Method and system for making a selection in 3D virtual environment
JP6528280B2 (ja) 移動体
US20080010616A1 (en) Spherical coordinates cursor, mouse, and method
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
TW201911133A (zh) 用於多個自由度之控制器追蹤
EP3234742A2 (en) Methods and apparatus for high intuitive human-computer interface
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
JP2011075559A (ja) 動き検出装置および方法
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
EP2559464A1 (en) Gun-shaped game controller
JP6723417B1 (ja) 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
CN103200304A (zh) 一种移动终端智能光标控制系统及方法
JP2013535066A (ja) 対話型システムのための起動オブジェクト
KR20110044391A (ko) 입력 장치 및 방법
KR20110045564A (ko) 3차원 아바타 제어 장치 및 방법
US11789536B2 (en) Input device and display input system
KR20100066070A (ko) 입력 장치 및 방법
CN109634427B (zh) 基于头部追踪的ar眼镜控制系统及控制方法
CN111475019A (zh) 一种虚拟现实的手势交互系统和方法
JP2004326242A (ja) 姿勢角度および位置情報の入力装置およびその入力方法
US11899834B2 (en) Information processing device and method
KR20190053537A (ko) 이동수단의 가상현실 콘텐츠 제공 장치 및 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination