KR100597329B1 - 가상 환경 시점 제어 - Google Patents

가상 환경 시점 제어 Download PDF

Info

Publication number
KR100597329B1
KR100597329B1 KR1019997008154A KR19997008154A KR100597329B1 KR 100597329 B1 KR100597329 B1 KR 100597329B1 KR 1019997008154 A KR1019997008154 A KR 1019997008154A KR 19997008154 A KR19997008154 A KR 19997008154A KR 100597329 B1 KR100597329 B1 KR 100597329B1
Authority
KR
South Korea
Prior art keywords
user
virtual environment
interaction
character
cursor
Prior art date
Application number
KR1019997008154A
Other languages
English (en)
Other versions
KR20000076066A (ko
Inventor
루트게르스욥
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20000076066A publication Critical patent/KR20000076066A/ko
Application granted granted Critical
Publication of KR100597329B1 publication Critical patent/KR100597329B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6684Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dynamically adapting its position to keep a game object in its viewing frustrum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

복수 사용자 대화형 가상 환경 시스템으로서, 할당된 캐릭터의 사용자 지시 움직임에 의해 적어도 부분적으로 결정된 각각의 가상 카메라(110) 시점으로부터, 각각의 사용자에 대해, 가상 환경의 각각의 이미지 및 개별 사용자에 특정하게 할당된 캐릭터(100)를 포함하는 이미지 내 캐릭터를 생성하도록 데이터가 제공된다. 각각의 캐릭터는 현재의 가상 환경 위치에 관하여 유지된 미리정해진 크기 및 모양의 상호작용 영역을 갖는다. 둘 이상의 사용자 할당 캐릭터들(100, 130)의 각각의 상호작용 영역들이 중첩할 때, 그들의 각각의 가상 카메라들(110)은 중첩이 남아 있는 한 1인칭에서 3인칭(A-C) 시점으로 이동하도록 제어된다. 개선에서(도 17), 가상 환경 내의 임의의 특정한 캐릭터와 무관하며, 가상 환경 내의 주어진 위치에서 적어도 하나의 다른 상호작용 영역은 이들 캐릭터들이 그 영역에 진입할 때 모든 캐릭터 가상 카메라들을 제어한다.
대화형 가상 환경, 상호작용 영역, 가상 카메라, 캐릭터, 시점

Description

가상 환경 시점 제어{Virtual environment viewpoint control}
본 발명은, 사용자 컴퓨터 생성 가상 존재(users computer-generated virtual presence)가 나타나고, 다른 그와 같은 사용자 가상 존재들 및 선택적으로는 환경 자체의 피쳐들(features)과도 상호작용할 수 있는 가상세계의 뷰(view)를 사용자 또는 사용자들에게 제공하는 몰입형 게임 및 가상현실 혹은 공유된(복수 사용자) 가상 환경 시스템들과 같은 대화형 환경 시스템들에 관한 것이다. 특히, 본 발명은 환경의 이미지(사용자에게 제공되는 것)가 렌더(render)되는 시점을 제어가능하게 변화시키기 위한 수단, 여기선 "가상 카메라" 제어라 칭하는 특징을 갖는 시스템에 관한 것이다.
유럽 특허출원 EP-A-0 697 613호(소니 코포레이션)에는 멀리 떨어져 있는 사용자들이 액세스할 수 있는 가상 환경(혹은 사이버 공간)을 제공하는 시스템이 개시되어 있다. 개시된 시스템은 가상현실 공간을 제공하는 서버, 및 고속 통신 네트워크(광섬유 등을 사용)를 통해 서버에 접속된 사용자 단말들을 포함한다. 동작에서, 서버는 많은 가상 환경들을 유지하며, 정보 객체들(objects)과 사용자 객체들 간의 전환(conversion) 객체들을 사용함으로써 많은 상이한 단말 유형들을 지원하며, 전환 객체들은 각 유형의 단말 및 지원된 가상 환경의 각각의 구성 간의 전후방 통신을 위해 개별적으로 맞게 만들어진 트랜스레이션(translation)을 제공한다.
각각의 사용자 단말에서, 사용자에게는 3차원 환경에서 사용자 자신의 특정한 시점 위치로부터 3차원 가상 환경의 2차원 뷰가, 보는 사용자와 가상 환경 영역 내의 동일 영역에 있을 수 있는 임의의 다른 사용자들의 컴퓨터 생성된 표현들(computer-generated representations)과 함께 제공된다. 사용자가 보는 이미지에서 보는 사용자의 전체 혹은 일부의 표현을 생성하기 보다는, EP-A-0 697 613호의 시스템은 1인칭 뷰(first-person view)(즉, 이미지가 사용자 컴퓨터에서 발생된 캐릭터의 "눈"를 통해 보게 되는 이미지이다)를 취하지만, 제공된 2차원 이미지 환경에서 커서를 상하좌우 움직이거나, 다른 사용자의 가상 캐릭터를 클릭함으로써 가상 환경 내로부터 사용자가 아이템들을 가르키거나 선택하여, 두명의 사용자들 간의 대화 혹은 다른 상호작용을 개시하는데 이용할 수 있는 단순한 화살표 모양의 커서를 제공한다. 이 기술은, 사용자에게 제공된 이미지의 중앙에 항상 나타나는 렌더링된 캐릭터로 사용자를 표현하여, 사용자가 가상 환경 내에서 그들을 표현하는 3인칭 뷰를 취하게 하는 개시된 종래의 시스템에 대한 개선으로써 EP-A-0 697 613호에서 사용된다.
1인칭 시점으로부터의 렌더링은 가상 환경 내에서 사용자 몰입감을 높일지라도, 3인칭 시점이 상호작용 중에 사용자에게 더 많은 정보를 제공하는, 다른 사용자들의 가상 표현들과 상호작용하게 될 때 만족스럽지 않은 것으로 드러날 수 있다. 자기 자신의 표현에 대한 시점(가상 카메라 위치)을 선택할 수 있다는 것이 이점이 있을 것이나, 그렇게 할 요건은 시간에 대해 혼란스럽게 될 수도 있을 것이다.
따라서 본 발명의 목적은, 다른 요인중에서도, 사용자 가상 존재와 또 다른 사용자의 표현간 상호작용이 발생하고 있는지 여부에 따라 적합한 시점을 제공하기 위해 가상 카메라 위치를 자동으로 조정하도록 구성된 시스템을 제공하는 것이다.
본 발명의 제1 양상에 따라서, 가상 환경을 정의하는 데이터를 포함하는 제1 데이터 기억장치(store); 복수의 캐릭터들의 외양을 정의하는 데이터를 포함하는 제2 데이터 기억장치; 및 복수의 개별 사용자들로부터 입력된 명령들을 수신하도록 결합되어 있고, 상기 제1 및 제2 기억장치들을 액세스하며, 각각의 사용자에 대해, 그 개개인의 사용자에 특정하게 할당된 캐릭터를 포함하여, 상기 가상 환경의 각각의 이미지 및 이 안에 캐릭터들을, 사용자 할당 캐릭터(user assigned character)의 사용자 지향 움직임(user-directed motion)에 의해 적어도 부분적으로 결정된 상기 가상 환경 내의 위치 및 방향에서 각각의 시점으로부터 생성하도록 배치된 프로세서를 포함하는 복수 사용자 대화형 가상 환경 시스템에 있어서, 각각의 캐릭터에 대하여 현재의 가상 환경 위치에 관한 미리정해진 크기 및 모양의 각각의 영역(zone)에 대해 갱신된 좌표들을 유지하도록 배치되는 상호작용 영역 발생수단; 및 상기 영역 발생수단에 결합되어 있고, 2 이상의 사용자 할당 캐릭터들의 각각의 상호작용 영역이 중첩되는 때를 판정하여, 이를 상기 프로세서에 신호하도록 배치된 감시 수단으로서, 상기 각각의 사용자 할당 캐릭터에 대한 각각의 시점 위치 및 방향의 결정은 적어도 부분적으로, 상기 중첩이 남아 있는 한 상기 프로세서에 의해 인가된 미리정해진 셋트의 규칙들에 기초하는, 상기 감시수단을 포함하는 것을 특징으로 하는, 복수 사용자 대화형 가상 환경 시스템이 제공된다.
상호작용 영역들(바람직하게는 사용자는 못 보게 됨)을 제공함으로써, 사용자 가상 카메라 위치를 전환하기 위해 트리거 메카니즘(trigger mechanism)이 제공된다. 이하 예들에서 개시되는 바와 같이, 가상 카메라는 단순히 상호작용이 없는 동안(영역 중첩이 없는) 그것의 캐릭터를 "그것의 어깨 위로" 효과적으로 바라보는 위치에서 뒤따르고, 이어서 2개의 상호작용하는 표현들의 보다 많은 정보 뷰를 제공하기 위해 3인칭 뷰를 회전시킨다.
복잡한 사용자 가상 존재들을 구현하는데 사용할 수 있는 능력이 증가함에 따라, 임의의 주어진 시간에 가상세계의 동일 부분을 동시에 방문할 수 있는 다수의 상이한 사용자들처럼, 이들이 형상화될 수 있는 가상 세계의 크기 및/또는 복잡성은 증가한다. 그 결과, 작은 지역에서 상호작용 영역들의 대규모 중첩이 발생할 수 있어, 카메라 위치들이 계산될 때 받아들여질 수 없는 프로세서 로딩(loading)을 야기한다. 이러한 잠재된 문제를 회피하기 위해서, 프로세서는 가상 환경 내에 고정된 위치에 적어도 하나의 다른 상호작용 영역을 적절히 유지하며, 이 고정된 상호작용 영역 혹은 영역들은 가상 환경 내의 임의의 특정한 캐릭터와는 무관하다. 이들 일정한 영역들이 가상 환경 내의 인기있는 혹은 붐비는 위치들에 제공되어 있고, 특정한 한 세트의 규칙들이 카메라 위치설정을 제어하며, 그 영역을 포괄하는 글로벌 카메라 뷰(global camera view)는 개개의 카메라 위치 계산들을 회피하도록 그 지역 내의 모든 캐릭터들에 대해 지정될 수도 있다. 이러한 피쳐는 가상 환경 내의 특정 위치에 대해 미리 설정될 수도 있으며(그 위치 내의 캐릭터들/커서들의 수와는 관계없이), 혹은 예를 들면 5 이상의 캐릭터들의 상호작용 영역들이 중첩된 것으로 판정된 임의의 위치에서 동적으로 적용될 수도 있다.
개선에 의해서, 이들 고정된 상호작용 영역들은 캐릭터 상호작용 영역이 외곽의 부분적인 영역만에 중첩될 때 규칙들의 세트의 단지 일부분만이 프로세서에 의해 적용되는 적어도 2개의 부분적인 영역들의 동심 배열로 구성될 수 있다. 즉, 캐릭터들 각각의 카메라 이동들이 캐릭터의 이동들에 의해 결정되는 범위는 안쪽의 부분적인 영역(전역 카메라 위치설정)이 접근됨에 따라 감소된다.
본 발명의 다른 특징들 및 이점들은 첨부한 도면을 참조하여, 단지 예로서 주어진, 본 발명의 바람직한 실시예에 대한 다음 설명을 숙독하여 명백하게 될 것이다.
도 1은 본 발명의 특징을 실현하는 사용자 단말과 같은 구성에 적합한 데이터 처리 장치의 개략적인 블록도.
도 2는 별모양의 사용자 표현 혹은 커서의 어깨 위로 가상 환경의 사용자 뷰를 나타낸 도면.
도 3은 도 2의 커서의 지시된 곳이 하이라이트되는 응시 원추를 도시한 도면.
도 4는 커서와 가상 카메라의 한가지 가능한 상대 위치설정 및 스크린 필드로 카메라 뷰의 분할을 도시한 도면.
도 5는 가상 카메라가 커서의 회전이동들을 추적하는 기술을 도시한 도면.
도 6a 및 도 6b는 정지된 커서 및 움직이는 커서에 대해 서로 다른 온-스크린 디스플레이 위치를 도시한 도면.
도 7은 각각의 상호작용 영역을 갖는 한 쌍의 커서를 도시한 도면.
도 8은 도 7의 상호작용 영역의 쌍의 중첩을 나타낸 도면.
도 9는 많은 이산 영역으로 커서 외부의 명목상 분할을 도시한 도면.
도 10 및 도 11은 응시 원추들을 통해 상호작용을 개시하는 한 쌍의 커서들을 나타낸 도면.
도 12 내지 도 15는 2개 및 3개의 커서 상호작용들에 대한 가상 카메라 이동들을 도시한 도면.
도 16은 2개 혹은 3개의 이상 그룹들로 상호작용하는 가상 환경 내에 복수의 커서를 나타낸 도면.
도 17은 상호작용하는 커서 무리에 조달하는 고정된 상호작용 영역을 도시한 도면.
도 1은 가상 환경을 정의하는 데이터를 위한 브라우저로서 네트워크 가상 환경 시스템을 구성하는 소프트웨어 유틸리티에 대한 호스트로서 작용하는, 예를 들면 개인용 컴퓨터와 같은 사용자 데이터 처리 시스템(2)을 포함하는 네트워크 가상 환경 시스템을 도시한 것이다. 데이터는 네크워크(8) 접속을 통해 원격 소스(4)로부터 얻어지는데, 다른 사용자들(6)도 마찬가지로 소스(4)에 접속된 유사한 데이터 처리 시스템을 갖고 있다. 사용자 시스템(2)은 어드레스 및 데이터 버스(12)를 통해 랜덤-액세스(RAM) 및 독출전용(ROM) 메모리 장치(14, 16)에 결합된 중앙 처리장치(CPU)(10)를 포함한다. 이들 메모리 장치들의 용량은 CD-ROM(도시없음)과 같은 부가적인 메모리 장치로부터 독출하는 수단을 시스템에 제공함으로써 증대될 수 있다.
또한 CPU(10)에는 버스(12)를 통해서, 제1 및 제2 사용자 입력장치들(18, 20)이 결합되고, 이들은 적합하게는, 키보드 및 마우스나 트랙볼과 같은 커서 제어 및 선택장치를 포함할 수 있다. 시스템으로부터 출력된 오디오는 하나 이상의 스피커들(22)을 통해서 헤드폰들, 혹은 오디오 처리 스테이지(25)에 의해 구동되며, 증폭을 제공하는 것 외에도, 바람직하게는, 오디오 처리 스테이지는 에코와 같은 사운드 처리들(treatments)을 기존의 오디오 데이터에 부가할 수 있게 CPU(10)의 제어하에서 신호 처리능력을 제공하도록 구성된다. 사용자 시스템 능력들 및 소스(4)로부터 공급된 데이터 포맷에 따라, 시스템으로부터 출력된 비디오는 디스플레이 구동기단(28)에 의해 구동되는 디스플레이 스크린(26) 상에 일련의 2차원 이미지들로서, 혹은 자동입체 디스플레이(autostereoscopic display) 혹은 입체 헤드-마운트 디스플레이(stereoscopic head-mounted display)(도시 없음)에 일련의 3차원 이미지로서 제공될 수 있다.
언급한 바와 같이, 시스템용 데이터의 또 다른 소스는 가상 환경을 정의하는 데이터의 소스 및 이 데이터에 대한 제어기로서 작용하는 서버(4)를 포함하는, 예를 들면 인터넷을 통한 원격지들(remote sites)에 온라인 링크를 통한 것이다. 이를 위해서, 시스템에는 버스(12)를 통해 CPU(10)에 결합된 네트워크 인터페이스(30)가 제공된다. 인터페이스의 정밀한 구조는 그 구성이, 시스템(예를 들면 시스템이 사적인 가정 사용자에 의해 사용하기 위한 것인 경우 데이터 링크는 지역 서비스 공급자에 전화접속일 수도 있음)이 결합되는 데이터 네트워크(8)의 유형에 의존한다는 것을 알게되겠지만, 본 발명의 근본적인 특징이 아니다. 이러한 경우, 인터페이스(30)는 적합하게 모뎀을 포함할 것이다. ISDN 접속과 같은 다른 유형들의 데이터 링크에 대해서, 인터페이스는 그에 따라 구성될 것이다.
동작에서, 가상 환경의 사용자 뷰는 다른 이동 명령들이 없을 때, 카메라가 사용자들의 가상 존재를 나타내는 컴퓨터 생성 캐릭터 혹은 커서(100) 뒤의 위치를 취하는 가상 카메라에 의해 생성되며, 상기 위치는 거의 1인칭 시점을 제공하도록 표현의 약간 위 또는 일 측(실제로는 그의 "어깨" 위로 보는)이다. 다음의 예들에서, 사용자 컴퓨터 생성 캐릭터, 뿐만 아니라 동일 환경 내의 다른 사용자들의 캐릭터는 다른 이러한 커서(다른 사용자들의)뿐만 아니라 가상 환경 내에 제공될 수 있는 다른 피쳐들 및 객체들과 상호작용하기 위한 사용자 수단을 제공하는 점에서 사용자에 대한 가상 존재로서 작용할 뿐만 아니라, 커서 기능들을 제공하는 별모양 아바타(avatar) 형태이다. 이들 아바타 혹은 캐릭터를 이하 커서라 칭한다.
도 2에 도시되고 상기 언급한 바와 같이, 기본적인 카메라 시점은 사용자 방향을 돕도록 시야(vision)에서 최소 존재(minimal presence)를 유지하면서, 사용자에게 가상 환경(102)의 비교적 중단없는 뷰를 제공하기 위해서 커서(100)의 "어깨" 위에 있다. 카메라 위치들, 줌잉(zooming) 및 렌즈 선택과 같은 다른 효과들은 사용자가 UID(18, 20; 도 1) 동작에 의해 카메라에 대해 직접 제어하지 않도록 커서의 이동, 행동 및 프로파일 개방(profile disclosure)(후술함)에 의해 자동적으로 결정된다.
도 3에 도시한 바와 같이, 커서(100)는 관심을 보이는 "응시 원추(gaze cone)"(104)를 가지며, 응시 필드(gaze field)는 커서에 대해 90°로 부착되는데, 응시 원추의 주축(106)은 전반적으로 평면의 커서에 수직하게 확장한다. 동작에서, 사용자에게 환경 이미지를 발생하는 그래픽스 렌더러(graphics renderer)는 환경에 관하여 응시 원추가 위치할 곳을 파악하여 응시 원추 내에서 그 바깥쪽보다 훨씬 상세하게 배경 피쳐들을 렌더링하여, 주목하는 커서 지점의 직관적인 초점을 제공한다.
가상 카메라로부터의 뷰(도1의 스크린(26) 상에서 사용자에게 제공된 뷰)는 사용자가 볼 수 없는 스크린 필드로 분할되는데, 상이한 스크린 필드들 내의 응시 원추의 위치는 카메라의 자동 재배치를 결정한다(이하 기술함). 도 4는 가상 카메라(110) 및 커서(100)의 평면도로서, 삽입 뷰(112)는 서로 다른 스크린 필드(A.1, B.1,...,E.5)로 분할된 가상 카메라로부터의 뷰를 보이고 있다. 응시의 커서 방향이 상, 하, 좌, 우로 이동함에 따라, 카메라(110)는 응시 방향으로 이동한다. 실제로, 커서(100)가 예를 들면 응시를 계속 좌측으로 가면, 카메라 및 커서는 결국 원형으로 이동할 것이며 가상 환경의 원래의 부분으로 돌아올 것이다. 도 5는 3개의 단계들(a, b, c)로, 응시 원추가 중앙의 스크린 필드들(이 입면도에서 2, 3, 4) 밖으로 이동할 때, 응시 원추 주 축(106)으로 나타낸 바와 같이, 커서(100)가 초점을 모으고 있는 것을 포함하도록 렌더링되는 시점 방향으로 다시 오게 카메라(110) 스스로가 재배치되는 방법을 도시한 것이다. 카메라와 응시 원추간의 이러한 분리는 어쩌면 사용자에 의한 이동제어들의 불확실한 동작에 응답하여, 커서의 작은 이동이 가상 카메라로부터 이미지의 대응하는 과민한 움직임들을 초래하지 않고 흡수될 수 있게 한다.
도 6a에 도시한 바와 같이 커서(100)의 어깨 위 프레이밍(framing)은 가상 환경 내에 커서가 정지한 안정한 위치를 나타낸다. 커서(100)가 이동하고 있을 때, 카메라 위치는 예를 들면, 어느 네비게이션 명령들에 기초하는지에 대해 보다 큰 환경 정황을 사용자에게 제공하는 등 더 많은 3인칭 시점을 제공하기 위해서 자동으로 변경한다. 커서가 정지하여 있을 때, 부분적으로 볼 수 있는 커서의 세그먼트는 디스플레이된 이미지의 에지에 나타나며, 커서가 이동하고 있을 때(도 6b에서 화살표 114로 표시한 방향으로), 커서 속도가 빠를수록, 커서는 이미지의 중앙에 더욱 가깝게 나타날 것이다. 응시 원추의 방향을 바꾸는 동안의 이동은 커서의 3인칭 시점이 되게 하며(즉, 스크린 내에 커서를 다 볼 수 있게 됨) 커서의 표현은 회전방향 및 범위에 의해 결정된 대로 기울어지게 된다.
서로 다른 사용자들의 커서들간의 상호작용에 대해서, 도 7에 도시한 바와 같이, 커서(100)는 원형의 작용 또는 상호작용 영역(200)을 가지며, 복수 사용자 환경에서, 각각의 커서(100, 120)는 각각의 상호작용 영역(200, 220)을 갖는다. 3차원 가상 환경에서, 커서를 에워싼 영역은 구형일 수 있으며 혹은 하나 이상의 방향으로 신장된, 예를 들면 응시 원추 주축(106; 도 3)과 일반적으로 일치하는 커서 앞에 대부분의 용적이 위치한 알 모양일 수도 있다. 상호작용 영역(200)의 크기는 도 8에 도시한 바와 같이 상호작용 영역이 합해지거가 중첩될 때 커서들의 쌍 혹은 그룹들 간에서만 상호작용이 일어날 수 있기 때문에, 커서(100)가 다른 커서들과 상호작용할 것으로 보이며/또는 상호작용할 범위를 결정한다. 2개 이상의 상호작용 영역들이 합해지거나 중첩하는 것은 이하 기술되는 바와 같이 커서 각각에 대한 카메라 제어에 영향을 미쳐 커서의 영역이 영향을 받는다.
사용자는 이들의 사용자 프로파일 개방(상이한 접속요건에 의해 네스트 형태(nested form)로 정보를 지닌 데이터 구조) 내의 개인적인 요소들을 배열 혹은 이들에 영향을 미칠 수 있다. 바람직한 실시예에서, 프로파일 개방 내의 정보의 양 및 종류는 상호작용 영역의 크기를 결정한다. 예를 들면, 프로파일 개방의 외곽(공개) 층들 내에 대량의 정보를 보유하는 커서는 상호작용할 것으로 간주될 수 있으므로 큰 상호작용 영역을 가질 것이다.
커서의 사용자 프로파일 개방 내의 정보는, 다른 커서에 의해; 커서들의 사용자 프로파일 개방 정보를 볼 수 있게 되는 응시 원추(이 응시는 스캔되는 커서에 의해 검출된다)를 갖는 또 다른 커서의 외부를 스캔함으로써 액세스될 수 있다. 커서의 외부는 많은 영역들(121-125)로 분할되며, 이에 프로파일 개방의 공개층(예를 들면 사용자 상세 및 선호도)로부터 데이터가 미리정해진 배열로 분배되며, 커서 중앙영역(126)은 도 9에 도시한 바와 같이 커서 사용자의 보다 많은 개인적 및 사적인 데이터를 지니고 있다. 이들 영역들 중 일부(특히 외곽의 영역들(121-125))는 다른 커서가 스캔하는 것에 응답하여 다른 것보다 더 "민감"한데, 즉, 그들의 내용을 내줄 준비가 되어 있다; 예를들면, 중앙 영역(126)의 개인적인 데이터는 자동적으로 내주는 것이 아니라, 그 대신 그 커서의 사용자에 의한 명백한 언록킹(unlocking) 및/또는 전송을 요구할 수 있다. 영역들의 감도는 스캔하고 있는 커서를 추적하는 카메라에 의해 적용된 줌의 범위를 결정하는데, 예를 들면 스캔된 영역이 스캔하는 커서에 의해 보유되거나 찾는 것에 대응하면, 매치(match)의 확인으로, 스캔하고 있는 커서를 추적하는 카메라가 매치된 정보에 근거하여 줌하게 한다. 줌잉이 제어되는 대안의 방법으로서는 스캔될 가능성이 있는 커서가 스캔할 가능성 있는 커서를 향하여 영역 중 특정 영역으로 이동하는 것으로, 이때 영역에 접근할 때 커서 카메라가 줌인하도록 트리거한다.
중첩하는 상호작용 영역들이 없을 때, 응시 원추는 커서가 상호작용할 수 있게 한다. 두 개의 커서들이 서로 응시 원추들을 향할 때 일방향 통신채널이 열린다. 일방향 통신채널은 커서로 하여금 이들의 공개 사용자 프로파일 개방으로부터 데이터를 보내게 하는데, 이들 데이터는 사운드 부분, 이미지 등일 수 있다. 도 10은 이들의 다른 커서에 관하여 각각의 응시 원추들(104, 134)을 갖지만 이들의 상호작용 영역들(200, 230)은 떨어져 있어 단지 일방향 채널만이 이들간에 존재하게 된 한 쌍의 커서들(100, 130)을 도시한 것이다. 2개의 커서들이 서로 접근함에 따라, 이들의 상호작용 영역들은 도 11에 도시한 바와 같이 중첩하여, 두 개의 커서들(100, 130)간에 일방향에서 양방향 통신링크(150)로 변환되어, 스캔하는 커서는 단지 외부의 공개층보다는 스캔되는 커서의 더 깊은 프로파일 층들을 얻을 수 있다.
중첩하는 상호작용 영역의 메카닉스를 도 12 내지 도 15에 예시하였다. 마주친 사용자 뷰를 프레임하는 카메라 위치들은 합쳐진 상호작용 영역들에 의해 정의된다. 양측의 커서들을 보여주는 임의의 카메라 위치는 도 12에 도시한 영역(160)의 절반 내에 놓이며, 합쳐진 상호작용 영역에 의해 정의되는데, 이 영역은 180°공간으로서 시네마토그래피(cinematography)로부터 알려져 있다. 어느 하나의 커서(100, 130)가 렌더링되는 카메라 위치들은 이러한 180°공간에 의해 정의되며, 이를 엄격하게 적용함으로써, 일측의 커서에서 다른 커서로 시점을 전환하였을 때 일어날 수 있을 혼란이 회피된다.
합쳐진 상호작용 영역들로부터 180°공간(160)을 정의하였을 때, 공간은 2개의 지역들(선(162)의 어느 한측)로 분할되는데, 각각의 커서로부터 가상 카메라는 각각의 지역 내에 한 위치를 취할 수 있을 뿐이다. 각각의 커서는 그것의 카메라가 놓일 위치에 할당되는 지역 내에 자신의 카메라의 곡선을 갖는다. 도 13은 도면의 좌측에 커서(100)에 대한 카메라(110)의 위치들을 개괄하여 도시한 것이다. 카메라는 1/4의 경계에서 곡선 위로 완만하게 이동할 수 있다. 곡선을 횡단하여, 카메라는 3인칭 시점 C로부터, 빗겨 있는 어깨 위 시점 B를 거쳐, 1인칭 시점 A로 이동할 수 있는데, 1인칭 시점에서, 그들 자신의 커서의 사용자 뷰는 어떤 실시예들에서는 상호작용되고 있는 커서의 뷰를 가리는 것을 피하기 위해서, 렌더링된 이미지로부터 사라질 수 있음에 유의한다.
2개의 커서들(100, 130)이 만날 때, 이들의 카메라 곡선들은 전술한 바와 같이, 서로 대향하게 될 것이다. 도 14에 도시한 바와 같이, 180°공간 밖의 제3 커서(170)는 초기에는 비활동적일 수 있을 것이므로, 다른 두 개의 커서들에 영향을 미치지 않는다. 그러나, 도 15에 도시한 바와 같이, 제3 커서(170)가 제1 커서(100) 혹은 제2 커서(130) 중 하나와 상호작용할 때, 180°공간(160)이 옮겨져서 상호작용하는 쌍(100, 170)을 3개의 커서들로부터 둘러싸도록 하여, 원래의 커서 쌍(100, 130)(어느 것도 그 동안 이동되지 않았다고 할 때)이 이들의 상호작용을 재개하는 원래의 위치로 되돌아간다.
단순히 다른 사용자들과(혹은 선택적으로 가상 환경의 다른 피쳐들과) 마주치는 것 외에도, 사용자 프로파일 개방으로부터 자료 혹은 커서 본체(중앙영역(126); 도9)의 "소프트" 부분 내에 포함된 더 많은 개인적인 자료를 상호교환하는 것에 의해서 카메라 위치가 옮겨지게 될 수 있다. 2개의 커서들 간에 대량의 정보가 전송되고 있다면, 이들 각각의 카메라 위치는 1인칭으로 혹은 어깨 위 뷰로부터 3인칭 뷰로 점진적으로 혹은 빠르게 이동하도록 제어될 수도 있을 것이다. 한 커서의 수동성(passivity)으로 인해 카메라 뷰의 변경이 야기될 수 있는데, 양방향 통신링크가 한 쌍의 커서간에 존재하지만, 단지 하나가 데이터를 보내며/보내거나 읽을 수 있는 데이터 형성에 활성화되어 있다면, 수동 커서를 추적하는 카메라는 능동 커서에 줌인하도록 적합하게 설정될 수도 있을 것이다.
가상 환경 내에 많은 커서가 있다면, 이들 각각의 카메라 위치는 일반적으로, 중첩하는 상호작용 영역 및/또는 서로 향한 응시 원추가 있는지 여부를 참조하여 전술한 바와 같이 제어될 것이다. 그러나, 실제로는 시스템에 이용할 수 있는 처리 및 속도 능력에 의해 정의되는 동시에 상호작용하는 커서들의 수에 한계가 있다. 예를 들면, 영역의 합하는데 필요한 계산이 사용자에게 부담으로 될 정도로 시스템을 느리게 하기 전에, 동시에 중첩하는 상호작용 영역들의 수는 5라는 한계가 있을 수 있다. 그러나, 단일의 환경 내에서는, 도 16에 도시한 바와 같이, 합쳐진 커서 쌍들 및 3쌍들(triplets)로 된 몇 개의 그룹들이 수용될 수 있다.
사용자가 사용할 수 있는 가상 환경 모음에서, 어떤 실시예는 많은 사용자 수를 이끌어 들일 것이며(그들의 커서를 통해서), 너무 많은 커서들이 한번에 상호작용하려고 하여 지역들이 "잼(jammed)"되면 어떤 적당한 형태가 필요하다. 이것은 이러한 지역들에 카메라 제어를 제어하는 그들 자신의 프로토콜을 제공함으로써 달성되며, 실제로, 지역은 커서에 첨부되지 않은 고정된 상호작용 영역이다. 카메라 코레오그래피(camera choreography), 컷들(cuts), 디졸브들(dissolves), 리듬들, 색 및 스트로빙 효과들(strobing effects)은 커서가 영역의 어느 부분에 커서가 있는지에 따라 자동적으로 할당될 수 있다. 도 17은 외곽영역 C에서 2개 이상의 커서 상호작용에 대해 전술한 바와 같은 완전한 제어부터, 개별 제어없이 안쪽의 영역 A에 단일의 영역 메카니즘에 의해 모든 포함된 커서들에 대해 시점발생이 처리되는 제어수준 범위의, 각 커서에 할당된 개개의 카메라 제어 수준을 결정하는 동심 영역들 A, B, C가 있는 공간을 도시한 것이다. 사용자가 선택하는 유일한 제어는 그 지역의 중심에 남아있든지 아니면 이탈하든지 하는 것이다.
내부 영역 A에서 사용자 프로파일 정보의 디스플레이 및 상호교환에 관하여, 프로토콜은 모든 커서로 하여금 이들의 공개층(이들의 내부 데이터 저장 구조의 외각의 더 액세스가능하는 층)으로부터 일부 정보를 "누출"하게 하는데, 이 누출된 정보는 지역 내의 다른 커서들에게 흥미로운 것이면 이들이 취할 수 있다. 일단 정보가 취해지면, 이를 누출한 커서에 통지하고 2개의 커서들(302, 304)이 제1 경계 영역으로 이동하며, 여기서 예를 들면 2개의 커서들간의 교환에 어느 정도 프라이버시를 부여하도록 어깨 위 시점이 렌더링하는 상호작용이 지원된다. 이러한 교환에 기초하여, 2개의 커서들이 더욱 사적으로 상세한 것을 교환하고자 하는 것으로 결정되면, 이들은 영역 B를 넘어 영역 C로 가는데, 이곳에는 커서들(306, 308)에 의해 보여진 바와 같이, 카메라 제어에 대한 영역 기반 제약들이나 상호작용 영역 합침은 없다.
전술한 예들은 가상 카메라 위치설정의 자동화에 집중되었으나, 이 분야에 숙련된 자는 전술한 기술의 많은 것을 가상 환경용 오디오 처리에 적용할 수도 있음을 쉽게 알 것이며, 가상 카메라 위치 및 방향은 시스템 오디오단(24, 도 1)을 통한 공급을 위해 2차원 혹은 3차원 사운드를 발생하도록, 가상 마이크로폰 혹은 한 쌍의 스테레오 마이크로폰들로 대치된다.
다른 사용자 혹은 가상 환경의 피쳐들과의 사용자 상호작용(커서를 통한)로부터 직접 얻어진 사운드 외에도, 사용자에게 다른 네이게이션 큐(cues) 혹은 정황 정보를 제공하도록 지시된 소스들로부터 배경잡음이 있을 수도 있다. 예를 들면, 높은 볼륨의 배경잡음이 발산되고 있는 가상 환경의 지역에의 접근은, 그 위치에 상호작용하는 다른 많은 수의 사용자들의 커서들을 포함할 수 있다는 단서를 사용자에게 제공한다. 배경잡음으로부터 취해진 인식할 수 있는 성분들에 의존하여, 사용자는 환경의 그 부분의 유형이나 목적을 판단할 수 있어 마음에 들지 않는다면 이를 회피할 수도 있다. 커서 시점로부터 취급하는 적어도 입체 오디오로(가상 환경 내에, 개개의 소스는 모노이어야 하며 커서로부터 거리에 따라 크기를 변경해야 한다), 사용자는 처음에는 볼 수 없으나 들을 수 있는 영역에 도달하도록 가상 환경을 통해 네비게이트할 수 있게 된다.
본 출원에서 청구범위를 특징들의 특정한 조합들로 형식화 하였으나, 본 출원의 개시범위는 임의의 청구범위에 현재 청구된 바와 동일한 발명에 관계되든 아니든간에, 그리고 현재 청구된 발명과 동일한 기술적 문제의 어느 것이든 혹은 그 전부를 해결하든 아니든간에, 명료하게 혹은 암시적으로 여기 개시된 특징의 임의의 신규한 특징이나 특징들의 조합도 포함함을 알아야 한다. 본 출원인은 본 출원 혹은 이로부터 도출된 임의의 다른 출원의 수행 중에 이러한 특징들 및/또는 이러한 특징들의 조합들로 새로운 청구범위를 형식화할 수 있음을 알려둔다.

Claims (5)

  1. 복수 사용자 대화형 가상 환경 시스템에 있어서,
    가상 환경을 정의하는 데이터를 포함하는 제 1 데이터 기억장치;
    복수의 캐릭터들의 외양을 정의하는 데이터를 포함하는 제 2 데이터 기억장치; 및
    하나 이상의 프로세서들을 포함하고,
    상기 하나 이상의 프로세서들은:
    복수의 사용자들로부터 입력된 명령들을 수신하고;
    상기 제 1 및 제 2 데이터 기억장치들을 액세스하고;
    사용자 할당 캐릭터(user assigned character)의 사용자 지시 움직임(user-directed motion)에 의해 적어도 부분적으로 결정된 상기 가상 환경 내의 위치 및 방향에서 각 시점으로부터, 각각의 사용자에 대해, 상기 가상 환경의 각 이미지 및 개별 사용자에 특정하게 할당된 캐릭터를 포함하는 가상환경 내 캐릭터들을 생성하고,
    각각의 캐릭터에 대하여 현재의 가상 환경 위치에 관한 미리정해진 크기 및 모양의 상호작용 영역 각각에 대해 갱신된 좌표들을 제공하고;
    둘 이상의 사용자 할당 캐릭터들 각각의 상호작용 영역들이 중첩하는 때를 결정하도록 구성되며,
    상기 사용자 할당 캐릭터 각각에 대한 시점 위치 및 방향의 결정은 중첩이 남아 있는 한 상기 프로세서에 의해 적용된 미리정해진 세트의 규칙들에 적어도 부분적으로 기초하는, 복수 사용자 대화형 가상 환경 시스템.
  2. 제 1 항에 있어서, 상기 프로세서는 상기 가상 환경 내에서 고정된 위치에 적어도 하나의 다른 상호작용 영역을 유지하고, 상기 고정된 상호작용 영역 또는 영역들은 상기 가상 환경 내에 있는 임의의 특정한 캐릭터와는 무관한, 복수 사용자 대화형 가상 환경 시스템.
  3. 제 2 항에 있어서, 상기 적어도 하나의 다른 상호작용 영역은 적어도 2개의 부분적인 영역들의 동심 배열(concentric arrangement)을 포함하고, 캐릭터 상호작용 영역이 외곽의 부분적인 영역에만 중첩할 때 상기 프로세서에 의해 상기 세트의 규칙들의 일부만이 적용되는, 복수 사용자 대화형 가상 환경 시스템.
  4. 제 1 항에 있어서, 상기 프로세서는 상기 가상 환경 내에서 선택된 위치에 적어도 하나의 다른 상호작용 영역을 인가하고, 상기 다른 상호작용 영역 또는 영역들은 상기 가상 환경 내에 있는 임의의 특정한 캐릭터와는 무관하지만, 미리정해진 수의 캐릭터 할당 상호작용 영역들이 중첩하는 것으로 판정된 위치에 놓이는, 복수 사용자 대화형 가상 환경 시스템.
  5. 제 4 항에 있어서, 미리정해진 수의 캐릭터 할당 상호작용 영역들은 5 이상인, 복수 사용자 대화형 가상 환경 시스템.
KR1019997008154A 1998-01-09 1999-01-07 가상 환경 시점 제어 KR100597329B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB9800397.3A GB9800397D0 (en) 1998-01-09 1998-01-09 Virtual environment viewpoint control
GB9800397.3 1998-01-09
PCT/IB1999/000006 WO1999035597A2 (en) 1998-01-09 1999-01-07 Virtual environment viewpoint control

Publications (2)

Publication Number Publication Date
KR20000076066A KR20000076066A (ko) 2000-12-26
KR100597329B1 true KR100597329B1 (ko) 2006-07-10

Family

ID=10825017

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019997008154A KR100597329B1 (ko) 1998-01-09 1999-01-07 가상 환경 시점 제어

Country Status (7)

Country Link
US (1) US6241609B1 (ko)
EP (1) EP0966716A2 (ko)
JP (1) JP4276704B2 (ko)
KR (1) KR100597329B1 (ko)
CN (1) CN1132117C (ko)
GB (1) GB9800397D0 (ko)
WO (1) WO1999035597A2 (ko)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11128533A (ja) * 1997-10-30 1999-05-18 Nintendo Co Ltd ビデオゲーム装置およびその記憶媒体
AU5012600A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for a multi-owner, three-dimensional virtual world
US6947044B1 (en) * 1999-05-21 2005-09-20 Kulas Charles J Creation and playback of computer-generated productions using script-controlled rendering engines
JP2001149640A (ja) * 1999-09-16 2001-06-05 Sega Corp ゲーム機およびゲーム処理方法並びにプログラムを記録した記録媒体
KR20010065751A (ko) * 1999-12-30 2001-07-11 박영신 3차원 인터넷 공간에서 아바타를 이용한 교육방법
US6891566B2 (en) 2000-03-14 2005-05-10 Joseph Robert Marchese Digital video system using networked cameras
US6672961B1 (en) * 2000-03-16 2004-01-06 Sony Computer Entertainment America Inc. Computer system and method of displaying images
US7353274B1 (en) * 2000-05-09 2008-04-01 Medisys/Rjb Consulting, Inc. Method, apparatus, and system for determining whether a computer is within a particular location
US6837790B1 (en) * 2000-07-26 2005-01-04 Igt Gaming device with moving screen simulation
WO2002020111A2 (en) * 2000-09-07 2002-03-14 Omnisky Corporation Coexistent interaction between a virtual character and the real world
US20050206610A1 (en) * 2000-09-29 2005-09-22 Gary Gerard Cordelli Computer-"reflected" (avatar) mirror
FR2814891B1 (fr) * 2000-10-04 2003-04-04 Thomson Multimedia Sa Procede de reglages de niveau audio provenant de plusieurs canaux et dispositif de reglage
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
JP3699660B2 (ja) * 2001-03-30 2005-09-28 コナミ株式会社 ゲーム装置及びネットワークゲームシステム
US20030035013A1 (en) * 2001-04-13 2003-02-20 Johnson Edward M. Personalized electronic cursor system and method of distributing the same
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
CA2345803A1 (en) 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US9760235B2 (en) 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
US7213214B2 (en) 2001-06-12 2007-05-01 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
JP3482602B2 (ja) * 2001-08-21 2003-12-22 コナミ株式会社 対戦型ゲームのプログラム
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
US7050050B2 (en) * 2001-12-07 2006-05-23 The United States Of America As Represented By The Secretary Of The Army Method for as-needed, pseudo-random, computer-generated environments
CA2370752A1 (en) * 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
US6982697B2 (en) * 2002-02-07 2006-01-03 Microsoft Corporation System and process for selecting objects in a ubiquitous computing environment
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US6917370B2 (en) * 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
CN100342733C (zh) * 2002-06-28 2007-10-10 夏普株式会社 图像数据分发系统及其图像数据发送装置及图像数据接收装置
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406131A1 (en) 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
JP3744002B2 (ja) * 2002-10-04 2006-02-08 ソニー株式会社 表示装置、撮像装置、および撮像/表示システム
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
US20070097109A1 (en) * 2005-10-18 2007-05-03 Idelix Software Inc. Method and system for generating detail-in-context presentations in client/server systems
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
JP3669587B2 (ja) * 2003-01-14 2005-07-06 コナミ株式会社 ゲーム進行同期制御サーバー、端末装置及びプログラム
US20070182730A1 (en) * 2003-05-28 2007-08-09 Ken Mashitani Stereoscopic image display apparatus and program
EP1640046A4 (en) * 2003-06-11 2011-09-07 Sony Computer Entertainment Inc VIDEO DISPLAY DEVICE, VIDEO DISPLAY PROCEDURE AND VIDEO DISPLAY SYSTEM
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7667700B1 (en) * 2004-03-05 2010-02-23 Hrl Laboratories, Llc System and method for navigating operating in a virtual environment
KR20070044394A (ko) * 2004-04-05 2007-04-27 마이클 에이 베슬리 수평 원근법 핸즈온 시뮬레이터
US20050248566A1 (en) * 2004-04-05 2005-11-10 Vesely Michael A Horizontal perspective hands-on simulator
US7486302B2 (en) 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
US7787009B2 (en) * 2004-05-10 2010-08-31 University Of Southern California Three dimensional interaction with autostereoscopic displays
JP4474640B2 (ja) * 2004-05-11 2010-06-09 株式会社セガ 画像処理プログラム、ゲーム処理プログラムおよびゲーム情報処理装置
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US7796134B2 (en) 2004-06-01 2010-09-14 Infinite Z, Inc. Multi-plane horizontal perspective display
US9317945B2 (en) * 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
JP2008513167A (ja) * 2004-09-21 2008-05-01 タイムプレイ アイピー インク 多人数参加型ゲームのシステム、方法および手持ち式コントローラ
US20080214273A1 (en) * 2004-09-21 2008-09-04 Snoddy Jon H System, method and handheld controller for multi-player gaming
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
US20060126925A1 (en) * 2004-11-30 2006-06-15 Vesely Michael A Horizontal perspective representation
US7580036B2 (en) * 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
US20060244831A1 (en) * 2005-04-28 2006-11-02 Kraft Clifford H System and method for supplying and receiving a custom image
WO2006121957A2 (en) * 2005-05-09 2006-11-16 Michael Vesely Three dimensional horizontal perspective workstation
US8717423B2 (en) 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
US20060252979A1 (en) * 2005-05-09 2006-11-09 Vesely Michael A Biofeedback eyewear system
JP4312737B2 (ja) * 2005-05-13 2009-08-12 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7875132B2 (en) * 2005-05-31 2011-01-25 United Technologies Corporation High temperature aluminum alloys
CN100355272C (zh) * 2005-06-24 2007-12-12 清华大学 一种交互式多视点视频系统中虚拟视点的合成方法
US7375678B2 (en) * 2005-06-29 2008-05-20 Honeywell International, Inc. Displaying obstacles in perspective view
US20070043466A1 (en) * 2005-08-18 2007-02-22 Vesely Michael A Stereoscopic display using polarized eyewear
US20070040905A1 (en) * 2005-08-18 2007-02-22 Vesely Michael A Stereoscopic display using polarized eyewear
US20070060348A1 (en) * 2005-09-13 2007-03-15 Svanas Galen T System for presenting gaming results employing a gaming display interactive character
US8031206B2 (en) 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
US9166883B2 (en) 2006-04-05 2015-10-20 Joseph Robert Marchese Network device detection, identification, and management
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
WO2007146347A2 (en) * 2006-06-14 2007-12-21 Wms Gaming Inc. Wagering game with multiple viewpoint display feature
JP4125762B2 (ja) * 2006-07-06 2008-07-30 株式会社スクウェア・エニックス オンラインビデオゲーム制御サーバ
JP5013773B2 (ja) * 2006-08-18 2012-08-29 パナソニック株式会社 車載画像処理装置及びその視点変換情報生成方法
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US20080215975A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Virtual world user opinion & response monitoring
US8882594B2 (en) * 2007-04-05 2014-11-11 Microsoft Corporation Control scheme for real time strategy game
CA2694095C (en) * 2007-05-18 2016-03-22 The Uab Research Foundation Virtual interactive presence systems and methods
US9026938B2 (en) 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
US8834245B2 (en) * 2007-08-17 2014-09-16 Nintendo Co., Ltd. System and method for lock on target tracking with free targeting capability
JP5390093B2 (ja) * 2007-12-21 2014-01-15 任天堂株式会社 ゲームプログラムおよびゲーム装置
EP2428936B1 (en) * 2008-02-15 2020-02-19 Sony Interactive Entertainment Inc. Game device, game control method and game control program
US20090259976A1 (en) * 2008-04-14 2009-10-15 Google Inc. Swoop Navigation
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8303387B2 (en) * 2009-05-27 2012-11-06 Zambala Lllp System and method of simulated objects and applications thereof
US20100306825A1 (en) 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
JP5573426B2 (ja) * 2010-06-30 2014-08-20 ソニー株式会社 音声処理装置、音声処理方法、およびプログラム
JP5656514B2 (ja) * 2010-08-27 2015-01-21 キヤノン株式会社 情報処理装置及び方法
JP5102868B2 (ja) * 2010-09-09 2012-12-19 株式会社コナミデジタルエンタテインメント ゲームシステム
EP2671350A4 (en) 2011-02-01 2014-12-03 Timeplay Entertainment Corp SYSTEMS AND METHODS FOR INTERACTIVE EXPERIENCES, AND CORRESPONDING CONTROL DEVICES
US8786529B1 (en) 2011-05-18 2014-07-22 Zspace, Inc. Liquid crystal variable drive voltage
US9770661B2 (en) * 2011-08-03 2017-09-26 Disney Enterprises, Inc. Zone-based positioning for virtual worlds
US9886552B2 (en) 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
JP5586545B2 (ja) * 2011-09-09 2014-09-10 任天堂株式会社 ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム
US20130293580A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for selecting targets in an augmented reality environment
US9020203B2 (en) 2012-05-21 2015-04-28 Vipaar, Llc System and method for managing spatiotemporal uncertainty
US9710968B2 (en) 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
US9888174B2 (en) 2015-10-15 2018-02-06 Microsoft Technology Licensing, Llc Omnidirectional camera with movement detection
US10277858B2 (en) 2015-10-29 2019-04-30 Microsoft Technology Licensing, Llc Tracking object of interest in an omnidirectional video
US11328155B2 (en) 2015-11-13 2022-05-10 FLIR Belgium BVBA Augmented reality labels systems and methods
WO2017131838A2 (en) 2015-11-13 2017-08-03 Flir Systems, Inc. Sonar sensor fusion and model based virtual and augmented reality systems and methods
CN105597311B (zh) * 2015-12-25 2019-07-12 网易(杭州)网络有限公司 3d游戏中的相机控制方法和装置
US10824320B2 (en) * 2016-03-07 2020-11-03 Facebook, Inc. Systems and methods for presenting content
JP7140465B2 (ja) * 2016-06-10 2022-09-21 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、ゲーム処理方法
JP6789830B2 (ja) * 2017-01-06 2020-11-25 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法
CN110546601B (zh) * 2017-04-03 2023-09-26 索尼公司 信息处理装置、信息处理方法和程序
CN108376424A (zh) * 2018-02-09 2018-08-07 腾讯科技(深圳)有限公司 用于对三维虚拟环境进行视角切换的方法、装置、设备及存储介质
US11173398B2 (en) * 2018-05-21 2021-11-16 Microsoft Technology Licensing, Llc Virtual camera placement system
US10846898B2 (en) * 2019-03-28 2020-11-24 Nanning Fugui Precision Industrial Co., Ltd. Method and device for setting a multi-user virtual reality chat environment
CN111589114B (zh) * 2020-05-12 2023-03-10 腾讯科技(深圳)有限公司 虚拟对象的选择方法、装置、终端及存储介质
GB2598927B (en) * 2020-09-18 2024-02-28 Sony Interactive Entertainment Inc Apparatus and method for data aggregation
CN115639976B (zh) * 2022-10-28 2024-01-30 深圳市数聚能源科技有限公司 一种虚拟现实内容多模式多角度同步展示方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359703A (en) * 1990-08-02 1994-10-25 Xerox Corporation Moving an object in a three-dimensional workspace
WO1992009948A1 (en) * 1990-11-30 1992-06-11 Vpl Research, Inc. Improved method and apparatus for creating virtual worlds
US5590268A (en) * 1993-03-31 1996-12-31 Kabushiki Kaisha Toshiba System and method for evaluating a workspace represented by a three-dimensional model
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
US5491743A (en) * 1994-05-24 1996-02-13 International Business Machines Corporation Virtual conference system and terminal apparatus therefor
US5736982A (en) * 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
DE69534523D1 (de) 1994-08-19 2006-03-02 Sony Corp Cyberspace-System
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US6139434A (en) * 1996-09-24 2000-10-31 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control

Also Published As

Publication number Publication date
GB9800397D0 (en) 1998-03-04
WO1999035597A2 (en) 1999-07-15
WO1999035597A3 (en) 1999-10-14
EP0966716A2 (en) 1999-12-29
US6241609B1 (en) 2001-06-05
KR20000076066A (ko) 2000-12-26
JP2001515630A (ja) 2001-09-18
CN1273656A (zh) 2000-11-15
JP4276704B2 (ja) 2009-06-10
CN1132117C (zh) 2003-12-24

Similar Documents

Publication Publication Date Title
KR100597329B1 (ko) 가상 환경 시점 제어
KR100453225B1 (ko) 3차원 가상 현실 구현을 위한 클라이언트 시스템과 이를이용한 가상 현실 구현 방법
JP4489847B2 (ja) 仮想環境における注意に基づく相互作用
US6346956B2 (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
KR100705306B1 (ko) 우선순위에 기초한 가상 환경
Zielasko et al. Remain seated: towards fully-immersive desktop VR
US6331853B1 (en) Display control apparatus display control method and presentation medium
US6057856A (en) 3D virtual reality multi-user interaction with superimposed positional information display for each user
US6437777B1 (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6954906B1 (en) Image display processing apparatus that automatically changes position of sub-window relative to main window depending on distance at watch sub window is commanded to be displayed
Hua et al. SCAPE: supporting stereoscopic collaboration in augmented and projective environments
US8584026B2 (en) User interface for orienting new users to a three dimensional computer-generated virtual environment
EP0951668B1 (en) Virtual environment navigation aid
Pointecker et al. Bridging the gap across realities: Visual transitions between virtual and augmented reality
US20220413681A1 (en) Dynamic browser stage
Young et al. Mobileportation: Nomadic telepresence for mobile devices
JP7349256B2 (ja) 画像生成装置および情報提示方法
CN117590935A (zh) 二维界面与人工现实界面之间的人工现实环境中视角共享
JP4236717B2 (ja) 3次元仮想現実空間共有システムにおける情報処理装置、情報処理方法および情報提供媒体
EP0797173A1 (en) Virtual environment navigation and interaction apparatus and method
Farella et al. Pervasive computing for interactive virtual heritage
Abásolo et al. Magallanes: 3d navigation for everybody
Goebel et al. Today's VR
JP3879154B2 (ja) 情報処理装置および情報処理方法
Mayor et al. Virtual Reality Presence in Partially Non-Euclidean Environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120622

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee