KR20230173227A - 레이싱 시뮬레이션 - Google Patents

레이싱 시뮬레이션 Download PDF

Info

Publication number
KR20230173227A
KR20230173227A KR1020237043108A KR20237043108A KR20230173227A KR 20230173227 A KR20230173227 A KR 20230173227A KR 1020237043108 A KR1020237043108 A KR 1020237043108A KR 20237043108 A KR20237043108 A KR 20237043108A KR 20230173227 A KR20230173227 A KR 20230173227A
Authority
KR
South Korea
Prior art keywords
virtual
vehicle
location
physical
viewpoint
Prior art date
Application number
KR1020237043108A
Other languages
English (en)
Inventor
데일 이. 2세 벅스톤
알레한드로 아개그 롱고
Original Assignee
벅스톤 글로벌 엔터프라이시스, 인코포레이티드.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 벅스톤 글로벌 엔터프라이시스, 인코포레이티드. filed Critical 벅스톤 글로벌 엔터프라이시스, 인코포레이티드.
Publication of KR20230173227A publication Critical patent/KR20230173227A/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

가상 차량 디스플레이 방법은, 레이스 코스에서 물리적 차량의 위치를 식별하는 단계, 상기 레이스 코스에서 시점의 위치를 식별하는 단계, 및 상기 시점의 가상 위치에서 보이는 상기 가상 차량의 부분을 제공하는 단계를 포함한다. 상기 방법은 상기 시점의 상기 위치에 기초하여 가상 세계 내의 상기 가상 위치를 계산함으로써 동작한다. 가상 차량 디스플레이 시스템은, 레이스 코스에서 물리적 차량의 위치를 검출하는 제1센서, 상기 레이스 코스에서 시점의 위치를 검출하는 제2센서, 및 상기 시점의 가상 위치에서 보이는 상기 가상 차량의 부분을 제공하는 시뮬레이션 시스템을 포함한다. 상기 시뮬레이션 시스템은 상기 시점의 상기 위치에 기초하여 가상 세계 내의 상기 시점의 상기 가상 위치를 계산하도록 구성된다.

Description

레이싱 시뮬레이션{RACING SIMULATION}
본 발명은 일반적으로 차량 시뮬레이션에 관한 것으로, 더 구체적으로는 현실 세계와 가상 세계 자동차 레이싱을 결합하는 것에 관한 것이다.
본 출원은 2017년 7월 7일에 출원된 “레이싱 시뮬레이션(Racing Simulation)”이라는 미국 임시 출원 번호 62/530,037의 이익을 주장하는 2017년 11월 15일에 출원된 미국 정규 출원 번호 15/813,662의 이익을 주장하며, 이들 각각은 그 전문이 본 명세서의 참조로 포함된다.
거의 모든 자동차에 대해, 레이싱 시합(racing competition)이 있다. 우리의 미디어는 레이스 코스들(racecourses) 상에서 자동차 레이스들(car races), 바이크 레이스들(bike races) 및 트럭 레이스들(truck races)로 가득 차 있다. 각 레이스는 챔피언을 생성하고, 레이싱 시리즈는 시즌 챔피언들을 생성한다.
자동차 레이싱은 상기 실제 세계에만 국한되지 않는다. 최근에는 가상 자동차 레이싱이 인기를 얻고 있다. 가상 레이싱 챔피언들은 레이스 당 수십만 달러를 딸 수 있다. 시즌 가상 챔피언들은 수백만 달러를 딸 수 있다.
일부 실시 예에서, 가상 차량을 디스플레이하는 방법은, 레이스 코스에서 물리적 차량의 위치를 식별하는 단계, 상기 레이스 코스에서 시점의 위치를 식별하는 단계, 및 상기 레이스 코스에서 상기 시점의 상기 위치에 기초하여 가상 세계 내에서 계산된 상기 시점의 가상 위치에서 보이는 상기 가상 차량의 부분을 디스플레이 시스템에 제공하는 단계를 포함한다. 예시적인 장점으로, 본 명세서에 기술된 실시 예들은 물리적 차량 운전자가 가상 차량 운전자와 시합하게 할 수 있다. 또한, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 표상을 디스플레이함으로써, 상기 물리적 차량 운전자와 가상 차량 운전자 간의 상기 시합이 더 현실적으로 보일 수 있다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계에서 상기 물리적 차량의 가상 위치에서 상기 물리적 차량의 표상(representation)에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 가상 차량의 부분을 포함한다.
일부 실시 예에서, 상기 방법은 상기 시뮬레이션 시스템에 의해 상기 가상 차량과 상기 가상 세계에서의 상기 물리적 차량의 상기 표상 간의 상호 작용을 시뮬레이션하는 단계를 더 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 상호 작용에 기초하여 계산된다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 물리적 차량의 운전자의 시점을 포함하며, 상기 레이스 코스에서 시점의 위치를 식별하는 단계는 센서에서 상기 물리적 차량의 상기 운전자의 상기 시점을 검출하는 단계를 포함하고, 상기 방법은: 물리적 객체의 위치를 식별하는 단계; 상기 가상 차량의 운동학 정보를 수신하는 단계; 디스플레이 시스템에서, 상기 물리적 객체의 상기 위치, 상기 레이스 코스에서의 상기 시점의 상기 위치, 및 상기 운동학 정보에 기초하여 상기 가상 차량의 표상을 생성하는 단계; 및 상기 레이스 코스에서 상기 시점의 상기 위치의 상기 관점으로부터 상기 가상 차량이 상기 물리적 객체와 정렬되도록 상기 가상 차량의 상기 표상을 디스플레이하는 단계를 더 포함한다.
일부 실시 예에서, 상기 방법은 디스플레이 시스템에서 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 생성하는 단계를 더 포함한다.
일부 실시 예에서, 상기 방법은 상기 레이스 코스에서 상기 가상 차량의 궤적을 시뮬레이션하기 위해 일정 기간에 걸쳐 상기 가상 차량의 일련의 표상들을 상기 디스플레이 시스템에 의해 디스플레이하는 단계를 더 포함하고, 상기 일련의 표상들은 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 포함한다. 일부 실시 예에서, 상기 가상 차량의 예측된 궤적이 디스플레이된다. 상기 예측은 현재 궤적, 가속도, 현재 차량 파라미터들 등에 기초할 수 있다. 이것은 가상 차량이 물리적 차량을 추월할 가능성이 있는지 청중 구성원이 예측할 수 있게 한다. 상기 예측된 궤적은 옐로우 라인과 같은 라인으로 제시될 수 있다. “GOING TO PASS!”또는“GOING TO CRASH!”와 같은 다른 디스플레이들도 포함될 수 있다.
일부 실시 예에서, 상기 방법은 상기 디스플레이 시스템에 의해 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용되는 상기 가상 차량의 디지털 3-D 모델을 저장하는 단계를 더 포함하고, 각각의 표상은 상기 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 방법은 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용된 상기 가상 차량의 디지털 3-D 모델을 수신하는 단계를 더 포함하고, 각각의 표상은 상기 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 운동학 정보는 상기 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하는 단계는 상기 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 검출하는 단계를 포함한다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 단계는 상기 물리적 차량의 운전자의 헤드의 공간적 위치를 검출하는 단계를 포함한다.
일부 실시 예에서, 상기 방법은, 상기 물리적 차량에 연결된 텔레메트리 시스템에 의해 상기 공간적 위치를 시뮬레이터 시스템으로 전송하는 단계; 상기 텔레메트리 시스템에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분과 관련된 정보를 수신하는 단계; 및 상기 정보에 기초하여 상기 가상 차량의 상기 부분의 상기 표상을 상기 물리적 차량의 상기 운전자에게 디스플레이하는 단계를 더 포함한다.
일부 실시 예에서, 상기 방법은 상기 가상 차량의 상기 부분의 상기 표상을 디스플레이하는 단계를 포함하고, 상기 정보를 그래픽 요소 세트로 변환하는 단계, 상기 부분의 상기 표상을 디스플레이하는 단계를 포함하며, 상기 그래픽 요소 세트를 디스플레이하는 단계를 포함한다. 일부 실시 예에서, 상기 방법은 상기 시뮬레이션 시스템에서 상기 시점의 상기 가상 위치에서 보이는 상기 부분과 관련된 상기 정보를 계산하는 단계를 더 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 단계는 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상을 디스플레이하는 단계를 포함하고, 상기 디스플레이는 빛이 이를 통과하여 상기 시야를 상기 운전자에게 디스플레이하도록 허락하는 투명 유기 발광 다이오드(T-OLED) 디스플레이이다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 단계는 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하는 단계를 포함하고, 상기 디스플레이는 LCD 디스플레이이며, 상기 방법은, 상기 물리적 차량에 연결된 카메라에 의해, 상기 물리적 차량에서의 상기 디스플레이 상에서 상기 운전자에 의해 보여지는 상기 물리적 세계의 상기 시야를 나타내는 이미지를 캡처하는 단계; 및 상기 운전자에게 상기 시야를 디스플레이하기 위해 상기 LCD 디스플레이의 일면 상에 이미지를 출력하는 경우, 상기 일련의 표상들은 상기 LCD 디스플레이에 의해 디스플레이된 상기 이미지 상에 겹쳐진다(overlaid).
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 단계는 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하는 단계를 포함하고, 상기 디스플레이는 상기 물리적 차량의 프론트 윈드실드, 상기 물리적 차량의 하나 이상의 사이드 윈도우, 상기 물리적 차량의 리어 윈드실드, 하나 이상의 사이드 미러, 리어-뷰 미러 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들 디스플레이하는 단계는 상기 운전자가 착용한 헤드셋의 디스플레이 상에 상기 일련의 표상들을 디스플레이하는 단계를 포함한다. 일부 실시 예에서, 상기 헤드셋은 헬멧이다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 단계는 사용자의 눈의 공간적 위치, 상기 사용자의 눈의 시선 방향 또는 상기 사용자의 눈의 초점 중 하나 이상을 검출하는 것을 포함한다.
일부 실시 예에서, 상기 방법은: 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서의 상기 시점의 상기 위치를 시뮬레이션 시스템에 제공하는 단계; 상기 시뮬레이션 시스템에 의해, 상기 가상 차량 및 상기 물리적 차량의 표상을 포함하는 가상 세계를 계산하는 단계; 상기 레이스 코스에서의 상기 시점의 상기 위치에 기초하여 상기 가상 세계 내의 상기 시점의 가상 위치를 상기 시뮬레이션 시스템에 의해 계산하는 단계; 및 상기 시뮬레이션 시스템에 의해, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하는 단계를 포함하고, 그리고 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 디스플레이 시스템에 제공하는 단계는 상기 시뮬레이션 시스템에 의해 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 출력하는 단계를 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하는 단계는 상기 차량의 두 부분들 각각의 위치를 수신하는 단계를 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하는 단계는 상기 차량의 부분 위치 및 상기 차량의 방위를 수신하는 단계를 포함한다. 일부 실시 예에서, 상기 차량의 상기 방위를 수신하는 단계는 자이로스코프 데이터(gyroscope data)를 수신하는 단계를 포함한다.
일부 실시 예에서, 상기 레이스 코스에서의 상기 시점의 상기 위치는 상기 레이스 코스에서의 상기 물리적 차량의 운전자의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고, 상기 레이스 코스에서 상기 물리적 차량을 관찰하는 청중 구성원의 시점의 위치를 포함한다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고, 상기 레이스 코스 상의 상기 물리적 차량을 이미징하는 카메라의 위치를 포함한다. 일부 실시 예에서, 상기 카메라는 상기 물리적 차량이 레이싱하는 상기 레이스 코스의 부분을 이미징한다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하는 경우, 상기 카메라는 그 비디오 피드에서 상기 물리적 차량을 캡처할 수 있다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하지 않는 경우, 상기 카메라는 여전히 상기 레이스 코스의 상기 부분을 캡처할 수 있다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 단계는 눈의 시선을 측정하는 단계, 눈 이동을 추적하는 단계, 헤드 위치를 추적하는 단계, 한쪽 또는 양쪽 눈으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 단계; 상기 헤드 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 단계, 안경 상의 일 지점으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 단계, 헤드 기어 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 단계; 한쪽 또는 양쪽 눈으로부터 일 장소에서 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계; 안경 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계, 혹은 상기 헤드 기어 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계 중 적어도 하나를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 단계는 상기 눈의 상기 시선을 측정하는 단계를 포함하고, 상기 측정하는 단계는 상기 눈으로부터의 광 반사 또는 굴절을 측정하는 단계를 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서 상기 시점의 상기 위치를 제공하는 단계는 적어도 하나의 위치를 무선으로 전송하는 단계를 포함한다.
일부 실시 예에서, 상기 가상 세계를 계산하는 단계는 상기 물리적 차량의 물리적 좌표들을 상기 가상 세계에서의 좌표들로 변환하는 단계를 포함하고, 상기 물리적 차량의 상기 가상 위치는 상기 가상 좌표들을 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하는 단계는: 상기 가상 세계에서 상기 물리적 차량의 표상을 계산하는 단계, 상기 가상 세계 내의 상기 시점과 상기 가상 차량 사이의 상기 가상 세계에서의 물리적 객체의 표상을 계산하는 단계; 및 상기 물리적 차량의 상기 표상 및 상기 물리적 객체의 상기 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 추출하는 단계를 포함한다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 상기 부분은 상기 가려지지 않은 부분을 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하는 단계는 다른 표상들에 의해 차단되는 픽셀들을 판단하는 단계, 및 다른 표상들에 의해 차단되지 않는 픽셀만을 디스플레이하는 단계를 포함할 수 있다. 일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하는 단계는 다른 표상들에 의해 차단되는 모든 픽셀들에 대해 (RGBA 공간에서) 0%의 픽셀 알파 값(pixel alpha value)을 설정하는 단계를 포함할 수 있다. 예를 들면, 상기 가상 차량의 부분들은 다른 가상 표상들, 예를 들어 다른 가상 차량, 또는 물리적 객체들, 예를 들어 물리적 차량 내의 객체들이나 물리적 차량 그 자체의 표상들에 의해 차단될 수 있다. 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분들을 제공하기 위해, (상기 시점의 상기 가상 위치로부터) 임의의 관찰된 픽셀 값들이 사용될 수 있다. 일부 실시 예에서, 상기 가상 차량의 가려지지 않고 관찰된 부분들의 상기 픽셀들은 (RGBA 공간에서) 각각 0%보다 큰 알파 값을 포함하도록 설정되어 그 가려지지 않는 픽셀들이 보여질 수 있고 디스플레이되야 함을 나타낼 수 있다. 이와 대조적으로, 0%의 알파 값으로 설정된 픽셀들은 해당 픽셀들이 완전히 투명한, 즉 보이지 않고 디스플레이되지 않음을 나타낸다.
일부 실시 예에서, 상기 시점의 상기 가상 위치와 상기 물리적 차량의 상기 표상 사이의 상기 물리적 객체의 상기 표상을 계산하는 단계는 상기 물리적 객체의 가상 위치를 획득하기 위해 표상들의 데이터베이스에 액세스하는 단계를 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계의 다른 표상들에 의해 가려지지 않은 상기 가상 차량의 부분들로 구성된다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계에서의 가상 그림자(virtual shadow)를 포함한다. 일부 실시 예에서, 상기 가상 그림자는 상기 가상 차량에 의해 투영된 그림자 및 상기 가상 차량 상에 투영된 그림자 중 적어도 하나이다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 가상 반사(virtual reflection)를 포함한다. 일부 실시 예에서, 상기 가상 반사는 상기 가상 차량의 반사 및 상기 가상 차량에 대한 반사 중 적어도 하나이다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의해, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하는 단계는 상기 시점의 상기 가상 위치로부터 시야를 계산하는 단계를 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시야 내에 상기 가상 차량의 상기 부분을 디스플레이하는 단계를 포함한다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의하여 상기 가상 시점의 상기 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하는 단계는 상기 시점의 상기 가상 위치로부터 시야를 계산하는 단계를 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시야 내에 보이는 상기 가상 차량의 상기 부분을 디스플레이하는 단계로 구성된다.
일부 실시 예에서, 가상 차량을 디스플레이하는 방법은, 레이스 코스에서 물리적 차량의 위치를 식별하기 위한 수단, 상기 레이스 코스에서 시점의 위치를 식별하기 위한 수단, 및 상기 레이스 코스에서 상기 시점의 상기 위치에 기초하여 가상 세계 내에서 계산된 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 부분을 디스플레이 시스템에 제공하기 위한 수단을 포함한다. 예시적인 이점으로서, 본 명세서에서 설명된 실시 예는 물리적 차량 운전자가 가상 차량 운전자와 시합하게 할 수 있다. 또한, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 표상을 디스플레이함으로써, 상기 물리적 차량 및 상기 가상 차량 운전자들 사이의 상기 시합이 보다 현실적으로 보일 수 있다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은, 상기 가상 세계에서 상기 물리적 차량의 가상 위치에서의 상기 물리적 차량의 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 포함한다. 일부 실시 예에서, 상기 방법은 상기 시뮬레이션 시스템에 의해 상기 가상 차량과 상기 가상 세계에서의 상기 물리적 차량의 상기 표상 간의 상호 작용을 시뮬레이션하기 위한 수단을 더 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 상호 작용에 기초하여 계산된다.
일부 실시 예에서, 상기 레이스 코스에서의 상기 시점의 상기 위치는 상기 물리적 차량의 운전자의 시점을 포함하며, 그리고 상기 레이스 코스에서 시점의 위치를 식별하기 위한 수단은 센서에서 상기 물리적 차량의 상기 운전자의 상기 시점을 검출하기 위한 수단을 포함하고; 상기 방법은, 물리적 객체의 위치를 식별하는 수단; 상기 가상 차량의 운동학 정보를 수신하는 수단; 디스플레이 시스템에서, 상기 물리적 객체의 상기 위치, 상기 레이스 코스에서 상기 시점의 상기 위치, 및 상기 운동학 정보에 기초하여 상기 가상 차량의 표상을 생성하기 위한 수단; 및 상기 레이스 코스에서 상기 시점의 상기 위치의 상기 관점에서 상기 가상 차량이 상기 물리적 객체와 정렬되도록 상기 가상 차량의 상기 표상을 디스플레이하기 위한 수단을 더 포함한다.
일부 실시 예에서, 상기 방법은 디스플레이 시스템에서 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 생성하기 위한 수단을 더 포함한다.
일부 실시 예에서, 상기 방법은 디스플레이 시스템에 의해 상기 레이스 코스 상에서 상기 가상 차량의 궤적을 시뮬레이션하기 위해 일정 기간 동안 상기 가상 차량의 일련의 표상들을 디스플레이하기 위한 수단을 더 포함하고, 상기 일련의 표상들은 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 포함한다. 일부 실시 예에서, 상기 가상 차량의 예측된 궤적이 디스플레이된다. 상기 예측은 현재 궤적, 가속도, 현재 차량 파라미터들 등에 기초할 수 있다. 이것은 청중 구성원이 가상 차량이 물리적 차량을 추월할 가능성이 있는지 예측할 수 있게 한다. 상기 예측된 궤적은 옐로우 라인과 같은 라인으로 제시될 수 있다. “GOING TO PASS!”또는“GOING TO CRASH!”와 같은 다른 디스플레이들도 포함될 수 있다.
일부 실시 예에서, 상기 방법은 상기 디스플레이 시스템에 의해 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용되는 상기 가상 차량의 디지털 3-D 모델을 저장하기 위한 수단을 더 포함하고, 각각의 표상은 상기 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 방법은 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용되는 상기 가상 차량의 디지털 3-D 모델을 수신하기 위한 수단을 더 포함하고, 각각의 표상은 상기 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 운동학 정보는 상기 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하기 위한 수단은, 상기 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 검출하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하기 위한 수단은 상기 물리적 차량의 운전자의 헤드의 공간적 위치를 검출하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 방법은, 상기 물리적 차량에 연결된 텔레메트리 시스템에 의해 상기 공간적 위치를 시뮬레이터 시스템으로 전송하기 위한 수단; 상기 텔레메트리 시스템에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분과 관련된 정보를 수신하기 위한 수단; 및 상기 정보에 기초하여 상기 가상 차량의 상기 부분의 표상을 상기 물리적 차량의 상기 운전자에게 디스플레이하기 위한 수단을 더 포함한다.
상기 방법은 상기 가상 차량의 상기 부분의 상기 표상을 디스플레이하기 위한 수단을 포함하고; 상기 정보를 그래픽 요소 세트로 변환하기 위한 수단, 상기 부분의 상기 표상을 디스플레이하기 위한 수단을 포함하며, 상기 그래픽 요소 세트를 디스플레이하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 방법은 상기 시뮬레이션 시스템에서 상기 시점의 상기 가상 위치에서 보이는 상기 부분과 관련된 상기 정보를 계산하기 위한 수단을 더 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하기 위한 수단은 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상을 디스플레이하기 위한 수단을 포함하고, 상기 디스플레이는 빛이 이를 통과하여 상기 시야를 상기 운전자에게 디스플레이하는 투명 유기 발광 다이오드(T-OLED) 디스플레이이다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하기 위한 수단은, 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하기 위한 수단이고, 상기 디스플레이는 LCD 디스플레이이며; 상기 방법은, 상기 물리적 차량에 연결된 카메라에 의해, 상기 물리적 차량의 디스플레이 상에서 상기 운전자에 의해 보여지는 상기 물리적 세계의 상기 시야를 나타내는 이미지를 캡처하기 위한 수단; 및 상기 운전자에게 상기 시야를 디스플레이하기 위해 상기 LCD 디스플레이의 일면에 상기 이미지를 출력하기 위한 수단을 더 포함하고, 상기 LCD 디스플레이에 의해 디스플레이되는 상기 이미지 상에 상기 일련의 표상들이 겹쳐진다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하기 위한 수단은 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하기 위한 수단을 포함하고, 상기 디스플레이는 상기 물리적 차량의 프론트 윈드실드, 상기 물리적 차량의 하나 이상의 사이드 윈도우, 상기 물리적 차량의 리어 윈드실드, 하나 이상의 사이드 미러, 리어-뷰 미러 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하기 위한 수단은 상기 운전자가 착용한 헤드셋의 디스플레이 상에 상기 일련의 표상들을 디스플레이하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 헤드셋은 헬멧이다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하기 위한 수단은 사용자의 눈의 공간적 위치, 상기 사용자의 눈의 시선 방향 또는 상기 사용자의 눈의 초점 중 하나 이상을 검출하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 방법은, 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서 상기 시뮬레이션 시스템에 의해, 상기 가상 차량 및 상기 물리적 차량의 표상을 포함하는 가상 세계를 계산하기 위한 수단; 상기 레이스 코스에서 상기 시점의 상기 위치에 기초하여 상기 가상 세계 내의 상기 시점의 가상 위치를 상기 시뮬레이션 시스템에 의해 계산하기 위한 수단; 및 상기 시뮬레이션 시스템에 의해 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하기 위한 수단을 더 포함하고, 그리고 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 디스플레이 시스템에 제공하기 위한 수단은, 상기 시뮬레이션 시스템에 의해 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 출력하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하기 위한 수단은 상기 차량의 두 부분들 각각의 위치를 수신하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하기 위한 수단은 상기 차량의 부분의 위치 및 상기 차량의 방위를 수신하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 차량의 상기 방위를 수신하기 위한 수단은 자이로스코프 데이터를 수신하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 레이스 코스에서의 상기 시점의 상기 위치는 상기 레이스 코스에서 상기 물리적 차량의 운전자의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서의 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고 상기 레이스 코스 상에서 상기 물리적 차량을 관찰하는 청중 구성원의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하는 카메라의 위치를 포함하고, 상기 방법은 상기 레이스 코스 상에서 상기 물리적 차량을 이미징하기 위한 수단을 더 포함한다. 일부 실시 예에서, 상기 카메라는 그 위에서 상기 물리적 차량이 레이싱하는 상기 레이스 코스의 부분을 이미징한다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하는 경우, 상기 카메라는 그 비디오 피드에서 상기 물리적 차량을 캡처할 수 있다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하지 않는 경우, 상기 카메라는 여전히 상기 레이스 코스의 상기 부분을 캡처할 수 있다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하기 위한 수단은, 눈의 시선을 측정하기 위한 수단, 눈의 움직임을 추적하기 위한 수단, 헤드 위치를 추적하기 위한 수단, 한쪽 또는 양쪽 눈으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하기 위한 수단, 상기 헤드 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하기 위한 수단, 안경 상의 일 지점으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하기 위한 수단, 헤드 기어 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하기 위한 수단, 한쪽 또는 양쪽 눈으로부터 일 장소의 고정 점까지의 벡터를 식별하기 위한 수단, 헤드 상의 일 지점에서 상기 장소의 고정 점까지의 벡터를 식별하기 위한 수단, 안경 상의 일 지점에서 상기 장소의 고정 점까지의 벡터를 식별하기 위한 수단 또는 헤드 기어 상의 일 지점에서 상기 장소의 고정 점까지의 벡터를 식별하기 위한 수단 중 적어도 하나를 포함한다. 일부 실시 예에서, 레이스 코스에서 상기 시점의 상기 위치를 식별하기 위한 수단은 상기 눈의 상기 시선을 측정하는 수단을 포함하고, 상기 측정하기 위한 수단은 상기 눈으로부터의 광 반사 또는 굴절을 측정하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서 상기 시점의 상기 위치를 제공하기 위한 수단은 적어도 하나의 위치를 무선으로 전송하기 위한 수단을 포함한다.
일부 실시 예에서, 가상 세계를 계산하기 위한 수단은 상기 물리적 차량의 물리적 좌표들을 상기 가상 세계의 좌표들로 변환하기 위한 수단을 포함하고, 상기 물리적 차량의 상기 가상 위치는 상기 가상 좌표들을 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하기 위한 수단은: 상기 가상 세계에서의 상기 물리적 차량의 표상을 계산하기 위한 수단, 상기 가상 세계 내에서 상기 시점과 상기 가상 차량 사이의 상기 가상 세계에서의 물리적 객체의 표상을 계산하기 위한 수단; 및 상기 물리적 차량의 상기 표상 및 상기 물리적 객체의 상기 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 추출하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 상기 부분은 상기 가려지지 않은 부분을 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하기 위한 수단은 다른 표상들에 의해 차단되는 픽셀들을 판단하는 수단, 및 다른 표상들에 의해 차단되지 않는 픽셀만을 디스플레이하기 위한 수단을 포함할 수 있다. 일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하기 위한 수단은 다른 표상들에 의해 차단되는 모든 픽셀들에 대해 (RGBA 공간에서) 0%의 픽셀 알파 값을 설정하기 위한 수단을 포함할 수 있다. 예를 들면, 상기 가상 차량의 부분들은 다른 가상 표상들, 예를 들어 다른 가상 차량, 또는 물리적 객체들, 예를 들어 물리적 차량 내의 객체들이나 물리적 차량 그 자체의 표상들에 의해 차단될 수 있다. 상기 시점의 상기 가상 위치로부터 보이는 상기 가상 차량의 상기 부분들을 제공하기 위해, (상기 시점의 상기 가상 위치로부터) 임의의 관찰된 픽셀 값들이 사용될 수 있다. 일부 실시 예에서, 상기 가상 차량의 가려지지 않고 관찰된 부분들의 상기 픽셀들은 (RGBA 공간에서) 각각 0%보다 큰 알파 값을 포함하도록 설정되어 그 가려지지 않는 픽셀들이 보여질 수 있고 디스플레이되어야 함을 나타낼 수 있다. 이와 대조적으로, 0%의 알파 값으로 설정된 픽셀들은 해당 픽셀들이 완전히 투명한, 즉 보이지 않고 디스플레이되지 않음을 나타낸다.
일부 실시 예에서, 상기 시점의 상기 가상 위치와 상기 물리적 차량의 상기 표상 사이의 상기 물리적 객체의 상기 표상을 계산하기 위한 수단은 상기 물리적 객체의 가상 위치를 획득하기 위해 표상들의 데이터베이스에 액세스하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계의 다른 표상들에 의해 가려지지 않은 상기 가상 차량의 부분들로 구성된다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계에서의 가상 그림자를 포함한다. 일부 실시 예에서, 상기 가상 그림자는 상기 가상 차량에 의해 투영된 그림자 및 상기 가상 차량 상에 투영된 그림자 중 적어도 하나이다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 가상 반사를 포함한다. 일부 실시 예에서, 상기 가상 반사는 상기 가상 차량의 반사 및 상기 가상 차량 상에서의 반사 중 적어도 하나이다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의해, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하기 위한 수단은 상기 시점의 상기 가상 위치로부터 시야를 계산하기 위한 수단을 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하기 위한 수단은 상기 시야 내에 상기 가상 차량의 상기 부분을 디스플레이하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의하여 상기 가상 시점의 상기 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하기 위한 수단은 상기 시점의 상기 가상 위치로부터 시야를 계산하기 위한 수단을 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하기 위한 수단은 상기 시야 내에 보이는 상기 가상 차량의 상기 부분을 디스플레이하기 위한 수단으로 구성된다.
일부 실시 예에서, 상기 가상 차량을 디스플레이하기 위한 시스템은, 레이스 코스에서 물리적 차량의 위치를 검출하는 제1센서, 상기 레이스 코스에서 상기 시점의 상기 위치를 검출하는 제2센서, 및 상기 시점의 가상 위치에서 보이는 상기 가상 차량의 부분을 출력하는 시뮬레이션 시스템을 포함한다. 예시적인 이점으로서, 본 명세서에 설명된 실시 예는 물리적 차량 운전자가 가상 차량 운전자와 시합하게 할 수 있다. 또한, 상기 레이스 코스에서 상기 시점의 상기 위치에서 보이는 상기 가상 차량의 부분을 디스플레이함으로써, 상기 물리적 차량 및 상기 가상 차량 운전자들 사이의 시합이 보다 현실적으로 보일 수 있다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은, 상기 가상 세계에서 상기 물리적 차량의 가상 위치에서의 상기 물리적 차량의 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 포함한다.
일부 실시 예에서, 상기 시스템은 상기 가상 차량과 상기 가상 세계에서의 상기 물리적 차량의 상기 표상 간의 상호 작용을 시뮬레이션하도록 구성되는 시뮬레이션 시스템을 더 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 상호 작용에 기초하여 계산된다.
일부 실시 예에서, 상기 시스템은 상기 제1센서는 상기 물리적 차량에 연결되고, 상기 제2센서는 상기 물리적 차량의 운전자의 눈 위치를 검출하도록 구성되는 것을 포함하고, 및 상기 디스플레이 시스템은 상기 물리적 차량에 연결되고, 및 가상 차량의 운동학 정보를 수신하고; 상기 운전자의 상기 시야에서 물리적 객체의 위치를 식별하고, 상기 물리적 객체의 상기 위치, 상기 시점 및 상기 운동학 정보에 기초하여 상기 가상 차량의 표상을 생성하며; 및 상기 가상 차량이 상기 시점의 상기 관점에서 상기 물리적 객체와 정렬되도록 상기 가상 차량의 상기 표상을 디스플레이하도록 구성된다.
일부 실시 예에서, 상기 시스템은 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 생성하도록 구성된 디스플레이 시스템을 더 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 표상을 디스플레이하는 단계는 상기 물리적 차량의 디스플레이 스크린 상에 상기 표상을 디스플레이하는 단계를 포함하고, 그리고 상기 디스플레이 시스템은 상기 레이스 코스 상에서 상기 가상 차량의 궤적을 시뮬레이션하기 위해 일정 기간 동안 상기 가상 차량의 일련의 표상들을 상기 디스플레이 스크린 상에 디스플레이하도록 추가로 구성되고, 상기 일련의 표상들은 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 포함한다. 일부 실시 예에서, 상기 가상 차량의 예측된 궤적이 디스플레이되고 있다. 상기 예측은 현재 궤적, 가속도, 현재 차량 파라미터들 등에 기초할 수 있다. 이것은 가상 차량이 물리적 차량을 추월할 가능성이 있는지를 청중 구성원이 예측할 수 있게 한다. 상기 예측된 궤적은 옐로우 라인과 같은 라인으로 제시될 수 있다. “GOING TO PASS!”또는“GOING TO CRASH!”와 같은 다른 디스플레이도 포함될 수 있다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 단계는 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하는 단계를 포함하고, 상기 디스플레이 시스템은 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용되는 상기 가상 차량의 디지털 3-D 모델을 저장하도록 추가로 구성되며, 각각의 표상은 상기 디지털 3-D 모델에 기초하여 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 디스플레이 시스템은 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용되는 상기 가상 차량의 디지털 3-D 모델을 수신하도록 추가로 구성되고, 각각의 표상은 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 운동학 정보는 상기 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 제1센서는, 상기 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 검출함으로써 상기 물리적 차량의 상기 위치를 검출하도록 구성될 수 있다.
일부 실시 예에서, 상기 제1센서는 상기 운전자의 헤드의 공간적 위치를 검출함으로써 상기 운전자의 상기 시점을 검출하도록 구성된다.
일부 실시 예에서, 상기 디스플레이 시스템은 상기 공간적 위치를 시뮬레이션 시스템으로 전송하고; 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분과 관련된 정보를 수신하며; 및 상기 물리적 차량의 상기 운전자에게 상기 가상 차량의 상기 부분을 디스플레이하도록 구성된다.
일부 실시 예에서, 상기 디스플레이 시스템은 상기 정보를 그래픽 요소 세트로 변환함으로써 상기 가상 차량의 상기 일련의 표상들을 디스플레이하도록 추가로 구성되고; 상기 부분의 상기 표상을 디스플레이하는 단계는 상기 그래픽 요소 세트를 디스플레이하는 단계를 포함한다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 부분과 관련된 상기 정보는 상기 시뮬레이션 시스템에서 계산된다.
일부 실시 예에서, 상기 시스템은 빛이 이를 통과하여 상기 시야를 상기 운전자에게 디스플레이할 수 있게 하는 투명 유기 발광 다이오드(T-OLED) 디스플레이를 더 포함하고, 상기 디스플레이 시스템은 상기 가상 차량의 상기 표상을 디스플레이하기 위해 상기 T-OLED 디스플레이 상에 상기 일련의 표상들을 디스플레이하도록 구성된다.
일부 실시 예에서, 상기 시스템은 LCD 디스플레이; 상기 물리적 차량에 결합되고 상기 물리적 차량의 상기 LCD 디스플레이 상에서 상기 운전자에 의해 보여지는 상기 물리적 세계의 상기 시야를 나타내는 이미지를 캡처하도록 구성된 카메라를 더 포함하고, 그리고 상기 디스플레이 시스템은 상기 LCD 디스플레이 일면에 상기 이미지를 출력하여 상기 시야를 상기 운전자에게 디스플레이하고, 상기 LCD 디스플레이에 의해 디스플레이된 상기 이미지 상에 상기 일련의 표상들을 겹치도록 구성된다.
일부 실시 예에서, 상기 시스템은 상기 물리적 차량의 윈드실드, 상기 물리적 차량의 하나 이상의 사이드 윈도우, 상기 물리적 차량의 리어 윈드실드, 또는 이들의 조합을 포함하는 디스플레이를 더 포함하고, 상기 디스플레이 시스템은 상기 디스플레이 상에 상기 가상 차량의 상기 표상을 디스플레이하도록 구성된다.
일부 실시 예에서, 상기 시스템은 상기 운전자에 의해 착용된 헤드셋을 포함하고, 상기 헤드셋은 디스플레이를 포함하며, 디스플레이 시스템은 상기 가상 차량의 상기 일련의 표상들을 상기 디스플레이 상에 디스플레이하도록 구성된다. 일부 실시 예에서, 상기 헤드 셋은 헬멧을 포함한다.
일부 실시 예에서, 상기 제2센서는 사용자의 눈의 공간적 위치, 상기 사용자의 눈의 시선 방향 또는 상기 사용자의 눈의 초점 중 하나 이상을 검출한다.
일부 실시 예에서, 상기 시스템은: 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서 상기 시점의 상기 위치를 수신하고; 상기 가상 차량 및 상기 물리적 차량의 표상을 포함하는 가상 세계를 계산하며; 상기 레이스 코스에서 상기 시점의 상기 위치에 기초하여 상기 가상 세계 내의 상기 시점의 상기 가상 위치를 계산하고; 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하며; 및 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 출력하도록 구성된 시뮬레이션 시스템을 포함한다.
일부 실시 예에서, 상기 제1센서는 상기 차량의 두 부분들 각각의 위치를 수신한다.
일부 실시 예에서, 상기 제1센서는 상기 차량의 부분의 위치 및 상기 차량의 방위를 수신한다. 일부 실시 예에서, 상기 차량의 상기 방위를 수신하는 단계는 자이로스코프 데이터를 수신하는 단계를 포함한다.
일부 실시 예에서, 상기 레이스 코스에서의 상기 시점의 상기 위치는 상기 레이스 코스에서 상기 물리적 차량의 운전자의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서의 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고 상기 레이스 코스 상에서 상기 물리적 차량을 관찰하는 청중 구성원의 시점의 위치를 포함한다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고 상기 레이스 코스 상의 상기 물리적 차량을 이미징하는 카메라의 위치를 포함한다. 일부 실시 예에서, 상기 카메라는 상기 물리적 차량이 레이싱하는 상기 레이스 코스의 부분을 이미징한다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하는 경우, 상기 카메라는 그 비디오 피드에서 상기 물리적 차량을 캡처할 수 있다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하지 않는 경우, 상기 카메라는 여전히 상기 레이스 코스의 상기 부분을 캡처할 수 있다.
일부 실시 예에서, 상기 제2센서는 눈의 상기 시선을 측정하는 단계, 눈 움직임을 추적하는 단계, 헤드 위치를 추적하는 단계, 한쪽 또는 양쪽 눈으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 단계; 상기 헤드 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 단계, 안경 상의 일 지점으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 단계, 헤드 기어 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 단계; 한쪽 또는 양쪽 눈으로부터 일 장소의 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계; 안경 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 기어 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계 중 적어도 하나를 통해 상기 레이스 코스에서 상기 시점의 상기 위치를 검출하도록 구성된다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 단계는 상기 눈의 시선을 측정하는 단계를 포함하고, 상기 측정하는 단계는 상기 눈으로부터의 광 반사 또는 굴절을 측정하는 단계를 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치, 및 상기 레이스 코스에서 상기 시점의 상기 위치를 수신하는 단계는 적어도 하나의 위치를 무선으로 수신하는 단계를 포함한다.
일부 실시 예에서, 가상 세계를 계산하는 단계는 상기 물리적 차량의 물리적 좌표들을 상기 가상 세계에서의 좌표들로 변환하는 단계를 포함하고, 상기 물리적 차량의 상기 가상 위치는 상기 가상 좌표들을 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 부분을 계산하는 단계는: 상기 가상 세계에서 상기 물리적 차량의 표상을 계산하는 단계, 상기 가상 세계 내의 상기 시점과 상기 가상 차량 사이의 상기 가상 세계에서의 물리적 객체의 표상을 계산하는 단계; 및 상기 물리적 차량의 상기 표상 및 상기 물리적 객체의 상기 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 추출하는 단계를 포함한다. 일부 실시 예에서, 상기 시점의 가상 위치에서 보이는 가상 세계 내의 상기 가상 차량의 상기 부분은 상기 가려지지 않은 부분을 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하는 단계는 다른 표상들에 의해 차단되는 픽셀들을 판단하는 단계, 및 다른 표상들에 의해 차단되지 않는 픽셀만을 디스플레이하는 단계를 포함할 수 있다. 일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하는 단계는 다른 표상들에 의해 차단되는 모든 픽셀들에 대해 (RGBA 공간에서) 0%의 픽셀 알파 값(pixel alpha value)을 설정하는 단계를 포함할 수 있다. 예를 들면, 상기 가상 차량의 부분들은 다른 가상 표상들, 예를 들어 다른 가상 차량, 또는 물리적 객체들, 예를 들어 물리적 차량 내의 객체들이나 물리적 차량 그 자체의 표상들에 의해 차단될 수 있다. 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분들을 제공하기 위해, (상기 시점의 상기 가상 위치로부터) 임의의 관찰된 픽셀 값들이 사용될 수 있다. 일부 실시 예에서, 상기 가상 차량의 가려지지 않고 관찰된 부분들의 상기 픽셀들은 (RGBA 공간에서) 각각 0%보다 큰 알파 값을 포함하도록 설정되어 그 가려지지 않는 픽셀들이 보여질 수 있고 디스플레이되어야 함을 나타낼 수 있다. 이와 대조적으로, 0%의 알파 값으로 설정된 픽셀들은 해당 픽셀들이 완전히 투명한, 즉 보이지 않고 디스플레이되지 않음을 나타낸다.
일부 실시 예에서, 상기 시점의 상기 가상 위치와 상기 물리적 차량의 상기 표상 사이의 상기 물리적 객체의 상기 표상을 계산하는 단계는 상기 물리적 객체의 가상 위치를 획득하기 위해 표상들의 데이터베이스에 액세스하는 단계를 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계의 다른 표상들에 의해 가려지지 않은 상기 가상 차량의 부분들로 구성된다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계에서의 가상 그림자를 포함한다. 일부 실시 예에서, 상기 가상 그림자는 상기 가상 차량에 의해 투영된 그림자 및 상기 가상 차량 상에 투영된 그림자 중 적어도 하나이다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치에서 보이는 상기 가상 차량의 상기 부분은 가상 반사를 포함한다. 일부 실시 예에서, 상기 가상 반사는 상기 가상 차량의 반사 및 상기 가상 차량에 대한 반사 중 적어도 하나이다.
일부 실시 예에서, 상기 시스템은 상기 시점의 상기 가상 위치로부터 시야를 계산함으로써 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 부분을 계산하도록 구성된 시뮬레이션 시스템을 더 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시야 내에 상기 가상 차량의 상기 부분을 디스플레이하는 단계를 포함한다.
일부 실시 예에서, 상기 시스템은 상기 시점의 상기 가상 위치로부터 시야를 계산함으로써 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 부분을 계산하도록 구성된 시뮬레이션 시스템을 더 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시야 내에 보이는 상기 가상 차량의 상기 부분을 디스플레이하는 단계로 구성된다.
도 1은 일부 실시 예에 따른 물리적 차량의 도면이다.
도 2A 내지 도 2C는 일부 실시 예에 따른 하나 이상의 가상 차량이 하나 이상의 디스플레이 상에 어떻게 디스플레이 되는지를 나타내는 도면들이다.
도 3A 내지 도 3D는 일부 실시 예에 따른 가상 차량들의 가시적 부분들이 디스플레이 상에 어떻게 디스플레이 되는지를 나타내는 도면들이다.
도 4A 내지 도 4D는 일부 실시 예에 따른 가상 차량들의 가시적 부분이 디스플레이 상에 어떻게 디스플레이 되는지를 나타내는 도면들이다.
도 5는 일부 실시 예에 따른 라이브 시스템과 시뮬레이션된 시스템 사이의 가상 레이스를 시뮬레이션하는 시스템이다.
도 6은 일부 실시 예에 따른 디스플레이들 상에 가상 차량들을 디스플레이하는 방법을 도시하는 순서도이다.
도 7은 일부 실시 예에 따른 가상 차량과 물리적 차량 간의 양방향 상호 작용을 상기 물리적 차량의 운전자에게 제공하는 방법을 도시하는 순서도이다.
도 8은 일부 실시 예에 따른 양방향 상호 작용을 제공하기 위해 가상 차량과 물리적 차량 간의 레이스를 시뮬레이션하는 방법을 도시하는 순서도이다.
도 9는 일부 실시 예에 따른 가상 차량들의 디스플레이를 가능하게 하기 위해 시뮬레이션 시스템에 의해 수행되는 방법을 도시하는 순서도이다.
도 10은 일부 실시 예에 따른 가상 차량들의 디스플레이를 가능하게 하는 방법을 도시하는 순서도이다.
도 11은 일부 실시 예에 따른 컴퓨터의 기능 블록도이다.
본 명세서의 실시 예들은 현실 세계와 가상 세계 레이싱 시합들을 결합한다. 예를 들면, 실제 세계 레이싱 챔피언들과 가상 세계 레이싱 챔피언들은 전체 챔피언을 결정하기 위해 시합할 수 있다. 유리하게도, 각 챔피언은 그들 각자의 "세계"내에 머물면서 다른 "세계"의 챔피언과 시합할 수 있다. 사실상, 여기서 설명된 실시 예는 라이브 참가자들이 가상 참가자들과 시합할 수 있게 한다.
"물리적(physical)" 및 "실제-세계(real-world)"라는 용어는 본 명세서에서 상호 교환 가능하게 사용되고, "가상 세계(virtual world)"와 대조적으로 사용된다. 예를 들면, "물리적 차량(physical vehicle)" 또는 "실제-세계 차량(real-world vehicle)"은 물리적으로 레이스 코스 상에 혹은 레이스 코스에 존재할 수 있다. "가상 차량(virtual vehicle)"은 동일한 레이스 코스에 물리적으로 존재할 수 없다. 예를 들면, "가상 차량"은 디스플레이 상에 볼 수 있는 그래픽으로 생성된 차량일 수 있다. 일부 실시 예에서, "가상 차량"은 소프트웨어 기반 환경에서의 표상(representation)이다.
일부 실시 예에서, 가상 차량을 디스플레이하는 방법은 레이스 코스에서 물리적 차량의 위치를 식별하는 단계, 상기 레이스 코스에서 시점의 위치를 식별하는 단계, 및 상기 시점의 가상 위치에서 보이는 상기 가상 차량의 부분을 디스플레이 시스템에 제공하는 단계를 포함한다. 본 명세서에 개시된 실시 예에 의해 해결되는 문제점들은, 종래 솔루션들의 사용자들에 의해 경험된 현실감의 부족을 극복하는 것을 포함할 수 있다. 본 명세서의 일부 실시 예에서, 상기 가상 차량의 가시적 부분들을 상기 사용자에게 제공하는 것은 상기 사용자가 경험하는 현실감을 증진시킨다. 상기 증진된 현실감은 가상 차량을 포함하는 실제-세계 레이스를 제공하여 안정적이고 재현 가능한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 가상 차량의 상기 가시적 부분은 가상 세계에서의 상기 물리적 차량의 가상 위치, 상기 가상 세계에서의 상기 시점의 가상 위치 및 상기 가상 세계에서의 상기 가상 차량의 가상 위치에 기초하여 계산된다. 본 명세서에 개시된 실시 예들에 의해 해결되는 문제점들은 가상 차량의 가시적 부분을 제공하는 방법을 포함할 수 있다. 일부 실시 예에서, 상기 가시적 부분의 가상 계산(virtual calculation)을 통해 상기 가상 차량의 가시적 부분들을 제공하는 것은 상기 가시적 부분 판단의 정확도를 증진시킨다. 상기 증진된 정확도는 가상 차량을 포함하는 실제-세계 레이스를 제공하여 안정적이고 재현 가능한 사용자 경험을 제공한다. 일부 실시 예에서, 가상 계산을 통해 가시적 부분들을 제공하는 것은 상기 계산의 효율성을 증진시킨다. 상기 증진된 효율성은 전력 사용량을 감소시키고 표상 속도를 개선하여 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계에서 상기 물리적 차량의 가상 위치에서 상기 물리적 차량의 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 포함한다.
일부 실시 예에서, 상기 방법은 상기 시뮬레이션 시스템에 의해 상기 가상 차량과 상기 가상 세계에서의 상기 물리적 차량의 상기 표상 간의 상호 작용을 시뮬레이션하는 단계를 더 포함하고, 상기 시점의 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 상호 작용에 기초하여 계산된다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 물리적 차량의 운전자의 시점을 포함하며, 상기 레이스 코스에서 시점의 위치를 식별하는 단계는 센서에서 상기 물리적 차량의 상기 운전자의 상기 시점을 검출하는 단계를 포함하고, 상기 방법은, 물리적 객체의 위치를 식별하는 단계; 상기 가상 차량의 운동학 정보를 수신하는 단계; 디스플레이 시스템에서, 상기 물리적 객체의 상기 위치, 상기 레이스 코스에서 상기 시점의 상기 위치, 및 상기 운동학 정보에 기초하여 상기 가상 차량의 표상(representation)을 생성하는 단계; 및 상기 레이스 코스에서 상기 시점의 상기 위치의 상기 관점에서 상기 가상 차량이 상기 물리적 객체와 정렬되도록 상기 가상 차량의 상기 표상을 디스플레이하는 단계를 더 포함한다.
일부 실시 예에서, 상기 방법은 디스플레이 시스템에서 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 생성하는 단계를 더 포함한다.
일부 실시 예에서, 상기 방법은 상기 디스플레이 시스템에 의해 상기 레이스 코스 상에서 상기 가상 차량의 궤적을 시뮬레이션하기 위해 일정 기간 동안 상기 가상 차량의 일련의 표상들을 디스플레이하는 단계를 더 포함하고, 상기 일련의 표상들은 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 포함한다. 일부 실시 예에서, 상기 가상 차량의 예측된 궤적이 디스플레이된다. 상기 예측은 현재 궤적, 가속도, 현재 차량 파라미터들 등에 기초할 수 있다. 이것은 가상 차량이 물리적 차량을 추월할 가능성이 있는지를 청중 구성원이 예측할 수 있게 한다. 상기 예측된 궤적은 옐로우 라인과 같은 라인으로 제시될 수 있다. "GOING TO PASS!" 또는 "GOING TO CRASH!"와 같은 다른 디스플레이도 포함될 수 있다.
일부 실시 예에서, 상기 방법은 상기 디스플레이 시스템에 의해 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용되는 상기 가상 차량의 디지털 3-D 모델을 저장하는 단계를 더 포함하고, 각각의 표상은 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 방법은 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용된 상기 가상 차량의 디지털 3-D 모델을 수신하는 단계를 더 포함하고, 각각의 표상은 상기 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 운동학 정보는 상기 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하는 단계는 상기 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 검출하는 단계를 포함한다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 단계는 상기 물리적 차량의 운전자의 헤드의 공간적 위치를 검출하는 단계를 포함한다. 일부 실시 예에서, 상기 방법은 상기 물리적 차량에 연결된 텔레메트리 시스템에 의해 상기 공간적 위치를 시뮬레이터 시스템으로 전송하는 단계; 상기 텔레메트리 시스템에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분과 관련된 정보를 수신하는 단계; 및 상기 정보에 기초하여 상기 가상 차량의 상기 부분의 상기 표상을 상기 물리적 차량의 상기 운전자에게 디스플레이하는 단계를 더 포함한다.
일부 실시 예에서, 상기 방법은 상기 가상 차량의 상기 부분의 상기 표상을 디스플레이하는 단계를 더 포함하며, 상기 정보를 그래픽 요소 세트로 변환하는 단계, 상기 부분의 상기 표상을 디스플레이하는 단계를 포함하고, 상기 상기 그래픽 요소 세트를 디스플레이하는 단계를 포함한다. 일부 실시 예에서, 상기 방법은 상기 시뮬레이션 시스템에서 상기 시점의 상기 가상 위치에서 보이는 상기 부분과 관련된 상기 정보를 계산하는 단계를 더 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 단계는 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상을 디스플레이하는 단계를 포함하고, 상기 디스플레이는 빛이 이를 통과하여 상기 시야를 상기 운전자에게 디스플레이하도록 허락하는 투명 유기 발광 다이오드(T-OLED) 디스플레이이다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 단계는 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하는 단계를 포함하고, 상기 디스플레이는 LCD 디스플레이이고, 상기 방법은, 상기 물리적 차량에 연결된 카메라에 의해, 상기 물리적 차량의 상기 디스플레이 상에서 상기 운전자에 의해 보여지는 상기 물리적 세계의 상기 시야를 나타내는 이미지를 캡처하는 단계; 및 상기 운전자에게 상기 시야를 디스플레이하기 위해 상기 LCD 디스플레이의 일면에 상기 이미지를 출력하는 단계를 더 포함하고, 상기 LCD 디스플레이에 의해 디스플레이되는 상기 이미지 상에 상기 일련의 표상들이 겹쳐진다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 단계는 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하는 단계를 포함하고, 상기 디스플레이는 상기 물리적 차량의 프론트 윈드실드, 상기 물리적 차량의 하나 이상의 사이드 윈도우, 상기 물리적 차량의 리어 윈도우, 하나 이상의 사이드 미러, 리어-뷰 미러 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 단계는 상기 운전자가 착용한 헤드셋의 디스플레이 상에 상기 일련의 표상들을 디스플레이하는 단계를 포함한다. 일부 실시 예에서, 상기 헤드셋은 헬멧이다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 단계는 사용자의 눈의 공간적 위치, 상기 사용자의 눈의 시선 방향 또는 상기 사용자의 눈의 초점 중 하나 이상을 검출하는 것을 포함한다.
일부 실시 예에서, 상기 방법은, 상기 레이스 코스에서 상기 물리적 차량의 상기 위치 및 상기 시점의 상기 위치를 시뮬레이션 시스템에 제공하는 단계; 상기 시뮬레이션 시스템에 의해, 상기 가상 차량 및 상기 물리적 차량의 표상을 포함하는 가상 세계를 계산하는 단계; 상기 레이스 코스에서의 상기 시점의 상기 위치에 기초하여 상기 가상 세계 내의 상기 시점의 가상 위치를 상기 시뮬레이션 시스템에 의해 계산하는 단계; 및 상기 시뮬레이션 시스템에 의해, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하는 단계를 더 포함하고, 그리고 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시뮬레이션 시스템에 의해 상기 시점의 상기 가상 위치로부터 보이는 상기 가상 차량의 상기 부분을 출력하는 단계를 포함한다. 본 명세서에 설명된 실시 예에 의해 해결된 문제점들은 가상 차량의 가시적 부분을 계산하는 방법을 포함할 수 있다. 일부 실시 예에서, 상기 가상 세계에서 상기 가상 차량의 상기 가시적 부분을 계산하는 것은 상기 가시적 부분 판단의 정확도를 증진시킨다. 상기 증진된 정확도는 가상 차량을 포함하는 실제-세계 레이스를 제공하여, 안정적이고 재현 가능한 사용자 경험을 제공한다. 본 명세서의 일부 실시 예에서, 가상 계산을 통해 가시적 부분들을 제공하면 상기 계산 효율성이 증진된다. 상기 증진된 효율성은 전력 사용량을 감소시키고, 표상 속도를 향상시켜 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 물리적 차량의 위치를 식별하는 단계는 상기 차량의 두 부분들 각각의 위치를 수신하는 단계를 포함한다. 일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하는 단계는 상기 차량의 부분의 위치 및 상기 차량의 방위를 수신하는 단계를 포함한다. 일부 실시 예에서, 상기 차량의 상기 방위를 수신하는 단계는 자이로스코프 데이터를 수신하는 단계를 포함한다. 본 명세서에 개시된 실시 예들에 의해 해결되는 문제점들은 가상 차량의 가시적 부분을 판단하기 위해 가상 세계에서 물리적 차량을 정확하게 위치시키는 방법을 포함할 수 있다. 본 명세서의 일부 실시 예에서, 방위 측정을 사용하면 상기 가상 세계에서 상기 물리적 차량을 정확하게 배치할 수 있다. 상기 증진된 정확도는 상기 차량의 상기 가시적 부분들의 보다 충실한 디스플레이를 제공하여, 사용자 경험을 향상시킨다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에서 상기 물리적 차량의 운전자의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고 상기 레이스 코스 상에서 상기 물리적 차량을 관찰하는 청중 구성원의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고 상기 레이스 코스 상의 상기 물리적 차량을 이미징하는 카메라를 포함한다. 일부 실시 예에서, 상기 카메라는 상기 물리적 차량이 레이싱하는 상기 레이스 코스의 부분을 이미징한다. 상기 물리적 차량이 상기 카메라로 캡처한 상기 레이스 코스의 상기 부분을 가로질러 이동하는 경우, 상기 카메라는 그 비디오 피드에서 상기 물리적 차량을 캡처할 수 있다. 상기 물리적 차량이 상기 카메라로 캡처한 상기 레이스 코스의 상기 부분을 가로질러 이동하지 않는 경우, 상기 카메라는 여전히 상기 레이스 코스의 상기 부분을 캡처할 수 있다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 것은 눈의 시선을 측정하는 단계, 눈 움직임을 추적하는 단계, 헤드 위치를 추적하는 단계, 한쪽 또는 양쪽 눈으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 단계, 안경 상의 일 지점으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 단계, 헤드 기어 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 단계, 한쪽 또는 양쪽 눈으로부터 일 장소에서 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계, 안경 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 기어 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계 중 적어도 하나를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하는 것은 상기 눈의 시선을 측정하는 단계를 포함하고, 상기 측정하는 단계는 상기 눈으로부터의 광 반사 또는 굴절을 측정하는 단계를 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서 상기 시점의 상기 위치를 제공하는 단계는 적어도 하나의 위치를 무선으로 전송하는 단계를 포함한다.
일부 실시 예에서, 상기 가상 세계를 계산하는 단계는 상기 물리적 차량의 물리적 좌표들을 상기 가상 세계에서의 좌표들로 변환하는 단계를 포함하고, 상기 물리적 차량의 상기 가상 위치는 상기 가상 좌표들을 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하는 단계는: 상기 가상 세계에서 상기 물리적 차량의 표상을 계산하는 단계, 상기 가상 세계 내의 상기 시점과 상기 가상 차량 사이의 상기 가상 세계에서의 물리적 객체의 표상을 계산하는 단계; 및 상기 물리적 차량의 상기 표상 및 상기 물리적 객체의 상기 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 추출하는 단계를 포함한다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 상기 부분은 상기 가려지지 않은 부분을 포함한다. 본 명세서에서 개시된 실시 예들에 의해 해결되는 문제점들은 상기 물리적 차량에 의해 차단되지 않은 상기 부분 이상을 포함하여 상기 가상 차량의 가시적 부분을 계산하는 방법을 포함할 수 있다. 일부 실시 예에서, 상기 실제 세계에서 물리적 객체들을 포함하는 가상 세계에서 상기 가시적 부분을 계산하는 것은 상기 가시적 부분 판단의 정확도를 증진시킨다. 상기 증진된 정확도는 가상 차량을 포함하는 실제-세계 레이스를 제공하여, 안정적이고 재현 가능한 사용자 경험을 제공한다. 일부 실시 예에서, 가상 계산을 통해 가시적 부분들을 제공하면 상기 계산의 효율성이 증진된다. 상기 증진된 효율성은 전력 사용량을 감소시키고, 표상 속도를 향상시켜 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하는 단계는 다른 표상들에 의해 차단되는 픽셀들을 판단하는 단계, 및 다른 표상들에 의해 차단되지 않는 픽셀만을 디스플레이하는 단계를 포함할 수 있다. 일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하는 단계는 다른 표상들에 의해 차단되는 모든 픽셀에 대해 (RGBA 공간에서) 0%의 픽셀 알파 값을 설정하는 단계를 포함할 수 있다. 예를 들면, 상기 가상 차량의 부분들은 다른 가상 표상들, 예를 들어 다른 가상 차량, 또는 물리적 객체들, 예를 들어 물리적 차량 내의 객체들이나 물리적 차량 그 자체의 표상들에 의해 차단될 수 있다. 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분들을 제공하기 위해, (상기 시점의 상기 가상 위치로부터) 임의의 관찰된 픽셀 값들이 사용될 수 있다. 일부 실시 예에서, 상기 가상 차량의 가려지지 않고 관찰된 부분들의 상기 픽셀들은 (RGBA 공간에서) 각각 0%보다 큰 알파 값을 포함하도록 설정되어 그 가려지지 않는 픽셀들이 보여질 수 있고 디스플레이되어야 함을 나타낼 수 있다. 이와 대조적으로, 0%의 알파 값으로 설정된 픽셀들은 해당 픽셀들이 완전히 투명한, 즉 보이지 않고 디스플레이되지 않음을 나타낸다.
일부 실시 예에서, 상기 시점의 상기 가상 위치와 상기 물리적 차량의 상기 표상 사이의 상기 물리적 객체의 상기 표상을 계산하는 단계는 상기 물리적 객체의 가상 위치를 획득하기 위해 표상들의 데이터베이스에 액세스하는 단계를 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계의 다른 표상들에 의해 가려지지 않은 상기 가상 차량의 부분들로 구성된다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계에서의 가상 그림자(virtual shadow)를 포함한다. 일부 실시 예에서, 상기 가상 그림자는 상기 가상 차량에 의해 투영된 그림자 및 상기 가상 차량 상에 투영된 그림자 중 적어도 하나이다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 가상 반사(virtual reflection)를 포함한다. 일부 실시 예에서, 상기 가상 반사는 상기 가상 차량의 반사 및 상기 가상 차량에 대한 반사 중 적어도 하나이다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의해, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하는 단계는 상기 시점의 상기 가상 위치로부터 시야를 계산하는 단계를 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시야 내에 상기 가상 차량의 상기 부분을 디스플레이하는 단계를 포함한다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의하여 상기 가상 시점의 상기 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하는 단계는 상기 시점의 상기 가상 위치로부터 시야를 계산하는 단계를 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시야 내에 보이는 상기 가상 차량의 상기 부분을 디스플레이하는 단계로 구성된다.
일부 실시 예에서, 상기 방법은 물리적 레이스 코스 상에서 2개의 가상 차량들 간의 시합을 촉진할 수 있다. 2개의 가상 차량들이 물리적 차량들 없이 물리적 레이스 코스 상에서 시합하는 시나리오에 있어서, "물리적 차량의 위치를 식별하는 단계"는 불필요하다. 상기 방법은 상기 레이스 코스에서 시점의 위치를 식별하고, 상기 레이스 코스에서 상기 시점의 상기 위치에서 보이는 상기 가상 차량의 부분을 디스플레이 시스템에 제공하는 단계를 포함할 수 있다. 상기 물리적 차량의 상기 위치와 관련이 없는 전술한 방법의 모든 측면들은 이러한 실시 예에서 적용될 수 있다. 일부 실시 예에서, 상기 가상 차량에는 특별한 속성들(special properties)과 비디오 게임 모양(video game appearance)이 제공된다. 일부 실시 예에서, 비디오 게임 속성들(즉, 가상 객체들)은 상기 물리적 차량들 위에 이들 비디오 게임 속성들을 오버레이(overlay)함으로써 물리적 차량들에 마찬가지로 적용될 수 있다. 예를 들면, 자동차들에는 부스트들, 기관총들, 미사일들(상기 실제 세계 뷰에 놓인 다른 그래픽 가상 객체), 가상 점프 등이 주어질 수 있다. 상기 레이스 코스와 집에 있는 뷰어들은 상기 물리적 레이스 코스에서 상기 가상 경쟁자들을 상기 실제-세계에서 시합하는 것처럼 볼 수 있다.
일부 실시 예에서, 가상 차량을 디스플레이하는 방법은, 레이스 코스에서 물리적 차량의 위치를 식별하기 위한 수단, 상기 레이스 코스에서 시점의 위치를 식별하기 위한 수단, 및 상기 레이스 코스에서 상기 시점의 상기 위치에 기초하여 가상 세계 내에서 계산된 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 부분을 디스플레이 시스템에 제공하기 위한 수단을 포함한다. 본 명세서에 개시된 실시 예에 의해 해결되는 문제점들은 종래 솔루션들의 사용자들에 의해 경험된 현실성의 부족을 극복하는 것을 포함할 수 있다. 본 발명의 일부 실시 예에서, 상기 가상 차량의 가시적 부분들을 상기 사용자에게 제공하는 것은 상기 사용자가 경험하는 현실감을 증진시킨다. 상기 증진된 현실감은 가상 차량을 포함하는 실제-세계 레이스를 제공함으로써 안정적이고 재현 가능한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 가상 세계에서 상기 물리적 차량의 가상 위치에서 상기 물리적 차량의 표상에 의해 상기 시점의 상기 가상 위치에서 가려지지 않은 가상 차량의 부분을 포함한다. 본 명세서에 개시된 실시 예들에 의해 해결되는 문제점들은 가상 차량의 가시적 부분을 제공하는 방법을 포함할 수 있다. 본 명세서의 일부 실시 예에서, 상기 가시적 부분의 가상 계산을 통해 상기 가상 차량의 가시적 부분들을 제공하는 것은 상기 가시적 부분 판단의 정확도를 증진시킨다. 상기 증진된 정확도는 가상 차량이 포함된 실제-세계 레이스를 제공하여, 안정적이고 재현 가능한 사용자 경험을 제공한다. 본 명세서의 일부 실시 예에서, 가상 계산을 통해 가시적 부분들을 제공하면 상기 계산의 효율성이 증진된다. 상기 증진된 효율성은 전력 사용량을 감소시키고, 표상 속도를 개선시켜 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 방법은 상기 시뮬레이션 시스템에 의해, 상기 가상 차량과 상기 가상 세계에서의 상기 물리적 차량의 상기 표상 간의 상호 작용을 시뮬레이션하기 위한 수단을 더 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 상호 작용에 기초하여 계산된다.
상기 레이스 코스에서 상기 시점의 상기 위치는 상기 물리적 차량의 운전자의 시점을 포함하며, 상기 레이스 코스에서 시점의 위치를 식별하기 위한 수단은 센서에서 상기 물리적 차량의 상기 운전자의 상기 시점을 검출하기 위한 수단을 포함하고, 상기 방법은: 물리적 객체의 위치를 식별하기 위한 수단; 상기 가상 차량의 운동학 정보를 수신하기 위한 수단; 디스플레이 시스템에서, 상기 물리적 객체의 상기 위치, 상기 레이스 코스에서의 상기 시점의 상기 위치, 및 상기 운동학 정보에 기초하여 상기 가상 차량의 표상을 생성하기 위한 수단; 및 상기 레이스 코스에서 상기 시점의 상기 위치의 관점에서 상기 가상 차량이 상기 물리적 객체와 정렬되도록 상기 가상 차량의 상기 표상을 디스플레이하기 위한 수단을 더 포함한다. 본 명세서에 개시된 실시 예들에 의해 해결되는 문제점들은 가상 차량의 가시적 부분을 계산하는 방법을 포함할 수 있다. 본 명세서의 일부 실시 예에서, 상기 가상 세계에서의 상기 가상 차량의 상기 가시적 부분을 계산하는 것은 상기 가시적 부분 판단의 정확도를 증진시킨다. 상기 증진된 정확도는 가상 차량이 포함된 실제-세계 레이스를 제공하여, 안정적이고 재현 가능한 사용자 경험을 제공한다. 본 명세서의 일부 실시 예에서, 가상 계산을 통해 가시적 부분을 제공하면 상기 계산의 효율성이 증진된다. 상기 증진된 효율성은 전력 사용량을 감소시키고, 표상 속도를 개선시켜 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 방법은 디스플레이 시스템에서 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 생성하기 위한 수단을 더 포함한다.
일부 실시 예에서, 상기 방법은 상기 레이스 코스 상에서 상기 가상 차량의 궤적을 시뮬레이션하기 위해 일정 기간 동안 상기 가상 차량의 일련의 표상들을 상기 디스플레이 시스템에 의해 디스플레이하기 위한 수단을 더 포함하고, 상기 일련의 표상들은 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분의 상기 표상을 포함한다. 일부 실시 예에서, 상기 가상 차량의 예측된 궤적이 디스플레이된다. 상기 예측은 현재 궤적, 가속도, 현재 차량 파라미터들 등에 기초할 수 있다. 이것은 가상 차량이 물리적 차량을 추월할 가능성이 있는지를 청중 구성원이 예측할 수 있게 한다. 상기 예측된 궤적은 옐로우 라인과 같은 라인으로 제시될 수 있다. “GOING TO PASS!”또는“GOING TO CRASH!”와 같은 다른 디스플레이도 포함될 수 있다.
일부 실시 예에서, 상기 방법은 상기 디스플레이 시스템에 의해 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용되는 상기 가상 차량의 디지털 3-D 모델을 저장하기 위한 수단을 더 포함하고, 각각의 표상은 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 방법은 상기 일련의 표상들로부터 각각의 표상을 생성하는데 사용되는 상기 가상 차량의 디지털 3-D 모델을 수신하기 위한 수단을 더 포함하고, 각각의 표상은 디지털 3-D 모델에 기초한 상기 디스플레이 시스템에 의해 생성된다.
일부 실시 예에서, 상기 운동학 정보는 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하기 위한 수단은 가상 차량의 하나 이상의 모션 벡터, 하나 이상의 모션 스칼라, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 검출하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하기 위한 수단은 상기 물리적 차량의 운전자의 헤드의 공간적 위치를 검출하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 방법은, 상기 물리적 차량에 연결된 텔레메트리 시스템에 의해 상기 공간적 위치를 시뮬레이터 시스템으로 전송하기 위한 수단; 상기 텔레메트리 시스템에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분과 관련된 정보를 수신하기 위한 수단; 및 상기 정보에 기초하여 상기 가상 차량의 상기 부분의 표상을 상기 물리적 차량의 상기 운전자에게 디스플레이하기 위한 수단을 더 포함한다.
일부 실시 예에서, 상기 방법은 상기 가상 차량의 상기 부분의 상기 표상을 디스플레이하기 위한 수단을 더 포함하고, 상기 정보를 그래픽 요소 세트로 변환하기 위한 수단, 상기 부분의 상기 표상을 디스플레이하기 위한 수단을 포함하며, 상기 그래픽 요소 세트를 디스플레이하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 방법은 상기 시뮬레이션 시스템에서 상기 시점의 상기 가상 위치에서 보이는 상기 부분과 관련된 상기 정보를 계산하기 위한 수단을 더 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하기 위한 수단은 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상을 디스플레이하기 위한 수단을 포함하고, 상기 디스플레이는 빛이 이를 통과하여 상기 시야를 상기 운전자에게 디스플레이하는 투명 유기 발광 다이오드(T-OLED) 디스플레이이다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하는 수단은 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하기 위한 수단을 포함하고, 상기 디스플레이는 LCD 디스플레이이고, 상기 방법은, 상기 물리적 차량에 연결된 카메라에 의해, 상기 물리적 차량의 디스플레이 상에서 상기 운전자에 의해 보여지는 상기 물리적 세계의 상기 시야를 나타내는 이미지를 캡처하기 위한 수단; 및 상기 운전자에게 상기 시야를 디스플레이하기 위해 상기 LCD 디스플레이의 일면에 상기 이미지를 출력하기 위한 수단을 더 포함하고, 상기 LCD 디스플레이에 의해 디스플레이되는 상기 이미지 상에 상기 일련의 표상들이 겹쳐진다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하기 위한 수단은 상기 물리적 차량의 디스플레이 상에 상기 일련의 표상들을 디스플레이하기 위한 수단을 포함하고, 상기 디스플레이는 상기 물리적 차량의 프론트 윈드실드, 상기 물리적 차량의 하나 이상의 사이드 윈도우, 상기 물리적 차량의 리어 윈드실드, 하나 이상의 사이드 미러, 리어-뷰 미러 또는 이들의 조합을 포함한다.
일부 실시 예에서, 상기 가상 차량의 상기 일련의 표상들을 디스플레이하기 위한 수단은 상기 운전자가 착용한 헤드셋의 디스플레이 상에 상기 일련의 표상들을 디스플레이하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 헤드셋은 헬멧이다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하기 위한 수단은 사용자의 눈의 공간적 위치, 상기 사용자의 눈의 시선 방향 또는 상기 사용자의 눈의 초점 중 하나 이상을 검출하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 방법은, 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서 상기 시점의 상기 위치를 시뮬레이션 시스템에 제공하기 위한 수단; 상기 시뮬레이션 시스템에 의해, 상기 가상 차량 및 상기 물리적 차량의 표상을 포함하는 가상 세계를 계산하기 위한 수단; 상기 레이스 코스에서 상기 시점의 상기 위치에 기초하여 상기 가상 세계 내의 상기 시점의 가상 위치를 상기 시뮬레이션 시스템에 의해 계산하기 위한 수단; 및 상기 시뮬레이션 시스템에 의해 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하기 위한 수단을 더 포함하고, 그리고 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 디스플레이 시스템에 제공하기 위한 수단은, 상기 시뮬레이션 시스템에 의해 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 출력하기 위한 수단을 포함한다
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 식별하기 위한 수단은 상기 차량의 두 부분들 각각의 위치를 수신하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 위치를 식별하기 위한 수단은 상기 차량의 부분의 위치 및 상기 차량의 방위를 수신하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 차량의 상기 방위를 수신하기 위한 수단은 자이로스코프 데이터를 수신하기 위한 수단을 포함한다. 본 명세서에 개시된 실시 예들에 의해 해결되는 문제점들은 가상 차량의 가시적 부분을 판단하기 위해 가상 세계에서 물리적 차량을 정확하게 위치시키는 방법을 포함할 수 있다. 일부 실시 예에서, 방위 측정을 사용하면 상기 가상 세계에서 상기 물리적 차량을 정확하게 배치할 수 있다. 상기 증진된 정확도는 상기 차량의 상기 가시적 부분들의 보다 충실한 디스플레이를 제공하여, 사용자 경험을 개선시킨다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에서 상기 물리적 차량의 운전자의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고 상기 레이스 코스 상에서 상기 물리적 차량을 관찰하는 청중 구성원의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서의 상기 시점의 상기 위치는 상기 레이스 코스에 존재하는 카메라의 위치를 포함하고, 상기 방법은 상기 레이스 코스에서 상기 물리적 차량을 이미징하기 위한 수단을 더 포함한다. 일부 실시 예에서, 상기 카메라는 상기 물리적 차량이 레이싱하는 상기 레이스 코스의 부분을 이미징한다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하는 경우, 상기 카메라는 그 비디오 피드에서 상기 물리적 차량을 캡처할 수 있다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하지 않는 경우, 상기 카메라는 여전히 상기 레이스 코스의 상기 부분을 캡처할 수 있다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하기 위한 수단은, 눈의 시선을 측정하기 위한 수단, 눈의 움직임을 추적하기 위한 수단, 헤드 위치를 추적하기 위한 수단, 한쪽 또는 양쪽 눈으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하기 위한 수단, 상기 헤드 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하기 위한 수단, 안경 상의 일 지점으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하기 위한 수단, 헤드 기어 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하기 위한 수단, 한쪽 또는 양쪽 눈으로부터 일 장소의 고정 점까지의 벡터를 식별하기 위한 수단, 헤드 상의 일 지점에서 상기 장소의 고정 점까지의 벡터를 식별하기 위한 수단, 안경 상의 일 지점에서 상기 장소의 고정 점까지의 벡터를 식별하기 위한 수단 또는 헤드 기어 상의 일 지점에서 상기 장소의 고정 점까지의 벡터를 식별하기 위한 수단 중 적어도 하나를 포함한다. 일부 실시 예서, 상기 레이스 코스에서 상기 시점의 상기 위치를 식별하기 위한 수단은 상기 눈의 상기 시선을 측정하기 위한 수단을 포함하고, 상기 측정하기 위한 수단은 상기 눈으로부터의 광 반사 또는 굴절을 측정하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서의 상기 시점의 상기 위치를 제공하기 위한 수단은 적어도 하나의 위치를 무선으로 전송하기 위한 수단을 포함한다.
일부 실시 예에서, 가상 세계를 계산하기 위한 수단은 상기 물리적 차량의 물리적 좌표들을 상기 가상 세계에서의 좌표들로 변환하기 위한 수단을 포함하고, 상기 물리적 차량의 상기 가상 위치는 상기 가상 좌표들을 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하기 위한 수단은: 상기 가상 세계에서의 상기 물리적 차량의 표상을 계산하기 위한 수단, 상기 가상 세계 내에서 상기 시점과 상기 가상 차량 사이의 상기 가상 세계에서의 물리적 객체의 표상을 계산하기 위한 수단; 및 상기 물리적 차량의 상기 표상 및 상기 물리적 객체의 상기 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 추출하기 위한 수단을 포함한다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 상기 부분은 상기 가려지지 않은 부분을 포함한다. 본 명세서에 개시된 실시 예에 의해 해결되는 문제점들은 상기 물리적 차량에 의해 차단되지 않은 상기 부분 이상을 포함하여 상기 가상 차량의 가시적 부분을 계산하는 방법을 포함할 수 있다. 일부 실시 예에서, 상기 실제 세계에서 상기 물리적 객체들을 포함하는 가상 세계에서 상기 가시적 부분을 계산하는 것은 상기 가시적 부분 판단의 정확도를 증가시킨다. 상기 증진된 정확도는 가상 차량이 포함된 실제-세계 레이스를 제공하여, 안정적이고 재현 가능한 사용자 경험을 제공한다. 일부 실시 예에서, 가상 계산을 통해 가시적 부분들을 제공하면 상기 계산의 효율성이 증진된다. 상기 증진된 효율성은 전력 사용량을 감소시키고, 표상 속도를 개선시켜 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 가상 차량의 상기 부분을 추출하기 위한 수단은 다른 표상들에 의해 차단되는 픽셀들을 판단하기 위한 수단, 및 다른 표상들에 의해 차단되지 않는 픽셀만을 디스플레이 하는 수단을 포함할 수 있다. 일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하기 위한 수단은 다른 표상들에 의해 차단되는 모든 픽셀들에 대해 (RGBA 공간에서) 0%의 픽셀 알파 값을 설정하기 위한 수단을 포함할 수 있다. 예를 들면, 상기 가상 차량의 부분들은 다른 가상 표상들, 예를 들어 다른 가상 차량, 또는 물리적 객체들, 예를 들어 물리적 차량 내의 객체들이나 물리적 차량 그 자체의 표상들에 의해 차단될 수 있다. 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분들을 제공하기 위해, (상기 시점의 상기 가상 위치로부터) 임의의 관찰된 픽셀 값들이 사용될 수 있다. 일부 실시 예에서, 상기 가상 차량의 가려지지 않고 관찰된 부분들의 상기 픽셀들은 (RGBA 공간에서) 각각 0%보다 큰 알파 값을 포함하도록 설정되어 그 가려지지 않는 픽셀들이 보여질 수 있고 디스플레이되어야 함을 나타낼 수 있다. 이와 대조적으로, 0%의 알파 값으로 설정된 픽셀들은 해당 픽셀들이 완전히 투명한, 즉 보이지 않고 디스플레이되지 않음을 나타낸다.
일부 실시 예에서, 상기 시점의 상기 가상 위치와 상기 물리적 차량의 상기 표상 사이의 상기 물리적 객체의 상기 표상을 계산하기 위한 수단은 상기 물리적 객체의 가상 위치를 획득하기 위해 표상들의 데이터베이스에 액세스하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계의 다른 표상들에 의해 가려지지 않은 상기 가상 차량의 부분들로 구성된다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계에서의 가상 그림자(virtual shadow)를 포함한다. 일부 실시 예에서, 상기 가상 그림자는 상기 가상 차량에 의해 투영된 그림자 및 상기 가상 차량 상에 투영된 그림자 중 적어도 하나이다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치에서 볼 수 있는 상기 가상 차량의 상기 부분은 가상 반사를 포함한다. 일부 실시 예에서, 상기 가상 반사는 상기 가상 차량의 반사 및 상기 가상 차량에 대한 반사 중 적어도 하나이다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의해, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하기 위한 수단은 상기 시점의 상기 가상 위치로부터 시야를 계산하기 위한 수단을 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하기 위한 수단은 상기 시야 내에 상기 가상 차량의 상기 부분을 디스플레이하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의해, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하기 위한 수단은 상기 시점의 상기 가상 위치로부터 시야를 계산하기 위한 수단으로 구성되고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하기 위한 수단은 상기 시야 내에 상기 가상 차량의 상기 부분을 디스플레이하기 위한 수단을 포함한다.
일부 실시 예에서, 상기 가상 차량을 디스플레이하기 위한 시스템은, 레이스 코스에서 물리적 차량의 위치를 검출하는 제1센서, 상기 레이스 코스에서 상기 시점의 상기 위치를 검출하는 제2센서, 및 상기 시점의 가상 위치에서 보이는 상기 가상 차량의 부분을 출력하는 시뮬레이션 시스템을 포함한다. 본 명세서에 개시된 실시 예에 의해 해결되는 문제점들은 종래 솔루션의 사용자에 의해 경험된 현실성의 부족을 극복하는 것을 포함할 수 있다. 일부 실시 예에서, 상기 가상 차량의 가시적 부분들을 상기 사용자에게 제공하는 것은 상기 사용자가 경험하는 현실감을 증진시킨다. 상기 증진된 현실감은 가상 차량을 포함하는 실제-세계 레이스를 제공함으로써 안정적이고 재현 가능한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 시뮬레이션 시스템은 상기 가상 세계에서의 상기 물리적 차량의 가상 위치, 상기 가상 세계에서의 상기 시점의 가상 위치 및 상기 가상 세계에서의 상기 가상 차량의 가상 위치에 기초하여 상기 가상 차량의 상기 가시적 부분을 판단한다. 본 명세서에 개시된 실시 예들에 의해 해결되는 문제점들은 가상 차량의 가시적 부분을 제공하는 방법을 포함할 수 있다. 본 명세서의 일부 실시 예에서, 상기 가시적 부분의 가상 계산을 통해 상기 가상 차량의 가시적 부분들을 제공하는 것은 상기 가시적 부분 판단의 정확도를 증진시킨다. 상기 증진된 정확도가 가상 차량이 포함된 실제-세계 레이스를 제공하여, 안정적이고 재현 가능한 사용자 경험을 제공한다. 일부 실시 예에서, 가상 계산을 통해 가시적 부분들을 제공하면 상기 계산의 효율성이 증진된다. 상기 증진된 효율성은 전력 사용량을 감소시키고, 표상 속도를 향상시켜 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은, 상기 물리적 차량의 가상 위치에서의 상기 물리적 차량의 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 포함한다.
일부 실시 예에서, 상기 시스템은 상기 가상 차량과 상기 가상 세계에서의 상기 물리적 차량의 상기 표상 간의 상호 작용을 시뮬레이션하도록 구성되는 상기 시뮬레이션 시스템을 더 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 상호 작용에 기초하여 계산된다.
일부 실시 예에서, 상기 시스템은: 상기 물리적 차량의 상기 위치 및 상기 레이스 코스에서 상기 시점의 상기 위치를 수신하고; 상기 가상 차량 및 상기 물리적 차량의 표상을 포함하는 가상 세계를 계산하며; 상기 레이스 코스에서 상기 시점의 상기 위치에 기초하여 상기 가상 세계 내의 상기 시점의 상기 가상 위치를 계산하고; 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 계산하며; 및 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 출력하도록 구성된 시뮬레이션 시스템을 포함한다. 본 명세서에 개시된 실시 예들에 의해 해결되는 문제점들은 가상 차량의 가시적 부분을 계산하는 방법을 포함할 수 있다. 일부 실시 예에서, 가상 세계에서 상기 가상 차량의 상기 가시적 부분을 계산하는 것은 상기 가시적 부분 판단의 정확도를 증진시킨다. 상기 증진된 정확도가 가상 차량이 포함된 실제-세계 레이스를 제공하여, 안정적이고 재현 가능한 사용자 경험을 제공한다. 일부 실시 예에서, 가상 계산을 통해 가시적 부분들을 제공하면 상기 계산의 효율성이 증진된다. 상기 증진된 효율성은 전력 사용량을 감소시키고, 표상 속도를 향상시켜 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 제1센서는 상기 차량의 두 부분들 각각의 위치를 수신한다. 일부 실시 예에서, 상기 제1센서는 상기 차량의 부분의 위치 및 상기 차량의 방위를 수신한다. 일부 실시 예에서, 상기 차량의 상기 방위를 수신하는 단계는 자이로스코프 데이터를 수신하는 단계를 포함한다. 본 명세서에 개시된 실시 예들에 의해 해결되는 문제점들은 가상 차량의 가시적 부분을 판단하기 위해 가상 세계에서 물리적 차량을 정확하게 위치시키는 방법을 포함할 수 있다. 본 명세서의 일부 실시 예에서, 방위 측정을 사용하면 상기 가상 세계에서 상기 물리적 차량을 정확하게 배치할 수 있다. 상기 증진된 정확도는 상기 차량의 상기 가시적 부분들의 보다 충실한 디스플레이를 제공하여, 사용자 경험을 향상시킨다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에서 상기 물리적 차량의 운전자의 시점의 위치를 포함한다. 일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하고 상기 레이스 코스 상에서 상기 물리적 차량을 관찰하는 청중 구성원의 시점의 위치를 포함한다.
일부 실시 예에서, 상기 레이스 코스에서 상기 시점의 상기 위치는 상기 레이스 코스에 존재하는 카메라의 위치 및 상기 레이스 코스 상의 상기 물리적 차량을 이미징하는 것을 포함한다. 일부 실시 예에서, 상기 카메라는 상기 물리적 차량이 레이싱하는 상기 레이스 코스의 부분을 이미징한다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하는 경우, 상기 카메라는 그 비디오 피드에서 상기 물리적 차량을 캡처할 수 있다. 상기 물리적 차량이 상기 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 가로질러 이동하지 않는 경우, 상기 카메라는 여전히 상기 레이스 코스의 부분을 캡처할 수 있다.
일부 실시 예에서, 상기 제2센서는 눈의 상기 시선을 측정하는 단계, 눈 이동을 추적하는 단계, 헤드 위치를 추적하는 단계, 한쪽 또는 양쪽 눈으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 단계, 안경 상의 일 지점으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 단계, 헤드 기어 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 단계, 한쪽 또는 양쪽 눈으로부터 일 장소의 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계, 안경 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계, 상기 헤드 기어 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 단계 중 적어도 하나를 통해 상기 레이스 코스에서 상기 시점의 상기 위치를 검출하도록 구성된다. 일부 실시 예에서, 제2센서는 상기 눈으로부터의 광 반사 또는 굴절을 측정함으로써 상기 레이스 코스에서 상기 시점의 상기 위치를 검출하도록 구성된다.
일부 실시 예에서, 상기 물리적 차량의 상기 위치를 수신하고 상기 레이스 코스에서 상기 시점의 상기 위치를 수신하는 단계는 적어도 하나의 위치를 무선으로 수신하는 단계를 포함한다.
일부 실시 예에서, 가상 세계를 계산하는 단계는 상기 물리적 차량의 물리적 좌표들을 상기 가상 세계에서의 좌표들로 변환하는 단계를 포함하고, 상기 물리적 차량의 상기 가상 위치는 상기 가상 좌표들을 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 부분을 계산하는 단계는: 상기 가상 세계에서 상기 물리적 차량의 표상을 계산하는 단계, 상기 가상 세계 내의 상기 시점과 상기 가상 차량 사이의 상기 가상 세계에서의 물리적 객체의 표상을 계산하는 단계; 및 상기 물리적 차량의 상기 표상 및 상기 물리적 객체의 상기 표상에 의해 상기 시점의 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분을 추출하는 단계를 포함한다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 상기 부분은 가려지지 않은 부분을 포함한다. 본 명세서에 개시된 실시 예에 의해 해결되는 문제점들은 상기 물리적 차량에 의해 차단되지 않은 부분 이상을 포함하여 가상 차량의 가시적 부분을 계산하는 방법을 포함할 수 있다. 일부 실시 예에서, 상기 실제 세계에서 물리적 객체들을 포함하는 가상 세계에서 상기 가시적 부분을 계산하는 것은 상기 가시적 부분 판단의 정확도를 증진시킨다. 상기 증진된 정확도는 가상 차량이 포함된 실제-세계 레이스를 제공하여 안정적이고 재현 가능한 사용자 경험을 제공한다. 본 명세서의 일부 실시 예에서, 가상 계산을 통해 가시적 부분을 제공하면 상기 계산 효율성이 증진된다. 상기 증진된 효율성은 전력 사용량을 감소시키고, 표상 속도가 향상시켜 보다 원활한 사용자 경험을 제공한다.
일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하는 단계는 다른 표상들에 의해 차단되는 픽셀들을 판단하는 단계, 및 다른 표상들에 의해 차단되지 않는 픽셀만을 디스플레이하는 단계를 포함할 수 있다. 일부 실시 예에서, 상기 가상 차량의 상기 부분들을 추출하는 단계는 다른 표상들에 의해 차단되는 (RGBA 공간 내) 모든 픽셀들에 대해 0%의 픽셀 알파 값을 설정하는 단계를 포함할 수 있다. 예를 들면, 상기 가상 차량의 부분들은 다른 가상 표상들, 예를 들어 다른 가상 차량, 또는 물리적 객체들, 예를 들어 물리적 차량 내의 객체들이나 물리적 차량 그 자체의 표상들에 의해 차단될 수 있다. 상기 시점의 상기 가상 위치로부터 보이는 상기 가상 차량의 상기 부분들을 제공하기 위해, (상기 시점의 상기 가상 위치로부터) 임의의 관찰된 픽셀 값들이 사용될 수 있다. 일부 실시 예에서, 상기 가상 차량의 가려지지 않고 관찰된 부분들의 상기 픽셀들은 (RGBA 공간에서) 각각 0%보다 큰 알파 값을 포함하도록 설정되어 그 가려지지 않는 픽셀들이 보여질 수 있고 디스플레이되어야 함을 나타낼 수 있다. 이와 대조적으로, 0%의 알파 값으로 설정된 픽셀들은 해당 픽셀들이 완전히 투명한, 즉 보이지 않고 디스플레이되지 않음을 나타낸다.
일부 실시 예에서, 상기 시점의 상기 가상 위치와 상기 물리적 차량의 상기 표상 사이의 상기 물리적 객체의 상기 표상을 계산하는 단계는 상기 물리적 객체의 가상 위치를 획득하기 위해 표상들의 데이터베이스에 액세스하는 단계를 포함한다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계의 다른 표상들에 의해 가려지지 않은 상기 가상 차량의 부분들로 구성된다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 상기 가상 세계에서의 가상 그림자를 포함한다. 일부 실시 예에서, 상기 가상 그림자는 상기 가상 차량에 의해 투영된 그림자 및 상기 가상 차량 상에 투영된 그림자 중 적어도 하나이다. 일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분은 가상 반사를 포함한다. 일부 실시 예에서, 상기 가상 반사는 상기 가상 차량의 반사 및 상기 가상 차량에 대한 반사 중 적어도 하나이다.
일부 실시 예에서, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하는 단계는 상기 시점의 상기 가상 위치로부터 시야를 계산하는 단계를 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시야 내에 상기 가상 차량의 상기 부분을 디스플레이하는 단계를 포함한다.
일부 실시 예에서, 상기 가상 시점의 상기 위치에서 보이는 상기 가상 세계 내의 상기 가상 차량의 부분을 계산하는 단계는 상기 시점의 상기 가상 위치로부터 시야를 계산하는 단계를 포함하고, 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 상기 부분을 상기 디스플레이 시스템에 제공하는 단계는 상기 시야 내에 보이는 상기 가상 차량의 상기 부분을 디스플레이하는 단계로 구성된다.
일부 실시 예에서, 상기 방법은 물리적 레이스 코스 상에서 2개의 가상 차량들 간의 시합을 촉진할 수 있다. 2개의 가상 차량들이 물리적 차량들 없이 물리적 레이스 코스 상에서 시합하는 시나리오에 있어서, "물리적 차량의 위치를 식별하는 단계"는 불필요하다. 이러한 실시 예의 상기 시스템은 상기 레이스 코스에서 상기 시점의 상기 위치를 검출하는 센서 및 상기 레이스 코스에서 상기 시점의 상기 위치에서 보이는 상기 가상 차량의 부분을 제공하는 디스플레이 시스템을 포함할 수 있다. 상기 물리적 차량의 상기 위치와 관련이 없는 전술한 방법의 모든 측면들은 이러한 실시 예에서 적용될 수 있다. 일부 실시 예에서, 상기 가상 차량에는 특별한 속성들과 비디오 게임 모양이 제공된다. 예를 들면, 자동차들에는 부스트들, 기관총들, 미사일들(상기 실제 세계 뷰에 놓인 다른 그래픽 가상 객체), 가상 점프 등이 제공될 수 있다. 일부 실시 예에서, 상기 물리적 차량에는 마찬가지의 비디오 게임 속성들이 주어질 수 있다. 예를 들면, 기관총들 또는 미사일들 등과 같은 그래픽 가상 객체들은 디스플레이 상에서 관찰되는 바와 같이 상기 물리적 차량들에 렌더링되고 오버레이될 수 있다. 상기 레이스 코스와 집에 있는 뷰어들은 상기 물리적 레이스 코스에서 상기 가상 경쟁자들을 상기 실제-세계에서 시합하는 것처럼 볼 수 있다.
본 명세서에 사용되는 바와 같이, "시점(point of view)"은 상기 가상 차량이 뷰잉될(viewed) 실제 세계 위치인 것으로 이해될 수 있다. 예를 들면, 물리적 차량의 운전자(예를 들어, 상기 물리적 차량의 드라이버)가 그의 주변을 보는 것이다. 디스플레이는 상기 가상 차량을 상기 뷰(view)에 도입함으로써 상기 운전자의 뷰를 증강시키는데 사용될 수 있다. 상기 가상 차량이 상기 실제 세계 시점에 추가되기 때문에, 상기 디스플레이 시스템이 제공되지 않거나 중단되면, 상기 실제 세계 시점은 가상 차량을 볼 수 없을 것이다.
도 1은 일부 실시 예에 따른 물리적 차량(101)의 도면(100)이다. 도 1은 물리적 차량(101)의 운전자(예를 들어, 드라이버)의 시점(point of view)의 예를 제공한다. 따라서, 상기 운전자의 상기 시점의 상기 위치는 상기 운전자 눈의 상기 위치 및 방향(시선)(또는 상기 운전자 눈 위치 및 방향의 근사치)이다. 도 1은 물리적 차량의 상기 운전자의 상기 시점을 참조하여 제공되며, 상기 교시들은 물리적 차량이 운전하는 레이스 코스(racecourse)에 있는 청중 구성원 또는 상기 레이스 코스에 있는 카메라와 같은 다른 시점에 동일하게 적용된다.
물리적 차량(101)은 디스플레이 시스템(display system)(102)(렌더링 컴포넌트(rendering component)(107) 포함), 시뮬레이션 컴포넌트(simulation component)(106), 텔레메트리 시스템(telemetry system)(104)(센서들(108) 포함), RF 회로(RF circuitry)(105) 및 포스 제어기(force controller)(112)를 포함한다. 물리적 차량(101)은 또한 눈-위치 검출기(eye-position detector)(110), 프론트 윈드실드(front windshield)(120), 리어-뷰 미러(rear-view mirror)(122), 리어 윈드실드(rear windshield)(124), 사이드 윈도우들(126A 및 126B), 사이드 미러들(128A 및 128B), 시트와 헤드 브레이스(seat and head brace)(130), 스피커들(speakers)(132) 및 브레이크들(brakes)(134)을 포함한다. 도 1은 또한 차량 운전자(vehicle operator)(114)를 포함한다. 도 1에서, 차량 운전자(114)는 헬멧(helmet)(116), 눈 위 바이저(visor over eyes) (117) 및 햅틱 슈트(haptic suit)(118)를 착용하는 것으로 도시되어 있다. 일부 실시 예에서, 상기 눈 위 착용 바이저(117) 는 헬멧(116)의 컴포넌트이다.
도 1을 참조하면, 물리적 차량(101)은 자동차(automobile)이다. 일부 실시 예에서, 물리적 차량(101) 내의 장치들은 차량 운전자(114)의 시야(field of view) 내에서 하나 이상의 가상 차량(one or more virtual vehicles)을 시뮬레이션하기 위해 시뮬레이션 시스템(140)과 통신한다. 시뮬레이션 시스템(140)은 물리적 차량(101) 상에 탑재(on-board)될 수 있다. 일부 실시 예에서, 도면(100)에 도시된 바와 같이, 시뮬레이션 시스템(140)은 또한 본 명세서의 다른 곳에 기술된 물리적 차량(101)으로부터 원격(remote from)에 있을 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(140)에 의해 수행되는 상기 기능은 물리적 차량(101) 상에 탑재되고, 및 물리적 차량(101)으로부터 원격에 있는 두 시스템에 걸쳐 분산될 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(140)은 하나 이상의 라이브 참가자(one or more live participants)(즉, 물리적 차량(101)을 조작하는 차량 운전자(114))와 하나 이상의 원격 참가자(one or more remote participants)(도시되지 않음) 사이의 레이싱 시뮬레이션(racing simulation)(141)을 생성 및 유지한다.
가상 차량들을 실시간으로 시뮬레이션하면, 차량 운전자(114)의 상기 레이싱 경험이 향상된다. 물리적 차량(101) 내에 시뮬레이션 기능들을 구현하면, 라이브 참가자인 차량 운전자(vehicle operator)(114)는 레이싱 시뮬레이션(141) 내에서 가상 차량을 조작하는 원격 참가자(remote participant)와 시합할 수 있다. 차량 운전자(114)의 상기 시야는 가상 차량으로 증강된(augmented) 차량 운전자(114)에 의해 보여지는 상기 관찰 가능한 세계(observable world)이다. 일부 실시 예에서, 상기 증강(augmentation)은 디스플레이, 예를 들어 프론트 윈드실드(120), 리어-뷰 미러(122), 리어 윈드실드(124), 사이드 윈도우들(126A 및 126B), 및 사이드 미러들(128A 및 128B) 중 하나 이상에 수용되거나 이에 결합된 디스플레이에 의해 제공될 수 있다.
일부 실시 예에서, 상기 증강은 홀로그램 장치(hologram device) 또는 3-D 디스플레이 시스템에 의해 제공될 수 있다. 이들 실시 예들에서, 프론트 윈드실드(120), 리어-뷰 미러(122), 프론트 윈드실드(124), 사이드 윈도우들(126A 및 126B), 또는 사이드 미러들(128A 및 128B)은, 3-D 이미지들을 디스플레이할 수 있는 T-OLED 디스플레이들일 수 있고, 카메라를 사용하여 투명하지 않은 디스플레이들(non-transparent displays)에 3-D 이미지로 겹쳐서 디스플레이된 주변 환경을 캡처한다.
일부 실시 예에서, 상기 증강은 차량 운전자(114)에 의해 눈 위 착용된 HMD(head-mounted display) (117)에 의해 제공될 수 있다. 상기 HMD는 헬멧(116)의 일부로서 착용될 수 있다. 일부 실시 예에서, 상기 HMD는 차량 운전자(114)의 상기 눈 앞에 착용된 바이저(visors), 안경(glasses), 고글(goggles) 또는 다른 장치들에 내장된다(imbedded). 전술한 디스플레이와 마찬가지로, 상기 HMD는 하나 이상의 가상 차량을 상기 HMD의 하나 이상의 디스플레이 상에 렌더링함으로써 차량 운전자(114)의 상기 시야를 증강시키도록 동작할 수 있다.
다른 실시 예에서, 상기 HMD는 망막 투영 기법들(retinal projection techniques)을 구현하여, 하나 이상의 가상 차량을 시뮬레이션한다. 예를 들면, 상기 HMD는 차량 운전자(114)의 상기 시야에서 하나 이상의 가상 차량의 3-D 이미지를 생성하기 위해 차량 운전자(114)의 왼쪽 눈 및 오른쪽 눈 상에 이미지들을 투사하는 가상 망막 디스플레이(virtual retinal display: VRD)를 포함할 수 있다.
일부 실시 예에서, 상기 증강은 전술한 바와 같은 물리적 차량(101)에 수용된 하나 이상의 디스플레이(가령, 프론트 윈드실드(120) 및 리어-뷰 미러(122)), 전술한 바와 같은 차량 운전자(114)에 의해 착용된 디스플레이(가령, HMD), 전술한 바와 같은 홀로그램 장치, 또는 이들의 조합에 의해 제공될 수 있다. 다중 유형(multiple types)의 디스플레이들(가령, 물리적 차량(101)에 수용된 디스플레이 및 차량 운전자(114)에 의해 착용된 HMD)에서 가상 차량들을 시뮬레이션하는 것의 이점은, 차량 운전자(114)가 그의 HMD를 벗을 때도 증강 현실 경험(augmented-reality experience)이 유지될 수 있다는 것이다. 또한, 물리적 차량(101)의 다수의 참가자는 각 참가자가 HMD를 착용하고 있는지에 관계없이 상기 증강 현실 경험을 공유할 수 있다.
일부 실시 예에서, 다수의 가상 차량은 차량 운전자(114)를 위해 시뮬레이션된다. 예를 들면, 다수의 가상 차량이 상기 운전자의 전면 및/또는 후면 및/또는 측면에 디스플레이된다. 예를 들면, 하나 이상의 가상 차량이 프론트 윈드실드(120)(예시 디스플레이) 상에 디스플레이 될 수 있고, 하나 이상의 가상 차량이 리어-뷰 미러(122)(예시 디스플레이) 상에 디스플레이될 수 있다. 또한, 하나 이상의 가상 차량이 상기 HMD 상에 디스플레이될 수 있다. 마찬가지로, 물리적 차량(101)은 서로 근접한 복수의 물리적 차량(a plurality of physical vehicles) 중 하나일 수 있다. 일부 실시 예에서, 차량 운전자(114)에 대해 시뮬레이션되는 가상 차량은 차량 운전자(114)에 의해 주행되는 것과 다른 물리적 위치(different physical location)에 있는 물리적 레이스 코스 상에서 주행하는 다른 물리적 차량(different physical vehicle)일 수 있다. 예를 들면, 일방 운전자는 모나코의 레이스 코스(racecourse)에서 차량을 운전할 수 있고, 타방 운전자는 로스 앤젤레스의 모형 레이스 코스(replica-racecourse)에서 차량을 운전할 수 있다. 본 명세서의 실시 예들은 상기 모나코 및 로스 앤젤레스 운전자 중 하나 또는 둘 모두에게 다른 운전자를 나타내는 가상 차량을 제시하는 것을 고려한다.
시뮬레이션 시스템(140)으로 돌아가서 전술한 바와 같이, 시뮬레이션 시스템(140)은 레이싱 시뮬레이션(141)을 포함할 수 있고, 이는 가상 레이스 코스 상에서 물리적 차량(101)과 하나 이상의 가상 차량 간의 시합을 시뮬레이션한다. 일부 실시 예에서, 상기 가상 레이스 코스는 시뮬레이션 시스템(140)에 의해 생성 및 저장되어, 차량 운전자(114)가 운전(가령, 물리적 차량(101) 운전)하는 물리적 레이스 코스에 대응한다. 일부 실시 예에서, 상기 가상 레이스 코스는 360도 레이저 스캔 비디오 녹화(360 degree laser scan video recording) 또는 유사한 기술을 사용하여 생성된다. 따라서, 차량 운전자(114)가 상기 물리적 레이스 코스 상에서 물리적 차량(101)을 실시간으로 제어함에 따라, 레이싱 시뮬레이션(141) 내의 물리적 차량(101)의 상기 가상 궤적(virtual trajectory)은 상기 물리적 레이스 코스 상에서 물리적 차량(101)의 상기 물리적 현실 궤적(physical, real-world trajectory)을 에뮬레이트(emulate)하기 위해 시뮬레이션 시스템(140)에 의해 시뮬레이션된다.
일부 실시 예들에서, 시뮬레이션 시스템(140)이 레이싱 시뮬레이션(141)에서 상기 가상 레이스 코스 상에서 물리적 차량(101)을 시뮬레이션할 수 있게 하기 위해, 물리적 차량(101)은 텔레메트리 시스템(104)을 포함한다. 텔레메트리 시스템(104)은 물리적 차량(101)과 관련된 데이터를 검출하는 센서들(108)을 포함한다. 센서들(108)은 물리적 차량(101)의 운동학 정보(kinematics information)를 검출하는 하나 이상의 장치를 포함한다. 일부 실시 예에서, 운동학 정보는 하나 이상의 모션 벡터(vectors of motion), 하나 이상의 모션 스칼라(scalars of motion), 방위, GPS(Global Positioning System) 위치 또는 이들의 조합을 포함한다. 예를 들면, 모션 벡터는 속도(velocity), 위치 벡터(position vector) 또는 가속도(acceleration)를 포함할 수 있다. 예를 들면, 모션 스칼라는 속력(speed)을 포함할 수 있다. 따라서, 센서들(108)은 가속도를 검출하기 위한 하나 이상의 가속도계, GPS 위치를 검출하기 위한 하나 이상의 GPS(또는 GLONASS 또는 다른 글로벌 내비게이션 시스템) 수신기, 하나 이상의 모션 센서들, 하나 이상의 방위 센서들 또는 이들의 조합을 포함할 수 있다. 일부 실시 예에서, 센서들(108)에 의해 수집된 상기 실시간 데이터는 시뮬레이션 시스템(140)으로 전송된다. 다른 실시간 데이터에는 자동차, 열, 타이어 온도 등의 측정 값이 포함될 수 있다. 일부 실시 예에서, 하나 이상의 상기 운동학 정보 및 자동차 측정 값이 시뮬레이션 예측성(simulation predictability)을 위해 사용된다. 예를 들면, 일부 실시 예는 이러한 다른 측정 값 및 상기 속도 및 가속도 정보에 기초하여 장면들을 사전 구축하는 예측 시뮬레이션 엔진들(predictive simulation engines)을 포함할 수 있다.
일부 실시 예에서, 물리적 차량(101)은 텔레메트리 시스템(104)에 의해 생성된 원격 측정 정보(telemetric information)와 같은 데이터를 시뮬레이션 시스템(140)으로 전송하기 위한 무선 주파수(RF) 회로(105)를 포함한다. RF 회로(105)는 전자기 신호들(electromagnetic signals)로도 불리는 RF 신호들을 수신 및 전송한다. RF 회로(105)는 전기 신호들을 전자기 신호로/로부터 변환하고, 상기 전자기 신호들을 통해 통신 네트워크들(communications networks) 및 다른 통신 장치들과 통신한다. RF 회로(105)는 안테나 시스템, RF 송수신기, 하나 이상의 증폭기, 튜너, 하나 이상의 발진기, 디지털 신호 프로세서, 코덱 칩셋, SIM(가입자 식별 모듈) 카드, 메모리 등을 포함하지만 이에 제한되지 않고 이들 기능을 수행하기 위한 공지의 회로를 포함할 수 있다. RF 회로(105)는 WWW(World Wide Web)라고도 하는 인터넷과 같은 네트워크들, 셀룰러 전화 네트워크, 무선 근거리 네트워크(LAN) 및/또는 도시지역 네트워크(MAN)와 같은 인트라넷 및/또는 무선 네트워크, 및 무선 통신에 의한 다른 장치들과 통신할 수 있다. 상기 무선 통신은 선택적으로 GSM(Global System for Mobile Communications), EDGE(Enhanced Data GSM Environment), 고속 다운링크 패킷 액세스(high-speed downlink packet access:HSDPA), 고속 업링크 패킷 액세스(high-speed uplink packet access:HSUPA), 에벌루션(Evolution), 데이터 전용(Data-Only:EV-DO), HSPA, HSPA +, 듀얼 셀 HSPA(DC-HSPDA), 롱 텀 에벌루션(long term evolution:LTE), 근거리 통신(near field communication:NFC), 광대역 코드 분할 다중 액세스(W-CDMA), 코드 분할 다중 액세스(CDMA), 시분할 다중 접속(TDMA), 블루투스, BTLE(Bluetooth Low Energy), Wi-Fi(Wireless Fidelity)(가령, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 및/또는 IEEE 802.11n), Wi-MAX, 전자메일 프로토콜(protocol for e-mail)(가령,인터넷 메시지 접속 규약(IMAP) 및/또는 전자 우편 규약(POP)), 인스턴트 메시징(가령, XMPP(Extensible Messaging and Presence Protocol), SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions), IMPS(Instant Messaging and Presence Service)), 및/또는 단문 메시지 서비스(SMS) 또는 다른 적절한 통신 프로토콜을 포함하지만 이에 제한되지 않는 복수의 통신 표준들, 프로토콜들 및 기술 중 임의의 것을 사용한다.
일부 실시 예에서, 시뮬레이션 시스템(140)은 물리적 차량(101)으로부터 데이터를 수신하기 위한 RF 회로(105)와 유사한 RF 회로를 포함한다. 물리적 차량(101)으로부터 수신된 상기 원격 측정 정보에 기초하여, 시뮬레이션 시스템(140)은 물리적 차량(101)을 레이싱 시뮬레이션(141) 내의 아바타(avatar)로서 시뮬레이션한다. 일부 실시 예에서, 도 5와 관련하여 더 자세히 설명되겠지만, 시뮬레이션 시스템(140)은 레이싱 시뮬레이션 내에서 하나 이상의 가상 차량을 제어 및 시뮬레이션하기 위한 입력들(inputs)을 수신한다. 일부 실시 예에서, 시뮬레이션 시스템(140)은 상기 수신된 입력들 및 레이싱 시뮬레이션(141)에서 상기 가상 레이스 코스 상의 상기 가상 차량의 현재 상태에 기초하여 상기 가상 차량의 운동학 정보를 계산한다. 예를 들면, 상기 현재 상태는 상기 가상 레이스 코스 상에서 시뮬레이션되는 상기 가상 차량의 좌표, 위치, 속력, 속도, 가속도, 방위 등을 나타낼 수 있다. 라이브 참가자 가령, 차량 운전자(114)와, 차량 운전자(114)를 위해 가상 차량을 운전하는 가상 참가자 사이에서 상기 가상 레이스를 복제(replicate)하기 위해, 시뮬레이션 시스템(140)은 상기 가상 차량의 운동학 정보를 RF 회로를 통해 물리적 차량(101) 내의 컴포넌트(가령, 디스플레이 시스템(102) 또는 시뮬레이션 컴포넌트(106))에 전송한다. 본 발명의 다른 곳에서 설명 된 바와 같이, 시뮬레이션되는 상황의 유형에 따라, 상기 디스플레이 시스템(102) 및 물리적 차량(101)에서 볼 수 있는 다른 컴포넌트들은 다른 유형의 장치들에 수용될 수 있음을 이해해야 한다.
일부 실시 예에서, 레이싱 시뮬레이션(141)에서 시뮬레이션된 상호 작용들이 물리적 차량(101)을 드라이빙하는 차량 운전자(114)에 대해 재생될 수 있는 양방향 인터랙티브 레이싱을 가능하게 하기 위해, 시뮬레이션 시스템(140)은 레이싱 시뮬레이션(141) 내의 물리적 차량(101)의 상기 아바타가 레이싱 시뮬레이션(141) 내에서 시뮬레이션되는 상기 가상 차량과 같은 장애물들(obstacles)과 접촉하는지를 판단한다. 접촉을 판단하면, 시뮬레이션 시스템(140)은 상기 접촉과 관련된 포스 정보(force information), 오디오 정보(audio information) 또는 이들의 조합을 계산한다. 일부 실시 예에서, 시뮬레이션 시스템(140)은 차량 운전자(114)를 위한 상기 가상 현실 레이싱 경험을 향상시키기 위해, 물리적 차량(101)에서 상기 포스 또는 오디오 정보가 재생되는 물리적 차량(101)으로 상기 포스 또는 오디오 정보를 전송한다.
물리적 차량(101)으로 되돌아가면, 물리적 차량(101)은 RF 회로(105)를 통해 시뮬레이션 시스템(140)으로부터 수신된 정보, 예를 들어 상기 가상 차량의 운동학 정보에 기초하여 상기 가상 차량의 표상을 생성하기 위한 디스플레이 시스템(102)을 포함한다. 일부 실시 예에서, 디스플레이 시스템(102)은 시뮬레이션 시스템(140)으로부터 수신된 상기 가상 차량의 상기 운동학 정보에 기초하여 상기 가상 차량의 가상 표상(virtual representation)을 생성하는 시뮬레이션 컴포넌트(106)에 연결된다. 일부 실시 예에서, 시뮬레이션 컴포넌트(106)는 차량 운전자(114)의 상기 눈(117)의 상기 운동학 정보 및 눈 측정 값(예를 들어, 공간적 위치(spatial position))에 기초하여 상기 가상 표상을 생성한다. 가령, 그래픽으로 생성된 차량과 같이 상기 가상 표상의 현실감을 더욱 향상시키기 위해, 시뮬레이션 컴포넌트(106)는 일부 실시 예에 따라 상기 운동학 정보, 차량 운전자(114)의 눈(117)의 공간적 위치, 눈(117)의 시선 방향 및 눈(117)의 초점에 기초하여 상기 가상 표상을 생성한다. 본 명세서에서 설명된 바와 같이, 눈 측정 값은 왼쪽 눈, 오른쪽 눈, 또는 양쪽 눈(117)의 공간적 위치, 눈(117)의 시선 방향, 눈(117)의 초점, 또는 그 조합을 포함할 수 있다.
일부 실시 예에서, 물리적 차량(101)은 차량 운전자(114)의 눈(117)의 눈 측정 값(가령, 눈(117)의 공간적 위치, 시선 방향, 초점, 또는 그 조합)을 검출하기 위해, 눈-위치 검출기(110), 예를 들어 카메라 또는 광(가령, 적외선) 반사 검출기를 포함한다. 일부 실시 예에서, 눈-위치 검출기(110)는 눈(117)의 측정 값을 추정하기 위해 차량 운전자(114)의 상기 헤드의 공간적 위치를 검출한다. 예를 들면, 눈-위치 검출기(110)는 눈(117)의 측정 값을 추정하기 위해 헬멧(116) 또는 헬멧(116) 상의 바이저를 검출할 수 있다. 눈 측정 값 및/또는 헤드 위치를 검출하는 것은 차량 운전자(114)에 의해 착용된 헬멧(116)의 위치(position) 및 방위(orientation) 중 적어도 하나를 검출하는 것을 포함할 수 있다.
상기 눈의 위치는(가령, 트랙-사이드 센서와 같은 고정된 센서로부터) 직접적으로 계산되거나 또는 자동차 내의 센서와 자동차의 위치의 조합에 기초하여 계산될 수 있다.
일부 실시 예에서, 눈-위치 검출기(110)는 상기 차량 운전자(114)의 얼굴의 실시간 비디오 시퀀스(real-time video sequence)를 기록하거나 일련의 이미지들을 캡처할 수 있는 카메라를 포함한다. 이어서, 눈-위치 검출기(110)는 상기 실시간 비디오 시퀀스 또는 일련의 이미지들을 분석함으로써, 눈(117)의 측정 값을 추적 및 검출할 수 있다. 일부 실시 예에서, 눈-위치 검출기(110)는 눈 추적, 검출 및 측정을 보조하기 위해 차량 운전자(114)의 헤드 이동 또는 방위를 추적하기 위한 하나 이상의 알고리즘을 구현한다. 도면(100)에 도시된 바와 같이, 눈-위치 검출기(110)는 리어-뷰 미러(122)에 결합될 수 있다. 하지만, 눈-위치 검출기(110)가 물리적 차량에 근접하여 구현되는 한, 눈-위치 검출기(110)는 다른 위치, 예를 들어 상기 대시 보드, 물리적 차량(101) 내부 또는 외부에 배치될 수 있다. 일부 실시 예에서, 검출의 정확성을 높이기 위해, 눈-위치 검출기(110)는 헬멧(116) 또는 차량 운전자(114)에 의해 눈(117) 위에 착용되는 다른 헤드-마운트 디스플레이(HMD), 예컨대 바이저 또는 고글 내에 구현될 수 있다.
일부 실시 예에서, HMD 내에 구현되는 눈-위치 검출기(110)는 하나 이상의 초점-조정 가능 렌즈, 하나 이상의 기계적으로 작동되는 디스플레이 및 모바일 시선-추적 기술(mobile gaze-tracking technology)을 더 포함하고, 사용자가 가상 장면에서 보는 위치에 기초하여 상기 눈이 지속적으로 모니터링됨에 따라 상기 VR 세계에서 일반적인 굴절 에러들을 실제로 정정하는 재생된 장면들이 그려질 수 있다. 전술한 기술들의 장점은 차량 운전자(114)가 HMD 임플란트 눈-위치 검출기(110)를 착용하는 동안 콘택트 렌즈 또는 교정 안경을 착용할 필요가 없다는 것이다.
일부 실시 예에서, 시뮬레이션 컴포넌트(106)는 상기 가상 차량의 3-D 모델에 기초하여 상기 가상 차량의 상기 가상 표상을 생성한다. 예를 들면, 상기 가상 표상은 눈(117)에서 볼 때 상기 3-D 모델의 관점(perspective of the 3-D model)을 나타낼 수 있다. 일부 실시 예에서, 눈-위치 검출기(110)에 의해 측정 값이 검출되거나 추정되는 눈(117)의 상기 관점으로부터 상기 가상 표상을 생성함으로써, 상기 가상 표상은 상기 가상 차량에 대한 레이싱의 현실성을 증가시키기 위해 차량 운전자(114)에 대한 정확한 치수 및 스케일링으로 시뮬레이션될 수 있다. 일부 실시 예에서, 상기 3-D 모델은 시뮬레이션 컴포넌트(106) 상에 사전 저장되거나 시뮬레이션 시스템(140)으로부터 수신될 수 있다.
일부 실시 예에서, 디스플레이 시스템(102) 내의 렌더링 컴포넌트(107)는 상기 생성된 가상 표상을 물리적 차량(101)의 하나 이상의 디스플레이 상에 디스플레이한다. 전술한 바와 같이, 상기 가상 표상은 일부 실시 예에서 시뮬레이션 컴포넌트(106) 또는 일부 실시 예에서 시뮬레이션 시스템(140)에 의해 생성될 수 있다. 상기 하나 이상의 디스플레이는 물리적 차량(101)의 윈도우들, 예컨대 프론트 윈드실드(120) 또는 사이드 윈도우들(126A-B), 또는 물리적 차량(101)의 미러들, 예컨대 리어-뷰 미러(122) 또는 사이드 미러들(128A-B)을 포함할 수 있다. 일부 실시 예에서, 상기 하나 이상의 디스플레이는 헬멧(116)의 컴포넌트들일 수 있다. 헬멧(116)은 차량 운전자(114)에 의해 착용된 헬멧, 바이저, 안경 또는 고글 시스템을 포함할 수 있다.
일부 실시 예에서, 하나 이상의 디스플레이(가령, 프론트 윈드실드(120))는 광이 투명한 유기 발광 다이오드(transparent organic light-emitting diode:T-OLED) 디스플레이들을 통과하여 상기 시야를 차량 운전자(114)에게 디스플레이하게 하는 상기 T-OLED일 수 있다. 이들 실시 예에서, 렌더링 컴포넌트(107)는 상기 가상 차량의 상기 가상 표상을 상기 하나 이상의 디스플레이 상의 픽셀의 층으로서 렌더링한다. 상기 T-OLED 디스플레이들은 차량 운전자(114)가 상기 시뮬레이션된 가상 차량 및 상기 시뮬레이션되지 않은 물리적 세계를 그의 시야에서 모두 볼 수 있게 할 수 있다.
다른 실시 예에서, 하나 이상의 디스플레이(예를 들어, 프론트 윈드실드(120))는 불투명한 액정 디스플레이들(LCDs)일 수 있다. 이들 실시 예에서, 상기 T-OLED 디스플레이들과 달리, 상기 LCD는 차량 운전자(114)가 그의 시야에서 상기 물리적이고 시뮬레이션되지 않은 세계를 볼 수 있게 하기 위해 빛이 통과하는 것을 허용할 수 없다. 대신에, 이들 실시 예에서, 상기 LCD에 대해 바깥 쪽을 향하고 물리적 차량(101)에 결합된 카메라(가령, 핀 홀(pinhole) 카메라)가, 상기 LCD가 투명하다면(가령, T-OLED 디스플레이) 차량 운전자(114)의 눈(117)으로부터 보여지는 바와 같이, 상기 물리적이고 시뮬레이션되지 않은 세계의 라이브 비디오 피드(live video feed)를 기록하고 상기 물리적 세계의 상기 시야를 나타낼 수 있다. 그때, 렌더링 컴포넌트(107)는 상기 LCD를 내부에 상기 라이브 비디오 피드를 디스플레이하여 차량 운전자(114)에게 상기 시야를 디스플레이할 수 있다. 또한, 렌더링 컴포넌트(107)는 상기 LCD에 의해 디스플레이되는 상기 라이브 비디오 피드 상에 생성된 가상 표상을 오버레이(overlay)하여 차량 운전자(114)가 시뮬레이션 된 가상 차량을 볼 수 있게 한다.
일부 실시 예에서, 상기 불투명한 LCD 자체로는 이미지들이나 라이브 비디오 피드들을 3-D로 디스플레이할 수 없다. 따라서, 상기 라이브 비디오 피드를 기록하는데 사용되는 카메라는 상기 물리적 세계를 컬러 및 3-D로 기록하기 위한 입체 카메라 시스템(stereoscopic camera system)의 일부인 하나 이상의 카메라를 포함할 수 있다. 일부 실시 예에서, 상기 디스플레이되는 라이브 비디오 피드의 3-D 효과를 더욱 향상시키기 위해, 상기 불투명 LCD는 다중-뷰 자동입체 3-D 디스플레이(multi-view autostereoscopic 3D display), 즉 자동다중관찰 디스플레이(automultiscopic display)이고, 이는 차량 운전자(114)가 그의 헤드와 결과적으로 그의 눈(117)을 움직일 때 상이한 각도로부터 상기 디스플레이된 3-D 비디오 피드를 볼 수 있게 한다.
고속 레이싱 이벤트에서, 차량 운전자(114)의 상기 헤드는 거의 움직이지 않는다. 그러므로, 일부 실시 예에서, 차량 운전자(114)의 헤드 또는 눈(117)의 위치를 추적하기 위한 눈-위치 검출기(110)는 물리적 차량(101)에서 가상 차량을 시뮬레이션하는데 있어서 다수의 컴포넌트들 및 복잡성을 감소시키기 위해, 물리적 차량(101)으로부터 생략될(omitted) 수 있다. 일부 실시 예에서, 차량 운전자(114)가 그의 헤드를 자유롭게 움직일 수 있게 하기 위해, 눈-위치 검출기(110)는 차량 운전자(114)의 상기 헤드 또는 눈(117)의 위치를 추적하도록 구현된다. 일부 실시 예에서, 상기 디스플레이가 불투명 디스플레이인 실시 예에서, 하나 이상의 카메라, 예를 들어 입체 카메라 시스템의 카메라의 각도는 차량 운전자(114)의 상기 헤드 또는 눈(117)의 상기 추적된 위치에 대응하도록 조정될 수 있다.
일부 실시 예에서, 레이싱 시뮬레이션(141)에서 상기 가상 레이스 코스 상에서 시뮬레이션된 상호 작용들이 물리적 차량(101)을 드라이빙하는 차량 운전자(114)에 대해 복제될 수 있는 양방향 인터랙티브 레이싱을 가능하게 하기 위해, 시뮬레이션 컴포넌트(106)는 시뮬레이션 시스템(140)으로부터 수신된 상기 가상 차량의 상기 운동학 정보에 기초하여 물리적 차량(101)과 상기 가상 차량의 근접성(proximity)을 판단한다. 일부 실시 예에서, 상기 판단된 근접성에 기초하여 상기 가상 차량과 물리적 차량(101) 사이의 접촉을 판단하면, 시뮬레이션 시스템(140)은 상기 접촉과 관련된 포스 정보, 오디오 정보 또는 이들의 조합을 계산한다. 이어서, 시뮬레이션 컴포넌트(106)는 포스 정보를 포스 제어기(112)에 및/또는 오디오 정보를 스피커들(132)에 전송할 수 있다. 일부 실시 예에서, 스피커들(132)을 통해 상기 오디오 정보를 재생하는 것은 상기 엔진, 브레이크들, 타이어들의 사운드, 및 물리적 차량(101)과 시뮬레이션 시스템(140)에 의해 시뮬레이션되는 상기 가상 차량 간의 충돌(collision)의 사운드를 에뮬레이트(emulate)할 수 있다. 일부 실시 예에서, 상기 오디오 정보는 상기 시뮬레이션된 레이스 코스 상에서 물리적 차량(101)과 상기 가상 차량 사이에서 계산된 거리에 기초하여 계산되는 볼륨을 포함할 수 있고, 차량 운전자(114)의 상기 헤드의 방향 위치(directional position) 및 상기 귀의 방위(orientation)를 고려할 수 있다. 일부 실시 예에서, 스피커들(132)은 물리적 차량(101)에 장착된 오디오 장치들(예를 들어, 확성기 또는 스피커 시스템) 또는 차량 운전자(114)에 의해 착용된 오디오 장치들(예를 들어, 헤드폰 또는 이어피스)를 포함할 수 있다. 스피커들(132)이 차량 운전자(114)에 의해 착용되는 실시 예에서, 스피커들(132)은 헬멧(116)과 같은 헤드-장착형 디스플레이 내에 구현될 수 있다.
상기 물리적 차량에 있지 않은 관찰자들(가령, 레이스 코스의 청중 구성원 또는 집에서 시청하는 사람)를 위해 재생되는 사운드의 경우, 스피커들은 상기 트랙 주위 또는 상기 헤드 기어 또는 청중 구성원 또는 카메라의 시점을 통해 배치할 수 있다. 상기 가상 세계에서는 카메라 위치와 마찬가지로 마이크 위치(microphone position)를 설정할 수 있다. 마찬가지로 사운드 생성 위치들(sound generations positions)을 설정할 수 있다. 일부 실시 예에서, 사운드 생성 위치가 있는 상기 가상 차량이 상기 마이크에서 멀어지면 소음이 줄어든다.
일부 실시 예에서, 포스 제어기(112)는 상기 포스 정보에 기초하여 하나 이상의 액추에이터를 제어하여, 시뮬레이션 시스템(140)에 의해 시뮬레이션된 상기 가상 레이스 코스 상에서 물리적 차량(101)과 상기 가상 차량 사이에서 상기 시뮬레이션된 접촉을 에뮬레이트한다. 예를 들면, 포스 제어기(112)는 시트와 헤드 브레이스(130)에 내장된(built) 하나 이상의 포스 액츄에이터(one or more force actuators)를 제어하여 충돌로 차량 운전자(114)가 예를 들어 상기 헤드에 범프(bumped)되는 감각(sensation)을 느끼는 방법을 에뮬레이트할 수 있다. 마찬가지로, 일부 실시 예에서, 포스 제어기(112)는 차량 운전자(114)에 의해 착용된 햅틱 슈트(118)와 유선 또는 무선 통신들을 통해 통신하여, 실제 물리적 차량과 접촉하는 차량 운전자(114)의 감각을 에뮬레이트할 수 있다. 포스 제어기(112)는 또한 상기 물리적 차량(101)이 가상 물체와 접촉하는 것을 에뮬레이트하기 위해, 상기 물리적 차량(101)에 내장된 하나 이상의 포스 액추에이터를 제어할 수 있다. 일부 실시 예에서, 포스 제어기(112)는 물리적 차량(101)의 상기 실제 기능에 영향을 미치는 하나 이상의 기계 시스템(one or more mechanical systems)을 제어한다. 예를 들면, 포스 제어기(112)는 물리적 차량(101)과의 접촉 효과를 에뮬레이트하기 위해 다른 기계적 및/또는 전기 시스템 중에서 하나 이상의 브레이크(134), 스티어링 칼럼(steering column), 또는 물리적 차량(101)의 전력(power)을 제어할 수 있고, 상기 가상 차량 또는 가상 객체는 상기 가상 차량과 같은 가상 객체, 실제로는 물리적 차량(101)과 동일한 레이스 코스 상에서의 물리적 객체이다. 전술한 바와 같이, 일부 실시 예에서, 상기 시뮬레이션되는 가상 객체는 물리적 장소가 다른 레이스 코스에서 상기 실제 세상의 물리적 차량이 될 수 있다. 그러므로, 본 발명은 또한 서로 다른 레이스 코스 상에서 달리는 둘 차량 운전자들이 자신의 대응하는 물리적 차량이 가상 차량으로 시뮬레이션될 수 있기 때문에 그들은 마치 동일한 레이스 코스 상에서 시합하는 것처럼 느낄 수 있다.
전기 자동차들(electric cars)을 포함하는 일부 실시 예에서, 에뮬레이션 효과들은 상기 악셀들(axels)에 생성된 전력에 대한 제어를 포함할 수 있고, 경우에 따라 4개의 전기 모터들(electric motors)이 있는 자동차의 각 특정 휠(각 휠 마다 하나씩)에 대한 제어를 포함할 수 있다. 이로 인해 상기 휠의 상기 모터에서 작은 스파이크 다운(small spike down)으로 범프(bump)를 시뮬레이션할 수 있다. 이것은 상기 충격 기간 및 기타 요인들에 따라 제어될 수 있다.
일부 실시 예에서, 도 5에 도시된 바와 같이, 전술한 시뮬레이션 컴포넌트(106)의 상기 기능의 일부 또는 전부는 예를 들어 시뮬레이션 시스템(140)에 의해 원격으로 수행될 수 있다. 이들 실시 예에서, 디스플레이 시스템(102)은 시뮬레이션 시스템(140)에 의해 생성된 가상 표상을 수신한다. 이와 관련하여, 이들 실시 예에서, 포스 제어기(112) 및 스피커들(132)은 각각 시뮬레이션 시스템(140)에 의해 계산된 포스 및 오디오 정보를 수신할 수 있다.
도 2A 내지 도 2C는 일부 실시 예에 따른 다수의 가상 차량들이 하나 이상의 디스플레이 상에 각각 어떻게 디스플레이되는지 여부를 나타내는 도면이다. 설명의 편의를 위해, 도 2A 내지 도 2C는 도 1의 상기 요소들, 예를 들어 디스플레이 시스템(102) 및 차량 운전자(114)와 관련하여 설명될 것이다. 일부 실시 예에 따르면, 상기 가상 차량들은 증강 현실 구현 또는 전체 렌더링 구현에 따라 디스플레이될 수 있고, 이들 각각은 아래에서 더 자세히 설명될 것이다.
상기 증강 현실 실시 예에서, 도 2A의 뷰(202A 및 204A)는 차량 운전자(114)가 도 2B의 각 뷰들(202B 및 204B)에 도시된 가상 차량들(212 및 214)의 부분들을 볼 수 있게 하기 위해, 가상 차량들(228 및 230)이 도 2C의 각 디스플레이(220 및 222) 상에 출력되어 증강될 수 있다. 일부 실시 예에서, 디스플레이(220) 및 디스플레이(222)는 도 1과 관련하여 설명된 바와 같이 프론트 윈드실드(120) 및 리어-뷰 미러(122)에 대응할 수 있다.
도 2A에 도시된 바와 같이, 뷰(202A)는 디스플레이들(220 및 222)을 통해 상기 물리적 레이스 코스 상에서 물리적 차량(206A)을 볼 수 있는 차량 운전자(114)의 상기 시야를 도시한다. 마찬가지로, 뷰(204A)는 디스플레이(222)를 통해 차량 운전자(114)가 볼 수 있는 상기 물리적 레이스 코스 상에 실제 차량이 없기 때문에 빈 공간을 도시한다.
일부 실시 예에서, 디스플레이(220 및 222) 상에 디스플레이하기 위한 하나 이상의 가상 차량을 시뮬레이션하기 위해, 디스플레이 시스템(102)은 각각 디스플레이(220 및 222) 상의 하나 이상의 위치(224 및 226)를 식별한다. 일부 실시 예에서, 위치(224)는 차량 운전자(114)의 시야에서 물리적 위치(208A)에 대응할 수 있다. 예를 들면, 상기 디스플레이(220) 상의 위치(224)는 차량 운전자(114)가 볼 수 있고(뷰(202A)에서 위치(208A)로 도시됨), 시뮬레이션 시스템(140)의 레이싱 시뮬레이션(141) 내의 상기 가상 레이스 코스에서 시뮬레이션되는 상기 물리적 레이스 코스의 일부 또는 건물 또는 랜드 마크의 일부에 대응할 수 있다. 마찬가지로, 위치(26)는 차량 운전자(114)가 볼 수 있는 상기 물리적 레이스 코스의 다른 일부 또는 빌딩 또는 랜드 마크의 일부에 대응할 수 있다(뷰(202A)에서 위치(210A)로 도시됨).
일부 실시 예에서, 도 1과 관련하여 설명된 바와 같이, 시뮬레이션 컴포넌트(106)는 제1표상으로서 제1가상 차량(228) 및 제2표상으로서 제2가상 차량(230)을 생성할 수 있다. 일부 실시 예에서, 시뮬레이션 컴포넌트(106)는 위치(224), 눈(117)의 측정 값(눈-위치 검출기(110)와 관련하여 설명된 바와 같이), 및 상기 제1가상 시합 차량의 운동학에 기초하여 상기 제1가상 차량(228)을 생성할 수 있다. 디스플레이(220)에 도시된 바와 같이, 렌더링 컴포넌트(107)는 위치(224)와 정렬되도록 제1가상 차량(228)을 디스플레이한다. 마찬가지로, 렌더링 컴포넌트(107)는 디스플레이(222) 상의 위치(226)와 정렬되도록 제2가상 차량(230)을 디스플레이할 수 있다.
결과적으로, 차량 운전자(114)는 뷰들(202B 및 204B)에 도시된 바와 같이 물리적 객체들 및 가상 객체들을 볼 수 있다. 예를 들면, 뷰(202A)와 마찬가지로, 뷰(202B)는 차량 운전자(114)가 물리적 차량(206B)을 계속 볼 수 있음을 도시한다. 하지만, 뷰(202B)는 차량 운전자(114)가 가상 차량(212)과 같은 가상 객체들이 디스플레이(220) 상에 가상 차량(228)으로서 디스플레이되는 것을 볼 수 있음을 도시한다. 마찬가지로, 뷰(204B)는 차량 운전자(114)가 가상 차량(214)과 같은 가상 객체들이 디스플레이(222) 상에 가상 차량(230)으로서 디스플레이되는 것을 볼 수 있음을 도시한다. 추가 실시 예는 도 10과 관련하여 설명된다.
상기 풀 렌더링(full rendering) 구현 시, 디스플레이들(220, 222)은 디스플레이를 위해 물리적 객체와 가상 객체들을 렌더링하도록 구성되어 차량 운전자(114)가 물리적 차량과 함께 가상 차량들을 볼 수 있게 한다. 이러한 실시 예들에서, 렌더링 컴포넌트(107)는 도 2A의 뷰들(202A 및 204A)에 도시된 바와 같이 도로들 및 물리적 차량(206A)과 같은 물리적 객체들을 렌더링 및 디스플레이할 수 있다. 상기 증강 현실 구현과 관련하여 전술한 바와 같이, 시뮬레이션 컴포넌트(106)는 디스플레이를 위해 제1표상으로서 제1가상 차량(228) 및 제2표상으로서 제2가상 차량(230)을 생성할 수 있다. 상기 풀 렌더링(full rendering) 구현 시, 디스플레이들(220, 222)은 차량 운전자(114)에 의해 보여지는 뷰들(202B 및 204B)에 도시된 바와 같이 물리적 객체들과 함께 가상 차량들(228 및 230)을 각각 디스플레이하도록 구성될 수 있다. 예를 들면, 뷰(202B)는 상기 도로, 물리적 차량(206B) 및 가상 차량(212)이 렌더링되고 디스플레이되는 것을 도시한다. 마찬가지로, 뷰(204B)는 가상 차량(214)이 렌더링되고 디스플레이되는 것을 도시한다. 일부 실시 예에서, 상기 풀 렌더링 구현 시, (디스플레이들(220 및/또는 222)와 관련한) 외향 카메라는 주변의 라이브 비디오 피드를 캡처할 수 있다. 이들 실시 예에서, 디스플레이들(220, 222)은 상기 라이브 비디오 피드의 각 프레임을 디스플레이함으로써 상기 물리적 객체들을 디스플레이하도록 구성될 수 있다. 또한, 디스플레이들(220, 222)은 각 디스플레이된 프레임 상에 가상 차량을 오버레이함으로써 가상 객체들을 디스플레이하도록 구성될 수 있다.
도 3A 내지 도 3D는 일부 실시 예에 따라 가상 차량(322)의 가시적 부분들과 가상 차량(324)의 가시 부분들이 디스플레이(320) 상에 어떻게 디스플레이되는지 여부를 나타내는 도면이다. 설명의 편의를 위하여, 도면(300)은 도 1의 요소들(예를 들어, 디스플레이 시스템(102), 차량 운전자(114) 및 시뮬레이션 시스템(140))과 관련하여 설명될 것이다. 도 3A는 종래의 디스플레이들을 통해 차량 운전자(114)에 의해 관찰될 수 있는 예시적인 실제-세계 뷰(302A)를 도시한다. 도 3B는 가상 차량들(343, 344)을 포함하는 실제-세계 뷰(302A)의 예시적인 가상 렌더링(332)을 도시한다. 도 3C는 각 가상 차량(343, 344)의 가시적 부분들(322, 324)을 디스플레이하기 위한 디스플레이(320)의 예를 도시한다. 디스플레이(320)는 바이저, 헬멧(예를 들어, 헬멧(116)) 내에 구현된 디스플레이 또는 물리적 차량(예를 들어, 물리적 차량(101)) 내에 앉아서 드라이빙하는 운전자(예를 들어, 차량 운전자(114))에 의해 착용된 다른 헤드 기어에 대응할 수 있다. 도 3D는 디스플레이(320)를 통해 차량 운전자(114)에 의해 관찰될 수 있는 예시적인 증강 뷰(302B)를 도시한다.
도 3A 에 도시된 바와 같이, 실제-세계 뷰(302A)는 가상 차량들이 디스플레이되지 않은 경우, 즉 종래의 디스플레이들을 통해 차량 운전자(114)의 시야를 도시한다. 실제-세계 뷰(302A)에서 볼 수 있듯이, 차량 운전자(114)는 디스플레이(320)를 통해, 물리적 차량(101) 내의 물리적 객체들뿐만 아니라 물리적 레이스 코스 상의 물리적 차량(310A)과 같은 다른 물리적 차량들을 볼 수 있다. 예를 들면, 이러한 물리적 객체들은 리어-뷰 미러(304A), 차량 프레임(306A), 윈드실드 와이퍼들(308A), 대시 보드(312A) 등을 제한 없이 포함할 수 있다. 일부 실시 예에서, 물리적 개체들은 차량 운전자(114)의 손 또는 팔을 포함할 수 있다. 또한 실제-세계 뷰(302A)에 디스플레이된 것처럼, 차량 운전자(114)는 물리적 차량(310A)의 그림자(shadow)를 볼 수 있다. 일부 실시 예에서, 디스플레이(320)는 투명 또는 반투명 디스플레이 일 수 있기 때문에 차량 운전자(114)는 디스플레이(320)를 통해 물리적 차량들 및 물리적 객체들을 볼 수 있다.
도 1과 관련하여 전술한 바와 같이, 물리적 차량(101)의 운동학 정보(예를 들어, 위치 정보) 및 운전자의 시점의 위치는 가상 차량들(313 및 314)의 가시적 부분들을 제공하도록 구성된 시뮬레이션 시스템(140)으로 전송될 수 있다. 일부 실시 예에서, 상기 운동학 정보와 상기 운전자의 시점의 위치에 기초하여, 시뮬레이션 시스템(140)은 가상 차량들 및 운전자(114)에 의해 보여지는 상기 물리적 레이스 코스에 대응하는 가상 레이스 코스 상에서 서로 레이싱하는 물리적 차량(101)의 표상을 포함하도록 가상 세계를 계산할 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(140)은 상기 가상 세계 내의 상기 다양한 물리적 객체들의 표상을 계산할 수 있다.
일부 실시 예에서, 시뮬레이션 시스템(140)이 차량 운전자(114)의 손 또는 팔의 표상을 추적하고 계산할 수 있게 하기 위해, 차량 운전자(114)는 위치 관련 측정 값을 시뮬레이션 시스템(140)에 전달하는 하나 이상의 센서들(예를 들어, 가속도계들, 위치 센서들 등)을 내장한 장갑을 착용할 수 있다. 위치 또는 가속도 정보와 같은 센서 측정 값에 기초하여, 시뮬레이션 시스템(140)은 상기 가상 세계에서 팔 또는 손(도시되지 않음)의 대응하는 표상들을 계산할 수 있다.
일부 실시 예에서, 시뮬레이션 시스템(140)이 차량 운전자(114)의 손 또는 팔의 표상들을 추적하고 계산할 수 있게 하기 위해, 차량 운전자(114)에 의해 운전되는 물리적 차량에 하나 이상의 카메라가 장착될 수 있다. 상기 하나 이상의 카메라는 차량 운전자(114)에 의해 착용된 장갑 또는 트랙 슈트에 내장되거나 디스플레이된 마커들에 기초하여 팔과 손의 위치를 추적할 수 있다. 예를 들면, 마커들은 특정 색상들, 패턴들, 재료들 등을 포함할 수 있다. 이들 실시 예에서, 상기 하나 이상의 카메라는 상기 캡처된 정보를 상기 가상 세계에서 팔 또는 손(도시되지 않음)의 대응하는 표상들을 계산하는 시뮬레이션 시스템(140)으로 전송할 수 있다.
도 3B를 참조화면, 시뮬레이션 시스템(140)은 상기 가상 세계 내에서 실제-세계 뷰(302A)의 가상 렌더링(332)을 계산할 수 있다. 가상 렌더링(332)에서, 시뮬레이션 시스템(140)은 물리적 차량(310A) 및 가상 차량들(343, 344)의 표상(340)을 계산할 수 있다. 또한, 시뮬레이션 시스템(140)은 리어-뷰 미러(304A), 차량 프레임(306A), 윈드실드 와이퍼들(308A) 및 대시 보드(312A)에 대응하는 물리적 객체들의 표상(334, 336, 338 및 342)을 계산할 수 있다. 가상 렌더링(332)에 도시된 바와 같이, 시뮬레이션 시스템(140)은 가상 차량들(343 및 344)의 뷰를 차단하지 않는 물리적 객체들의 표상들을 계산하는 것을 배제할 수 있다. 예를 들면, 실제 세상 뷰(302A)에서 차량 운전자(114)에 의해 보여지는 상기 속도계 및 스티어링 휠은 가상 렌더링(332)에서 시뮬레이션 시스템(140)에 의해 계산되지 않을 수 있다. 일부 실시 예에서, 가상 렌더링(332)에 도시된 바와 같이, 시뮬레이션 시스템(140)은 물리적 차량(340) 및 가상 차량들(343 및 344)의 그림자를 계산할 수 있다.
일부 실시 예에서, 시뮬레이션 시스템(140)은 차량 운전자(114)가 상기 실제-세계에서 가상 들라이버들과 시합할 수 있게 하기 위해, 가상 차량들(322 및 324)의 부분들을 계산하여 도 3C의 디스플레이(320) 상에 디스플레이할 수 있다. 일부 실시 예에서, 차량 운전자(114)의 상기 시점의 상기 위치로부터 가상 차량의 가시적 부분은 물리적 차량(101)에서의 상기 시점의 상기 위치에 대응하는 상기 가상 세계의 가상 위치로부터 상기 가상 세계의 객체들에 의해 차단되지 않는 상기 가상 차량의 일부이다. 일부 실시 예에서, 상기 시뮬레이션 시스템은 차량 운전자(114)의 상기 시점의 상기 위치를 상기 가상 세계 내의 가상 좌표들로 변환할 수 있다. 예를 들면, 상기 물리적 차량의 운전자의 상기 시점으로부터, 상기 가상 세계에서의 상기 대응하는 가상 위치는 상기 가상 세계에서의 물리적 차량(101)의 표상 내에 있을 것이다. 상기 가상 세계에서의 물리적 운전자(114)의 상기 시점의 상기 대응하는 가상 위치로부터, 상기 가상 차량의 시야는 상기 시뮬레이션된 물리적 차량(예를 들어, 차량 프레임(306A) 또는 윈드실드 와이퍼(308A)의 표상들), 다른 시뮬레이션된 물리적 차량들(예를 들어, 물리적 차량(310A)의 표상), 그림자들, 시뮬레이션된 나무들 및 기타 고정된 객체들, 상기 시뮬레이션된 레이스 코스(예를 들어, 상기 가상 차량이 딥(dip) 상태에 있어, 상기 코스 자체에 의해 부분적으로 차단되는 경우 등)에 의해 차단(obstructed)될 수 있다. 이때 상기 가상 차량의 상기 가시적 부분은 상기 가상 차량의 상기 가려지지 않은 뷰이다. 추가 실시 예들은 도 6 및 도 9와 관련하여 설명된다.
예를 들면, 도 3B의 가상 렌더링(332)에 도시된 바와 같이, 상기 가상 차량(343)의 상기 시뮬레이션된 뷰는 가상 차량(343)의 부분들이 차량 프레임(306A)의 표상(336)에 의해 차단됨을 도시한다. 마찬가지로, 가상 렌더링(332)에서, 가상 차량(343)의 상기 시뮬레이션된 뷰는 가상 차량(344)의 부분들이 물리적 차량(310A)의 표상(340) 및 윈드실드 와이퍼(308A)의 표상(338)에 의해 차단됨을 보여준다.
일부 실시 예에서, 시뮬레이션 시스템(140)은 상기 가상 세계에서 자동차 프레임의 표상(336)에 의해 가려지지 않은 가상 렌더링(332)에서 가상 차량(343)의 부분들인 가상 차량(322)의 가시적 부분들을 계산할 수 있다. 마찬가지로, 시뮬레이션 시스템(140)은 물리적 차량(310A) 및 윈드실드 와이퍼(308A)의 각각의 표상들(340 및 338)에 의해 가려지지 않은 가상 렌더링(332)에서 가상 차량(344)의 일부인 가상 차량(324)의 가시적 부분들을 계산할 수 있다. 일부 실시 예에서, 이들 계산된 가시적 부분들(322 및 324)과 관련된 정보는 물리적 차량(101) 내의 컴포넌트로 전송되어 디스플레이(320)에 의해 디스플레이 될 수 있다.
일부 실시 예에서, 도 3C를 참조하면, 디스플레이 시스템(102)과 같은 물리적 차량(101) 내의 컴포넌트들은 각각의 가상 차량(343 및 344)의 가시적 부분들(322 및 324)을 디스플레이(320) 상에 디스플레이할 수 있다. 일부 실시 예에서, 가시적 부분들(322 및 324)은 도 3B의 가상 렌더링(332)에 계산되고 도시된 바와 같이 가상 차량들(343 및 344)의 그림자들을 포함할 수 있다. 일부 실시 예에서, 디스플레이(320) 상에 가시적 부분들(322, 324)이 디스플레이되는 실제-세계 뷰(302A)를 증강시킴으로써, 디스플레이 시스템(102)은 차량 운전자(114)가 상기 실제 세계의 물리적 차량들과 가상 차량들을 모두 볼 수 있게 한다.
일부 실시 예에서, 도 3D에서 증강 뷰(302B)는 디스플레이(320)가 가상 차량들(322 및 324)의 가시적 부분들을 디스플레이는 경우(예컨대, 디스플레이 시스템(102)에 의해 렌더링된 바와 같이), 차량 운전자(114)의 상기 시야를 도시한다. 예를 들면, 뷰(302A)와 마찬가지로, 차량 운전자(114)는 디스플레이(320)를 통해 상기 실제 세계의 상기 레이스 코스 상에서 다양한 물리적 객체들을 여전히 볼 수 있다. 예를 들면, 증강된 뷰(302B)에 도시된 바와 같이, 차량 운전자(114)는 여전히 리어-뷰 미러(304B), 차량 프레임(306B), 윈드실드 와이퍼(308B), 물리적 차량(310B) 및 대시 보드(312B)를 볼 수 있다. 또한, 차량 운전자(114)는 가상 차량들(313 및 314)이 디스플레이 되는 것을 볼 수 있다. 일부 실시 예에서, 차량 운전자(114)에 의해 보여지는 가상 차량들(313 및 314)은 각각 전술한 바와 같이 디스플레이(320) 상에 디스플레이되는 가상 차량들(322 및 324)의 가시적 부분들에 대응한다. 일부 실시 예에서, 도 2A 내지 도 2C와 관련되어 설명된 기술들은 도 3A 내지 도 3C와 관련하여 설명된 기술과 결합될 수 있다.
도 4A 내지 도 4D는 일부 실시 예에 따라 가상 차량(422)의 가시적 부분들이 디스플레이(420) 상에 어떻게 디스플레이되는 지를 나타내는 도면들이다. 도 4A는 관중에 의해 관찰되거나 비디오 카메라에 의해 이미지화될 수 있는 예시적인 실제-세계 뷰(402A)를 도시한다. 도 4B는 가상 차량(434)을 포함하는 실제-세계 뷰(402A)의 예시적인 가상 렌더링(430)을 도시한다. 도 4C는 가상 차량(434)의 가시적 부분들(422)을 디스플레이하기 위한 디스플레이(420)의 예를 도시한다. 디스플레이(420)는 바이저, 헬멧(예를 들어, 헬멧(116)), 또는 물리적 레이스 코스에 존재하는 뷰어(예를 들어, 청중 구성원)에 의해 착용된 다른 헤드 기어 내에 구현된 디스플레이에 대응할 수 있다. 도 4D는 청중 구성원에 의해 관찰되거나 디스플레이(420)를 통해 비디오 카메라에 의해 이미지화 될 수 있는 예시적인 증강 뷰(402B)를 도시한다.
도 4A를 참조하면, 실제-세계 뷰(402A)는 가상 차량들이 디스플레이되지 않은 경우, 즉 종래의 디스플레이를 통해 상기 뷰어(viewer)의 상기 시야를 도시한다. 실제-세계 뷰(402A)에 도시된 바와 같이, 상기 뷰어는 디스플레이(420)를 통해 상기 실제-세계의 다른 뷰어들(404A) 및 다양한 물리적 객체들을 볼 수 있다. 예를 들면, 이러한 물리적 객체들은 펜스(406A), PA(Public Announcement) 혼 스피커들(408A) 및 물리적 차량들(410A 및 412A) 및 각각의 물리적 차량(410A 및 412A)의 그림자들(411A 및 413A)을 포함할 수 있다. 일부 실시 예에서, 디스플레이(420)는 투명 또는 반투명 디스플레이일 수 있기 때문에 상기 뷰어는 디스플레이(420)를 통해 물리적 차량들 및 물리적 객체들을 볼 수 있다.
일부 실시 예에서, 펜스들 또는 벽들과 같은 고정된 객체들 이외에도, 상기 레이스 코스의 상기 뷰어의 시야를 차단할 수 있는 상기 물리적 객체들은 시간이 지남에 따라 위치가 변할 수 있는 정지되지 않은 개체들을 포함할 수 있다. 예를 들면, 이러한 위치가 변할 수 있는 객체들은 청중 구성원의 헤드 또는 그들이 서 있을 때의 청중 구성원의 몸체를 포함할 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(140)이 고정된 객체들 및 고정되지 않은 객체들의 표상들을 정확하게 계산할 수 있도록 하기 위해, 상기 뷰어의 헤드셋은 상기 레이스 코스를 향하고 상기 레이스 코스의 부분을 캡처하는 카메라를 포함할 수 있다. 상기 레이스 코스 또는 상기 레이스 코스 상에 있는 기타 마커들의 라인들과 경계들은 하나 이상의 물리적 객체가 상기 레이스 코스에 대한 뷰어의 시야를 차단하는지 여부를 판단하기 위해 카메라에 의해 검출될 수 있다. 예를 들면, 상기 카메라는 상기 레이스 코스의 상기 에지들, 라인들 또는 마커들에서 생략된 부분들이나 파손을 검출할 수 있다. 일부 실시 예에서, 상기 파손 또는 생략된 부분들에 관한 정보는 시뮬레이션 시스템(140)으로 전송될 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(140)은 상기 하나 이상의 브레이크와 상기 가상 차량의 중첩 부분을 판단함으로써 상기 가상 차량의 어느 부분들이 물리적 객체들에 의해 차단되는지를 판단할 수 있다. 파손 부분은 상기 뷰어의 뷰가 물리적 객체에 의해 차단되고 있음을 나타내기 때문에, 상기 시뮬레이션 시스템(140)은 상기 중첩 부분들의 픽셀들의 상기 알파 값을 (RGBA에서) "제로 퍼센트"로 설정하여 이들 중첩 부분들을 투명하게 만들 수 있다.
일부 실시 예에서, 상기 뷰어의 시점과 관련된 정보는 가상 차량(422)의 가시적 부분들을 상기 뷰어에게 제공하도록 구성된 시뮬레이션 시스템(예를 들어, 도 5의 시뮬레이션 시스템(140) 또는 시뮬레이션 시스템(540))으로 전송될 수 있다. 예를 들면, 이러한 정보는 상기 뷰어의 시점의 위치를 포함할 수 있다. 도 6과 관련하여 전술한 바와 같이, 상기 시뮬레이션 시스템은 가상 차량들과 가상 레이스 코스에서 서로 레이싱하는 물리적 차량들의 표상들을 포함하도록 가상 세계를 계산할 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(140)은 상기 가상 세계 내의 상기 다양한 물리적 객체들(예를 들어, PA 스피커들(408A))의 표상들을 계산할 수 있다.
도 4B를 참조하면, 상기 시뮬레이션 시스템은 상기 가상 세계 내에서 실제-세계 뷰(402A)의 상기 가상 렌더링(430)을 계산할 수 있다. 가상 렌더링(430)에서, 상기 시뮬레이션 시스템은 가상 차량(434) 및 물리적 차량들(410A 및 412A)의 표상들(440 및 432)을 계산할 수 있다. 일부 실시 예에서, 상기 시뮬레이션 시스템에 의해 계산된 가상 차량(434)은 계산된 그림자(435)를 포함할 수 있다. 마찬가지로, 물리적 차량들(410A 및 412A)의 표상들(440 및 432)은 각각의 그림자들(441 및 433)을 포함하도록 계산될 수 있다. 일부 실시 예에서, 상기 시뮬레이션 시스템은 실제-세계 뷰(402A)에서 상기 뷰어에 의해 보여지는 각각의 그림자들(411A 및 413A)에 대응하도록 상기 가상 세계에서 그림자들(441 및 433)을 계산한다. 또한, 상기 시뮬레이션 시스템은 대응하는 물리적 객체들 즉, 펜스(406A) 및 PA 스피커들(408A)의 표상들(436 및 438)을 계산할 수 있다. 가상 렌더링(430)에 도시된 바와 같이, 상기 시뮬레이션 시스템은 가상 차량(422)의 뷰를 차단하지 않는 물리적 객체들의 표상들 계산하는 것을 배제할 수 있다. 예를 들면, 실제-세계 뷰(402A)의 청중(예를 들어, 뷰어들(404A))은 가상 렌더링(430)의 상기 시뮬레이션 시스템에 의해 계산되지 않을 수 있다.
일부 실시 예에서, 상기 시뮬레이션 시스템은 상기 뷰어가 상기 가상 세계에서 시뮬레이션되는 가상 차량(434)과 같은 가상 차량들과 물리적 차량들(410A 및 412A) 사이의 레이스를 볼 수 있도록, 도 4C의 디스플레이(420) 상에 디스플레이하기 위해 가상 차량(422)의 부분들을 계산할 수 있다. 일부 실시 예에서, 상기 뷰어의 시점의 상기 위치에서 가상 차량의 가시적 부분은 상기 뷰어의 시점의 상기 위치에 대응하는 상기 가상 세계의 가상 위치에서 상기 가상 세계의 객체들에 의해 차단되지 않는 상기 가상 차량의 일부이다. 일부 실시 예에서, 상기 시뮬레이션 시스템은 상기 뷰어의 시점의 상기 위치를 상기 가상 세계 내의 가상 좌표들로 변환할 수 있다. 상기 가상 세계에서 상기 뷰어의 시점의 상기 대응하는 가상 위치에서, 상기 가상 차량의 뷰는 시뮬레이션된 물리적 차량들(예를 들어, 물리적 차량들(410A 및 412A)의 표상들) 및 다른 시뮬레이션된 객체들(예를 들어, 펜스(406A) 및 혼 스피커들(408A)의 표상들), 시뮬레이션 트리, 상기 시뮬레이션된 레이스 코스(예를 들어, 상기 가상 차량이 딥(dip) 상태에 있어 상기 코스 자체에 의해 부분적으로 차단되는 경우 등)에 의해 차단될 수 있다. 이때, 상기 가상 차량의 상기 가시적 부분은 상기 가상 차량의 차단되지 않은 시야이다. 추가 실시 예는 도 1 내지 도 3과 관련하여 설명된다.
예를 들면, 도 4B의 가상 렌더링(432)에 도시된 바와 같이, 가상 차량(434)의 상기 시뮬레이션된 뷰는 가상 차량(434)의 부분들이 PA 스피커(408A)의 표상(438) 및 물리적 차량(412A)의 표상(432)에 의해 차단됨을 보여준다.
일부 실시 예에서, 상기 시뮬레이션 시스템은 가상 렌더링(430)에서 PA 혼 스피커들(438)의 표상에 의해 가려지지 않고 상기 가상 세계에서 물리적 차량(432)의 표상에 의해 가려지지 않은 가상 차량(422)의 가시적 부분들을 가상 차량(434)의 부분들로 계산할 수 있다. 일부 실시 예에서, 상기 계산된 가시적 부분들(422)과 관련된 정보는 상기 뷰어에게 전송되어 디스플레이(420)에 의해 디스플레이 될 수 있다.
일부 실시 예에서, 도 4C를 참조하면, 도 5의 디스플레이 시스템(592)과 같이 상기 뷰어가 착용한 컴포넌트들은 디스플레이(420) 상에 가상 차량(434)의 가시적 부분들(422)을 디스플레이할 수 있다. 도 4C를 참조하면, 가시적 부분들(422)은 자동차 프레임 및 세부 사항들(424) 및 가상 차량(434)의 그림자(426)를 포함할 수 있다. 일부 실시 예에서, 가시적 부분들(422)은 가상 렌더링(430)에서 계산된 가상 차량(434) 상에 캐스팅된(cast) 그림자(428)를 포함할 수 있다. 예를 들면, 그림자(428)는 가상 렌더링(430)에서 계산되는 물리적 차량(412A)의 표상(432)에 의해 캐스팅된 그림자일 수 있다. 일부 실시 예에서, 가시적 부분(422)이 디스플레이(420) 상에 디스플레이되는 실제-세계 뷰(402A)를 증강시킴으로써, 디스플레이 시스템(예를 들어, 디스플레이 시스템(592))은 상기 뷰어가 상기 실제 세계의 물리적 차량들과 가상 차량들을 모두 볼 수 있게 한다.
일부 실시 예에서, 도 4D의 증강된 뷰(402B)가 디스플레이(420)가 가상 차량(422)의 가시적 부분들을 디스플레이하는 경우(예를 들어, 디스플레이 시스템(592)에 의해 렌더링된 바와 같이), 상기 뷰어의 상기 시야를 도시한다. 예를 들면, 뷰(402A)와 마찬가지로, 상기 뷰어는 디스플레이(420)를 통해 상기 실제 세계의 상기 레이스 코스에서 다양한 물리적 객체들을 여전히 볼 수 있다. 예를 들면, 증강된 뷰(402B)에 도시된 바와 같이, 상기 뷰어는 다른 뷰어들(404B), 펜스(406B), PA 혼 스피커들(408B), 및 물리적 차량들(410B 및 412B) 및 그들의 각각의 그림자들(411B 및 413B)을 여전히 볼 수 있다. 또한, 상기 뷰어는 가상 차량(414) 및 가상 차량(414)의 그림자(415)가 디스플레이되는 것을 볼 수 있다. 일부 실시 예에서, 상기 뷰어에 의해 보여지는 가상 차량(414)은 전술한 바와 같이 디스플레이(420) 상에 디스플레이되는 가상 차량(422)의 가시적 부분들에 대응할 수 있다. 상기 증강된 뷰(402B)의 예에서, 상기 뷰어에 의해 보여지는 가상 차량(414)은 PA 혼 스피커들(408B) 및 물리적 차량(412B)에 의해 차단된다. 일부 실시 예에서, 디스플레이되는 가상 차량(414)은 실제-세계 뷰(402A)에서 상기 뷰어에 의해 보여지는 바와 같이 그림자(413A)의 부분들과 중첩될 수 있다. 따라서, 증강된 뷰(402B)에서 그림자(413B)로 도시된 바와 같이, 가상 차량(422)의 가시적 부분들에 의해 그림자(413A)의 부분들이 차단될 수 있다. 일부 실시 예에서, 가상 차량(422)의 가시적 부분들은 물리적 차량(412A)의 그림자(428)를 포함할 수 있다. 이들 실시 예에서, 증강된 뷰(402B)에 도시된 바와 같이, 상기 뷰어는 가상 차량(414)에서 그림자(416)가 캐스팅되는 것을 볼 수 있다.
일부 실시 예에서, 증강된 뷰(402B)는 도 2A 내지 도 2C에 대해 설명된 바와 같이 풀 렌더링 기술(full rendering technique)에 기초하여 불투명 디스플레이를 통해 뷰어에게 제공될 수 있다. 이들 실시 예에서, 뷰어의 헤드셋에 결합된 카메라는 실제-세계 뷰(402A)에서 보여지는 바와 같이 상기 뷰어의 시야의 하나 이상의 비디오 프레임을 캡처할 수 있다. 상기 시뮬레이션 시스템은 가상 렌더링(430) 내에서 가상 차량(434)을 마찬가지로 계산할 수 있다. 하지만, 이들 실시 예에서, 디스플레이(420) 상에 가상 차량(422)의 가시적 부분들만을 디스플레이하는 대신에, 상기 뷰어의 헤드셋에 구현된 디스플레이는 가상 차량(422)의 가시적 부분들이 그 위에 겹쳐진 하나 이상의 캡처된 비디오 프레임들을 출력하도록 구성될 수 있다. 일부 실시 예에서, 물리적 객체들(가령, 펜스들, 빔들, 인프라 등)은 상기 레이스 코스의 상기 뷰어의 뷰를 차단(block)할 수 있다. 증강된 뷰(402B)는 완전히 렌더링된 뷰들일 수 있기 때문에, 상기 디스플레이는 상기 캡처된 비디오 프레임들 위에 가시적 차량들 및 물리적 차량들의 표상들을 겹쳐(상기 시뮬레이션 시스템에 의해 계산된 바와 같이), 큰 물리적 객체들이 장시간 상기 뷰어의 뷰를 차단하지 않도록 할 수 있다.
일부 실시 예에서, 도 5, 6, 및 9와 관련하여 더 자세히 설명되겠지만, 실제-세계 뷰(402A)는 물리적 레이스 코스에 설치된 카메라(예를 들어, 도 5의 비디오 카메라(580))에 의해 캡처된 라이브 비디오 피드(live video feed)에 대응할 수 있다. 이들 실시 예에서, 상기 카메라의 시점과 관련된 정보는 상기 시뮬레이션 시스템으로 전송될 수 있다. 예를 들면, 이러한 정보에는 하나 이상의 카메라 위치, 방위, 기울기 또는 회전 각도가 포함될 수 있다. 상기 카메라의 시점 정보를 바탕으로, 상기 시뮬레이션 시스템은 도 4B와 관련하여 기술된 바와 같이, 가상 차량, 물리적 차량들의 표상들, 및 물리적 객체들의 표상들을 포함하는 가상 렌더링(430)을 포함하도록 가상 세계를 계산할 수 있다. 일부 실시 예에서, 가상 렌더링(430)에 기초하여, 상기 시뮬레이션 시스템은 상기 카메라 시점의 상기 위치에서 볼 수 있는 바와 같이, 가상 차량(422)의 가시적 부분들을 계산할 수 있다. 도 4C와 관련하여 기술된 바와 같이, 가상 차량(422)의 가시적 부분들은 자동차 프레임 및 세부 사항들(424), 상기 가상 차량의 그림자(426) 또는 가상 렌더링(430)의 다른 객체들에 의해 캐스팅되는 그림자(428)를 포함할 수 있다. 일부 실시 예에서, 증강된 뷰(402B)에 도시된 바와 같이 그리고 도 4D와 관련하여 전술한 바와 같이, 가상 차량(422)의 가시적 부분들은 실제-세계 뷰(402A)의 라이브 비디오 피드 상에 오버레이되어 물리적 차량들과 가상 차량들 사이의 레이스를 디스플레이할 수 있다.
도 5는 일부 실시 예에 따른 물리적 차량(510)과 시뮬레이션된 엔티티(530) 사이의 가상 레이스를 시뮬레이션하기 위한 시스템(500)이다. 일부 실시 예에서, 네트워크(network)(502)는 다양한 컴포넌트들 즉, 물리적 차량(physical vehicle)(510), 시뮬레이션된 엔티티(simulated entity)(530), 시뮬레이션 시스템(simulation system)(540), 뷰잉 장치들(viewing devices)(560), 콘텐츠-전달 시스템(content-delivery system)(570), 카메라(camera)(580) 및 뷰어(viewer)(590)를 통신으로 연결한다. 일부 실시 예에서, 카메라(580)는 콘텐츠-전달 시스템(570)에 연결될 수 있다. 시스템(500)을 참조하면, 네트워크(502)는 다양한 컴포넌트들 간의 데이터 흐름을 위한 도관(conduit)일 수 있다. 네트워크(502)는 근거리 통신망(LANs), 광역 통신망(WANs), 인터넷 등의 임의의 조합을 포함하는 유선 및/또는 무선 네트워크일 수 있다.
일부 실시 예에서, 시뮬레이션 시스템(540)은 레이싱 시뮬레이션(racing simulation)(550)으로 표상되는 상기 가상 레이스를 시뮬레이션하기 위해 모델들(models)(542) 및 물리적 차량(physical vehicle)(510) 및 시뮬레이션된 엔티티(530)로부터 수신된 정보에서 작동하는 다수의 엔진들(engines)(552)을 포함한다. 또한, 시뮬레이션 시스템(540)은 RF 회로(548)를 포함하며, 이는 물리적 차량(510), 뷰어(590) 및 시뮬레이션된 엔티티(530)와 데이터(가령, 그래픽 데이터, 운동학 정보, 포스 정보, 오디오 정보 등)를 통신하기 위해 도 1과 관련하여 설명된 RF 회로(105)와 유사한 컴포넌트들을 포함할 수 있다.
일부 실시 예에서, 모델들(542)은 차량 모델들(vehicle models)(544) 및 레이스 코스 모델들(racecourse models)(546)을 포함한다. 차량 모델들(544)은 상기 레이싱 시뮬레이션(550)의 가상 환경에서 생물(animate) 또는 무생물(inanimate) 객체들의 3-D 모델들을 포함할 수 있다. 예를 들면, 차량 모델들(544)은 시뮬레이션된 엔티티(530)에 대응하는 가상 차량의 3-D 모델뿐만 아니라 물리적 차량들(510)의 3-D 모델을 포함할 수 있다. 레이스 코스 모델들(546)은 물리적 차량(510)이 그 위에서 동작하는 상기 물리적 레이스 코스의 2-D 또는 3-D 모델들을 포함할 수 있다. 일부 실시 예에서, 상기 2-D 또는 3-D 모델들은 지형들(terrains), 경계들(boundaries) 또는 토폴로지 특징들(topological features) 등과 관련된 정보를 포함할 수 있다. 레이스 코스 모델들(546)은 레이스 코스 및 관련 특성들(예를 들어, 지형, 재료 유형, 길이 등), 관람석들 등을 포함할 수 있다.
일부 실시 예에서, 레이싱 시뮬레이션(550)을 생성 및 유지하기 위해, 엔진들(552)은 물리 엔진(physics engine)(554), 그래픽 엔진(graphics engine)(556) 및 오디오 엔진(audio engine)(558)을 포함한다. 물리 엔진(554)은 레이싱 시뮬레이션(550) 내에서 물리 법칙을 현실적으로 에뮬레이트하기 위한 알고리즘을 포함할 수 있다. 특히, 물리 엔진(554)은 레이싱 시뮬레이션(550)에서 컴포넌트들, 예를 들어 시뮬레이션된 물리적 차량들 또는 시뮬레이션된 가상 차량들이 서로 상호 작용하는 방법 및 가상 레이스 코스를 제어하는 알고리즘을 포함한다. 일부 실시 예에서, 다른 곳에서 기술된 바와 같이, 물리 엔진(554)은 물리적 차량(510)으로부터 수신된 운동학 정보 및 시뮬레이션된 엔티티(530)로부터 수신된 입력들에 기초하여 레이싱 시뮬레이션(550)을 생성 및 유지한다. 도 6 내지 도 9와 관련하여 더 자세히 설명되겠지만, 상기 운동학 정보는 일부 실시 예에 따라 물리적 차량(510)의 위치 정보를 포함할 수 있다. 예를 들면, 물리 엔진(554)은 차량 모델들(544)에서의 대응 모델에 기초하여 레이싱 시뮬레이션(550) 내에서 물리적 차량(510)의 아바타를 생성할 수 있고, 여기서 레이싱 시뮬레이션(550)에서 상기 아바타의 위치는 상기 수신된 운동학 정보에 기초하여 계산될 수 있다. 또한, 물리 엔진(554)은 시뮬레이션된 엔티티(530)로부터 수신된 상기 입력들에 기초하여 시뮬레이션된 엔티티(530)에 대응하는 가상 차량의 운동학 정보를 생성할 수 있다. 상기 생성된 운동학 정보 및 차량 모델들(544)을 사용하여, 물리 엔진(554)은 레이싱 시뮬레이션(550) 내에서 상기 가상 레이스 코스 상의 상기 가상 차량을 시뮬레이션할 수 있다.
일부 실시 예에서, 물리적 차량(510)이 디스플레이(512) 상에서 하나 이상의 가상 차량들을 시뮬레이션할 수 있도록 하기 위해, 시뮬레이션 시스템(540)은 상기 가상 차량의 상기 운동학 정보를 시뮬레이션 컴포넌트(522) 또는 디스플레이 시스템(514)에 전송한다.
일부 실시 예에서, 도 1의 시뮬레이션 시스템(140)과 관련하여 설명된 바와 같이, (시뮬레이션 시스템(540) 내) 물리 엔진(554)은 레이싱 시뮬레이션(550)에서 상기 물리적 차량과 상기 가상 차량 사이에서 시뮬레이션된 상호 작용에 기초하여 포스 정보를 추가로 계산한다. 일부 실시 예에서, 물리 엔진(554)은 물리적 차량(510)에 대한 포스 정보 및 시뮬레이션된 엔티티(530)에 대한 포스 정보를 계산한다. 이어서, 시뮬레이션 시스템(540)은 상기 계산된 포스 정보를 RF 회로(548)를 통해 물리적 차량(510), 시뮬레이션된 엔티티(530) 또는 둘 다에 전송할 수 있다.
일부 실시 예에서, 물리적 차량(510) 및 시뮬레이션된 엔티티(530)에서 경험되는 상기 레이스의 현실감을 향상시키기 위해, (시뮬레이션 시스템 내) 오디오 엔진(558)은 레이싱 시뮬레이션(550) 내에서 사운드를 계산하기 위한 알고리즘을 포함한다. 오디오 엔진(558)은 엔진들, 브레이크들, 타이어들, 폭발들 및 차량들 간의 충돌들과 관련된 사운드 파일들(sound files)을 포함할 수 있다. 일부 실시 예에서, 오디오 엔진(558)은 레이싱 시뮬레이션(550)을 생성하기 위해, 물리 엔진(554)에 의해 계산된 차량들 사이의 거리에 기초하여 생성된 사운드의 볼륨을 계산한다. 이어서, 오디오 엔진(558)은 오디오 정보를 물리적 차량(510), 시뮬레이션된 엔티티(530) 또는 둘 다에 전송할 수 있다.
일부 실시 예에서, 그래픽 엔진(556)은 레이싱 시뮬레이션(550)을 위한 3D 애니메이션된 그래픽을 생성한다. 예를 들면, 그래픽 엔진(556)은 차량 모델들(544) 및 물리 엔진들(554)로부터의 계산에 기초하여 차량들(예를 들어, 물리적 차량(510)의 아바타 또는 시뮬레이션된 엔티티(530)에 대응하는 가상 차량)을 렌더링하기 위해 특수화된 하드웨어를 이용할 수 있다. 또한, 그래픽 엔진(556)은 레이스 코스 모델들(546)에 기초하여 레이싱 시뮬레이션(550) 내에 가상 레이스 코스를 렌더링할 수 있다. 일부 실시 예에서, 그래픽 엔진(556)에 의해 생성된 상기 그래픽 정보(예를 들어, 차량들 및 레이스 코스)는 RF 회로(548)를 통해 물리적 차량(510), 시뮬레이션된 엔티티(530) 또는 이들의 조합으로 전송될 수 있다.
그래픽 엔진(556)은 상기 3-D 애니메이션 그래픽들을 생성하기 위해 래스터라이제이션(rasterization) 또는 레이-트레이싱(ray-tracing)과 같은 기술을 이용할 수 있다. 일부 실시 예에서, 그래픽 엔진(556)은 시뮬레이션 시스템(540)의 하나 이상의 프로세서에서 실행되도록 프로그래밍되고 컴파일된 컴퓨터 소프트웨어 어플리케이션(computer software applications)을 포함한다. 다른 실시 예에서, 그래픽 엔진(556)은 Direct3D 또는 Open GL과 같은 그래픽 어플리케이션 프로그래밍 인터페이스(application programming interfaces: APIs)에 구축될 수 있다.
일부 실시 예에서, 물리적 차량(510)은 도 1과 관련하여 설명된 물리적 차량(101)에 대응한다. 물리적 차량(510)에서 시뮬레이션된 엔티티(530)에 대응하는 가상 차량을 시뮬레이션하기 위해, 물리적 차량(510)은 디스플레이(display)(512), 디스플레이 시스템(display system)(514), (센서(516)를 포함할 수 있는) 텔레메트리 시스템(telemetry system)(520), 포스 제어기(force controller)(518) 및 시뮬레이션 컴포넌트(simulation component)(522) 중 하나 이상을 포함한다. 이들 구성 요소는 도 1과 관련하여 설명된 유사하게 명명된 컴포넌트들에 대응할 수 있다. 일반적으로, 텔레메트리 시스템(520)은 데이터를 수신 및 전송하는 양방향 원격 측정 시스템일 수 있다. 예를 들면, 텔레메트리 시스템(520)은 센서들(516)에 의해 모니터링되는 물리적 차량(510)의 운동학 정보와 같은 데이터를 네트워크(502)를 통해 시뮬레이션 시스템(540)으로 전송할 수 있다. 일부 실시 예에서, 상기 데이터는 물리적 레이스 코스에서 물리적 차량(510)의 위치를 포함한다. 일부 실시 예에서, 센서들(516)에 의해 캡처된 상기 데이터는 도 6 및 도 9와 관련하여 더 자세히 설명되겠지만, 물리적 차량(510)의 운전자의 시점의 위치를 포함할 수 있다.
일부 실시 예에서, 텔레메트리 시스템(520)은 전술한 바와 같이 시뮬레이션 시스템(540)으로부터 상기 가상 차량의 운동학 정보를 수신할 수 있다. 텔레메트리 시스템(520)은 상기 수신된 운동학 정보를 디스플레이 시스템(514)으로 라우팅할 수 있다. 상기 수신된 운동학 정보에 기초하여, 디스플레이 시스템(514)은 디스플레이(512) 상에 디스플레이하기 위해 디스플레이 시스템(514)에 의해 처리되는 상기 가상 차량의 가상 표상을 생성할 수 있다. 상기 물리적 차량(510)의 상기 운전자의 시야 내에서 상기 가상 차량을 시뮬레이션함으로써, 시스템(500)은 상기 운전자가 상기 시뮬레이션된 차량이 상기 운전자와 물리적으로 근접한 것처럼 느끼도록 한다. 전술한 바와 같이, 상기 가상 차량의 상기 가상 표상을 생성하기 위한 상기 처리는 원격으로, 예를 들어 시뮬레이션 시스템(540)으로 오프로드(offload)될 수 있다. 이들 실시 예에서, 상기 가상 표상은 시뮬레이션 시스템(540)에 의해 생성되어 디스플레이 시스템(514)으로 전송될 수 있다. 이어서, 디스플레이 시스템(514)은 상기 운전자의 상기 시야 내에서 상기 가상 차량을 시뮬레이션하기 위해 디스플레이(512) 상에 상기 가상 표상을 디스플레이할 수 있다.
일부 실시 예에서, 도 6 및 도 9와 관련하여 더 자세히 설명되겠지만, 상기 가상 표상의 사실감을 향상시키기 위해, 상기 생성된 가상 표상은 상기 운전자의 상기 시점의 상기 위치에서 볼 수 있는 상기 가상 차량의 부분을 포함할 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(540)은 상기 가시적 부분을 생성할 수 있다. 일부 실시 예에서, 물리적 차량(510) 상에 탑재된(onboard) 시뮬레이션 컴포넌트(522)는 상기 가시적 부분을 생성할 수 있다.
일부 실시 예에서, 상기 물리적 차량(510)의 상기 운전자에 의해 경험되는 상기 레이스의 현실감을 더욱 향상시키기 위해, 포스 제어기(518)는 물리적 차량(510)에서 하나 이상의 기계적 요소들을 제어하기 위해 포스 정보를 수신한다. 일부 실시 예에서, 전술한 바와 같이, 물리 엔진(554)에 의해 계산된 상기 포스 정보는 시뮬레이션 시스템(540)으로부터 수신된다. 다른 실시 예에서, 상기 포스 계산은 물리적 차량(510) 상에 탑재되어(on-board) 수행될 수 있다.
일부 실시 예에서, 뷰어(590)는 물리적 차량(510)과 시뮬레이션된 엔티티(530) 사이의 상기 레이스를 보고 있는 청중 구성원에 대응할 수 있다. 뷰어(590)에 디스플레이하기 위한 가상 차량을 시뮬레이션하기 위해, 뷰어(590)는 디스플레이(594), 디스플레이 시스템(592), (센서들(598)을 포함할 수 있는) 텔레메트리 시스템(596) 및 시뮬레이션 컴포넌트(599) 중 하나 이상의 컴포넌트들을 구현하는 하나 이상의 장치들을 착용 또는 동작시킬 수 있다. 이들 컴포넌트들은 물리적 차량(510)과 관련하여 설명된 유사하게 명명된 컴포넌트들에 대응될 수 있다. 일반적으로, 텔레메트리(596)는 센서들(598)에 의해 검출된 뷰어(590)의 제한된 운동학 정보를 전송한다. 예를 들면, 상기 제한된 운동학 정보는 뷰어(590)의 위치(예를 들어, GPS 위치)를 포함할 수 있다. 뷰어(590)가 제한된 모션과 관련될 가능성이 있기 때문에, 일부 실시 예에 따라, 모션과 관련된 다른 유형의 운동학 정보는 센서들(598)에 의해 캡처될 필요가 없을 수 있다. 일부 실시 예에서, 센서들(516)과 같이, 센서들(598)은 뷰어(590)의 시점의 위치를 캡처하기 위한 카메라들을 포함할 수 있다. 일부 실시 예에서, 디스플레이(594)는 뷰어(590)에 의해 착용된 하나 이상의 장치에서 구현될 수 있다. 예를 들면, 디스플레이(594)는 헤드셋(예를 들어, 헬멧) 또는 뷰어(590)에 의해 착용된 바이저로 구현될 수 있다. 일부 실시 예에서, 뷰어(590)는 시뮬레이션 컴포넌트(599)를 구현하는 장치를 착용하거나 동작시킬 수 있다. 시뮬레이션 컴포넌트(522)의 상기 기능과 마찬가지로, 시뮬레이션 컴포넌트(599)는 시뮬레이션 시스템(540)에 의해 수행된 일부 계산들을 처리할 수 있다.
일부 실시 예에서, 시뮬레이션 시스템(540)은 콘텐츠-전달 시스템(570)과 통신하여, 뷰잉 장치들(560)을 통해 라이브 및 시뮬레이션된 참가자, 예를 들어, 물리적 차량들 및 가상 차량들 간의 상기 시합을 청중에게 디스플레이한다. 예를 들면, 상기 가상 차량은 상기 물리적 레이스 코스에서 비디오 카메라(580)의 관점에서 실제 비디오 영상(real video footage) 상에 오버레이될 수 있고, 상기 결합된 비디오 영상은 시합에서 동일한 레이스 코스에서 상기 물리적 차량 및 가상 차량을 볼 수 있는 상기 청중이 볼 수 있도록 하나 이상의 뷰잉 장치들(560) 상에 보여질 수 있다.
일부 실시 예에서, 콘텐츠-전달 시스템(570)은: 케이블 또는 텔레비전 네트워크를 통해 비디오 콘텐츠를 방송하기 위한 비디오 서버(video server)(572); 및 요청에 따라 또는 인터넷과 같은 네트워크(502)를 통한 라이브 스트리밍을 통해 비디오 콘텐츠를 전송하기 위한 웹 서버(web server)(574)를 포함한다. 전술한 바와 같이, 비디오 서버(572)는 비디오 카메라(580)를 통해 획득된 비디오 콘텐츠를 브로드 캐스트할 수 있다. 일부 실시 예에서, 다수의 비디오 카메라가 상이한 시점들에서 상기 레이스의 라이브 비디오 영상(live video footage)을 기록하기 위해 상기 물리적 레이스 코스에 존재할 수 있다. 이들 실시 예에서, 비디오 서버(572)는 복수의 비디오 카메라로부터 하나의 비디오 카메라(예를 들어, 비디오 카메라(580))에 의해 캡처된 라이브 비디오 영상을 선택할 수 있다. 일부 실시 예에서, 각 비디오 카메라들은 그 자체의 시점을 포함하고, 각 시점은 각 비디오 카메라로부터의 라이브 이미지 피드(live image feed)와 결합하기 위해 상기 가상 차량의 상기 가시적 부분을 판단하는데 사용된다.
비디오 서버(572) 및 웹 서버(574)는 콘텐츠-전달 시스템(570)에 의해 구현되는 것으로 도시되어 있지만, 이들 서버(예를 들어, 비디오 서버(572) 및 웹 서버(574)) 중 하나 이상은 별도의 엔티티들 또는 시뮬레이션 시스템(540)에 의해 구현될 수 있다.
일부 실시 예에서, 뷰잉 장치들(560)은 비디오 데이터를 제시하기 위한 디스플레이들을 가지는 다양한 전자 장치들을 포함한다. 예를 들면, 라이브 이벤트/시합에 참석하는 청중들은 텔레비전(TV) 스크린들, 점보트론들 등을 포함하는 뷰잉 장치들(560)에서 상기 시합을 볼 수 있다. 다른 예에서, 집에 있는 청중들은 다른 유형의 모바일 장치들 중에서 TVs, 랩톱들, 태블릿들, 스마트 폰들, 데스크탑 컴퓨터들과 같은 뷰잉 장치들(560)을 동작시킬 수 있다. 또한, 일부 실시 예에서, 가정과 상기 라이브 시합에서 청중들은, 청중 구성원이 위치한 위치 기반 정보뿐만 아니라 헤드 및 눈의 공간 및 방향 측정에 기초하여 상기 청중 구성원의 관점에서 (예를 들어, 라이브 및 가상 참가자들을 포함하여) 상기 결합된 장면을 디스플레이하는 HMDs 또는 고글들과 같은 뷰잉 장치들(560)을 착용할 수 있어, 상기 HMDs에 내장된 프로세서, 상기 청중이 있는 휴대용 컴퓨터들 또는 모바일 장치들에서, 또는 카메라 및 청중이 있는 회원 위치가 등록된 원격 서버에서 HMDs에 내장된 프로세서를 사용하여 장면을 정확하게 재생성하고, 디스플레이 정보를 상기 청중 구성원의 HMD 또는 휴대용 컴퓨터/모바일 장치로 스트리밍한다.
일부 실시 예에서, 시뮬레이션된 엔티티(530)는 디스플레이(534)에 연결된 시뮬레이션 장치(532) 및 가상 레이스에서 상기 가상 차량을 제어하기 위한 입력 제어기(536)를 포함한다. 일부 실시 예에서, 시뮬레이션 장치(532)는 포스 제어기(538) 및 디스플레이 시스템(539)을 포함한다. 시뮬레이션 장치(532)는 범용 컴퓨터 또는 비디오 게임 콘솔과 같은 특수 컴퓨터일 수 있다.
일부 실시 예에서, 입력 제어기(536)는 가상 레이스에서 상기 가상 차량을 제어하기 위한 다른 유형의 입력 장치 중에서 키보드, 비디오 게임 제어기, 조이스틱, 스티어링 휠과 페달들, 포스 패드, 트레드밀, 스티어링 휠을 포함할 수 있다.
일부 실시 예에서, 시뮬레이션 장치(532)는 입력 제어기(536)로부터 입력들을 수신하고, 상기 수신된 입력을 시뮬레이션 시스템(540)으로 전송한다. 일부 실시 예에서, 시뮬레이션 시스템(540)은 상기 입력들에 기초하여 상기 가상 레이스 코스 상에서 상기 가상 차량을 시뮬레이션한다. 이어서, 시뮬레이션 시스템(540)은 상기 가상 레이스 코스 상에서 상기 가상 차량의 위치에 대응하는 디스플레이 정보를 전송할 수 있다. 시뮬레이션 장치(532) 내의 디스플레이 시스템(539)은 상기 디스플레이 정보를 수신하고, 상기 가상 레이스를 디스플레이(534) 상의 컴퓨터-생성 이미지(computer-generated imagery: CGI)로서 렌더링할 수 있다. 일부 실시 예에서, 디스플레이 시스템(539)은 상기 가상 레이스를 디스플레이(534)에 투영한다.
시스템(200)을 참조하면, 디스플레이(534)는 텔레비전 스크린, 모니터, 프로젝터 또는 그래픽 데이터를 디스플레이하기 위한 다른 장치를 포함할 수 있다. 일부 실시 예에서, 도 1의 디스플레이에 대해 설명된 바와 같이, 디스플레이(534)는 입력 제어기(536)의 사용자에 의해 착용된 헤드-마운트 디스플레이(HMD)를 포함할 수 있다. 예를 들면, 상기 HMD는 바이저, 헤드셋(예를 들어 헬멧), 안경, 고글 또는 사용자의 눈 앞에서 착용된 다른 장치를 포함할 수 있다.
다른 실시 예에서, 상기 HMD는 망막 투영 기법들(retinal projection techniques)을 구현하여 하나 이상의 가상 차량을 시뮬레이션한다. 예를 들면, 상기 HMD는 차량 운전자(114)의 상기 시야에서 하나 이상의 가상 차량의 3-D 이미지를 생성하기 위해 차량 운전자(114)의 상기 왼쪽 눈 및 오른쪽 눈 상에 이미지를 투영하는 가상 망막 디스플레이(VRD)를 포함할 수 있다.
일부 실시 예에서, 포스 제어기(538)는 시뮬레이션 시스템(540)으로부터 포스 정보를 수신한다. 상기 포스 정보는 상기 가상 레이스 코스 상의 상기 가상 차량과 상기 물리적 차량 사이의 시뮬레이션 시스템(540)에 의해 시뮬레이션된 상호 작용, 예를 들어 충돌(collision)과 관련될 수 있다. 시뮬레이션된 엔티티의 상기 가상 레이싱 경험을 향상시키기 위해, 포스 제어기(538)는 예를 들어 입력 제어기(536)를 진동시킴으로써 입력 제어기(536)에 피드백을 제공할 수 있다. 일부 실시 예에서, 사용자 조작 입력 제어기(536)는 실제 충돌에서 상기 사용자에 의해 느껴질 상기 물리적 감각들을 에뮬레이트하기 위해 포스 제어기(538)에 의해 제어되는 하나 이상의 액추에이터들을 포함하는 햅틱 슈트(haptic suit)를 착용할 수 있다.
도 6은 일부 실시 예에 따라, 디스플레이들 상에 가상 차량을 디스플레이하기 위한 방법(600)을 예시하는 순서도이다. 일부 실시 예에서, 방법(600)은 물리적 차량(physical vehicle)(602), 시뮬레이션 시스템(simulation system)(604) 및 뷰어(viewer)(606)에서 수행되는 단계를 포함한다. 예를 들면, 물리적 차량(602)에서 수행되는 단계는, 도 1의 물리적 차량(101) 또는 도 5의 물리적 차량(510) 과 같은 물리적 차량 내의 컴포넌트들에 의해 구현될 수 있다. 예를 들면, 시뮬레이션 시스템(604)에서 수행되는 단계들은 도 1의 시뮬레이션 시스템(140) 또는 도 5의 시뮬레이션 시스템(540)에 의해 구현될 수 있다. 예를 들면, 뷰어(606)에서 수행되는 단계들은 물리적 레이스 코스 상에서 물리적 차량(602)과 가상 차량 사이의 레이스를 시청하는 청중 구성원이 착용한 장치들(예를 들어, 도 5의 뷰어(590)에 도시된 컴포넌트들)에 의해 수행될 수 있다.
단계(610)에서, 물리적 차량(602)은 물리적 차량(602)의 위치를 식별한다. 일부 실시 예에서, 물리적 차량(602)은 물리적 차량(602) 상에 탑재된 하나 이상의 센서들(예를 들어, 도 1의 센서들(108) 또는 도 5의 센서들(516))을 통해 물리적 차량(602)의 운동학 정보를 검출함으로써 물리적 차량(602)의 상기 위치를 식별할 수 있다. 일부 실시 예에서, 물리적 차량(602)의 상기 위치는 물리적 차량(602)의 두 부분들 각각에 대한 위치 정보를 포함한다. 예를 들면, 물리적 차량(602)의 제1부분에 대한 위치 정보는 상기 제1부분에 배치된 GPS 센서에 의해 검출될 수 있다. 일부 실시 예에서, 물리적 차량(602)의 상기 위치는 물리적 차량(602)의 한 부분의 위치(location) 및 물리적 차량(602)의 방위(orientation)를 포함한다. 일부 실시 예에서, 물리적 차량(602)의 상기 방위는 물리적 차량(602) 상에 탑재된 센서(예를 들어, 자이로스코프)에 의해 검출된 자이로스코프 데이터를 포함할 수 있다.
단계(611)에서, 물리적 차량(602)은 물리적 차량(602)의 상기 위치를 시뮬레이션 시스템(604)에 제공한다.
단계(620)에서, 시뮬레이션 시스템(604)은 가상 차량을 제어하는 입력들을 수신한다. 일부 실시 예에서, 상기 입력은 도 5와 관련하여 설명된 바와 같이 입력 제어기(536)로부터 수신될 수 있다.
단계(621)에서, 시뮬레이션 시스템(604)은 물리적 차량(602)으로부터의 입력들 및 상기 가상 차량을 제어하는 입력들에 기초하여 상기 가상 차량과 상기 물리적 차량 사이의 가상 레이스 코스 상에서 레이스를 시뮬레이션하기 위한 가상 세계를 계산한다. 일부 실시 예에서, 상기 가상 세계는 레이싱 시뮬레이션(예를 들어, 도 1의 레이싱 시뮬레이션(141) 또는 도 5의 레이싱 시뮬레이션(550))에서 구현될 수 있다. 일부 실시 예에서, 상기 물리적 차량(602)으로부터의 상기 입력은 단계(611)에서 제공된 물리적 차량(602)의 상기 위치를 포함할 수 있다. 일부 실시 예에서, 레이싱 시뮬레이션을 생성하기 위해, 시뮬레이션 시스템(604)은 단계(611)에서 제공된 상기 위치에 부분적으로 기초하여 상기 레이싱 시뮬레이션에서 상기 가상 레이스 코스에 추가할 상기 물리적 차량의 표상을 계산할 수 있다. 일부 실시 예에서, 상기 레이싱 시뮬레이션을 생성하기 위하여, 시뮬레이션 시스템(604)은 단계(620)의 상기 입력들에 기초하여 상기 레이싱 시뮬레이션에서 상기 가상 레이스 코스에 추가할 상기 가상 차량을 계산할 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(604)은 상기 가상 세계에서 상기 가상 차량과 관련된 운동학 정보를 업데이트하기 위해 상기 입력들을 사용할 수 있다. 일부 실시 예에서, 상기 운동학 정보는 상기 가상 차량의 하나 이상의 모션 벡터들, 하나 이상의 모션 스칼라들, 위치 벡터, GPS 위치, 속도, 가속도, 방위 또는 이들의 조합을 포함한다. 상기 업데이트된 운동학 정보를 기반으로, 일부 실시 예에 따르면, 시뮬레이션 시스템(604)은 상기 가상 세계에서 상기 가상 차량의 시뮬레이션을 업데이트할 수 있다.
단계(612)에서, 물리적 차량(602)은 물리적 차량(602)의 운전자의 시점의 위치를 식별한다. 일부 실시 예에서, 상기 운전자의 상기 시점의 상기 위치는 물리적 차량(602)의 센서(예를 들어, 카메라)에 의해 검출된 상기 운전자의 헤드에 대해 판단될 수 있다. 예를 들면, 상기 시점의 상기 위치는 상기 운전자의 헤드의 공간적 위치를 검출하는 것을 포함할 수 있다. 예를 들면, 일부 실시 예에서, 상기 운전자의 시점의 상기 위치는 헤드 위치를 추적하는 것, 상기 헤드 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 것, 상기 헤드 기어 상의 일 지점으로부터 상기 물리적 차량 상의 고정 점까지의 벡터를 식별하는 것, 상기 헤드 상의 일 지점으로부터 일 장소의 고정 점까지의 벡터를 식별하는 것, 혹은 헤드 기어 상의 일 지점으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 것 중 하나 이상에 의해 판단될 수 있다. 일부 실시 예에서, 상기 장소는 상기 물리적 레이스 코스, 상기 스탠드들 또는 상기 물리적 레이스 코스의 기타 인프라를 포함할 수 있다.
일부 실시 예에서, 상기 운전자의 상기 시점의 상기 위치는 물리적 차량(602)의 센서(예를 들어, 카메라)에 의해 검출된 상기 운전자의 눈에 대해 판단될 수 있다. 예를 들면, 상기 시점의 위치는 상기 사용자가 운전자인 경우 상기 사용자의 눈의 공간적 위치, 상기 사용자의 눈의 시선 방향, 또는 상기 사용자의 눈의 초점을 검출하는 것을 포함할 수 있다. 예를 들면, 일부 실시 예에서, 상기 운전자의 시점의 상기 위치는, 눈의 시선을 측정하는 것, 눈의 움직임을 추적하는 것, 한 쪽 또는 양 쪽 눈으로부터 상기 물리적 차량의 고정 점까지의 벡터를 식별하는 것, 안경(가령, 바이저)의 일 지점에서 일 장소의 고정 점까지의 벡터를 식별하는 것, 한 쪽 또는 양 쪽 눈에서 상기 레이스 코스의 고정 점까지의 벡터를 식별하는 것, 또는 한 쪽 또는 양 쪽 눈으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 것 중 하나 이상에 의해 판단될 수 있다. 일부 실시 예에서, 상기 장소는 상기 물리적 레이스 코스, 상기 스탠드들 또는 상기 물리적 레이스 코스의 기타 인프라를 포함할 수 있다. 일부 실시 예에서, 상기 운전자의 상기 시점의 상기 위치는 상기 눈으로부터의 광 반사(light reflection) 또는 굴절(refraction)을 측정함으로써 식별될 수 있다.
단계(613)에서, 물리적 차량(602)은 상기 운전자의 상기 시점의 위치를 시뮬레이션 시스템(604)에 제공한다. 일부 실시 예에서, 물리적 차량(602)은 상기 시점의 상기 위치를 시뮬레이션 시스템(604)에 무선으로 전송한다. 일부 실시 예에서, 물리적 차량(602)에 결합된 텔레메트리 시스템(예를 들어, 도 1의 텔레메트리 시스템(104))은 상기 전송을 수행할 수 있다.
단계(622)에서, 시뮬레이션 시스템(604)은 상기 운전자의 상기 시점의 상기 위치에서 보이는 상기 가상 차량의 제1부분을 계산한다. 일부 실시 예에서, 도 9와 관련하여 더 자세히 설명되겠지만, 시뮬레이션 시스템(604)은 상기 가상 차량의 어느 부분들이 (단계(621)에서 생성된 레이싱 시뮬레이션 내의 가상 위치에 대하여) 상기 물리적 차량의 상기 표상에 의해 가려지지 않은지를 판단함으로써 상기 제1부분을 계산한다. 특히, 상기 시뮬레이션 시스템(604)은 단계(613)에서 설명된 바와 같이 물리적 차량(602)에 의해 제공된 상기 시점의 상기 위치에 대응하는 가상 위치를 판단할 수 있다. 일부 실시 예에서, 상기 시뮬레이션 시스템(604)은 상기 레이싱 시뮬레이션에서 물리적 객체의 상기 표상에 의해 상기 가상 차량의 어느 부분들이 가려지지 않는지를 판단함으로써 상기 제1부분을 계산한다. 일부 실시 예에서, 도 3A 내지 도 4D와 관련하여 전술한 바와 같이, 상기 레이싱 시뮬레이션 내의 상기 가상 차량의 부분들이 상기 운전자의 상기 시점의 상기 가상 위치에 대한 다른 물리적 또는 가상 차량의 표상들에 의해 차단(obstructed)될 수 있다. 예를 들면, 물리적 객체의 상기 표상이 상기 시점의 상기 가상 위치와 상기 물리적 객체의 표상의 가려지는 부분 사이의 직선 상에 위치할 때, 상기 물리적 객체의 표상은 상기 시점의 가상 위치로부터 상기 가상 차량의 부분을 차단할 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(604)에 의해 계산된 상기 제1부분은 전술한 바와 같이 상기 가상 차량의 차단되지 않은 부분을 포함할 수 있다. 일부 실시 예에서, 상기 제1부분은 전술한 바와 같이 상기 가상 차량의 상기 차단되는 부분들을 배제할 수 있다.
일부 실시 예에서, 상기 가상 차량의 상기 제1부분은 상기 가상 세계 내에서 생성되는 하나 이상의 가상 그림자를 포함할 수 있다. 일부 실시 예에서, 상기 하나 이상의 가상 그림자는 상기 가상 차량의 가상 그림자, 상기 가상 차량 상에 캐스팅되는 가상 그림자, 또는 상기 가상 차량의 상기 가상 그림자 및 상기 가상 차량 상에 캐스팅되는 상기 가상 그림자 모두를 포함할 수 있다. 예를 들면, 상기 가상 차량 상에 캐스팅되는 상기 가상 그림자는 다른 가상 차량의 가상 그림자, 상기 가상 세계에서의 상기 물리적 차량의 표상의 가상 그림자, 또는 상기 가상 세계에서 생성되는 다른 가상 객체들의 가상 그림자를 포함할 수 있다.
일부 실시 예에서, 상기 가상 차량의 상기 제1부분은 시뮬레이션 시스템(604)(예를 들어, 그래픽 엔진(556))에 의해 생성된 가상 표상을 포함할 수 있다. 일부 실시 예에서, 상기 가상 표상에는 그래픽 요소 세트가 포함된다. 일부 실시 예에서, 상기 가상 표상은 모델들(예를 들어, 차량 모델(544))의 데이터베이스에 저장된 상기 가상 차량의 디지털 3-D 모델에 기초하여 시뮬레이션 시스템(604)에 의해 생성될 수 있다.
단계(623)에서, 시뮬레이션 시스템(604)은 단계(622)에서 계산된 상기 제1부분을 물리적 차량(602)에 출력한다. 일부 실시 예에서, 시뮬레이션 시스템(604)은 상기 제1부분을 무선으로(예를 들어, 도 5의 RF 회로(548)를 통해) 물리적 차량(602)으로 전송한다.
단계(614)에서, 물리적 차량(602)은 상기 제1부분을 디스플레이 시스템(예를 들어, 도 1의 디스플레이 시스템(102) 또는 도 5의 디스플레이 시스템(514))에 제공한다. 일부 실시 예에서, 상기 시뮬레이션 시스템(604)으로부터 수신된 상기 제1부분은 시뮬레이션 시스템(604)에 의해 계산된 운동학 정보를 포함할 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(604)으로부터 수신된 상기 제1부분은 그래픽 정보를 포함할 수 있다. 일부 실시 예에서, 물리적 차량(602)에 연결된 상기 텔레메트리 시스템(예를 들어, 도 1의 텔레메트리 시스템(104))은 상기 가상 차량의 상기 제1부분과 관련된 정보를 수신할 수 있다.
단계(615)에서, 물리적 차량(602)은 상기 가상 차량의 상기 제1부분을 물리적 차량(602)에 근접한 디스플레이(예를 들어, 도 5의 디스플레이(512)) 상에 디스플레이한다. 일부 실시 예에서, 상기 디스플레이 시스템(예를 들어, 도 1의 렌더링 컴포넌트(107))은 상기 가상 차량의 상기 제1부분을 디스플레이 상에 렌더링한다. 일부 실시 예에서, 상기 디스플레이 시스템에서의 렌더링 컴포넌트(예를 들어, 도 1의 렌더링 컴포넌트(107))는 상기 가상 차량의 상기 제1부분을 상기 디스플레이 상에 디스플레이하기 위한 가상 표상으로 변환한다. 일부 실시 예에서, 상기 가상 표상은 그래픽 요소 세트를 포함한다. 일부 실시 예에서, 상기 디스플레이 시스템은 상기 운전자의 상기 시야에서 상기 레이스 코스 상에서 상기 가상 차량의 궤적을 시뮬레이션하기 위해 방법(600)(예를 들어, 단계들(610 내지 615 및 620 내지 623))의 하나 이상의 단계를 반복함으로써 일정 기간 동안 상기 가상 차량의 일련의 표상들(단계(623)에서 상기 가상 차량 출력의 가시적 부분을 포함하는 각 표상)을 디스플레이한다.
일부 실시 예에서, 상기 디스플레이 시스템은 상기 가상 표상을 생성하는 시뮬레이션 컴포넌트(예를 들어, 시뮬레이션 컴포넌트(106))를 포함한다. 일부 실시 예에서, 상기 가상 표상은 상기 가상 차량의 디지털 3-D 모델에 기초하여 생성된다. 일부 실시 예에서, 상기 디지털 3-D 모델은 상기 디스플레이 시스템의 메모리에 저장된다. 상기 디지털 3-D 모델은 예를 들어 상기 시뮬레이션 시스템으로부터 수신될 수 있다.
일부 실시 예에서, 상기 디스플레이는 물리적 차량(602)의 하나 이상의 윈도우를 포함한다. 일부 실시 예에서, 상기 디스플레이는 도 1과 관련하여 설명된 프론트 윈드실드(120), 리어-뷰 미러(122), 리어 윈드실드(124), 사이드 윈도우들(126A 및 126B), 사이드 미러들(128A 및 128B) 중 임의의 것과 같은 물리적 차량(602)의 하나 이상의 윈도우 또는 미러를 포함할 수 있다. 일부 실시 예에서, 상기 디스플레이는 상기 운전자 물리적 차량(602)에 의해 착용된 바이저 또는 헤드셋(예를 들어, 도 1의 헬멧(116)) 내에서 구현될 수 있다.
일부 실시 예에서, 시뮬레이션 시스템(604)은 단계들(622 및 623)과 유사한 단계를 수행하여 뷰어(606)와 같은 다른 뷰어가 다른 시점들로부터 상기 가상 차량을 뷰(view)할 수 있게 한다. 일부 실시 예에서, 뷰어(606)는 라이브 레이싱 이벤트에서 청중 구성원일 수 있고, 물리적 레이스 코스 상의 물리적 차량(602)과 상기 물리적 레이스 코스 상에 물리적으로 존재하지 않는 상기 가상 차량 사이의 레이스를 보고 있을 수 있다.
비록 하나의 시스템에서 함께 도시되어 있지만, 일부 실시 예에서, 상기 제1가시적 부분 및 제2가시적 부분 중 하나는 상기 다른 부분을 계산 및 출력하지 않고 계산 및 출력된다.
단계(630)에서, 뷰어(606)의 디스플레이 시스템은 제2시점에 대한 선택을 수신한다. 일부 실시 예에서, 상기 선택은 뷰어(606)의 시점일 수 있다. 예를 들면, 뷰어(606)는 상기 물리적 레이스 코스에 존재하고, 상기 레이스 코스 상에서 물리적 차량(602)을 관찰하는 청중 구성원일 수 있다. 일부 실시 예에서, 상기 선택은 상기 물리적 레이스 코스에 존재하는 비디오 카메라의 시점일 수 있고, 물리적 차량(602)이 레이싱하는 상기 레이스 코스의 부분을 이미징할 수 있다. 물리적 차량(602)이 비디오 카메라에 의해 캡처되는 상기 레이스 코스의 상기 부분을 주행할 때, 상기 비디오 카메라는 비디오 피드 상의 물리적 차량(602)을 이미지화할 수 있다. 상기 물리적 차량이 상기 카메라로 캡처한 상기 레이스 코스의 상기 부분을 가로질러 주행하지 않는 경우, 상기 카메라는 여전히 상기 레이스 코스의 부분을 캡처할 수 있다. 일부 실시 예에서, 상기 제2시점에 대한 상기 선택은 뷰어(606) 또는 비디오 카메라의 시점으로 디폴트(default) 될 수 있다.
단계(631)에서, 뷰어(606)의 상기 디스플레이 시스템은 상기 제2시점의 위치를 식별한다. 일부 실시 예에서, 상기 제2시점이 뷰어(606)의 상기 시점인 일부 실시 예에서, 상기 제2시점의 상기 위치는 뷰어(606)에 근접한 센서(예를 들어, 센서(598))에 의해 검출 된 뷰어(606)의 상기 헤드에 대해 판단될 수 있다. 예를 들면, 일부 실시 예에서, 상기 제2시점의 상기 위치는, 뷰어(600)의 헤드 위치를 추적하는 것, 상기 헤드의 일 지점에서 일 장소의 고정 점까지의 벡터를 식별하는 것, 헤드 기어 상의 일 지점에서 상기 장소의 고정 점까지의 벡터를 식별하는 것 중 적어도 하나에 의해 판단될 수 있다. 일부 실시 예에서, 상기 장소는 상기 물리적 레이스 코스, 상기 스탠드들 또는 상기 물리적 레이스 코스의 기타 인프라를 포함할 수 있다.
제2시점이 뷰어(606)의 상기 시점이 되는 일부 실시 예에서, 상기 제2시점의 상기 위치는 뷰어(606)에 근접한 센서(예를 들어, 센서들(598))에 의해 검출된 뷰어(606)의 눈에 대해 판단될 수 있다. 예를 들면, 상기 제2시점의 상기 위치는 사용자가 뷰어(606)인 상기 사용자의 눈의 공간적 위치, 상기 사용자의 눈의 시선 방향, 또는 상기 사용자 눈의 초점을 검출하는 것을 포함할 수 있다. 예를 들면, 일부 실시 예에서, 상기 제2시점의 상기 위치는, 눈의 시선을 측정하는 것, 눈의 움직임을 추적하는 것, 안경(예를 들어, 바이저)의 일 지점으로부터 일 장소의 고정 점까지의 벡터를 식별하거나, 또는 한쪽 눈 또는 양쪽 눈으로부터 상기 장소의 고정 점까지의 벡터를 식별하는 것 중 적어도 하나에 의해 판단될 수 있다. 일부 실시 예에서, 상기 장소는 상기 물리적 레이스 코스, 상기 스탠드들 또는 상기 물리적 레이스 코스의 기타 인프라를 포함할 수 있다. 일부 실시 예에서, 상기 제2시점의 상기 위치는 뷰어(606)의 상기 눈으로부터의 광 반사 또는 굴절을 측정함으로써 식별될 수 있다.
단계(632)에서, 뷰어(606)의 상기 디스플레이 시스템은 상기 제2시점의 상기 위치를 시뮬레이션 시스템(604)에 제공한다.
단계(624)에서, 시뮬레이션 시스템(604)은 상기 제2시점의 상기 위치에서 보이는 상기 가상 차량의 제2부분을 계산한다. 일부 실시 예에서, 도 9와 관련하여 더 자세히 설명되겠지만, 시뮬레이션 시스템(604)은 단계(621)에서 생성된 상기 레이싱 시뮬레이션 내의 가상 위치에 대한 상기 물리적 차량의 상기 표상에 의해 상기 가상 차량의 어느 부분들이 가려지지 않은지를 판단함으로써 상기 제2부분을 계산한다. 특히, 상기 시뮬레이션 시스템(604)은 단계(632)에서 설명된 바와 같이, 뷰어(606)의 상기 디스플레이 시스템에 의해 제공된 상기 제2시점의 상기 위치에 대응하는 상기 가상 위치를 판단할 수 있다.
단계(625)에서, 시뮬레이션 시스템(604)은 단계(624)에서 계산된 상기 제2부분을 뷰어(606)의 상기 디스플레이 시스템으로 출력한다. 일부 실시 예에서, 시뮬레이션 시스템(604)은 상기 제2부분을 무선으로(예를 들어, 도 5의 RF 회로(548)를 통해) 뷰어(606)의 상기 디스플레이 시스템으로 전송한다.
단계(633)에서, 뷰어(606)에 근접한 무선 인터페이스는 상기 제2부분을 뷰어(606)의 상기 디스플레이 시스템에 제공한다. 일부 실시 예에서, 시뮬레이션 시스템(604)으로부터 수신된 상기 제2부분은 시뮬레이션 시스템(604)에 의해 계산된 운동학 정보를 포함할 수 있다. 일부 실시 예에서, 시뮬레이션 시스템(604)으로부터 수신된 상기 제1부분은 그래픽 정보를 포함할 수 있다. 뷰어(606)의 상기 디스플레이 시스템이 상기 무선 인터페이스를 포함하는 일부 실시 예에서, 뷰어(606)의 상기 디스플레이 시스템은 상기 제2부분을 직접 수신할 수 있다.
단계(634)에서, 뷰어(606)의 상기 디스플레이 시스템은 뷰어(606)에 근접한 디스플레이 상의 상기 가상 차량의 상기 제2부분을 포함한다. 일부 실시 예에서, 뷰어(606)의 상기 디스플레이 시스템은 상기 가상 차량의 제2부분을 상기 디스플레이 상에 렌더링한다. 일부 실시 예에서, 뷰어(606)에 근접한 상기 디스플레이는 뷰어(606)에 의해 착용된 바이저 또는 헬멧에서 구현될 수 있다.
일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 디스플레이를 가지는 전자 장치의 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하고, 상기 하나 이상의 프로그램은 도 6과 관련하여 전술한 단계들 중 임의의 단계를 구현하기 위한 명령어들을 포함한다. 일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 하나 이상의 프로세서에 의해 실행될 때 상기 하나 이상의 프로세서로 하여금 도 6과 관련하여 전술한 단계들을 수행하게 하는 컴퓨터 판독 가능 명령어들을 포함한다. 일부 실시 예에서, 시스템은 전술한 비 일시적 컴퓨터 판독 가능 저장 매체 중 적어도 하나, 및 상기 비 일시적 컴퓨터 판독 가능 저장 매체(들)의 상기 명령어들을 실행하도록 구성된 하나 이상의 프로세서를 포함한다. 일부 실시 예에서, 장치는 도 6과 관련하여 전술한 단계들 중 임의의 단계를 수행하도록 구성된 하나 이상의 프로세서를 포함한다.
도 7은 일부 실시 예에 따라 가상 차량과 물리적 차량 간의 양방향 상호 작용을 상기 물리적 차량의 운전자에게 제공하는 방법(700)을 나타내는 순서도이다. 방법(700)은 예를 들어 도 1의 물리적 차량(101)과 같은 물리적 차량 내의 컴포넌트들에 의해 구현될 수 있다. 일부 실시 예에서, 방법(700)은 방법(600)과 관련하여 디스플레이되고, 설명된 상기 시각적(visual) 피드백 외에 촉각(tactile) 및 오디오(audio) 피드백을 제공하도록 방법(600)을 증진시킨다.
단계(702)에서, 텔레메트리 시스템(예를 들어, 텔레메트리 시스템(104))은 상기 물리적 차량(예를 들어, 물리적 차량(101))의 운동학 정보를 모니터링한다. 일부 실시 예에서, 상기 텔레메트리 시스템은 상기 운동학 정보를 검출하기 위한 하나 이상의 센서를 포함한다. 예를 들면, 상기 하나 이상의 센서는 다른 유형의 센서 중에서도 GPS 수신기, 가속도계, 속도계, 방위 센서, 자이로스코프를 포함할 수 있다.
단계(704)에서, 상기 텔레메트리 시스템은 상기 운동학 정보를 시뮬레이션 시스템(예를 들어, 시뮬레이션 시스템(140))으로 전송한다. 일부 실시 예에서, 상기 운동학 정보는 RF 회로(예를 들어, RF 회로(105))를 통해 전송된다.
일부 실시 예에서, 상기 시뮬레이션 시스템은 상기 원격 측정된 운동학 정보에 기초하여 가상 세계에서 상기 가상 차량과 상기 물리적 차량 간의 가상 레이스를 시뮬레이션한다. 일부 실시 예에서, 상기 가상 세계는 상기 가상 차량 및 상기 물리적 차량의 표상이 상기 가상 레이스 코스 상에서 시뮬레이션되는 가상 레이스 코스를 포함한다. 일부 실시 예에서, 상기 시뮬레이션 시스템은 상기 가상 레이스 코스에서 상기 가상 차량과 상기 물리적 차량 사이의 거리를 계산한다. 상기 계산된 거리에 기초하여, 상기 시뮬레이션 시스템은 상기 가상 레이스 코스 상에서 상기 가상 차량과 상기 물리적 차량 사이에 접촉(예를 들어, 충돌)이 존재하는지를 판단한다. 이어서, 상기 시뮬레이션 시스템은 상기 판단된 접촉에 대응하는 포스 정보를 계산한다.
일부 실시 예에서, 상기 시뮬레이션 시스템은 상기 계산된 거리 및 상기 접촉의 존재 여부에 기초하여 오디오 정보를 계산한다. 일부 실시 예에서, 상기 오디오 정보는 엔진들, 브레이크들, 타이어들, 폭발들 또는 폭발의 하나 이상의 사운드(sound)뿐만 아니라 하나 이상의 사운드의 음량 레벨(volume level)을 포함한다. 예를 들면, 상기 시뮬레이션 시스템은 상기 가상 레이스 코스 상에서 상기 가상 차량과 상기 물리적 차량 사이의 상기 계산된 거리에 반비례(inversely proportional)하도록 하나 이상의 사운드의 볼륨을 계산할 수 있다.
단계(706)에서 포스 제어기(예를 들어, 포스 제어기(112))는 상기 시뮬레이션 시스템으로부터 포스 정보를 수신한다. 예를 들면, 디스플레이 시스템(예를 들어, 디스플레이 시스템(102))은 상기 포스 정보를 수신하여, 상기 포스 제어기에 전달할 수 있다. 일부 실시 예에서, 상기 포스 정보를 계산하는 상기 기능의 일부 또는 전부는 시뮬레이션 컴포넌트(예를 들어, 시뮬레이션 컴포넌트(106))의 상기 물리적 차량에서 수행될 수 있다. 이들 실시 예에서, 상기 시뮬레이션 컴포넌트는 도 8의 단계(816)와 관련하여 설명될 상기 가상 차량 또는 다른 가상 객체들의 운동학 정보를 수신한다. 이어서, 상기 시뮬레이션 컴포넌트는 상기 포스 정보를 생성하기 위해 상기 포스 계산들(force calculations)을 수행할 수 있다.
단계(708)에서, 상기 디스플레이 컴포넌트는 상기 시뮬레이션 시스템으로부터 오디오 정보를 수신한다. 일부 실시 예에서, 상기 오디오 정보를 계산하는 기능의 일부 또는 전부는 상기 시뮬레이션 컴포넌트의 상기 물리적 차량에서 수행될 수 있다. 이들 실시 예에서, 상기 시뮬레이션 컴포넌트는 도 8의 단계(816)와 관련하여 설명될 상기 가상 차량 또는 다른 가상 객체들의 운동학 정보를 수신한다. 이어서, 상기 시뮬레이션 컴포넌트는 상기 오디오 정보를 생성하기 위해 상기 오디오 계산들(audio calculations)을 수행할 수 있다.
단계(710)에서, 상기 포스 제어기는 상기 수신된 포스 정보에 기초하여 상기 물리적 차량에 구현된 하나 이상의 기계 요소를 제어한다. 일부 실시 예에서, 상기 포스 제어기는 상기 물리적 차량과 다른 차량 사이에 실제 물리적 접촉이 있을 때 상기 가상 차량의 가상 표상으로 디스플레이되어 상기 물리적 차량의 상기 운전자에 의해 느껴질 상기 물리적 감각을 에뮬레이트하기 위해 하나 이상의 포스 액추에이터(즉, 기계적 요소들의 예시들)에 명령어들을 전송한다. 일부 실시 예에서, 상기 하나 이상의 포스 액츄에이터는 시트와 헤드 브레이스(예를 들어, 시트와 헤드 브레이스(130)) 내에서 또는 상기 운전자에 의해 착용된 햅틱 슈트(예를 들어, 햅틱 슈트(118)) 내에서 구현될 수 있다.
일부 실시 예에서, 상기 기계적 요소들은 상기 물리적 차량의 기능에 영향을 미치는 부품들을 포함할 수 있다. 가령, 상기 기계적 요소들은 스티어링 휠 칼럼, 브레이크들, 에어백들 등을 포함할 수 있다. 상기 수신된 포스 정보를 바탕으로, 상기 포스 제어기는 예를 들어 상기 브레이크들을 잠글 수 있고, 상기 에어백들을 전개할 수 있고, 상기 스티어링 휠 칼럼을 진동시킬 수 있고, 차량의 한 부분에 충격을 가할 수 있고, 전력을 줄임으로써 상기 자동차를 늦출 수 있거나 혹은 상기 물리적 차량 내 다른 기계적 및/또는 전기적 요소들을 제어할 수 있다.
단계(712)에서, 상기 디스플레이 시스템은 상기 오디오 정보를 출력하기 위해 상기 물리적 차량의 하나 이상의 스피커(예를 들어, 스피커(132))를 제어할 수 있다. 일부 실시 예에서, 상기 디스플레이 시스템은 상기 오디오 정보를 출력하기 위해 상기 운전자에 의해 착용된 헬멧(예를 들어, 헬멧(116)) 내의 하나 이상의 스피커를 제어할 수 있다.
일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 디스플레이를 가지는 전자 장치의 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하고, 상기 하나 이상의 프로그램은 도 7과 관련하여 전술한 단계들 중 임의의 단계를 구현하기 위한 명령어들을 포함한다. 일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 하나 이상의 프로세서에 의해 실행될 때 하나 이상의 프로세서로 하여금 도 7과 관련하여 위에서 전술한 단계들을 수행하게 하는 컴퓨터 판독 가능 명령어들을 포함한다. 일부 실시 예에서, 시스템은 전술한 비 일시적 컴퓨터 판독 가능 저장 매체 중 적어도 하나, 및 비 일시적 컴퓨터 판독 가능 저장 매체(들)의 상기 명령어들을 실행하도록 구성된 하나 이상의 프로세서를 포함한다. 일부 실시 예에서, 장치는 도 7과 관련하여 전술한 단계들 중 임의의 단계를 수행하도록 구성된 하나 이상의 프로세서를 포함한다.
도 8은 일부 실시 예에 따른 양방향 상호 작용을 제공하기 위해 가상 차량과 물리적 차량 간의 레이스를 시뮬레이션하기 위한 방법(800)을 도시하는 순서도이다. 방법(800)은 예를 들어 도 1과 관련하여 설명된 시뮬레이션 시스템(140) 또는 도 5와 관련하여 설명된 시뮬레이션 시스템에 의해 구현될 수 있다. 도 1 및 도 5와 관련하여 설명된 바와 같이, 상기 시뮬레이션 시스템은 상기 가상 레이스 코스가 물리적 레이스 코스에 대응하도록 시뮬레이션되는 가상 세계에서 가상 레이스 코스에서 상기 가상 차량과 상기 물리적 차량 간의 가상 레이스를 시뮬레이션한다.
단계(802)에서, 상기 시뮬레이션 시스템은 상기 가상 레이스 코스 상에서 가상 차량을 제어하기 위해 제어기(예를 들어, 입력 제어기(536))로부터 입력을 수신한다. 일부 실시 예에서, 상기 제어기는 키보드, 마우스, 비디오 게임 제어기, 조이스틱, 스티어링 휠 및 페달들, 터치 스크린상 상의 제스처, 또는 다른 유형의 입력 장치 중 이들의 조합일 수 있다.
단계(804)에서, 상기 시뮬레이션 시스템은 상기 물리적 차량(예를 들어, 도 1의 물리적 차량(101))에 대한 운동학 정보를 수신한다. 일부 실시 예에서, 상기 운동학 정보는 도 1과 관련하여 설명된 바와 같이 상기 물리적 차량으로부터 수신된다.
단계(806)에서, 상기 시뮬레이션 시스템은 상기 가상 레이스 코스 상에서 상기 가상 차량과 상기 물리적 차량 간의 상기 가상 레이스를 시뮬레이션한다. 일부 실시 예에서, 상기 시뮬레이션 시스템은 단계들(808 내지 812) 중 하나 이상에 따라 상기 가상 레이스를 시뮬레이션한다. 단계(808)에서, 상기 시뮬레이션 시스템은 단계(802)에서 수신된 상기 입력에 기초하여 상기 가상 차량의 운동학 정보를 판단한다. 예를 들면, 상기 입력은 상기 시뮬레이션 시스템에 의해 가속 량으로 변환되는 비디오 게임 제어기에 가해지는 포스의 양을 포함할 수 있다. 단계(810)에서, 상기 시뮬레이션 시스템은 상기 가상 차량과 상기 물리적 차량 사이의 상기 운동학 정보를 비교함으로써, 상기 가상 레이스 코스 상에서 상기 가상 차량과 상기 물리적 차량 간의 상호 작용을 판단한다. 일부 실시 예에서, 상기 시뮬레이션 시스템은 접촉(예를 들어, 충돌)이 발생 하는지를 판단하기 위해, 상기 가상 레이스 코스에서 시뮬레이션된 상기 가상 차량과 상기 물리적 차량 간의 거리를 판단한다. 단계(812)에서, 상기 시뮬레이션 시스템은 단계(810)에서 판단된 상기 상호 작용에 기초하여 포스 정보(force information)를 생성한다. 단계(813)에서, 상기 시뮬레이션 시스템은 단계(810)에서 판단된 상기 상호 작용에 기초하여 오디오 정보(audio information)를 생성한다.
단계(816)에서, 상기 시뮬레이션 시스템은 상기 가상 차량의 상기 운동학 정보를 상기 물리적 차량으로 전송한다. 일부 실시 예에서, 상기 물리적 차량은 상기 가상 차량의 상기 운동학 정보를 사용하여 상기 물리적 차량의 디스플레이 상에 상기 가상 차량을 생성 및 디스플레이한다.
단계(818)에서, 상기 시뮬레이션 시스템은 도 7의 단계 706과 관련하여 설명된 바와 같이 상기 포스 정보를 상기 물리적 차량에 전송한다. 일부 실시 예에서, 상기 물리적 차량은 실제 충돌에서 상기 물리적 차량의 운전자에 의해 느껴질 상기 물리적 감각들을 에뮬레이트하기 위해, 상기 포스 정보에 기초하여 상기 물리적 차량의 하나 이상의 기계적 또는 전기적 요소를 제어한다.
단계(820)에서, 상기 시뮬레이션 시스템은 생성된 오디오 정보를 도 7의 단계(708)와 관련하여 설명된 바와 같이 상기 물리적 차량에 전송한다. 일부 실시 예에서, 상기 가상 차량이 상기 물리적 레이스 코스 상에서 물리적으로 존재하는 경우 상기 물리적 차량의 상기 운전자가 느낄 수 있는 상기 청각 경험을 에뮬레이트하기 위해, 상기 물리적 차량은 상기 오디오 정보에 기초하여 상기 물리적 차량의 하나 이상의 스피커를 제어한다. 예를 들면, 상기 하나 이상의 스피커는 차량 스피커들 또는 상기 운전자에 의해 착용된 헤드셋 내에 구현된 스피커들을 포함할 수 있다.
단계(814)에서, 상기 시뮬레이션 시스템은 상기 가상 레이스를 시뮬레이션 디스플레이(예를 들어, 도 5의 디스플레이(534)) 상에 렌더링한다.
일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 전자 장치의 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하고, 상기 하나 이상의 프로그램은 도 8과 관련하여 전술한 단계들 중 임의의 단계를 구현하기 위한 명령어들을 포함한다. 일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 하나 이상의 프로세서에 의해 실행될 때 하나 이상의 프로세서로 하여금 도 8과 관련하여 전술한 단계들을 수행하게 하는 컴퓨터 판독 가능 명령어들을 포함한다. 일부 실시 예에서, 시스템은 전술한 비 일시적 컴퓨터 판독 가능 저장 매체 중 적어도 하나, 및 비 일시적 컴퓨터 판독 가능 저장 매체(들)의 상기 명령어들을 실행하도록 구성된 하나 이상의 프로세서를 포함한다. 일부 실시 예에서, 장치는 도 8과 관련하여 전술한 단계들 중 임의의 단계를 수행하도록 구성된 하나 이상의 프로세서를 포함한다.
도 9는 일부 실시 예에 따른 가상 차량들의 디스플레이를 가능하게 하기 위해 시뮬레이션 시스템에 의해 수행되는 방법(900)을 나타내는 순서도이다. 방법(900)은 예를 들어 도 1과 관련하여 설명된 시뮬레이션 시스템(140) 또는 도 5와 관련하여 설명된 시뮬레이션 시스템(540)에 의해 구현될 수 있다. 일부 실시 예에서, 방법(900)의 하나 이상의 단계는 도 6과 관련하여 설명된 바와 같이, 시뮬레이션 시스템(604)에 의해 수행되는 하나 이상의 단계에 대응할 수 있다.
단계(902)에서, 상기 시뮬레이션 시스템은 가상 차량을 제어하는 입력들을 수신한다. 예를 들면, 상기 입력들은 도 5와 관련하여 설명된 바와 같이 입력 제어기(536)로부터 수신될 수 있다. 일부 실시 예에서, 단계(902)는 도 6의 단계(620)에 대응한다.
단계(904)에서, 상기 시뮬레이션 시스템은 물리적 차량의 위치를 수신한다. 일부 실시 예에서, 상기 물리적 차량의 상기 위치는 예를 들어 도 6의 단계(611)에 대해 설명된 바와 같이 상기 물리적 차량에 의해 제공될 수 있다.
단계(906)에서, 상기 시뮬레이션 시스템은 가상 차량과 상기 물리적 차량 사이의 가상 레이스 코스 상에서 레이스를 시뮬레이션하기 위한 가상 세계를 계산한다. 일부 실시 예에서, 상기 가상 세계는 도 5에 설명된 바와 같이 레이싱 시뮬레이션(550)에 저장된 레이싱 시뮬레이션일 수 있다. 일부 실시 예에서, 단계(906)는 도 6의 단계(621)에 대응한다. 일부 실시 예에서, 상기 가상 세계를 계산하기 위해, 방법(900)은 단계들(908 내지 912)을 수행한다.
단계(908)에서, 상기 시뮬레이션 시스템은 단계(902)에서 수신된 상기 입력들에 기초하여 상기 가상 세계의 상기 가상 레이스 코스 상에서 상기 가상 차량을 시뮬레이션한다. 일부 실시 예에서, 상기 입력들은 상기 가상 차량이 상기 가상 세계의 상기 가상 레이스 코스에서 어떻게 움직이는지를 정의하는 운동학 특성들(kinematic characteristics)을 제어한다.
단계(910)에서, 상기 시뮬레이션 시스템은 단계(904)에서 수신된 상기 물리적 차량의 상기 위치에 기초하여 상기 가상 세계에서의 상기 물리적 차량의 표상을 계산한다. 일부 실시 예에서, 상기 시뮬레이션 시스템은 상기 물리적 차량의 상기 표상을 상기 가상 세계에 추가함으로써 상기 물리적 차량과 상기 가상 차량 간의 레이스를 시뮬레이션할 수 있다. 일부 실시 예에서, 상기 물리적 차량의 상기 표상을 계산하기 위해, 시뮬레이션 시스템은 상기 물리적 차량의 상기 위치와 관련된 물리적 좌표를 상기 가상 세계 내의 가상 좌표로 변환한다.
단계(912)에서, 상기 시뮬레이션 시스템은 상기 가상 세계에서 객체들의 다수의 표상을 계산한다. 일부 실시 예에서, (상기 복수의 표상들로부터의) 객체의 표상은 상기 가상 세계에서 모델링되는 물리적 레이스 코스에 존재하는 물리적 객체에 대응한다. 예를 들면, 상기 가상 세계에서의 상기 가상 레이스 코스는 트리들, 배너들, 피트 스탑들(pit stops) 등과 같은 물리적 객체들을 포함할 수 있는 상기 물리적 레이스 코스에 기초하여 시뮬레이션될 수 있다. 일부 실시 예에서, (상기 복수의 표상들로부터의) 객체의 표상은 상기 가상 세계에서 시뮬레이션되는 상기 가상 레이스 코스에 존재하고 상기 물리적 레이스 코스에는 존재하지 않는 가상 객체에 대응한다. 예를 들면, 상기 가상 객체는 상기 가상 차량과 상기 가상 세계에서 시뮬레이션되는 상기 물리적 차량 사이의 충돌로 인한 시뮬레이션된 장애물들, 연기, 벽들, 폭발들 또는 잔해를 포함할 수 있지만, 이에 제한되지는 않는다.
일부 실시 예에서, 상기 시뮬레이션 시스템에 의해 시뮬레이션된 상기 가상 세계는 물리적 객체들의 상기 복수의 계산된 표상들을 포함할 수 있다. 일부 실시 예에서, 상기 시뮬레이션 시스템은 표상들의 데이터베이스에 액세스함으로써 물리적 객체들의 상기 복수의 표상들을 계산할 수 있다.
단계(914)에서, 상기 시뮬레이션 시스템은 상기 레이스 코스에서 시점의 위치를 수신한다. 일부 실시 예에서, 상기 위치는 도 6의 단계(613)와 관련하여 설명된 바와 같이 물리적 차량으로부터 수신될 수 있다. 이들 실시 예에서, 상기 위치는 상기 물리적 차량의 운전자의 시점의 위치를 나타낸다. 일부 실시 예에서, 상기 위치는 도 6의 단계(632)와 관련하여 설명된 바와 같이 뷰어로부터 수신될 수 있다. 이들 실시 예에서, 상기 위치는 상기 뷰어에 의해 선택된 시점의 위치를 나타낸다.
단계(916)에서, 상기 시뮬레이션 시스템은 단계(914)에서 수신된 상기 시점의 상기 위치에서 보이는 상기 가상 차량의 부분을 계산한다. 일부 실시 예에서, 단계(916)는 단계(914)에서 수신된 상기 시점의 상기 위치의 소스에 기초하여 도 6과 관련하여 설명된 바와 같이 단계들(622 또는 621)에 대응한다. 일부 실시 예에서, 상기 부분을 계산하는 단계는 상기 시점의 상기 가상 위치로부터 시야를 계산하는 단계를 포함한다. 이들 실시 예에서, 상기 계산된 부분은 상기 계산된 시야 내에 있을 수 있다. 일부 실시 예에서, 상기 시점에서 보이는 상기 가상 차량의 상기 부분을 계산하기 위해, 방법(900)은 단계들(918 내지 926)를 수행한다.
단계(918)에서, 상기 시뮬레이션 시스템은 단계(914)에서 수신된 상기 시점의 상기 위치에 기초하여 상기 가상 세계 내의 상기 시점의 가상 위치를 계산한다. 일부 실시 예에서, 상기 가상 위치를 계산하기 위해, 상기 시뮬레이션 시스템은 상기 시점의 상기 위치의 상기 물리적 좌표들을 상기 가상 세계 내의 가상 좌표들로 변환한다.
단계(920)에서, 상기 시뮬레이션 시스템은 상기 가상 세계에서 상기 가상 위치와 상기 가상 차량 사이에 객체들의 하나 이상의 표상이 존재 하는지를 판단한다. 일부 실시 예에서, 상기 물리적 객체들의 하나 이상의 표상들은 단계(912)에서 계산된 물리적 객체들의 상기 복수의 표상들로부터 선택된다. 단계(912)와 관련하여 전술한 바와 같이, 상기 객체들의 하나 이상의 표상은 상기 물리적 레이스 코스 상에 존재하는 물리적 객체들의 가상 표상들을 포함할 수 있다. 일부 실시 예에서, 상기 하나 이상의 객체들의 표상들은 상기 가상 세계에서 시뮬레이션된 가상 객체들이 상기 물리적 레이스 코스 상에 존재하지 않는 것을 포함할 수 있다. 단계(922)에서, 상기 객체들의 하나 이상의 표상이 존재하면, 방법(900)은 단계(926)로 진행한다. 그렇지 않으면 방법(900)은 단계(924)로 진행한다.
단계(924)에서, 상기 시뮬레이션 시스템은 상기 가상 세계에서 상기 물리적 차량의 상기 표상에 의해 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분들을 추출한다.
단계(926)에서, 상기 시뮬레이션 시스템은 상기 물리적 차량의 상기 표상 및 단계(920)에서 판단된 객체들의 하나 이상의 표상에 의해 상기 가상 위치로부터 가려지지 않은 상기 가상 차량의 부분들을 추출한다.
단계(928)에서, 상기 시뮬레이션 시스템은 하나 이상의 추출된 부분들을 포함하도록 상기 시점의 상기 가상 위치에서 보이는 상기 가상 차량의 부분을 제공한다. 일부 실시 예에서, 상기 출력되는 부분은 상기 추출된 부분들만을 포함한다. 일부 실시 예에서, 전술한 바와 같이, 상기 시뮬레이션 시스템은 시점의 상기 가상 위치로부터 상기 시야를 계산할 수 있다. 이들 실시 예에서, 상기 시뮬레이션 시스템에 의해 계산된 상기 부분은 상기 계산된 시야 내에서 보이는 상기 부분의 파트들을 나타내는 제외되지 않은 부분; 및 상기 계산된 시야 내에서 제외되는(즉, 보이지 않는) 부분의 부분을 나타내는 제외된 부분을 포함할 수 있다. 상기 시야가 상기 시뮬레이션 시스템에 의해 계산되는 일부 실시 예에서, 상기 시뮬레이션 시스템은 상기 계산된 시야 내에서 보이는 상기 부분의 파트들을 나타내는 상기 제외되지 않은 부분만을 포함하도록 부분을 계산할 수 있다.
일부 실시 예에서, 상기 시뮬레이션 시스템은 단계(914)와 관련하여 설명된 바와 같이 상기 시점의 위치를 발생시키는 소스에 상기 가상 차량의 상기 부분을 제공한다. 예를 들면, 단계(928)는 단계(914)와 관련하여 설명된 바와 같이 상기 시점의 소스에 기초하여 도 6과 관련하여 설명된 바와 같이 단계들(623 또는 625)에 대응할 수 있다. 이들 실시 예에서, 상기 물리적 차량으로부터 상기 시점의 상기 위치가 수신되면, 상기 시뮬레이션 시스템은 도 6의 단계(623)와 관련하여 설명된 바와 같이 상기 가상 차량의 상기 부분을 상기 물리적 차량에 제공할 수 있다.
일부 실시 예에서, 상기 가상 세계는 도 5에 설명된 바와 같이 레이싱 시뮬레이션(550)에 저장된 레이싱 시뮬레이션일 수 있다. 일부 실시 예에서, 단계(906)는 도 6의 단계(621)에 대응한다. 일부 실시 예에서, 상기 가상 세계를 계산하기 위해, 방법(600)은 단계들(908 내지 912)을 수행한다.
일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 전자 장치의 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하고, 상기 하나 이상의 프로그램은 도 9와 관련하여 전술한 단계들 중 임의의 단계를 구현하기 위한 명령어들을 포함한다. 일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 하나 이상의 프로세서에 의해 실행될 때 하나 이상의 프로세서로 하여금 도 9와 관련하여 전술한 단계들을 수행하게 하는 컴퓨터 판독 가능 명령어들을 포함한다. 일부 실시 예에서, 시스템은 전술한 비 일시적 컴퓨터 판독 가능 저장 매체 중 적어도 하나, 및 비 일시적 컴퓨터 판독 가능 저장 매체(들)의 상기 명령어들을 실행하도록 구성된 하나 이상의 프로세서를 포함한다. 일부 실시 예에서, 장치는 도 9와 관련하여 설명된 단계들 중 임의의 단계를 수행하도록 구성된 하나 이상의 프로세서를 포함한다.
도 10은 일부 실시 예에 따른 가상 차량의 디스플레이를 가능하게 하는 방법(1000)을 나타내는 순서도이다. 방법(1000)은 예를 들어 도 1의 물리적 차량(101) 또는 도 5의 물리적 차량과 같은 물리적 차량 내의 컴포넌트들에 의해 구현될 수 있다. 일부 실시 예에서, 레이스 코스 상에서 상기 물리적 차량의 운전자의 시야 내에서 상기 가상 차량을 시뮬레이션함으로써, 방법(1000)은 상기 운전자가 상기 가상 차량에 대해 경험한 바와 같이 상기 물리적 차량과 상기 가상 차량 간의 상호 작용의 현실성을 증진시킨다.
단계(1002)에서, 상기 물리적 차량 내의 센서(예를 들어, 눈-위치 검출기(110))는 상기 물리적 시스템(예를 들어, 물리적 차량(101))의 운전자(예를 들어, 차량 운전자(114))의 눈 측정 값을 검출한다. 일부 실시 예에서, 상기 센서는 상기 운전자의 헤드 또는 상기 운전자의 상기 헤드에 착용된 장치(예를 들어, 헬멧(116), 눈 위의 바이저(117) 또는 HMD(head-mounted display))를 검출함으로써 상기 눈의 눈 측정 값을 추정한다. 예를 들면, 상기 센서는 상기 운전자의 헤드에 착용된 상기 장치의 위치 및/또는 방위를 검출하는 것에 기초하여 상기 운전자의 눈의 상기 눈 측정 값을 추정할 수 있다.
단계(1004)에서, 상기 물리적 차량(예를 들어, 렌더링 컴포넌트(107))에서의 디스플레이 시스템은 상기 운전자의 상기 시야에서 물리적 객체의 위치(예를 들어, 도 2로부터의 위치(208A))를 식별한다. 일부 실시 예에서, 상기 위치는 상기 물리적 시스템에 근접한 디스플레이(예를 들어, 도 2의 디스플레이(220)) 상의 위치에 대응한다.
단계(1006)에서, 상기 디스플레이 시스템은 상기 레이스 코스 상에 물리적으로 있지 않은 시합 차량을 나타내는 상기 가상 차량의 운동학 정보를 수신한다. 또한, 상기 디스플레이 시스템은 상기 레이스 코스 상에 물리적으로 존재하지 않는 레이싱 시뮬레이션(550) 또는 레이싱 시뮬레이션(141) 내의 가상 객체들과 관련된 시뮬레이션 시스템(예를 들어, 시뮬레이션 시스템(140))으로부터 정보를 수신할 수 있다. 일부 실시 예에서, 도 1과 관련하여 설명된 바와 같이, 상기 운동학 정보는 GPS 좌표들, 공간 위치, 방위, 속도, 가속도, 또는 상기 가상 차량과 관련된 이들의 조합을 포함할 수 있다. 일부 실시 예에서, 상기 운동학 정보는 시뮬레이션된 레이스 코스 상에서 상기 물리적 차량과 상기 가상 차량 사이의 레이스를 시뮬레이션하는 시뮬레이션 시스템(예를 들어, 시뮬레이션 시스템(140))으로부터 수신될 수 있다.
단계(1008)에서, 상기 디스플레이 시스템은 단계(1004)에서 식별된 상기 물리적 객체의 상기 위치, 단계(1002)에서 검출된 상기 눈 측정 값, 및 단계(1006)에서 수신된 상기 운동학 정보에 기초하여 상기 가상 차량의 표상을 생성한다. 일부 실시 예에서, 상기 디스플레이 시스템은 상기 표상을 생성하는 시뮬레이션 컴포넌트(예를 들어, 시뮬레이션 컴포넌트(106))를 포함한다. 또한, 단계(1006)에서 설명된 바와 같이 상기 디스플레이 시스템이 다른 가상 객체들에 대한 정보를 수신하는 실시 예에서, 상기 디스플레이 시스템은 이와 같은 가상 객체들에 대한 그래픽 표상들을 마찬가지로 생성한다. 예를 들면, 가상 객체들은 벽, 가상 자동차로부터의 잔해 또는 레이싱 시뮬레이션(550)에서 시뮬레이션되는 가상 레이스 코스 상의 객체들을 포함할 수 있다. 일부 실시 예에서, 상기 가상 표상은 상기 가상 차량의 디지털 3-D 모델에 기초하여 생성된다. 일부 실시 예에서, 상기 디지털 3-D 모델은 상기 디스플레이 시스템의 메모리에 저장된다. 상기 디지털 3-D 모델은 예를 들어 시뮬레이션 시스템으로부터 수신될 수 있다.
단계(1010)에서, 상기 디스플레이 시스템(예를 들어, 렌더링 컴포넌트(107))은 단계(1004)의 상기 식별된 위치에 의해 나타나는 상기 물리적 객체와 정렬되도록 상기 디스플레이 상에 상기 가상 차량의 상기 표상을 디스플레이한다. 일부 실시 예에서, 상기 디스플레이 시스템에서의 렌더링 컴포넌트(예를 들어, 도 1의 렌더링 컴포넌트(107))는 상기 디스플레이 상에 디스플레이하기 위한 그래픽 요소 세트로 상기 표상을 변환한다. 일부 실시 예에서, 상기 디스플레이 시스템은 상기 운전자의 상기 시야에서 상기 레이스 코스 상에서 상기 가상 차량의 궤적을 시뮬레이션하기 위해, 방법(1000)의 하나 이상의 단계(예를 들어, 단계들(1002 내지 1010))를 반복함으로써 일정 기간 동안 상기 가상 차량의 일련의 표상들을 디스플레이한다.
일부 실시 예에서, 상기 표상은 예를 들어 시뮬레이션 시스템에 의해 원격으로 생성될 수 있다. 이들 실시 예에서, 상기 디스플레이 시스템은 상기 시뮬레이션 시스템에 의해 생성된 상기 표상과 관련된 정보를 수신한다. 또한, 상기 렌더링 컴포넌트는 상기 수신된 정보를 상기 디스플레이 상에 디스플레이하기 위한 그래픽 요소 세트로 변환할 수 있다.
일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 디스플레이를 가지는 전자 장치의 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하고; 상기 하나 이상의 프로그램은 도 10과 관련하여 전술한 단계들 중 임의의 단계를 구현하기 위한 명령어들을 포함한다. 일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 하나 이상의 프로세서에 의해 실행될 때 하나 이상의 프로세서로 하여금 도 10과 관련하여 전술한 단계들을 수행하게 하는 컴퓨터 판독 가능 명령어들을 포함한다. 일부 실시 예에서, 시스템은 전술한 비 일시적 컴퓨터 판독 가능 저장 매체 중 적어도 하나를 포함하고, 및 상기 하나 이상의 프로세서는 상기 비 일시적 컴퓨터 판독 가능 저장 매체(들)의 상기 명령어들을 실행하도록 구성된다. 일부 실시 예에서, 장치는 도 10과 관련하여 전술한 단계들 중 임의의 단계를 수행하도록 구성된 하나 이상의 프로세서를 포함한다.
도 11은 일 실시 예에 따른 컴퓨터의 예를 도시한다. 컴퓨터(1100)는 물리적 차량(101)의 상기 장치들 또는 도 1과 관련하여 설명된 시뮬레이션 시스템(140)과 같은 전술한 시스템 및 방법에 따라 디스플레이 상에서 가상 차량을 시뮬레이션, 하기 위한 시스템의 컴포넌트일 수 있거나 혹은 또는 전체 시스템 자체를 포함할 수 있다. 일부 실시 예에서, 컴퓨터(1100)는 각각의 도 6, 7, 8, 9, 및 10의 각각의 방법들(600, 700, 800, 900 및 1000)과 같은 물리적 차량과 가상 차량 간의 가상 레이스를 향상시키기 위한 방법을 실행하도록 구성된다.
컴퓨터(1100)는 네트워크에 연결된 호스트 컴퓨터일 수 있다. 컴퓨터(1100)는 클라이언트 컴퓨터 또는 서버일 수 있다. 도 11을 참조하면, 컴퓨터(1100)는 개인용 컴퓨터, 워크 스테이션, 서버, 비디오 게임 콘솔, 또는 전화 또는 태블릿과 같은 휴대용 컴퓨팅 장치와 같은 임의의 적합한 유형의 마이크로 프로세서 기반 장치일 수 있다. 상기 컴퓨터는 예를 들어, 프로세서(1110), 입력 장치(1120), 출력 장치(1130), 저장 장치(1140) 및 통신 장치(1160) 중 하나 이상을 포함할 수 있다. 입력 장치(1120) 및 출력 장치(1130)는 일반적으로 전술한 것들에 대응할 수 있고, 상기 컴퓨터와 연결 가능하거나 통합될 수 있다.
입력 장치(1120)는 터치 스크린 또는 모니터, 키보드, 마우스 또는 음성-인식 장치와 같은 입력을 제공하는 임의의 적절한 장치일 수 있다. 출력 장치(1130)는 터치 스크린, 모니터, 프린터, 디스크 드라이브 또는 스피커와 같은 출력을 제공하는 임의의 적절한 장치일 수 있다.
저장 장치(1140)는 RAM, 캐시, 하드 드라이브, CD-ROM 드라이브, 테이프 드라이브 또는 이동식 저장 디스크를 포함하여 전기, 자기 또는 광학 메모리와 같은 저장 장치를 제공하는 임의의 적절한 장치일 수 있다. 통신 장치(1160)는 네트워크 인터페이스 칩 또는 카드와 같은 네트워크를 통해 신호들을 송수신할 수 있는 임의의 적절한 장치를 포함할 수 있다. 상기 컴퓨터의 상기 컴포넌트들은 물리적 버스 또는 무선과 같은 임의의 적절한 방식으로 연결될 수 있다. 저장 장치(1140)는 하나 이상의 프로그램을 포함하는 비 일시적 컴퓨터 판독 가능 저장 매체 일 수 있고, 이는 예컨대 각각의 도 6, 7, 8, 9 및 10의 각각의 방법들(600, 700, 800, 900 및 1000) 과 같이, 프로세서(1110)와 같은 하나 이상의 프로세서에 의해 실행될 때, 하나 이상의 프로세서가 본 명세서에 전술한 방법들을 실행하게 한다.
저장 장치(1140)에 저장될 수 있고, 프로세서(1110)에 의해 실행될 수 있는 소프트웨어(1150)는 예를 들어 본 발명의 기능을 구현하는 (예를 들어, 전술한 시스템, 컴퓨터, 서버 및/또는 장치에 구현된 것과 같이) 상기 프로그래밍을 포함한다. 일부 실시 예에서, 소프트웨어(1150)는 애플리케이션 서버들 및 데이터베이스 서버들과 같은 서버들의 조합에서 구현되고 실행될 수 있다.
소프트웨어(1150) 또는 그 부분은 또한 전술한 것과 같은 명령 실행 시스템, 장비 또는 장치에 의해 또는 이와 관련하여 사용하기 위해 임의의 컴퓨터 판독 가능 저장 매체 내에 저장 및/또는 운송될 수 있고, 이는 상기 명령 실행 시스템, 장비 또는 장치로부터 상기 소프트웨어와 관련된 명령을 가져오고 실행할 수 있다. 본 개시의 맥락에서, 컴퓨터 판독 가능 저장 매체는 명령 실행 시스템, 장비 또는 장치에 의해 또는 이와 관련하여 사용하기 위한 프로그래밍을 포함하거나 저장할 수 있는 저장 장치(1140)와 같은 임의의 매체일 수 있다.
소프트웨어(1150)는 명령 실행 시스템, 장비, 또는 장치로부터 상기 소프트웨어와 관련된 명령들을 가져오고 실행할 수 있는, 전술한 것과 같은 명령 실행 시스템, 장비 또는 장치에 의해 또는 이와 관련하여 사용하기 위해 임의의 전송 매체 내에 전파될 수 있다. 본 개시의 맥락에서, 전송 매체는 명령 실행 시스템, 장비 또는 장치에 의해 또는 이와 관련하여 사용하기 위해 통신, 전파 또는 전송 프로그래밍 가능한 임의의 매체일 수 있다. 상기 전송-판독 가능 매체는 전자, 자기, 광학, 전자기 또는 적외선 유선 또는 무선 전파 매체를 포함할 수 있지만, 이에 제한되지는 않는다.
컴퓨터(1100)는 임의의 적합한 유형의 상호 연결된 통신 시스템일 수 있는 네트워크에 연결될 수 있다. 상기 네트워크는 임의의 적합한 통신 프로토콜을 구현할 수 있고, 임의의 적합한 보안 프로토콜에 의해 보안될 수 있다. 상기 네트워크는 무선 네트워크 연결들, T1 또는 T3 라인들, 케이블 네트워크들, DSL 또는 전화선들과 같은 네트워크 신호들의 전송 및 수신을 구현할 수 있는 임의의 적합한 구성의 네트워크 링크들을 포함할 수 있다.
컴퓨터(1100)는 상기 네트워크 상에서 동작하기에 적합한 임의의 운영 체제를 구현할 수 있다. 소프트웨어(1150)는 C, C ++, Java 또는 Python과 같은 적합한 프로그래밍 언어로 작성될 수 있다. 다양한 구체 예에서, 본 개시의 기능을 구현하는 애플리케이션 소프트웨어는 예를 들어 클라이언트/서버 배열 또는 웹 기반 애플리케이션 또는 웹 서비스와 같은 웹 브라우저를 통해 상이한 구성으로 배치될 수 있다.
전술한 설명은 예시적인 방법들, 파라미터들 등을 제시한다. 그러나, 이러한 설명은 본 개시의 범위에 대한 제한으로서 의도된 것이 아니라 예시적인 실시 예의 설명으로서 제공되는 것으로 인식되어야 한다. 전술한 예시적인 실시 예는 개시된 정확한 형태로 본 개시를 철저하게 하거나 제한하려는 것이 아니다. 상기 교시에 비추어 많은 수정 및 변형이 가능하다. 실시 예는 개시된 기술의 원리 및 그들의 실제 응용을 가장 잘 설명하기 위해 선택되고 설명되었다. 따라서, 당업자는 고려되는 특정 용도에 적합한 다양한 변형을 갖는 기술 및 다양한 실시 예를 가장 잘 활용할 수 있다.
본 개시 및 예들은 첨부 도면을 참조하여 완전히 설명되었지만,
다양한 변경 및 수정이 당업자에게 명백할 것이다. 이러한 변경 및 수정은 청구 범위에 의해 정의된 바와 같은 본 개시 및 실시 예의 범위 내에 포함되는 것으로 이해되어야 한다. 전술한 개시 및 실시 예의 설명에서, 실시 될 수 있는 특정 실시 예를 예시적으로 도시 한 첨부 도면을 참조한다. 다른 실시 예들 및 예들이 실시 될 수 있고, 본 개시의 범위를 벗어나지 않고 변경이 이루어질 수 있음을 이해해야 한다.
전술한 설명은 제1, 제2 등의 용어를 사용하여 다양한 요소를 설명하지만, 이들 요소는 용어에 의해 제한되지 않아야 한다. 이들 용어는 하나의 요소를 다른 요소와 구별하기 위해서만 사용된다. 예를 들면, 제1가상 차량은 제2가상 차량으로 지칭될 수 있고, 마찬가지로 제2가상 차량은 다양한 설명된 실시 예의 범위를 벗어나지 않고 제1터치로 지칭될 수 있다.
또한, 전술한 설명에서 사용된 단수 형태들 "a", "an" 및 "the"는 문맥 상 명백하게 달리 나타내지 않는 한 복수 형태들도 포함하는 것으로 이해되어야 한다. 또한 사용 된 용어 "및/또는"은 하나 이상의 관련된 열거된 항목의 임의의 및 모든 가능한 조합을 지칭하고 포함하는 것으로 이해되어야 한다. 또한 본 명세서에서 사용될 때, "포함하다", "포함하는", "구성하다" 및/또는 "구성하는"이라는 용어는 언급된 특징들, 정수들, 단계들, 동작들, 요소들, 컴포넌트들 및/또는 유닛들의 존재를 명시하지만, 하나 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 컴포넌트들, 유닛들 및/또는 그 그룹의 존재 또는 추가를 배제하지는 않는 것을 추가로 이해할 수 있다.
상기 용어 "if"는 상황에 따라 "할 때" 또는 "하는 경우" 또는 "판단에 응답하여" 또는 "검출에 응답하여"를 의미하는 것으로 해석될 수 있다. 마찬가지로 "판단되면" 또는 "[언급된 조건 또는 사건]이 검출되면"은, "판단되는 경우" 또는 "판단에 응답하여" 또는 "[언급된 조건 또는 사건]을 검출하는 경우" 또는 "[언급된 조건 또는 사건]을 검출하는 것에 응답하여 "를 의미하는 것으로 해석될 수 있다.
일부 실시 예에서, 비 일시적 컴퓨터 판독 가능 저장 매체는 디스플레이를 가지는 전자 장치의 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하며, 상기 하나 이상의 프로그램은 본 명세서에 기술되거나 청구된 단계 중 임의의 단계를 구현하기 위한 명령들을 포함한다. 본 발명은 또한 본 명세서에서의 동작들을 수행하기 위한 장치에 관한 것이다. 이러한 장치는 필요한 목적들을 위해 특별히 구성될 수 있거나, 상기 컴퓨터에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 범용 컴퓨터를 포함할 수 있다. 이러한 컴퓨터 프로그램은 비 일시적 컴퓨터 판독 가능 저장 매체에 저장될 수 있고, 플로피 디스크들, 광학 디스크들, CD-ROMs, 자기 광학 디스크들, 읽기 전용 메모리들(ROMs), 랜덤 액세스 메모리들(RAMs), EPROMs, EEPROMs, 자기 또는 광학 카드들, 응용 특정 집적 회로(ASICs), 또는 전자 명령을 저장하기에 적합하고 각각 컴퓨터 시스템 버스에 연결된 임의의 유형의 매체를 포함하는 모든 유형의 디스크를 포함하지만, 반드시 이에 한정되지는 않는다. 또한, 본 개시에서 참조되는 상기 컴퓨터들은 단일 프로세서를 포함할 수 있거나 증가된 컴퓨팅 능력을 위해 다중 프로세서 설계를 사용하는 아키텍처일 수 있다.
본 명세서에 기술된 상기 방법들, 장치들 및 시스템들은 본질적으로 임의의 특정 컴퓨터 또는 다른 장치와 관련이 없다. 다양한 범용 시스템이 또한 본 명세서의 교시에 따른 프로그램들과 함께 사용될 수 있거나, 상기 필요한 방법 단계들을 수행하기 위해 보다 특화된 장치를 구성하는 것이 편리하다는 것이 입증될 수 있다. 다양한 이들 시스템에 상기 필요한 구조는 아래 설명에서 명확해질 수 있다. 또한, 본 개시는 임의의 특정 프로그래밍 언어를 참조하여 설명되지 않는다. 본 명세서에 기술된 바와 같이 본 개시의 교시를 구현하기 위해 다양한 프로그래밍 언어들이 사용될 수 있음을 이해할 것이다.

Claims (20)

  1. 가상 객체를 디스플레이하고 상호작용하는 방법으로서,
    물리적 차량의 위치를 식별하는 단계;
    레이스 코스에서 다중 시점(multiple points of view)의 각각의 위치를 식별하는 단계;
    상기 물리적 차량의 위치, 물리적 객체의 위치, 및 상기 레이스 코스에서 각 시점들의 위치를 시뮬레이션 시스템에 제공하는 단계;
    상기 시뮬레이션 시스템에 의해 상기 가상 객체를 포함하는 가상 세계를 계산하는 단계;
    상기 시뮬레이션 시스템에 의해 상기 레이스 코스에서 상기 각 시점들의 위치에 기초하여 상기 가상 세계 내 상기 각 시점들의 가상 위치를 계산하는 단계;
    상기 시뮬레이션 시스템에 의해, 상기 가상 객체의 가상 위치들과 상기 가상 세계 내의 상기 시점들 중 적어도 하나 사이에서 상기 가상 세계에서의 상기 물리적 객체의 표상(representation)을 계산하는 단계;
    상기 시뮬레이션 시스템에 의해, 상기 적어도 하나의 시점의 대응하는 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 객체의 일부를 계산하는 단계―상기 적어도 하나의 시점의 대응하는 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 객체의 일부는 상기 적어도 하나의 시점의 상기 가상 위치에서 상기 물리적 객체의 표상에 의해 가려지지 않는 가상 객체의 일 부분을 포함함―;
    상기 시뮬레이션 시스템에 의해, 상기 적어도 하나의 시점의 가상 위치에서 보이는 상기 가상 객체의 일부를 출력하는 단계;
    상기 적어도 하나의 시점의 가상 위치에서 보이는 상기 가상 객체의 일부를 디스플레이 시스템에 제공하는 단계;
    상기 디스플레이 시스템에서, 상기 적어도 하나의 시점의 가상 위치에서 보이는 상기 가상 객체의 일부의 표상들을 생성하는 단계; 및
    상기 시뮬레이션 시스템에 의해, 상기 가상 객체와 상기 가상 세계의 상기 물리적 차량의 표상 사이의 접촉을 판단하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 판단된 접촉에 기초하여 기계적 또는 전기적 컴포넌트를 제어하는 단계를 더 포함하는, 방법.
  3. 제2항에 있어서,
    상기 기계적 또는 전기적 컴포넌트는 상기 물리적 차량의 컴포넌트인, 방법.
  4. 제3항에 있어서,
    상기 컴포넌트는 스피커이고, 상기 방법은:
    상기 시뮬레이션 시스템에 의해, 상기 판단된 접촉에 기초하여 오디오 정보를 생성하는 단계;
    상기 오디오 정보를 상기 스피커에 제공하는 단계; 및
    상기 스피커들을 사용하여 상기 오디오 정보를 재생하는 단계를 더 포함하는, 방법.
  5. 제2항에 있어서,
    상기 기계적 또는 전기적 컴포넌트는 카운터인, 방법.
  6. 제2항에 있어서,
    상기 시뮬레이션 시스템에 의해, 상기 판단된 접촉에 기초하여 포스 정보를 생성하는 단계;
    상기 포스 정보를 차량의 포스 제어기에 제공하는 단계; 및
    상기 포스 제어기에 의해, 상기 포스 정보에 기초하여 상기 물리적 차량의 기계적 또는 전기적 컴포넌트를 제어하는 단계를 더 포함하는, 방법.
  7. 제6항에 있어서,
    상기 물리적 차량의 운전자 또는 차량의 운전자 중 적어도 하나의 입력과 관련된 정보를 수신하는 단계―상기 포스 정보는 상기 입력과 관련된 정보를 수신하는 것에 응답하여 상기 포스 제어기에 제공됨―를 더 포함하는, 방법.
  8. 제2항에 있어서,
    상기 기계적 또는 전기적 컴포넌트를 제어하는 단계는:
    차량의 브레이크 또는 조향축(steering column)을 제어하는 단계를 포함하는, 방법.
  9. 제2항에 있어서,
    상기 기계적 또는 전기적 컴포넌트를 제어하는 단계는:
    차량의 휠 또는 차축을 제어하는 모터에 제공되는 동력(power)을 제어하는 단계를 포함하는, 방법.
  10. 제1항에 있어서,
    상기 가상 객체는 가상 차량을 포함하는, 방법.
  11. 제1항에 있어서,
    상기 판단된 접촉에 기초하여 가상 차량의 성능 매개변수(parameter)를 조정하는 단계를 더 포함하는, 방법.
  12. 제1항에 있어서,
    상기 레이스 코스에서 상기 다중 시점의 상기 각각의 위치는 상기 물리적 차량의 운전자의 시점의 위치를 포함하는, 방법.
  13. 제1항에 있어서,
    상기 레이스 코스에서 상기 다중 시점의 상기 각각의 위치는 상기 레이스 코스에 있으면서 상기 물리적 객체를 관찰하는 관중들의 시점들의 각각의 위치를 포함하는, 방법.
  14. 제1항에 있어서,
    상기 레이스 코스에서 상기 다중 시점의 상기 각각의 위치는 상기 레이스 코스에 있으면서 상기 레이스 코스에 있는 상기 물리적 차량을 촬영하는 카메라들의 시점들의 각각의 위치를 포함하는, 방법.
  15. 가상 객체를 디스플레이하기 위한 시스템으로서,
    레이스 코스에서 제1 시점의 위치를 검출하는 제1 센서;
    상기 레이스 코스에서 제2 시점의 위치를 검출하는 제2 센서;
    시뮬레이션 시스템―상기 시뮬레이션 시스템은:
    상기 제1 센서로부터 상기 제1 시점의 위치 및 상기 제2 센서로부터 상기 제2 시점의 위치를 수신하고;
    상기 레이스 코스에서 물리적 객체의 위치 및 상기 레이스 코스에서 물리적 차량의 위치를 수신하고;
    상기 가상 객체를 포함하는 가상 세계를 계산하고;
    상기 레이스 코스에서 상기 각 시점의 위치에 기초하여 상기 가상 세계 내 상기 각 시점의 가상 위치를 계산하고;
    상기 가상 객체의 가상 위치들과 상기 가상 세계 내의 상기 시점들 중 적어도 하나 사이에서 상기 가상 세계에서의 상기 물리적 객체의 표상(representation)을 계산하고;
    상기 적어도 하나의 시점의 대응하는 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 객체의 일부를 계산하고―상기 적어도 하나의 시점의 대응하는 가상 위치에서 보이는 상기 가상 세계 내의 상기 가상 객체의 일부는 상기 적어도 하나의 시점의 상기 가상 위치에서 상기 물리적 객체의 표상에 의해 가려지지 않는 가상 객체의 일 부분을 포함함―;
    상기 적어도 하나의 시점의 가상 위치에서 보이는 상기 가상 객체의 일부를 출력하고;
    상기 적어도 하나의 시점의 가상 위치에서 보이는 상기 가상 객체의 일부를 디스플레이 시스템에 제공하고; 그리고
    상기 가상 객체와 상기 가상 세계의 상기 물리적 차량의 표상 사이의 접촉을 판단함―; 및
    디스플레이 시스템―상기 디스플레이 시스템은:
    상기 시뮬레이션 시스템으로부터, 상기 제1 및 제2 시점 중 적어도 하나에서 보이는 상기 가상 객체의 일부를 수신하고;
    상기 제1 및 제2 시점 중 적어도 하나의 가상 위치들에서 보이는 상기 가상 객체의 일부들의 표상들을 생성함―;
    을 포함하는, 시스템.
  16. 제15항에 있어서,
    상기 시뮬레이션 시스템은 상기 판단된 접촉에 기초하여 기계적 또는 전기적 컴포넌트를 제어하는, 시스템.
  17. 제16항에 있어서,
    상기 기계적 또는 전기적 컴포넌트는 상기 물리적 차량의 컴포넌트인, 시스템.
  18. 제16항에 있어서,
    상기 시뮬레이션 시스템은:
    상기 판단된 접촉에 기초하여 포스 정보를 생성하고;
    상기 포스 정보를 차량의 포스 제어기에 제공하는, 시스템.
  19. 제15항에 있어서,
    상기 가상 객체는 가상 차량을 포함하는, 시스템.
  20. 제15항에 있어서,
    상기 레이스 코스에서 상기 다중 시점의 상기 각각의 위치는 상기 레이스 코스에 있으면서 상기 물리적 객체를 관찰하는 관중들의 시점들의 각각의 위치를 포함하는, 시스템.
KR1020237043108A 2017-07-07 2018-07-06 레이싱 시뮬레이션 KR20230173227A (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201762530037P 2017-07-07 2017-07-07
US62/530,037 2017-07-07
US15/813,662 2017-11-15
US15/813,662 US10357715B2 (en) 2017-07-07 2017-11-15 Racing simulation
KR1020207003727A KR102615214B1 (ko) 2017-07-07 2018-07-06 레이싱 시뮬레이션
PCT/US2018/041082 WO2019010411A1 (en) 2017-07-07 2018-07-06 RACE SIMULATION

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020207003727A Division KR102615214B1 (ko) 2017-07-07 2018-07-06 레이싱 시뮬레이션

Publications (1)

Publication Number Publication Date
KR20230173227A true KR20230173227A (ko) 2023-12-26

Family

ID=64903893

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020237043108A KR20230173227A (ko) 2017-07-07 2018-07-06 레이싱 시뮬레이션
KR1020207003727A KR102615214B1 (ko) 2017-07-07 2018-07-06 레이싱 시뮬레이션

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020207003727A KR102615214B1 (ko) 2017-07-07 2018-07-06 레이싱 시뮬레이션

Country Status (7)

Country Link
US (4) US10357715B2 (ko)
EP (1) EP3648857A1 (ko)
JP (2) JP7277451B2 (ko)
KR (2) KR20230173227A (ko)
CN (3) CN117547833A (ko)
SG (1) SG11201913314TA (ko)
WO (1) WO2019010411A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation
US20190061617A1 (en) * 2017-08-29 2019-02-28 GM Global Technology Operations LLC Audio Control Systems And Methods Based On Driver Helmet Use
US20190105572A1 (en) * 2017-10-11 2019-04-11 Actev Motors Drivable vehicle augmented reality game
KR102029906B1 (ko) * 2017-11-10 2019-11-08 전자부품연구원 이동수단의 가상현실 콘텐츠 제공 장치 및 방법
EP3495220B1 (en) * 2017-12-11 2024-04-03 Volvo Car Corporation Path prediction for a vehicle
WO2019210821A1 (en) * 2018-05-03 2019-11-07 Formula Square Holdings Ltd Systems and methods for providing driving guidance
WO2020068960A1 (en) * 2018-09-26 2020-04-02 Coherent Logix, Inc. Any world view generation
US11087049B2 (en) * 2018-11-27 2021-08-10 Hitachi, Ltd. Online self-driving car virtual test and development system
JP2020144332A (ja) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 仮想現実システムおよび仮想現実方法
US11176844B2 (en) * 2019-04-12 2021-11-16 Curtis D. Platt Immersive multimodal motion simulator
CN110170169B (zh) * 2019-06-05 2021-03-26 腾讯科技(深圳)有限公司 信息的展示方法和装置、存储介质、电子装置
FR3099065B1 (fr) 2019-07-24 2022-06-17 Sodikart système et procédé de contrôle d’une pluralité de karts mettant en œuvre au moins deux réseaux de communication.
FR3106502B1 (fr) * 2020-01-27 2021-12-24 Esp Consulting Dispositif et procédé de sport électronique
JP7484210B2 (ja) * 2020-02-17 2024-05-16 株式会社セガ ゲームシステム
US11305195B2 (en) * 2020-05-08 2022-04-19 T-Mobile Usa, Inc. Extended environmental using real-world environment data
CN111803941B (zh) * 2020-07-17 2024-02-09 网易(杭州)网络有限公司 游戏中显示控制方法、装置及电子设备
DE102020126953B3 (de) * 2020-10-14 2021-12-30 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
JP7212721B2 (ja) * 2020-11-18 2023-01-25 株式会社コロプラ プログラム、情報処理方法、情報処理装置、及びシステム
JP7389275B2 (ja) * 2021-04-16 2023-11-29 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想と現実とを組み合わせたマルチユーザ体験システム、方法、装置及びコンピュータプログラム
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems
CN116212389B (zh) * 2023-05-09 2023-07-07 深圳市卡妙思电子科技有限公司 一种基于vr技术的电竞赛车竞赛系统

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3017628A (en) * 1956-06-04 1962-01-16 Gilfillan Bros Inc Method of and apparatus for identifying aircraft during ground controlled approach
JPH06176131A (ja) * 1992-12-03 1994-06-24 Namco Ltd 画像合成装置及びこれを用いた仮想体験装置
FR2732792B1 (fr) 1995-04-06 1997-06-06 Benkel Gerard Systeme electronique de competition et procede de mise en oeuvre
JPH09167253A (ja) * 1995-12-14 1997-06-24 Olympus Optical Co Ltd 映像表示装置
US5921780A (en) * 1996-06-28 1999-07-13 Myers; Nicole J. Racecar simulator and driver training system and method
US5919045A (en) * 1996-11-18 1999-07-06 Mariah Vision3 Entertainment Llc Interactive race car simulator system
US6080063A (en) 1997-01-06 2000-06-27 Khosla; Vinod Simulated real time game play with live event
US6020851A (en) * 1997-10-06 2000-02-01 Busack; Andrew J. Auto race monitoring system
US6697869B1 (en) * 1998-08-24 2004-02-24 Koninklijke Philips Electronics N.V. Emulation of streaming over the internet in a broadcast application
US7211000B2 (en) * 1998-12-22 2007-05-01 Intel Corporation Gaming utilizing actual telemetry data
NL1012666C2 (nl) 1999-07-21 2001-01-29 Thian Liang Ong Stelsel voor het stimuleren van gebeurtenissen in een werkelijke omgeving.
US8160994B2 (en) 1999-07-21 2012-04-17 Iopener Media Gmbh System for simulating events in a real environment
US20020191004A1 (en) 2000-08-09 2002-12-19 Ebersole John Franklin Method for visualization of hazards utilizing computer-generated three-dimensional representations
US20040135677A1 (en) * 2000-06-26 2004-07-15 Robert Asam Use of the data stored by a racing car positioning system for supporting computer-based simulation games
US20040224740A1 (en) 2000-08-02 2004-11-11 Ball Timothy James Simulation system
DE10049124A1 (de) * 2000-10-02 2002-04-18 Manfred Goettling Verfahren zum Betrieb eines Rennsimulators und eine zugeordnete Vorrichtung
US6999083B2 (en) 2001-08-22 2006-02-14 Microsoft Corporation System and method to provide a spectator experience for networked gaming
US7265663B2 (en) 2001-11-28 2007-09-04 Trivinci Systems, Llc Multimedia racing experience system
US8784171B2 (en) * 2002-12-23 2014-07-22 Nintendo Co., Ltd. Method and apparatus for modeling a track in video games using arcs and splines that enables efficient collision detection
WO2005009566A2 (en) 2003-07-17 2005-02-03 Fabricio Vayra Method and system for interaction with real-time events from a remote location, through use of a computer, game console or other module
JP4169682B2 (ja) * 2003-11-04 2008-10-22 任天堂株式会社 レースゲームプログラムおよびゲーム装置
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
WO2010120926A1 (en) 2004-05-25 2010-10-21 Chestnut Medical Technologies, Inc. Vascular stenting for aneurysms
JP3827692B2 (ja) * 2004-09-22 2006-09-27 株式会社コナミデジタルエンタテインメント 操作入力装置、操作評価方法、ならびに、プログラム
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
US20060223637A1 (en) 2005-03-31 2006-10-05 Outland Research, Llc Video game system combining gaming simulation with remote robot control and remote robot feedback
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7892078B2 (en) * 2005-12-30 2011-02-22 Microsoft Corporation Racing line optimization
US7785178B2 (en) * 2005-12-30 2010-08-31 Microsoft Corporation Computing a target speed in a virtual racing environment
US9240029B2 (en) * 2007-04-30 2016-01-19 Here Global B.V. Street level video simulation display system and method
WO2009078740A2 (en) 2007-12-19 2009-06-25 Air Sports Limited Vehicle competition implementation system
US8090561B1 (en) * 2008-08-14 2012-01-03 Jai Shin System and method for in situ display of a virtual wheel on a wheeled vehicle
EP2326397A1 (en) 2008-09-24 2011-06-01 Iopener Media GmbH System and method for simulating events in a real environment
US8092287B2 (en) * 2008-12-04 2012-01-10 Disney Enterprises, Inc. System and method for providing a real-time interactive surface
US20100271367A1 (en) * 2009-04-22 2010-10-28 Sony Computer Entertainment America Inc. Method and apparatus for combining a real world event and a computer simulation
US8882560B2 (en) 2009-05-28 2014-11-11 Anki, Inc. Integration of a robotic system with one or more mobile computing devices
JP2012058968A (ja) 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US20120269494A1 (en) 2011-04-22 2012-10-25 Qualcomm Incorporated Augmented reality for live events
WO2013024364A2 (en) 2011-08-17 2013-02-21 Iopener Media Gmbh Systems and methods for virtual viewing of physical events
US20130083061A1 (en) 2011-09-30 2013-04-04 GM Global Technology Operations LLC Front- and rear- seat augmented reality vehicle game system to entertain & educate passengers
CN106484115B (zh) * 2011-10-28 2019-04-19 奇跃公司 用于增强和虚拟现实的系统和方法
WO2013086249A2 (en) * 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
US9128354B2 (en) * 2012-11-29 2015-09-08 Bendix Commercial Vehicle Systems Llc Driver view adapter for forward looking camera
US9233309B2 (en) * 2012-12-27 2016-01-12 Sony Computer Entertainment America Llc Systems and methods for enabling shadow play for video games based on prior user plays
US20140274304A1 (en) * 2013-03-13 2014-09-18 Ignite Game Technologies, Inc. Method and apparatus for evaluation of skill level progression and matching of participants in a multi-media interactive environment
US20140278847A1 (en) 2013-03-14 2014-09-18 Fabio Gallo Systems and methods for virtualized advertising
US9639964B2 (en) * 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
US9563105B1 (en) * 2013-04-10 2017-02-07 Ic Real Tech Inc. Screw coupler enabling direct secure fastening between communicating electronic components
CN106104635B (zh) * 2013-12-06 2019-01-04 惠普发展公司,有限责任合伙企业 遮挡增强现实对象
CN105344101B (zh) * 2015-11-19 2016-08-31 广州玖的数码科技有限公司 一种画面与机械运动同步的模拟赛车装置及模拟方法
US9610476B1 (en) 2016-05-02 2017-04-04 Bao Tran Smart sport device
US9597567B1 (en) 2016-05-02 2017-03-21 Bao Tran Smart sport device
US11242068B2 (en) * 2016-05-30 2022-02-08 Lg Electronics Inc. Vehicle display device and vehicle
GB2553143A (en) * 2016-08-26 2018-02-28 Jaguar Land Rover Ltd A Vehicle camera system
US10520782B2 (en) * 2017-02-02 2019-12-31 James David Busch Display devices, systems and methods capable of single-sided, dual-sided, and transparent mixed reality applications
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation

Also Published As

Publication number Publication date
JP2020527432A (ja) 2020-09-10
US20200171386A1 (en) 2020-06-04
KR102615214B1 (ko) 2023-12-18
JP2023113618A (ja) 2023-08-16
US20230226445A1 (en) 2023-07-20
CN111107911A (zh) 2020-05-05
SG11201913314TA (en) 2020-01-30
CN117547833A (zh) 2024-02-13
US20190009175A1 (en) 2019-01-10
CN111107911B (zh) 2023-10-27
US10357715B2 (en) 2019-07-23
US20210205703A1 (en) 2021-07-08
US11484790B2 (en) 2022-11-01
WO2019010411A1 (en) 2019-01-10
CN117442977A (zh) 2024-01-26
KR20200049762A (ko) 2020-05-08
EP3648857A1 (en) 2020-05-13
US10953330B2 (en) 2021-03-23
JP7277451B2 (ja) 2023-05-19

Similar Documents

Publication Publication Date Title
KR102615214B1 (ko) 레이싱 시뮬레이션
AU2017204739B2 (en) Massive simultaneous remote digital presence world
CN109478345B (zh) 模拟系统、处理方法及信息存储介质
US10410562B2 (en) Image generating device and image generating method
CN104781873B (zh) 图像显示装置、图像显示方法、移动装置、图像显示系统
KR20230071200A (ko) 증강 및 가상 현실 이미지를 생성하는 시스템 및 방법
CN112150885B (zh) 基于混合现实的驾驶舱系统及场景构建方法
JP2019175323A (ja) シミュレーションシステム及びプログラム
JP2017134716A (ja) 仮想現実空間提供方法および仮想現実空間提供プログラム
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
EP3262624A1 (en) Immersive vehicle simulator apparatus and method
GB2535729A (en) Immersive vehicle simulator apparatus and method
JP2019175322A (ja) シミュレーションシステム及びプログラム
KR102131614B1 (ko) 대체현실 제공 시스템 및 그 방법
US20220337805A1 (en) Reproduction device, reproduction method, and recording medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal