KR20120073148A - 저작 시스템을 이용한 재생가능한 장면의 생성 - Google Patents

저작 시스템을 이용한 재생가능한 장면의 생성 Download PDF

Info

Publication number
KR20120073148A
KR20120073148A KR1020110141653A KR20110141653A KR20120073148A KR 20120073148 A KR20120073148 A KR 20120073148A KR 1020110141653 A KR1020110141653 A KR 1020110141653A KR 20110141653 A KR20110141653 A KR 20110141653A KR 20120073148 A KR20120073148 A KR 20120073148A
Authority
KR
South Korea
Prior art keywords
scene
authoring
objects
experience
dimensional
Prior art date
Application number
KR1020110141653A
Other languages
English (en)
Other versions
KR101863041B1 (ko
Inventor
프랑시스코 까브리따
Original Assignee
다솔 시스템므
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다솔 시스템므 filed Critical 다솔 시스템므
Publication of KR20120073148A publication Critical patent/KR20120073148A/ko
Application granted granted Critical
Publication of KR101863041B1 publication Critical patent/KR101863041B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • A63F2300/6018Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content where the game content is authored by the player, e.g. level editor or by game device at runtime, e.g. level is created from music data on CD
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 저작 시스템을 이용하여 재생가능한 장면을 생성하는 프로세스에 관한 것이고, 이 프로세스는,
- 디스플레이된 오브젝트들의 표현들을 포함하는 3차원 저작 장면을 디스플레이하는 단계 (100, 110, 120) 로서, 오브젝트들의 표현들 중 하나는 3차원 체험 장면인, 상기 3차원 저작 장면을 디스플레이하는 단계;
- 사용자 액션시에, 저작 장면에서 디스플레이된 오브젝트들의 표현들 중 일부를 체험 장면으로 변위하는 단계 (230); 및
- 사용자 액션시에, 체험 장면에서의 오브젝들의 변위된 표현들을 구성하는 단계 (260) 를 포함한다.

Description

저작 시스템을 이용한 재생가능한 장면의 생성{CREATION OF PLAYABLE SCENE WITH AN AUTHORING SYSTEM}
본 발명은 컴퓨터 시스템을 사용하여, 3차원 장면, 비디오 게임, 가상 현실, 시뮬레이션 등과 같은 재생가능한 콘텐츠를 생성하는 저작 툴 (authoring tool) 들의 분야에 관한 것이다.
저작 시스템들은, 저자 (author) 가 3차원 (3D) 장면 또는 비디오 게임과 같은 시뮬레이션된 영역에서 오브젝트들을 구성하게 하는 툴들의 집합을 포함하는 것으로 알려져 있다. 예를 들어, 저자는 오브젝트를 구성할 수 있고, 예를 들어, 오브젝트들의 통상적 및 비통상적 작용들을 특정할 수 있다. 저작 시스템에 의해 제공된 최종 결과는, 종단 사용자, 예를 들어, 소비자 또는 관객에 의해 재생가능한 콘텐츠이다. 통상적으로, 이러한 재생가능한 콘텐츠는 전용 인터프리터에 로딩되어야 한다.
일반적으로, 3D 장면은 이미지 또는 애니메이션 3D 영화를 생성하기 위해 배경에 위치된 하나 이상의 3D 오브젝트들을 포함한다. 이들 3D 오브젝트들 및 배경은 3D 장면의 그래픽 엘리먼트들을 형성한다.
3D 장면은 그것의 외관에 영향을 미치는 특징들을 더 구현한다. 특징들의 제 1 카테고리는, 오브젝트상의 거울 반사, 그림자 등과 같은 장면에서의 상이한 효과들을 생성하기 위해 원하는 경우에 사용될 수도 있는 광원들의 타입들 및 위치들에 의해 이루어진다. 특징들의 다른 카테고리는, 시점의 변화가 장면이 뷰어에게 어떻게 나타나는지를 변경시키도록 3D 공간에서 변화될 수도 있는 (시점이 이동된다고 또한 말하기도 함) 3D 장면의 시점 (이것은 뷰어의 상대적 시점을 나타내고 카메라를 통해 보이는 바와 같이 보일 수도 있음) 을 포함한다.
3D 장면에서의 오브젝트들은 오브젝트들 및 3D 장면이 뷰어에게 어떻게 나타나는지에 영향을 미치는 컬러, 텍스처 및/또는 재료 조성과 같은 특징들을 가질 수도 있다. 3D 장면의 표현은 이미지 또는 애니메이션 3D 영화를 설명하는 데이터로부터 이미지를 생성하여, 모델을 형성하는 프로세스로서 일반적으로 정의되는 렌더링 (또한, 3D 렌더링이라 칭함) 의 결과이다.
3D 장면을 생성하기 위해 사용된 종래의 시스템들은 이 목적을 위해 구체적으로 설계되고, 이들은 혼합된 2차원 (2D)/3차원 (3D) 사용자 인터페이스에 의존한다. 저자는 장면을 구성하면서 2D 사용자 인터페이스에 이머젼되고 (immersed), 그 후, 저자는 3D 장면을 체험하기 위해, 즉, 3D 장면을 재생하기 위해 3D 장면으로 스위칭한다. 2D 사용자 인터페이스는 전형적인 인터페이스이고, 예를 들어, 사용자 선택가능한 아이콘들의 세트를 포함하는 하부 및 측면 툴바 뿐만 아니라 표준 메뉴 바를 갖는 그래픽 사용자 인터페이스 (또는 GUI) 이며, 각 아이콘은 하나 이상의 동작 또는 기능과 관련된다.
따라서, 저자는 종종, 3D 장면에 디스플레이된 결과가 예상된 것이라는 것을 체크할 수 있기 위해 3D 장면을 생성할 때 2D 사용자 인터페이스로부터 3D 사용자 인터페이스로 스위칭할 필요가 있다. 이것은 시간 소모적이고 인간공학적이지 않기 때문에 사용자에게 성가신 방식이다.
또한, 3D 장면을 효율적으로 생성하기 위해, 저자는 2D 와 3D 사용자 인터페이스 사이에서 왔다갔다하는 것을 제한하기 위해 상당한 양의 지식, 트레이닝 및 전문적기술을 획득할 필요가 있다. 그 결과, 종래의 시스템들을 사용한 3D 장면의 생성은 느리고 어려운 프로세스이다.
또한, 2D 사용자 인터페이스의 작업공간은 제한된 사이즈를 갖는다. 그 결과, 표준 메뉴 바 뿐만 아니라 하부 및 측면 툴바 기능의 수가 제한된다. 따라서, 저자는 이해하는데 어려운 복잡한 메뉴와 서브-메뉴 사이에서 내비게이팅하게 되고, 따라서, 재생가능한 장면을 설계하기 위해 상당한 양의 지식, 트레이닝 및 전문적기술을 다시 요구한다.
따라서, 상기 간략히 논의된 기존의 솔루션의 제한들에 따르면, 인간공학을 개선시키고 재생가능한 장면의 생산 시간을 감소시키는 저작 시스템에서 재생가능한 장면을 생성하기 위해 프로세스에 대한 필요성이 존재한다.
일 실시형태에서, 따라서, 본 발명은 저작 시스템을 이용하여 재생가능한 장면을 생성하는 프로세스를 제공하고, 이 프로세스는,
- 오브젝트들이 디스플레이된 표현들을 포함하는 3차원 저작 장면 (authoring scene) 을 디스플레이하는 단계로서, 오브젝트들의 표현들 중 하나는 3차원 체험 장면 (experience scene) 인, 상기 3차원 저작 장면을 디스플레이하는 단계;
- 사용자 액션시에, 저작 장면에 디스플레이된 오브젝트들의 표현들 중 일부를 체험 장면으로 변위하는 단계;
- 사용자 액션시에, 체험 장면에서의 오브젝트들의 변위된 표현들을 구성하는 단계를 포함한다.
다른 실시형태에서, 본 발명에 따라 저작 시스템을 이용하여 재생가능한 장면을 생성하는 프로세스는,
- 저작 장면에 디스플레이될 오브젝트들 중 각각의 오브젝트에 대한 인스턴스를 컴퓨팅하는 단계를 포함하고, 변위하는 단계는 오브젝트들의 표현들을 복제하지 않고 변위하는 단계를 더 포함하고,
상기 프로세스는,
- 사용자 액션시에, 3차원 저작 장면 또는 3차원 체험 장면에서 표현된 오브젝트들의 형상들을 구성하는 단계를 포함하고, 오브젝트의 형상은 저작 장면으로부터 체험 장면으로 변위될 때 변화되지 않고,
- 오브젝트의 형상은 적어도 다른 오브젝트와 상기 오브젝트의 동작을 포함하고,
- 3차원 저작 장면에서의 시점의 변화는 그에 따라 3차원 체험 장면에서의 시점에 영향을 미치고
- 3차원 저작 장면에서의 시점은 3차원 체험 장면에서의 시점에 독립적이고,
상기 프로세스는,
- 사용자 액션시에, 저작 장면 또는 체험 장면에서 표현된 오브젝트를 구성하기 위한 저작 장면 또는 체험 장면에서 로컬 툴들의 세트를 디스플레이하는 단계,
- 3차원 저작 장면 또는 3차원 체험 장면을 구성하는 글로벌 툴들을 세트를 디스플레이하는 단계를 포함하고,
- 로컬 툴들 또는 글로벌 툴들은, 각각의 표현들이 디스플레이되는 오브젝트들이고,
- 구성하는 단계에서, 시점은 체험 장면 및 변위된 오브젝트들의 표현들만을 디스플레이하기 위해 체험 장면으로 들어가고,
- 표현들을 디스플레이하는 단계는 제작 시간에서 수행되고, 변위하고 구성하는 단계는 구동 시간에서 수행되고,
- 오브젝트들은 3차원 모델링된 오브젝트들이다.
본 발명은 또한, 컴퓨터로 하여금 본 발명의 프로세스의 단계들을 취하게 하는 코드 수단을 포함하는, 재생가능한 장면을 저작 시스템으로 생성하는 컴퓨터 프로그램을 제안한다.
본 발명은 또한, 컴퓨터로 하여금 본 발명의 프로세스의 단계들을 취하게 하는 코드 수단을 포함하는, 재생가능한 장면을 저작 시스템으로 생성하는 컴퓨터 프로그램이 기록된 컴퓨터 판독가능한 저장 매체에 관한 것이다.
본 발명은 또한, 재생가능한 장면을 생성하는 저작 시스템에 관한 것이고, 저작 시스템은 본 발명의 프로세스의 단계들을 구현하는 수단을 포함한다.
본 발명을 구현하는 시스템이 제한하지 않는 예로서, 첨부한 도면들을 참조하여 이제 설명될 것이다.
도 1 은 본 발명을 수행하기 위해 재생가능한 장면을 생성하는 프로세스의 플로우차트이다.
도 2 내지 도 10 은 본 발명에 따른 재생가능한 장면을 생성하는 프로세스의 뷰의 예들이다.
도 11 은 포털을 생성하는 방법의 일 예의 개략도이다.
도 12 는 본 발명을 수행하도록 구성된 클라이언트 워크스테이션 아키텍처의 개략도이다.
본 발명의 저작 시스템으로 재생가능한 장면을 생성하는 프로세스에 관한 것이다. 재생가능한 장면은 저자에 의해 생성된다. 재생가능한 장면은 종단 사용자가 상호작용하거나 플레이하도록 허용되는 3차원 (3D) 장면이다. 본 발명에 따른 프로세스는, 3D 저작 장면을 저자에게 디스플레이하는 단계를 포함하고, 3D 저작 장면은 저자가 재생가능한 장면의 일부인 오브젝트들을 수집하고 (옵션으로는) 구성하는 3D 공간이다. 3D 저작 장면은 디스플레이된 오브젝트들의 표현들을 포함하고, 오브젝트들의 표현들들 중 하나는 3차원 체험 장면이다. 3D 체험 장면은, 저자가 재생가능한 장면을 생성하고, 종단 사용자가 재생가능한 장면을 플레이하도록 허용되는 3D 공간이다. 프로세스는 또한, 저자의 액션시에, 저작 장면에 디스플레이된 오브젝트들의 표현들 중 일부를 체험 장면으로 변위하는 단계를 더 포함한다. 그 후, 저자의 추가 액션시에, 체험 장면에서의 변위된 오브젝트들의 표현들이 구성된다.
본 발명에 따른 프로세스는 바람직하게는, 3D 저작 장면 (또는 저작 사용자 인터페이스) 과 3D 체험 장면 사이에 영구 이머젼 (immersion) 을 제공하고, 여기서, 종단 사용자는 재생가능한 장면을 플레이하고, 재생가능한 장면은 종단 사용자에 대한 저자에 의해 지정된 장면이다. 실제로, 3D 체험 장면은 3D 저작 장면의 오브젝트이고, 따라서, 3D 저작 장면의 일부이고, 그 결과, 3D 저작 장면과 3D 체험 장면 사이를 왔다갔다하는 것이 심리스 (seamless) 방식으로 이루어진다. 그 결과, 저자는 재생가능한 장면을 생성하면서 동일한 3D 공간 (저작 공간) 에 이머젼되어 유지할 수 있어서, 종래의 저작 2D 사용자 인터페이스와 재생가능한 장면 사이의 스위칭의 필요성을 제거한다. 다시 말해, 저자는 저작 및 체험 장면을 동시에 사용하고 볼 수 있으며, 심리스 방식으로 그에 대해 작업할 수 있다.
또한, 본 발명에 따른 프로세스는 체험을 위한 어떠한 공간도 손실하지 않고 3D 저작 장면에 대해 이용가능한 무한 3D 공간을 제공한다. 이것은 심리스 방식에서 2개의 공간 사이의 분리로 인해 가능하다. 바람직하게는, 사용자는 툴들 및 오브젝트들을 배치하기 위한 비제한 공간을 갖고, 이것은 재생가능한 장면을 생성하는 인간공학을 개선시킨다.
설명을 위해, 3D 공간은 좌표 시스템, 일반적으로 데카르트 좌표에 의해 정의된 3차원 영역이다. 3D 공간은 기하학적 모델들을 통합할 수 있다. 또한, 3D 공간을 설명하는 다른 방식들이 존재한다.
도 1 에는, 재생가능한 장면을 생성하는 프로세스의 플로우차트가 도시되어 있다. 도 1 을 참조하여 후술되는 프로세스는 재생가능한 장면을 생성하는 특정한 방식, 특히, 단계 110 내지 120 에서의 포털의 계산에 관련된다는 것에 유의한다. 그럼에도 불구하고, 상기 프로세스의 설명은 본 발명을 이해하는데 유용할 것이다.
도 1 의 프로세스는 대략적으로 제작 시간 (단계들 (100, 110, 120) 을 포함) 및 구동 시간 (단계들 (200 내지 260)) 으로 분해된다.
제작 시간은 포털의 컴퓨팅에 주로 전용되는 프로세싱 단계들 (110 내지 120) 을 특히 포함한다. 이들 단계들 (110 내지 120) 은 바람직하게는 제작 시간 동안 발생하여서, 반복을 회피한다.
"포털" 의 개념은 비디오 게임에서 널리 공지되어 있다. 포털은 종종, (통상적으로 너무 많은 오브젝트들이 드로잉될 때) 실내 장면들의 렌더링 오버드로우 (overdraw) 를 최적화하기 위해 사용되지만, 포털은 또한 게임에서 다른 장소를 통하는 게이트를 생성하기 위해 사용된다. 중요하게는, 포털은 (텍스처에 대한 렌더로서 또한 칭하는) 장면의 서브-파트의 렌더링의 기본 매핑만은 아니고, 실제로, 포털은 장면의 다른 부분에 대한 실제 윈도우를 디스플레이하여서, 포털 내부에 디스플레이되는 것의 원근은 윈도우 외부의 카메라 시점에 따라 변화한다. 포털의 개념은 포털의 일 측으로부터 포털의 타측으로의 오브젝트들의 변위를 허용한다.
도 1 에 도시된 프로세스는 3D 저작 장면의 디스플레이 (100) 로 시작한다. 3D 저작 장면은, 저자가 재생가능한 장면의 일부인 오브젝트들을 수집하고 (옵션으로는) 구성하는 3D 장면이다. 3D 장면은 오브젝트들이 위치되는 3D 저장 공간으로서 정의된다.
다음으로, 단계 110 에서, 3D 체험 장면을 생성하는 오브젝트의 인스턴스가 컴퓨팅된다. 이러한 오브젝트는 배경, 조명 등과 같은 3D 체험 장면의 여러 특징들을 특정하는 필요한 명령들을 포함한다. 3D 체험 장면을 생성하는 오브젝트의 예시화는 당업계에 알려진 바와 같이 수행된다.
3D 체험 장면을 생성하는 3D 오브젝트가 예시화되면, 그것의 표현은 3D 저작 장면에서 디스플레이될 수 있다 (단계 120). 3D 체험 장면은 저작 장면의 오브젝트이고, 따라서, 이것은 3D 저작 장면의 일부이고, 저자는 바람직하게는, 3D 저작 장면과 3D 체험 장면 사이를 심리스 방식으로 왔다 갔다 할 수 있다. 이것은, 포털을 통과함으로써 달성될 수 있다. 다시 말해, 카메라는 3D 저작 장면으로부터 3D 체험 장면으로 내비게이팅할 수 있다.
3D 체험 장면의 표현은 3D 저작 장면에서 생성되는 포털 효과를 통해 3D 저작 장면에 디스플레이된다. 오브젝트들은 3D 저작 장면에서 예시화될 수 있고, 3D 저작 장면으로부터 3D 체험 장면으로 변위될 수 있어서, 포털을 통해 볼 수 있다.
이제, 도 11 을 참조하면, 포털을 생성하는 방법이 도시된다. 도 11 에 도시된 방법은 정확히 동일한 시점으로부터 3D 저작 장면 (1110) 및 체험 장면 (1120) 양자의 렌더링에 의존하고, 각 장면은 RGB (레드, 그린, 블루) 컬러 모델의 정보를 저장하는 자신의 RGB 버퍼를 갖는다.
3D 체험 장면은 3D 체험 장면의 제한된 뷰 (1140) 를 제공하기 위해 마스크 (또는 포털 마스크) (1130) 와 결합되고; 다시 말해, 3D 체험 장면의 일부만이 보여질 수 있다. 3D 체험 장면의 제한된 뷰 (1140) 는 3D 체험 장면 (1120) 의 표현을 마스크 (1130) 의 표현으로 픽셀 단위로 승산함으로써 획득될 수도 있다.
3D 저작 장면 (1110) 은 또한, 마스크 (1130) 의 (화이트) 영역 (1132) 에 대응하는 빈 (또는 블랙) 영역 (1152) 을 갖는 3D 저작 장면 (1150) 을 획득하기 위해 동일한 마스크 (1130) 와 결합된다. 따라서, 3D 저작 장면 (1110) 의 표현이 변형되고, 이러한 변형은 3D 저작 장면 (1110) 의 표현을 마스크 (1130) 의 표현으로 픽셀 단위로 감산함으로써 획득될 수도 있다.
최종으로, 포털 효과를 통해 디스플레이된 3D 체험 장면 (1160) 의 표현을 갖는 3D 저작 장면의 표현은, 3D 체험 장면의 제한된 뷰 (1140) 의 픽셀들을 변형된 3D 체험 장면 (1150) 의 픽셀들과 합산함으로써 생성된다.
도 2 는 도 1 의 프로세스의 단계들 (100 내지 120) 의 결과의 그래픽 사용자 인터페이스 (또는 GUI) 에서 뷰의 예를 도시한다. GUI 는 표준 메뉴 바 (2010) 뿐만 아니라 하부 및 툴바 (2020) 를 갖는다. 이러한 메뉴 및 툴바는 사용자 선택가능한 아이콘들 (2012, 2014) 의 세트를 포함하고, 각 아이콘은 예를 들어, GUI 에 디스플레이된 3D 저작 장면 (2000) 의 3D 배향을 용이하게 하는 하나 이상의 동작들 또는 기능들과 관련된다. GUI 는 예를 들어, 기능을 선택하는 GUI 에서의 액션들을 수행하기 위해 저자에 의해 사용된 (손의 일반적 형상을 갖는) 커서 (2040) 를 더 디스플레이한다. 커서는 키보드, 마우스, 스타일러스 등과 같은 햅틱 디바이스를 통해 동작될 수도 있다. 변형예에서, 저자는 또한, GUI 를 디스플레이하는 터치 감지형 스크린을 통해 GUI 에서 액션을 수행할 수도 있다.
3D 저작 장면 (2000) 은, 3D 체험 장면 (2200) 의 표현이 디스플레이되는 포털 (2100) 을 포함한다. 3D 체험 장면은 디폴트, 예를 들어, 냉장고 (2210) 에 의해 디스플레이된 하나 또는 여러 오브젝트들을 포함할 수도 있다. 중요하게는, 3D 저작 장면에서의 시점의 변화가 그에 따라 3D 체험 장면에서의 시점에 영향을 미치고, 실제로, 포털 (2100) 은 다른 장면 (2200) 의 다른 부분에 실제 윈도우를 디스플레이하여, 포털 내부에 디스플레이된 것의 원근은 포털 외부의 시점에 따라 (즉, 3D 저작 장면의 시점에 따라) 변화한다.
또한, 3D 저작 장면 (2000) 은 3차원 저작 장면 또는 3차원 체험 장면을 구성하는 글로벌 툴들의 세트를 더 포함할 수도 있다. 이들 글로벌 툴들은 재생가능한 장면의 트리거링 (2032), 체험 장면의 세이빙 (2034), 오브젝트 라이브러리에서 디스플레이될 오브젝트의 탐색 (2038), 3D 체험 장면에 들어가기 (2036), 또는 GUI 에 디스플레이된 3D 저작 장면 (2000) 의 3D 배향의 용이화 (2050) 와 같지만 이에 제한되지 않는 하나 이상의 동작들 또는 기능들과 관련될 수도 있다. 3D 체험 장면에 들어가기는, 저자가 체험 장면을 단지 본다는 것을 의미한다. 다시 말해, 3차원 저작 장면에서의 시점 및 3차원 체험 장면에서의 시점은 독립적이다.
실제로, 글로벌 툴들 (2032, 2034, 2036, 2038) 은, 그 각각의 표현들이 3D 저작 장면에 디스플레이되는 오브젝트들이다. 바람직하게는, 이들 오브젝트들은 3D 저작 장면의 일부이고, 따라서, 이들은 저작 장면을 디스플레이하면서, 즉, 제작 시간 (100 내지 120) 동안 예시화된다. 또한, 글로벌 툴들은 통상적으로, 체험 장면에 들어간 이후에 3D 체험 장면에 또한 디스플레이될 수도 있다.
글로벌 툴은 또한 도 3 에 예시된 바와 같이, 서브 기능들의 세트를 제공할 수도 있다. 저자는 글로벌 툴상에서 작용함으로써 (예를 들어, 커서 (2040) 로 글로벌 툴을 클릭함으로써) 글로벌 툴 (2050) 을 선택하고, 그 후, 글로벌 툴은 사용자 선택가능한 기능들 (2062 내지 2068) 의 세트를 포함하는 메뉴 (2060) 를 나타낸다. 메뉴 (2060) 를 형성하는 각 사용자 선택가능한 기능 (2062 내지 2068) 은, 그 표현이 3D 저작 장면에 디스플레이되는 오브젝트일 수 있다.
도 1 을 다시 참조하면, 재생가능한 장면을 생성하는 프로세스의 제작 시간 (100 내지 120) 이 달성되고, 프로세스 (200 내지 260) 의 구동 시간이 도 2 내지 도 10 을 참조하여 이제 논의된다.
단계 200 에서, 저자는 3D 저작 장면에 표현될 오브젝트를 선택한다. 여기서, 저작 장면에서 직접적으로 디스플레이된 오브젝트들의 표현들의 세트를 통한 선택 또는 오브젝트들의 세트의 리스트를 통한 저자 액션시의 선택을 포함하는, 오브젝트들의 다양한 선택 방식들이 이용가능하다. 임의의 선택 방식이, 콤보 박스, 아이콘들, 특수 명령 또는 오른쪽 버튼 클릭 등과 같은 임의의 종류의 사용자 인터페이스에 의해 수행될 수도 있다.
바람직하게는, 오브젝트의 선택은 도 4 에 예시된 바와 같이, 오브젝트들의 세트를 제공하는 탐색 툴 (2038) 을 통해 수행된다. 제안된 예에서, 저자는 요청된 오브젝트 (예를 들어, "핑크") 를 식별하도록 기능하는 탐색 톨에서 식별 정보를 입력한다. 식별 정보의 입력에 응답하여, 탐색 툴은 오브젝트들 (2300) 의 세트를 디스플레이한다. 디스플레이된 오브젝트들은 데이터베이스와 같은 저장소에 저장된 실제 오브젝트들이다. 이러한 목적을 위해, 탐색 툴은 식별 정보와 관련되는 저장소에서의 모든 오브젝트들을 식별하는 데이터베이스의 관계형 특성을 사용할 수도 있다. 오브젝트들이 식별되면, 그들의 표현들은 3D 저작 장면에 디스플레이되고; 오브젝트들 (2300) 의 표현의 세트가 도시된다. 최종으로, 저자는 3D 저작 장면에서 표현되기를 원하는 오브젝트를 선택한다.
또한, 각 오브젝트의 표현은 사전 컴퓨팅될 수도 있다. 이것은 계산 시간을 감소시킨다. 표현을 사전 컴퓨팅하는 것이, 저장소에서 반복적으로 사용되는 것으로 예상되는 표현들 중 일부에 대해 적어도 가능하다. 이러한 사전 컴퓨팅된 표현들은 아무것도 하지 않고 컴퓨팅될 수도 있고, 액세스를 위해 저장될 수도 있다. 소정의 표현이 디스플레이되면, 이미 저장된 표현들 중에서 먼저 탐색되고, 디스플레이될 표현들이 존재하지 않으면, 컴퓨팅된다.
다시 도 1 을 참조하면, 오브젝트가 저자에 의해 선택되면, 선택된 오브젝트의 인스턴스가 컴퓨팅된다 (단계 210). 인스턴스의 계산은 당업계에 알려진 바와 같이 수행된다.
그 후, 선택된 오브젝트의 표현이 3D 저작 장면에 디스플레이되고 (단계 220), 이것은 예시화된 오브젝트의 표현이 디스플레이된다고 말하는 것과 같다.
실제로, 오브젝트들은 3차원 모델링된 오브젝트들이다. 3D 모델링된 오브젝트는 3D 공간에서의 오브젝트의 디스크립션 (discription) 이다. 3D 모델링된 오브젝트는 본질적으로는, 지오메트리가 생성되는 사양들을 칭한다. 따라서, 3D 모델링된 오브젝트는 3D 오브젝트를 나타내는 수학적 디스크립션, 즉, 삼각형, 선, 곡면 등과 같은 다양한 기하학적 엔티티에 의해 연결된 3D 공간에서의 점들의 집합이다. 3D 모델링된 오브젝트는 3D 모델링된 오브젝트의 3D 표현에 의해 표현된다.
도 5 는 단계 220 의 디스플레이하는 것을 예시한다. 사용자는 도 4 에 예시된 바와 같이, 탐색 엔진에 의해 제공된 오브젝트 (2302) (표범) 를 선택한다. 이러한 선택된 오브젝트의 인스턴스가 컴퓨팅되었고, 이러한 오브젝트의 표현 (2400) 이 3D 저작 장면에 디스플레이된다. 오브젝트 (2400) 의 표현은, 선택된 오브젝트가 표범의 3D 모델링된 오브젝트이기 때문에 3D 표현이다. 오브젝트 (2400) 의 표현이 3D 저작 장면상에 디스플레이된 이후에도, 선택된 오브젝트 (2302) 가 여전히 디스플레이된다는 것이 주목할 만하다. 따라서, 동일한 오브젝트 (2302) 를 여러 횟수 선택하고, 선택된 오브젝트의 인스턴스들을 컴퓨팅하며, 오브젝트 (2400) 의 표면과 유사한 여러 표현들을 디스플레이하는 것이 가능하다.
오브젝트를 선택하고, 선택된 오브젝트의 인스턴스를 컴퓨팅하며, 선택된 오브젝트를 디스플레이하는 단계들 (200, 210, 220) 은 순차적으로 여러 횟수 수행될 수도 있다. 이러한 방식으로, 저자는 모든 오브젝트들을 저작 장면에 저장할 수 있고, 이들은 재생가능한 장면을 생성하기 위해 필요하다. 바람직하게는, 3D 저작 장면은 오브젝트들을 임시로 저장하고, (예를 들어, 오브젝트 사이즈 및 오브젝트 형상에 의해) 이들을 저자에 대한 최상의 방식으로 구성하기 위한 비제한 공간을 제공하고, 이것은 재생가능한 장면을 생성하는 인간공학을 개선시킨다.
다음으로, 단계 230 에서, 저자는 저작 장면에 디스플레이된 오브젝트들의 표현을 체험 장면으로 변위시킨다. 바람직하게는, 오브젝트의 변위는 여러 방식들, 예를 들어, "끌어놓기 (drag and drop)" 라 칭하는 기법을 사용함으로써 수행될 수도 있다. 다르게는, 저자는 "자르기 (cut)" 및 "붙이기 (paste)" 라 칭하는 유사한 종래의 기법을 이용함으로써 동일한 결과를 달성할 수 있다.
중요하게는, 오브젝트가 3D 저작 장면으로부터 3D 체험 장면으로 (그리고 반대로) 변위될 때, 오브젝트의 인스턴스는 변위된 오브젝트 및 3D 체험 장면 양자가 공통 3D 저작 장면에 예시화된 오브젝트들인 한은 변화되지 않는다. 또한, 오브젝트의 표현 (및 그것의 인스턴스) 은, 오브젝트가 저작 장면으로부터 체험 장면으로 이동될 때, 또는 체험 장면으로부터 저작 장면으로 이동될 때 복제되지 않는다. 다시 말해, 오브젝트의 단일 인스턴스가 일 장면으로부터 다른 장면으로 복제되지 않고 이동된다.
바람직하게는, 이것은 보충 계산이 요구되지 않기 때문에 일 장면에 대해 생성된 코드의 피스들의 다른 장면으로의 공유를 더 용이하게 만들고, 따라서, 본 발명의 프로세스를 구동하는 컴퓨터화된 시스템의 컴퓨터 자원들 (랜덤 액세스 메모리, 컴퓨터 프로세싱 유닛) 의 소모를 제한한다.
이제, 도 6 을 참조하면, 새로운 오브젝트 (2402) 가 3D 저작 장면 (2000) 에 디스플레이된다. 저자는 또한, 식별 정보 "자동차" 에 관한 오브젝트들에 대한 탐색을 수행하였고, 사용자는 오브젝트 (2304) 를 선택한다.
도 7 을 참조하면, 저자는 저작 장면에서 이제 2406 으로 표현되는 오브젝트 (2304) 를 선택하였다. 사용자는 또한, 3D 저작 장면 (2000) 으로부터 3D 체험 장면 (2200) 으로의 오브젝트 (2402) 의 변위를 시작하고, 오브젝트는 이제 3D 체험 장면에 위치되고, 이제는 3D 저작 장면에 속하지 않는다.
사용자는 또한, 오브젝트 (2402) 가 3D 저작 장면에 위치되면 로컬 툴들 (2460) 의 세트의 디스플레이를 트리거링한다. 이들 툴들은, 이들이 단지 하나의 오브젝트 (2402) 의 형상에 전용되기 때문에 로컬 툴들이라 불린다. 이들 툴들의 디스플레이는 예를 들어, 커서가 오브젝트상에 있을 때 햅틱 디바이스의 오른쪽 버튼 클릭을 수행함으로써 당업계에 알려진 바와 같이 수행될 수도 있다. 로컬 툴들 (2460) 은 도 3 과 관련하여 논의된 사용자 선택가능한 기능 (2062 내지 2068) 과 동일할 수도 있는 사용자 선택가능한 기능들 (2462 내지 2468) 의 세트를 제공한다. 유사하게는, 로컬 툴들 (2460) 의 세트의 각 사용자 선택가능한 기능 (2462 내지 2468) 은, 그 표현이 3D 저작 장면에 디스플레이되는 오브젝트일 수도 있다. 또한, 도 7 에 도시된 바와 같이, 로컬 툴들 (2460) 은 또한 3D 체험 장면에 디스플레이될 수 있다. 또한, 툴들의 세트는 오브젝트가 3D 체험 장면에 있는 동안 또한 호출될 수도 있다.
도 8 을 참조하면, 오브젝트 (2402) 는 이제 3D 체험 장면 (2200) 에 이머젼되고, 즉, 변위가 종료된다. 다시 말해, 오브젝트 (2402) 는 3D 체험 장면에서 드롭된다.
오브젝트들의 표현들의 반대 변위들, 즉, 3D 체험 장면에 위치된 오브젝트의 3D 저작 장면으로의 변위가 고려될 수도 있다는 것이 이해된다.
도 9 는 시점이 변화되었다는 점을 제외하고는, 도 3 에서와 동일한 3D 저작 장면 (2000) 및 체험 장면 (2200) 을 도시한다. 3D 모델링된 오브젝트들 (2036, 2050, 2038, 2400, 및 2406) 의 3D 표현들은, 이들이 새로운 시점으로 도시된다는 점을 제외하고는, 도 8 에 디스플레이된 것들과 동일하다.
이제, 도 1 을 참조하면, 저자는 3D 체험 장면에서 변위된 오브젝트들 중 하나의 위치 또는 형상을 변경하기를 원할 수도 있다.
단계 240 에서, 저자는 3D 체험 장면만을 보도록 3D 체험 장면에 들어가는 것을 결정할 수도 있다. 3D 체험 장면을 입력하기 위해, 저자는 글로벌 툴의 오브젝트 (2036) 에 의해 표현된 전용 기능을 트리거링할 수도 있고, 시점은 체험 장면 및 그 위에 변위된 오브젝트들의 표현들만을 디스플레이하기 위해 체험 장면으로 들어간다. 따라서, 3D 저작 장면에서의 시점 및 3D 체험 장면에서의 시점은 독립적이다.
도 10 은 3D 체험 장면 (2200) 만이 디스플레이되는 GUI 에서의 뷰의 예를 도시한다. 저자는 체험 장면에 완벽하게 이머젼되고, 이것은, 어떤 시점이더라도, 저자가 포털 및 3D 저작 장면을 보지 못한다는 것을 의미한다. 저자는 아이콘 (2036a) 에 의해 표현된 기능을 트리거링함으로써 3D 체험 장면을 벗어날 수 있다. 아이콘 (2036a) 이 도 2 에 도시된 오브젝트 (2036) 가 아니다는 것을 이해하고, 실제로, 오브젝트 (2036) 는 저자가 그것을 변위시킬 때에만 3D 체험 장면의 일부이다.
다음으로, 단계 250 에서, 저자는 도 10 에 표현된 오브젝트 (2402) 를 구성하기 위해 로컬 툴들 (2460) 중 하나를 사용할 수도 있다. 오브젝트의 형상은, 오브젝트가 어떻게 렌더링되는지, 오브젝트의 동작 등에 영향을 미치는 광원의 타입 및 위치, 컬러, 텍스처 및/또는 재료 조성을 수반하지만, 이에 제한되지는 않는다. 오브젝트의 동작은, 재생가능한 장면을 플레이할 때 오브젝트상에서 수행하도록 사용자에게 허용되는 액션들을 포함한다. 이 동작은 오브젝트와 적어도 하나의 다른 오브젝트 사이의 상호작용들을 더 정의할 수도 있다. 예를 들어, 오브젝트가 냉장고 (2210) 근처로 오면, 그것의 문이 열릴 수도 있다.
그 후, 단계 260 에서, 저자는 재생가능한 장면을 생성하기 위해 3D 체험 장면에서 오브젝트들의 변위된 표현들을 구성한다. 구성하는 것은, 3D 체험 장면에서 변위된 오브젝트들의 표현들이 저자의 계획에 따라 배열된다는 것을 의미한다. 구성은 3D 체험 장면에서의 오브젝트들의 위치를 특히 수반하지만, 오브젝트들의 형상 및 동작을 또한 수반한다.
상술한 방법이 CAD/CAM/CAE 시스템, 또는 변화하는 시점들로부터 오브젝트의 뷰들을 디스플레이하기 위해 사용된 임의의 시스템에 의해 정의될 수 있는 임의의 구성의 임의의 오브젝트에 적용될 수 있다는 것이 이해될 것이다. 본 발명은, 디지털 전자 회로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에서 구현될 수도 있다. 본 발명의 장치는 프로그램가능한 프로세서에 의한 실행을 위해 머신 판독가능한 저장 디바이스에 명백히 포함된 컴퓨터 프로그램 제품에서 구현될 수도 있고, 본 발명의 방법 단계들은 입력 데이터를 동작시키고 출력을 생성함으로써 본 발명의 기능들을 수행하기 위해 명령들의 프로그램을 실행하는 프로그램가능한 프로세서에 의해 수행될 수도 있다.
본 발명은 바람직하게는, 데이터 저장 시스템으로부터 데이터 및 명령들을 수신하고, 데이터 저장 시스템에 데이터 및 명령들을 송신하도록 커플링된 적어도 하나의 프로그램가능한 프로세서, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스를 포함하는 프로그램가능한 시스템상에서 실행가능한 하나 이상의 컴퓨터 프로그램들에서 구현될 수도 있다. 애플리케이션 프로그램은 하이 레벨의 절차적 또는 오브젝트-지향 프로그래밍 언어, 또는 원하는 경우에 어셈블리어 또는 기계어에서 구현될 수도 있고, 어느 경우에서나, 언어는 컴파일러형 또는 해석형 언어일 수도 있다.
도 12 는 클라이언트 컴퓨터 시스템, 예를 들어, 사용자의 워크스테이션을 도시한다. 클라이언트 컴퓨터는 내부 통신 버스 (1200) 에 접속된 중앙 처리 유닛 (CPU) (1201), BUS 에 또한 접속된 랜덤 액세스 메모리 (RAM) (1207) 를 포함한다. 클라이언트 컴퓨터에는, BUS 에 접속된 비디오 랜덤 액세스 메모리 (1210) 와 관련된 그래픽 프로세싱 유닛 (GPU) (1211) 이 더 제공된다. 비디오 RAM (1210) 은 당업계에 프레임 버퍼로서 또한 알려져 있다. 대용량 저장 디바이스 제어기 (1202) 는 하드 드라이브 (1203) 와 같은 대용량 메모리 디바이스에 대한 액세스들을 관리한다. 컴퓨터 프로그램 명령들 및 데이터를 명백히 구현하는데 적합한 대용량 메모리 디바이스들은 예로서, EPROM, EEPROM, 및 플래시 메모리; 내부 하드 디스크들 및 착탈식 디스크들과 같은 자기 디스크들; 자기-광학 디스크들; 및 CD-ROM 디스크들 (1204) 와 같은 반도체 메모리 디바이스들을 포함하는 모든 형태의 비위발성 메모리를 포함한다. 임의의 상술한 것은 특수 설계된 응용 주문형 집적 회로 (ASIC) 에 의해 보충될 수도 있거나 ASIC 에 통합될 수도 있다. 네트워크 어댑터 (1205) 가 네트워크 (1206) 에 대한 액세스를 관리한다. 클라이언트 컴퓨터는 또한, 커서 제어 디바이스, 키보드 등과 같은 햅틱 디바이스 (1209) 를 포함할 수도 있다. 커서 제어 디바이스는 사용자가 디스플레이 (1208) 상의 임의의 원하는 위치에서 커서를 선택적으로 포지셔닝하는 것을 허용하기 위해 클라이언트 컴퓨터에서 사용된다. 또한, 커서 제어 디바이스는 사용자가 다양한 커맨드들, 및 입력 제어 신호들을 선택하는 것을 허용한다. 커서 제어 디바이스는 시스템으로의 제어 신호 신호들에 대한 다수의 신호 생성 디바이스들을 포함한다. 통상적으로, 커서 제어 디바이스는 마우스일 수도 있고, 마우스의 버튼은 신호들을 생성하기 위해 사용된다.
본 발명의 바람직한 실시형태들이 설명되었다. 본 발명의 사상 및 범위로부터 벗어나지 않고 다양한 변경들이 이루어질 수도 있다는 것이 이해될 것이다. 따라서, 다른 구현들은 아래의 청구항들의 범위내에 있다.

Claims (15)

  1. 저작 시스템을 이용하여 재생가능한 장면을 생성하는 프로세스로서,
    - 디스플레이된 오브젝트들의 표현들을 포함하는 3차원 저작 장면 (authoring scene) 을 디스플레이하는 단계 (100, 110, 120) 로서, 상기 오브젝트들의 표현들 중 하나는 3차원 체험 장면 (experience scene) 인, 상기 3차원 저작 장면을 디스플레이하는 단계;
    - 사용자 액션시에, 상기 저작 장면에서 디스플레이된 상기 오브젝트들의 표현들 중 일부를 상기 체험 장면으로 변위하는 단계 (230); 및
    - 사용자 액션시에, 상기 체험 장면에서의 상기 오브젝트들의 변위된 표현들을 구성하는 단계 (260) 를 포함하는, 재생가능한 장면을 생성하는 프로세스.
  2. 제 1 항에 있어서,
    - 상기 저작 장면에서 디스플레이될 상기 오브젝트들의 각각의 오브젝트에 대한 인스턴스를 컴퓨팅하는 단계 (210) 를 더 포함하고,
    상기 변위하는 단계는, 상기 오브젝트들의 표현들의 복제없이 변위하는 단계를 더 포함하는, 재생가능한 장면을 생성하는 프로세스.
  3. 제 1 항 또는 제 2 항에 있어서,
    - 사용자 액션시에, 상기 3차원 저작 장면 또는 상기 3차원 체험 장면에서 표현된 오브젝트들의 형상 (configuration) 들을 구성하는 단계를 더 포함하고, 오브젝트의 형상은, 상기 저작 장면으로부터 상기 체험 장면으로 변위될 때 변화되지 않는, 재생가능한 장면을 생성하는 프로세스.
  4. 제 3 항에 있어서,
    상기 오브젝트의 형상은, 상기 오브젝트와 적어도 다른 오브젝트와의 동작을 포함하는, 재생가능한 장면을 생성하는 프로세스.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 3차원 저작 장면에서의 시점의 변화는, 그에 따라 상기 3차원 체험 장면에서의 상기 시점에 영향을 미치는, 재생가능한 장면을 생성하는 프로세스.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 3차원 저작 장면에서의 상기 시점은, 상기 3차원 체험 장면에서의 상기 시점에 대해 독립적인, 재생가능한 장면을 생성하는 프로세스.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    - 사용자 액션시에, 상기 저작 장면 또는 상기 체험 장면에 표현된 오브젝트를 구성하기 위해 상기 저작 장면 또는 상기 체험 장면에서 로컬 툴들의 세트를 디스플레이하는 단계를 더 포함하는, 재생가능한 장면을 생성하는 프로세스.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    - 상기 3차원 저작 장면 또는 상기 3차원 체험 장면을 구성하기 위해 글로벌 툴들의 세트를 디스플레이하는 단계를 더 포함하는, 재생가능한 장면을 생성하는 프로세스.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 로컬 툴들 또는 상기 글로벌 툴들은, 그것의 각각의 표현들이 디스플레이되는 오브젝트들인, 재생가능한 장면을 생성하는 프로세스.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 구성하는 단계에서, 상기 시점은 상기 체험 장면 및 상기 체험 장면상의 상기 변위된 오브젝트들의 표현들만을 디스플레이하기 위해 상기 체험 장면으로 들어가는, 재생가능한 장면을 생성하는 프로세스.
  11. 제 1 항 내지 제 10 항 중 어느 한 항에 있어서,
    상기 표현들을 디스플레이하는 단계는, 제작 시간 (build time) 에서 수행되고, 상기 변위하는 단계 및 상기 구성하는 단계는 구동 시간 (run time) 에서 수행되는, 재생가능한 장면을 생성하는 프로세스.
  12. 제 1 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 오브젝트들은 3차원 모델링된 오브젝트들인, 재생가능한 장면을 생성하는 프로세스.
  13. 저작 시스템을 이용하여 재생가능한 장면을 생성하는 컴퓨터 프로그램으로서,
    컴퓨터로 하여금 제 1 항 내지 제 12 항 중 어느 한 항의 프로세스의 단계들을 취하게 하는 코드 수단을 포함하는, 컴퓨터 프로그램.
  14. 제 13 항에 기재된 컴퓨터 프로그램이 기록된, 컴퓨터 판독가능한 저장 매체.
  15. 재생가능한 장면을 생성하는 저작 시스템으로서,
    제 1 항 내지 제 12 항 중 어느 한 항의 프로세스의 단계들을 구현하는 수단을 포함하는, 저작 시스템.
KR1020110141653A 2010-12-24 2011-12-23 저작 시스템을 이용한 재생가능한 장면의 생성 KR101863041B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP10016070.4A EP2469474B1 (en) 2010-12-24 2010-12-24 Creation of a playable scene with an authoring system
EP10016070.4 2010-12-24

Publications (2)

Publication Number Publication Date
KR20120073148A true KR20120073148A (ko) 2012-07-04
KR101863041B1 KR101863041B1 (ko) 2018-06-01

Family

ID=43798510

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110141653A KR101863041B1 (ko) 2010-12-24 2011-12-23 저작 시스템을 이용한 재생가능한 장면의 생성

Country Status (6)

Country Link
US (1) US9305403B2 (ko)
EP (1) EP2469474B1 (ko)
JP (1) JP6073058B2 (ko)
KR (1) KR101863041B1 (ko)
CN (1) CN102663799B (ko)
CA (1) CA2762571A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150111910A (ko) * 2013-01-29 2015-10-06 바이에리셰 모토렌 베르케 악티엔게젤샤프트 3d 이미지 데이터를 처리하기 위한 방법 및 장치

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295181B (zh) * 2013-05-08 2019-04-26 新奥特(北京)视频技术有限公司 一种粒子文件与视频的叠加方法和装置
US9779538B2 (en) * 2014-05-28 2017-10-03 Lucasfilm Entertainment Company Ltd. Real-time content immersion system
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US9710972B2 (en) 2014-05-30 2017-07-18 Lucasfilm Entertainment Company Ltd. Immersion photography with dynamic matte screen
US11144041B2 (en) * 2014-11-05 2021-10-12 The Boeing Company 3D visualizations of in-process products based on machine tool input
CN105426110B (zh) * 2015-12-10 2018-11-16 广东欧珀移动通信有限公司 一种播放场景创建方法及用户终端
EP3496045A4 (en) * 2016-08-05 2019-07-31 Sony Corporation INFORMATION PROCESSING DEVICE, METHOD AND COMPUTER PROGRAM
WO2018049682A1 (zh) * 2016-09-19 2018-03-22 深圳市大富网络技术有限公司 一种虚拟3d场景制作方法及相关设备
JP6554139B2 (ja) * 2017-05-08 2019-07-31 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2019133792A1 (en) * 2017-12-30 2019-07-04 Infinite Kingdoms, LLC Smart entertainment technology attractions
CA3092884A1 (en) * 2018-03-27 2019-10-03 Spacedraft Pty Ltd A media content planning system
JP6856572B2 (ja) * 2018-04-04 2021-04-07 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
CN111145358B (zh) * 2018-11-02 2024-02-23 北京微播视界科技有限公司 图像处理方法、装置、硬件装置
US20220172633A1 (en) * 2019-02-27 2022-06-02 Siminsights, Inc. Augmented reality and virtual reality systems
EP3712759B1 (en) * 2019-03-18 2023-07-19 Apple Inc. Virtual paper
US11039061B2 (en) 2019-05-15 2021-06-15 Microsoft Technology Licensing, Llc Content assistance in a three-dimensional environment
US11030822B2 (en) * 2019-05-15 2021-06-08 Microsoft Technology Licensing, Llc Content indicators in a 3D environment authoring application
US11164395B2 (en) 2019-05-15 2021-11-02 Microsoft Technology Licensing, Llc Structure switching in a three-dimensional environment
US11287947B2 (en) 2019-05-15 2022-03-29 Microsoft Technology Licensing, Llc Contextual input in a three-dimensional environment
US11228750B1 (en) * 2020-09-08 2022-01-18 Rovi Guides, Inc. Systems and methods for generating virtual reality scenes

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060048092A1 (en) * 2004-08-31 2006-03-02 Kirkley Eugene H Jr Object oriented mixed reality and video game authoring tool system and method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001291119A (ja) * 2000-04-11 2001-10-19 Sony Corp ユーザインタフェース制御装置およびユーザインタフェース制御方法、並びにプログラム提供媒体
JP4343637B2 (ja) * 2003-09-30 2009-10-14 キヤノン株式会社 操作指示方法および装置
JP2006155230A (ja) * 2004-11-29 2006-06-15 Kokuyo Co Ltd 展示会システム、プログラム
NZ564006A (en) * 2006-12-06 2009-03-31 2121200 Ontario Inc System and method for product marketing using feature codes
CN101303773A (zh) * 2008-06-10 2008-11-12 中国科学院计算技术研究所 一种虚拟场景生成方法及系统
CN104751511B (zh) * 2013-12-30 2018-02-06 北京师范大学 一种三维场景构建方法和装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060048092A1 (en) * 2004-08-31 2006-03-02 Kirkley Eugene H Jr Object oriented mixed reality and video game authoring tool system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NOR ANIZA ABDULLAH ET AL:"An authoring toolkit design for educational game content",IEEE Xplore Conference: Information Technology, 2008. ITSim 2008. International Symposium on, Volume: 1(2008.09.30.)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150111910A (ko) * 2013-01-29 2015-10-06 바이에리셰 모토렌 베르케 악티엔게젤샤프트 3d 이미지 데이터를 처리하기 위한 방법 및 장치

Also Published As

Publication number Publication date
JP2012138087A (ja) 2012-07-19
EP2469474A1 (en) 2012-06-27
US20120162210A1 (en) 2012-06-28
JP6073058B2 (ja) 2017-02-01
KR101863041B1 (ko) 2018-06-01
US9305403B2 (en) 2016-04-05
CA2762571A1 (en) 2012-06-24
EP2469474B1 (en) 2020-02-12
CN102663799A (zh) 2012-09-12
CN102663799B (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
KR101863041B1 (ko) 저작 시스템을 이용한 재생가능한 장면의 생성
Jankowski et al. Advances in interaction with 3D environments
AU2006236289B2 (en) Techniques and workflows for computer graphics animation system
KR101257849B1 (ko) 3차원 그래픽 객체 렌더링 방법 및 장치, 이를 위한 렌더링객체 최소화 방법 및 장치
EP2955696B1 (en) Seamless representation of video and geometric data
CN103971416B (zh) 将3d场景分割为由计算资源处理的多个区域
US11113888B2 (en) Device and method for generating dynamic virtual contents in mixed reality
US20050024360A1 (en) Three-dimensional-model processing apparatus, three-dimensional-model processing method, and computer program
JP5763304B2 (ja) コンピュータ画面上に表示されるオブジェクトを可視化する方法、プログラムおよびプロダクト編集システム
US9043707B2 (en) Configurable viewcube controller
Homps et al. ReViVD: Exploration and filtering of trajectories in an immersive environment using 3D shapes
US11625900B2 (en) Broker for instancing
Thorn Learn unity for 2d game development
Mossel et al. Large scale cut plane: An occlusion management technique for immersive dense 3d reconstructions
Eitsuka et al. Authoring animations of virtual objects in augmented reality-based 3d space
Zuo et al. Games technology and building performance analysis
Greenwood Realtime Editing in Virtual Reality for Room Scale Scans
Kent The interface and windowing set-up
Ropinski et al. A Solution for the Focus and Context Problem in Interactive Geovisualization Applications
Harviainen et al. Usability testing of virtual reality aided design: Framework for prototype development and a test scenario
Thorn et al. Unity Basics for 2D Games
Giacalone et al. Tools for Interactive Prototyping of Two-Dimensional and Three-Dimensional User Interfaces
Thomas Using animation to enhance 3D user interfaces for multimedia
Feng et al. 3D Mesh Automatic Blanking and Split Technology in Urban Planning
Mantere ABTEKNILLINEN KORKEAKOULU

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant