KR20180080273A - 정보 상호작용 방법, 장치 및 시스템 - Google Patents

정보 상호작용 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR20180080273A
KR20180080273A KR1020187015519A KR20187015519A KR20180080273A KR 20180080273 A KR20180080273 A KR 20180080273A KR 1020187015519 A KR1020187015519 A KR 1020187015519A KR 20187015519 A KR20187015519 A KR 20187015519A KR 20180080273 A KR20180080273 A KR 20180080273A
Authority
KR
South Korea
Prior art keywords
user equipment
interaction
information
interaction information
community
Prior art date
Application number
KR1020187015519A
Other languages
English (en)
Other versions
KR102098669B1 (ko
Inventor
리 왕
웨이 장
샤오웨이 샤
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20180080273A publication Critical patent/KR20180080273A/ko
Application granted granted Critical
Publication of KR102098669B1 publication Critical patent/KR102098669B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

정보 상호작용 방법이 개시된다. 정보 상호작용 방법은, 3D 애플리케이션 서버가 제1 사용자 장비에 의해 비디오 소스 서버에 업로드된 정보 상호작용 요청을 비디오 소스 서버로부터 획득하는 단계; 정보 상호작용 요청에 따라 상호작용 정보를 생성하는 단계; 상호작용 정보를 제2 사용자 장비에 송신하는 단계; 제2 사용자 장비가 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하는 단계; 및 상호작용 정보에 따라 3D 커뮤니티 내의 상호작용 정보에 대응하는 객체를 렌더링하는 단계를 포함한다. 본 발명의 실시예에서 제공되는 정보 상호작용 방법은 앵커가 3D 애플리케이션의 3D 커뮤니티 내에서 청중과 상호 작용하게 함으로써 상호작용의 다양성을 높일 수 있다.

Description

정보 상호작용 방법, 장치 및 시스템
본 출원은 2016년 3월 3일에 중화인민공화국의 국가지식산권국에 출원된 중국 특허출원 제201610120316.3호("INFORMATION INTERACTION METHOD, DEVICE AND SYSTEM")에 대해 우선권을 주장하는 바이며, 그 전체 내용이 원용에 의해 본 명세서에 포함된다.
본 개시는 3D 기술 분야에 관한 것으로, 상세하게는 정보 상호작용 방법, 정보 상호작용 장치, 및 정보 상호작용 시스템에 관한 것이다.
종래 기술에서 3차원(three-dimensional, 3D) 시나리오와 관련된 대화형 애플리케이션이 이미 매우 인기가 있다. 3D 애플리케이션 시스템은 일반적으로 사용자 장비와 3D 애플리케이션 서버를 포함한다. 사용자 장비는 3D 애플리케이션 서버로부터 대화형 애플리케이션의 데이터를 획득하고, 대화형 애플리케이션을 제공할 수 있다.
인터넷 상의 생방송에 의한 종래 기술의 앵커 비디오도 이미 매우 인기가 있다. 하지만, 인터넷 상의 현재의 생방송에서는, 대응하는 실시간 브로드캐스팅 플랫폼 상에서 앵커가 말을 통해서만 사용자와 통신할 수 있으며, 이 통신에는 3D 애플리케이션이 필요하지 않다.
본 발명의 실시예에 따르면, 앵커가 3D 애플리케이션에서의 3D 커뮤니티 내에서 청중과 상호 작용함으로써 상호작용의 다양성을 높일 수 있는 정보 상호작용 방법이 제공된다. 본 발명의 실시예에 따르면, 대응하는 사용자 장비, 서버, 및 시스템이 추가로 제공된다.
본 개시의 제1 양태에서, 3D 애플리케이션 시스템에 적용되는 정보 상호작용 방법이 제공된다. 상기 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 포함한다. 상기 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함한다. 상기 정보 상호작용 방법은,
상기 제2 사용자 장비가 상기 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 상기 비디오 소스 서버로부터 획득하고, 상기 제2 사용자 장비가 상기 가상의 화면 상에 상기 비디오 콘텐츠를 제공하는 단계;
상기 제2 사용자 장비가 상기 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하는 단계 - 상기 상호작용 정보는, 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드되는 상호작용 요청에 따라 상기 3D 애플리케이션 서버에 의해 생성됨 -; 및
상기 제2 사용자 장비가 상기 상호작용 정보에 따라 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하는 단계를 포함한다.
본 개시의 제2 양태에서, 3D 애플리케이션 시스템에 적용되는 정보 상호작용 방법이 제공된다. 상기 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 포함하고, 상기 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함한다. 상기정보 상호작용 방법은,
상기 3D 애플리케이션 서버가 상기 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 상기 비디오 소스 서버로부터 획득하고, 상기 3D 애플리케이션 서버가 상기 업로드된 비디오 콘텐츠를 상기 제2 사용자 장비에 송신하여 상기 제2 사용자 장비의 가상의 화면 상에 상기 비디오 콘텐츠를 제공하는 단계;
상기 3D 애플리케이션 서버가 상기 비디오 소스 서버로부터 정보 상호작용 요청을 수신하는 단계 - 상기 정보 상호작용 요청은 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드됨 -;
상기 3D 애플리케이션 서버가 상기 정보 상호작용 요청에 따라 상호작용 정보를 생성하는 단계; 및
상기 3D 애플리케이션 서버가, 상기 3D 커뮤니티 내의 상기 상호작용 정보에 대응하는 객체를 렌더링하기 위해 상기 제2 사용자 장비에 의해 사용되는 상기 상호작용 정보를 상기 제2 사용자 장비에 송신하는 단계를 포함한다.
본 개시의 제3 양태에서, 3D 애플리케이션 시스템에서의 사용자 장비가 제공된다. 상기 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 및 제1 사용자 장비를 더 포함한다. 상기 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함한다. 상기 사용자 장비는 획득 유닛, 수신 유닛, 및 렌더링 유닛을 포함한다.
상기 획득 유닛은, 상기 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 상기 비디오 소스 서버로부터 획득하고, 상기 가상의 화면 상에 상기 비디오 콘텐츠를 제공 하도록 구성된다;
상기 수신 유닛은 상기 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하도록 구성된다. 상기 상호작용 정보는, 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드되는 상호작용 요청에 따라 상기 3D 애플리케이션 서버에 의해 생성된다.
상기 렌더링 유닛은 상기 수신 유닛에 의해 수신된 상기 상호작용 정보에 따라, 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하도록 구성된다.
본 개시의 제4 양태에서, 3D 애플리케이션 시스템에 적용되는 서버가 제공된다. 상기 3D 애플리케이션 시스템은 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 더 포함한다. 상기 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함한다. 상기 3D 애플리케이션 서버는 획득 유닛, 수신 유닛, 생성 유닛, 및 송신 유닛을 포함한다.
상기 획득 유닛은, 상기 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 상기 비디오 소스 서버로부터 획득하고, 상기 업로드된 비디오 콘텐츠를 상기 제2 사용자 장비에 송신하여 상기 제2 사용자 장비의 가상의 화면 상에 상기 비디오 콘텐츠를 제공하도록 구성된다.
상기 수신 유닛은 상기 비디오 소스 서버로부터 정보 상호작용 요청을 수신하도록 구성된다. 상기 정보 상호작용 요청은 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드된다.
상기 생성 유닛은 상기 수신 유닛에 의해 수신된 상기 정보 상호작용 요청에 따라 상호작용 정보를 생성하도록 구성된다.
상기 송신 유닛은 상기 생성 유닛에 의해 생성된 상기 상호작용 정보를 상기 제2 사용자 장비에 송신하도록 구성된다. 상기 상호작용 정보는 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하기 위해 상기 제2 사용자 장비에 의해 사용된다.
본 개시의 제5 양태에서, 3D 애플리케이션 시스템이 제공된다. 상기 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 포함한다. 상기 제2 사용자 장비에 의해 제공된 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함한다.
상기 제2 사용자 장비는 제3 양태에 따른 사용자 장비이다.
상기 3D 애플리케이션 서버는 제4 양태에 따른 3D 애플리케이션 서버이다.
앵커가 2차원 방식으로 단어를 통해서만 청중과 상호 작용할 수 있는 종래 기술에 비해, 본 발명의 실시예에 따라 제공되는 정보 상호작용 방법은 3D 애플리케이션에서의 3D 커뮤니티 내에서 청중과 상호 작용하게 함으로써 상호작용의 다양성을 높일 수 있다.
이하, 본 발명의 실시예에의 기술적 해결책을 보다 명확히 설명하기 위하여, 실시예를 설명하는 데 필요한 첨부 도면에 대해 간략히 소개한다. 명백하게, 다음의 첨부 도면은 본 개시의 일부 실시예에 불과하며, 당업자라면 창조적인 노력없이 첨부 도면으로부터 다른 첨부 도면을 추가로 도출할 수 있을 것이다.
도 1은 앵커가 본 개시의 실시예에 따라 3D 커뮤니티의 환경을 제어하는 예를 개략적으로 나타낸 도면이다.
도 2는 본 개시의 실시예에 따른 3D 애플리케이션 시스템을 개략적으로 나타낸 도면이다.
도 3은 본 개시의 실시예에 따라 앵커에 의해 수행되는 생방송의 비디오 콘텐츠가 가상의 화면 상에 제공되는 과정을 개략적으로 나타낸 도면이다.
도 4는 본 개시의 실시예에 따른 정보 상호작용 방법을 개략적으로 나타낸 도면이다.
도 5는 본 개시의 실시예에 따라 앵커가 D 커뮤니티에 선물을 주는 예를 개략적으로 나타낸 도면이다.
도 6은 본 개시의 다른 실시예에 따른 정보 상호작용 방법을 개략적으로 나타낸 도면이다.
도 7은 본 개시의 또 다른 실시예에 따른 정보 상호작용 방법을 개략적으로 나타낸 도면이다.
도 8은 본 개시의 실시예에 따른 사용자 장비를 개략적으로 나타낸 도면이다.
도 9는 본 개시의 실시예에 따른 3D 애플리케이션 서버를 개략적으로 나타낸 도면이다.
도 10은 본 개시의 다른 실시예에 따른 3D 애플리케이션 서버를 개략적으로 나타낸 도면이다.
도 11은 본 개시의 또 다른 실시예에 따른 사용자 장비를 개략적으로 나타낸 도면이다.
도 12는 본 개시의 또 다른 실시예에 따른 3D 애플리케이션 서버를 개략적으로 나타낸 도면이다.
본 발명의 실시예에 따르면, 정보 상호작용 방법이 제공된다. 앵커가 3D 애플리케이션에서의 3D 커뮤니티 내에서 청중과 상호 작용함으로써 상호작용의 다양성을 높일 수 있다. 본 발명의 실시예에 따르면, 대응하는 사용자 장비, 서버, 및 시스템이 추가로 제공된다. 상세한 설명이 이하에서 개별적으로 제공된다.
이하에서는, 본 개시의 실시예의 첨부 도면을 참조하여 본 개시의 기술적 해결책에 대해 명확하고 완전하게 설명한다. 명백히, 설명되는 실시예는 본 개시의 모든 실시예가 아니라 일부 실시예에 불과하다. 창의적인 노력 없이 본 발명의 실시예에 기초하여 당업자에 의해 획득되는 다른 모든 실시예도 본 개시의 보호 범위에 속할 것이다.
이해를 용이하게 하기 위하여, 이하에서는 본 개시에 사용되는 용어에 대해 미리 간략히 소개한다.
본 발명의 실시예의 3D 애플리케이션 시스템은 3D 게임 시스템이라고 이해할 수 있다.
3D 게임은 3차원 컴퓨터 패턴에 기반하는 3차원 전자 게임이다. 3D 게임은 멀티 플레이어 온라인 네트워크 3D 게임, 한 사람이 플레이하는 싱글 플레이어 3D 게임, 및 3D 게임 시스템을 기반으로 구축되는 가상 현실 게임 시스템을 포함하지만 이에 한정되지 않는다. 일반적으로, 3D 게임은 게임 호스트 플랫폼, 모바일 폰 게임 플랫폼, 및 개인용 컴퓨터 게임 플랫폼과 같은 다양한 플랫폼 상에 구현될 수 있다.
3D 커뮤니티는 3차원 컴퓨터 패턴에 기반하여 개발된 3D 게임의 가상 커뮤니티 환경이다. 3D 커뮤니티는 게임에서의 플레이어에 대응하는 시뮬레이션 객체를 포함할 수 있다. 본 개시의 3D 커뮤니티는 가상의 화면을 포함한다. 바람직하게는, 가상의 화면은 실외 영사 스크린(outdoor projection screen)과 유사한 큰 가상의 화면이다.
게임 앵커는 인터넷과 같은 전자 매체 상에서 게임 보도 및 게임 해설에 종사하는 사람이다.
본 개시에서는, 인터넷 상에 방송되는 라이브 비디오를 3D 커뮤니티 내에서 직접 표시하는 기술이 사용되고, 이 기술에 기반하여 통신 메커니즘이 구축되어, 인터넷 상에 브로드캐스트되는 라이브 비디오의 앵커가 보다 다양한 방식으로 3D 커뮤니티 내에서 청중과 상호 작용하게 한다. 비디오와 오디오를 직접 제공하는 것 외에, 이 상호작용 방식은 추가적으로, 3D 커뮤니티의 날씨를 제어하는 것과 폭죽을 터뜨리는 것 등을 포함한다. 예를 들어, 크리스마스에는 앵커가 눈이 내리도록 3D 커뮤니티의 날씨를 제어할 수 있으며, 동시에, 축제 분위기를 크게 높이기 위해 커뮤니티 내에서 폭죽을 터뜨림으로써 청중의 참여도를 크게 높일 수 있다.
이상에서는, 앵커가 3D 커뮤니티 내에서 청중을 위해 폭죽을 터뜨리는 과정에 대해 설명하였다. 폭죽 외에, 앵커는 유사한 통신 메커니즘을 이용하여 3D 커뮤니티의 날씨를 제어할 수 있다. 도 1에 도시된 바와 같이, 앵커는 3D 커뮤니티의 날씨를 제어할 수 있고, 3D 커뮤니티를 저녁으로 설정하고 색이 있는 등(colored lantern)을 켜서 앵커와 청중 간의 상호작용을 크게 강화할 수 있다.
도 2는 본 개시의 실시예에 따른 3D 애플리케이션 시스템을 개략적으로 나타낸 도면이다.
도 2에 도시된 바와 같이, 본 개시의 실시예에 따라 제공되는 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 앵커에 의해 사용되는 제1 사용자 장비, 및 플레이어에 의해 사용되는 제2 사용자 장비를 포함한다. 복수의 제2 사용자 장비가 있을 수 있다. 앵커는 제1 사용자 장비를 이용하여 라이브 게임을 브로드캐스트한다. 브로드캐스트된 라이브 게임의 비디오 스트림은 비디오 소스 서버에 업로드된다. 앵커는 게임 서버에 미리 등록되어 있다. 따라서, 현재 브로드캐스트된 콘텐츠의 소스 주소는 게임 서버에 저장된다. 플레이어는 추가적으로 앵커와 상호 작용할 수 있다. 결과적으로, 라이브 브로드캐스트 중에는 앵커와 시뮬레이션 객체 간에 상호작용이 더 있을 수 있다. 따라서, 사용자 장비가 콘텐츠 제공 서버로부터 비디오 스트림과 라이브 브로드캐스트의 상호작용 콘텐츠를 획득할 수 있다.
라이브 브로드캐스트의 비디오 스트림과 상호작용 콘텐츠를 획득한 후, 제2 사용자 장비가 대응하는 오디오 콘텐츠와 비디오 콘텐츠를 얻기 위해 오디오 및 비디오 렌더링를 수행하며, 3D 애플리케이션에서 오디오 콘텐츠를 재생하고, 가상의 화면 상에 비디오 콘텐츠와 상호작용 콘텐츠를 제공한다.
앵커가 청중과 상호 작용하는 경우, 상호작용 요청이 제1 사용자 장비를 이용하여 비디오 소스 서버에 송신된다. 비디오 소스 서버가 상호작용 요청을 3D 애플리케이션 서버에 포워딩한다. 3D 애플리케이션 서버가 상호작용 요청에 따라 상호작용 정보를 생성하고, 상호작용 정보를 제2 사용자 장비에 송신한다. 제2 사용자 장비가 상호작용 정보에 따라, 3D 커뮤니티 내에 상호작용 정보에 대응하는 객체를 렌더링한다.
본 발명의 실시예에서, 상호작용 정보에 대응하는 객체가 시뮬레이션 인간 객체를 포함할 수 있고, 환경 객체를 더 포함할 수 있다. 환경 객체는 날씨, 색이 있는 등, 및 폭죽과 같은 객체를 포함할 수 있다.
제2 사용자 장비 상의 3D 애플리케이션에서의 3D 커뮤니티 내에서 콘텐츠를 가상의 화면 상에 제공하는 과정에 대해서는, 이해를 위해 도 3을 참조할 수 있다. 이 과정은 다음의 단계 101 내지 단계 111을 포함한다.
단계 101에서, 앵커가 인터넷 상에서 라이브 비디오를 현재 브로드캐스팅하고 있으며, 브로드캐스트되는 라이브 비디오의 비디오 스트림이 제1 사용자 장비를 이용하여 비디오 스트림 서버에 제공된다.
단계 102에서, 사용자가 제2 사용자 장비 상의 3D 애플리케이션을 연 후에, 애플리케이션이 3D 애플리케이션에서의 3D 렌더링 엔진을 초기화하기 시작한다.
단계 103에서, 애플리케이션이 앵커에 의해 현재 브로드캐스트되는 비디오의 비디오 소스 주소를 자동으로 요청한다.
단계 104에서, 3D 애플리케이션 서버가 비디오 소스 어드레스를 오디오 및 비디오 렌더링 모듈에 전달한다.
단계 105에서, 오디오 및 비디오 렌더링 모듈은 브로드캐스트되는 비디오의 데이터 스트림을 콘텐츠 제공 서버에 요청한다.
단계 106에서, 라이브 비디오 브로드캐스팅 서버가 비디오의 데이터 스트림을 오디오 및 비디오 렌더링 모듈에 반환한다.
단계 107에서, 오디오 및 비디오 렌더링 모듈이 오디오 및 비디오 데이터를 이용하여 오디오를 렌더링한다.
단계 108에서, 오디오 및 비디오 렌더링 모듈이 오디오 데이터를 3D 애플리케이션에서의 오디오 엔진에 제공한다.
단계 109에서, 오디오 및 비디오 렌더링 모듈이 오디오 및 비디오 데이터를 이용하여 프레임 단위로 비디오의 이미지를 렌더링한다.
단계 110에서, 오디오 및 비디오 렌더링 모듈이 이미지 데이터를 3D 애플리케이션에서의 3D 렌더링 엔진에 제공한다.
단계 111에서, 렌더링 엔진이 오디오 콘텐츠를 재생하고, 렌더링된 정적 프레임 데이터(static frame data)를 이용하여 사용자에게 3D 비디오를 제공한다.
3D 커뮤니티의 비디오 콘텐츠가 렌더링된 이후의 앵커와 청중 간의 상호작용 과정에 대해서는, 즉 본 개시의 실시예에 따른 정보 상호작용에 대해서는, 이해를 위해 도 4를 참조할 수 있다. 이 상호작용 과정은 다음의 단계 201 내지 단계 205를 포함한다.
단계 201에서, 제1 사용자 장비가 상호작용 요청을 비디오 소스 서버에 보고한다.
단계 202에서, 비디오 소스 서버가 상호작용 요청을 3D 애플리케이션 서버에 포워딩한다.
단계 203에서, 3D 애플리케이션 서버가 상호작용 요청에 따라 상호작용 정보를 생성한다.
단계 204에서, 3D 애플리케이션 서버가 상호작용 정보를 제2 사용자 장비에 송신한다.
단계 205에서, 제2 사용자 장비가 상호작용 정보에 따라, 3D 커뮤니티 내에 상호작용 정보에 대응하는 객체를 렌더링한다.
선택적으로, 이 상호작용 요청은 타깃 시뮬레이션 객체를 생성하기 위한 요청일 수 있다. 3D 애플리케이션 서버가 타깃 시뮬레이션 객체를 생성하기 위한 요청에 따라 타깃 시뮬레이션 객체의 상호작용 정보를 생성한다.
3D 애플리케이션 서버가 타깃 시뮬레이션 객체의 상호작용 정보를 제2 사용자 장비에 송신한다. 타깃 시뮬레이션 객체의 상호작용 정보는 3D 커뮤니티 내에 타깃 시뮬레이션 객체를 렌더링하기 위해 제2 사용자 장비에 의해 사용된다.
제2 사용자 장비가 타깃 시뮬레이션 객체를 렌더링하는 데 사용되고 또한 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신한다.
제2 사용자 장비가 타깃 시뮬레이션 객체를 렌더링하는 데 사용되는 상호작용 정보에 따라, 3D 커뮤니티 내에 타깃 시뮬레이션 객체를 렌더링한다.
선택적으로, 타깃 시뮬레이션 객체는 꾸러미(packet)를 3D 커뮤니티 내의 시뮬레이션 객체에 송신하는 데 사용된다. 이 경우에, 정보 상호작용 방법은,
3D 애플리케이션 서버가 꾸러미를 송신하기 위한 요청을 비디오 소스 서버로부터 획득하는 단계 - 꾸러미를 송신하기 위한 요청은 제1 사용자 장비에 의해 비디오 소스 서버에 업로드됨 -;
3D 애플리케이션 서버가, 꾸러미를 송신하기 위한 요청에 따라 꾸러미의 상호작용 정보를 생성하는 단계; 및
3D 애플리케이션 서버가 꾸러미의 상호작용 정보를 제2 사용자 장비에 송신하는 단계 - 꾸러미의 상호작용 정보는 타깃 시뮬레이션 객체의 이동 트랙 상에서 꾸러미를 렌더링하기 위해 제2 사용자 장비에 의해 사용되는 것임 -;
제2 사용자 장비가 3D 애플리케이션 서버에 의해 송신된 꾸러미 정보를 수신하는 단계; 및
제2 사용자 장비가 꾸러미 정보에 따라, 타깃 시뮬레이션 객체의 이동 트랙 상에서 꾸러미를 렌더링하는 단계를 더 포함한다.
선택적으로, 정보 상호작용 방법은,
3D 애플리케이션 서버가 꾸러미를 송신하기 위한 요청을 비디오 소스 서버로부터 획득하는 단계 - 꾸러미를 송신하기 위한 요청은 제1 사용자 장비에 의해 비디오 소스 서버에 업로드됨 -;
3D 애플리케이션 서버가, 꾸러미를 송신하기 위한 요청에 따라 꾸러미의 상호작용 정보를 생성하는 단계; 및
3D 애플리케이션 서버가 꾸러미의 상호작용 정보를 제2 사용자 장비에 송신하는 단계 - 꾸러미의 상호작용 정보는 타깃 시뮬레이션 객체의 이동 트랙 상에서 꾸러미를 렌더링하기 위해 제2 사용자 장비에 의해 사용되는 것임 -
제2 사용자 장비가 3D 애플리케이션 서버에 의해 송신된 꾸러미 정보를 수신하는 단계; 및
제2 사용자 장비가 꾸러미 정보에 따라, 타깃 시뮬레이션 객체의 이동 트랙 상에서 꾸러미를 렌더링하는 단계를 더 포함한다.
선택적으로, 정보 상호작용 방법은,
3D 커뮤니티 내의 특정 시뮬레이션 객체가 타깃 시뮬레이션 객체에 의해 송신된 꾸러미를 획득한 것을 모니터링하는 경우, 3D 애플리케이션 서버가 꾸러미가 획득된 것을 나타내는 통지 메시지를 제2 사용자 장비에 송신하는 단계 - 특정 시뮬레이션 객체는 제2 사용자 장비에 대응하는 시뮬레이션 객체임 -; 및
3D 커뮤니티 내의 특정 시뮬레이션 객체가 타깃 시뮬레이션 객체에 의해 송신된 꾸러미를 획득하는 경우, 제2 사용자 장비가, 꾸러미가 획득된 것을 나타내고 또한 3D 애플리케이션 서버에 의해 송신된 통지 메시지를 수신하는 단계를 더 포함한다. 여기서, 특정 시뮬레이션 객체는 제2 사용자 장비에 대응하는 시뮬레이션 객체이다.
선택적으로, 정보 상호작용 요청은 환경 객체를 렌더링하기 위한 요청이다.
3D 애플리케이션 서버가 환경 객체를 렌더링하기 위한 요청에 따라 환경 객체의 상호작용 정보를 생성한다.
3D 애플리케이션 서버가 환경 객체의 상호작용 정보를 제2 사용자 장비에 송신한다. 환경 객체의 상호작용 정보는 3D 커뮤니티 내에 환경 객체를 렌더링하기 위해 제2 사용자 장비에 의해 사용된다.
제2 사용자 장비가 환경 객체를 렌더링하는 데 사용되고 또한 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신한다.
제2 사용자 장비가 환경 객체를 렌더링하는 데 사용되는 상호작용 정보에 따라 3D 커뮤니티 내에 환경 객체를 렌더링한다.
이해를 용이하게 하기 위해, 앵커가 엔보이(envoy)를 송신하여 3D 커뮤니티 내의 시뮬레이션 객체에게 선물을 주는 과정, 및 앵커가 3D 커뮤니티의 날씨를 제어하는 과정에 대해 2가지 실시예를 이용하여 이하에서 각각 설명한다.
도 5는 앵커가 3D 커뮤니티 내에 엔보이를 송신하는 것을 개략적으로 나타낸 도면이다. 도 5에 도시된 바와 같이, 앵커는 3D 커뮤니티 내에 앵커를 나타내는 엔보이를 송신한다. 엔보이는 타깃 시뮬레이션 객체이다. 엔보이는 3D 커뮤니티 내에서 걸을 수 있고, 3D 커뮤니티 내의 시뮬레이션 객체에게 선물을 준다.
도 6을 참조하여, 엔보이가 선물을 주는 상호작용 과정에 대해 설명한다.
도 6에 도시된 바와 같이, 본 개시의 다른 실시예에 따른 정보 상호작용은 다음의 단계 301 내지 단계 316을 포함한다.
단계 301에서, 앵커가 제1 사용자를 이용하여 커뮤니티 관리 페이지에 로그인한다.
단계 302에서, 앵커가 등록되어 있는지 여부 및 앵커가 인가된 앵커인지 여부를 판정하기 위해, 3D 애플리케이션 서버가 앵커의 아이덴티티(identity)를 인증한다.
단계 303에서, 인증이 성공하면 아이덴티티 인증 결과가 반환된다.
단계 304에서, 앵커가 제1 사용자 장비를 이용하여 3D 커뮤니티를 선택한다.
단계 305에서, 3D 애플리케이션 서버가 선택된 3D 커뮤니티를 앵커에 할당한다.
본 개시에서, 단계 301 내지 단계 305가 3D 애플리케이션 서버 안에 통합되어 있는 3D 커뮤니티 페이지 관리 기능, 3D 커뮤니티 입회 기능(3D community entrance function), 3D 커뮤니티 할당 기능에 의해 구현될 수 있다. 대안적으로, 단계 301 내지 단계 305가 3개의 독립적인 서버를 이용하여 구현될 수 있다. 3개의 독립적인 서버는 페이지 관리 서버, 3D 커뮤니티 입회 서버, 및 3D 커뮤니티 서버를 포함할 수 있다. 페이지 관리 서버는 관리 페이지를 표시하는 것 및 사용자에게 인터페이스를 표시하는 것을 담당하고 있다. 3D 커뮤니티 입회 서버는 페이지 관리 서버와 상호작용하는 것 및 앵커 정보와 같은 데이터를 저장하는 것을 담당하고 있다. 3D 커뮤니티 서버는 앵커로부터 상호작용 요구를 수신하고, 이 상호작용 요구를 3D 애플리케이션 서버에 포워딩한다.
단계 306에서, 앵커가 제1 사용자 장비를 이용하여 엔보이 요청을 3D 애플리케이션 서버에 송신한다.
단계 307에서, 3D 애플리케이션 서버가 엔보이 요청에 따라 엔보이 상호작용 정보를 생성한다.
단계 308에서, 3D 애플리케이션 서버가 엔보이 상호작용 정보를 제2 사용자 장비에 브로드캐스트한다.
단계 309에서, 제2 사용자 장비가 엔보이 상호작용 정보에 따라 3D 커뮤니티 내에서 엔보이를 렌더링한다.
단계 310에서, 3D 애플리케이션 서버가 엔보이의 이동 경로를 제2 사용자 장비에 송신한다.
단계 311에서, 제2 사용자 장비가 엔보이의 이동 경로에 따라, 이동하는 엔보이를 렌더링한다.
단계 312에서, 3D 애플리케이션 서버가 프롭 정보(prop information)를 제2 사용자 장비에 송신한다.
추가적인 프롭에서, 엔보이는 다른 선물을 추가로 드롭(drop)할 수 있다. 본 개시에서의 꾸러미가 프롭을 포함할 수 있고, 다른 선물을 더 포함할 수 있다.
단계 313에서, 제2 사용자 장비가 프롭 정보에 따라, 엔보이가 프롭을 드롭한 것을 렌더링한다.
단계 314에서, 드롭된 프롭을 픽업한 플레이어가 획득된다.
단계 315에서, 프롭 목록이 갱신된다.
단계 316에서, 프롭이 성공적으로 픽업된 것이 플레이어에게 통지된다.
앞의 설명에 따르면, 본 개시에 따라 자동적인 가상의 흥미로운 선물 제공 시스템의 세트가 구현되며, 이를 이용하여 가상의 커뮤니티 내의 사용자와 앵커 간의 상호작용이 향상될 수 있다.
도 7을 참조하여, 본 개시에 따라 앵커가 3D 커뮤니티의 날씨를 제어하는 과정에 대해 후술한다.
도 7에 도시된 바와 같이, 본 개시의 또 다른 실시예에 따라 제공되는 정보 상호작용은 다음의 단계 401 내지 단계 416를 포함한다.
단계 401에서, 앵커가 제1 사용자 장비를 이용하여 커뮤니티 관리 페이지에 로그인한다.
단계 402에서, 앵커가 등록되어 있는지 여부 및 앵커가 인가된 앵커인지 여부를 판정하기 위해, 3D 애플리케이션 서버가 앵커의 아이덴티티를 인증한다.
단계 403에서, 인증이 성공하면 아이덴티티 인증 결과가 반환된다.
단계 404에서, 앵커가 제1 사용자 장비를 이용하여 3D 커뮤니티를 선택한다.
단계 405에서, 3D 애플리케이션 서버가 선택된 3D 커뮤니티를 앵커에 할당한다.
단계 401 내지 단계 405는 이전 실시예의 단계 301 내지 단계 305와 동일하다.
단계 406에서, 앵커가 제1 사용자 장비를 이용하여 날씨 설정 요청을 3D 애플리케이션 서버에 송신한다.
단계 407에서, 3D 애플리케이션 서버가 날씨 설정 요청에 따라 날씨 상호작용 정보를 생성한다.
단계 408에서, 3D 애플리케이션 서버가 날씨 상호작용 정보를 제2 사용자 장비에 브로드캐스트한다.
단계 409에서, 제2 사용자 장비가 날씨 상호작용 정보에 따라 날씨 파라미터를 선택한다.
3D 커뮤니티의 사용자가 긴장을 느끼는 것을 방지하기 위해, 3D 렌더링 엔진이 날씨 파라미터의 관련 계수에 대한 선형 변환을 먼저 수행한다.
단계 410에서, 제2 사용자 장비가 날씨를 변경하는 시간을 설정한다 .
단계 411에서, 제2 사용자 장비가 대기 산란을 계산한다.
설정된 시간에 따라 산란이 계산된다. 대기 산란에 따라 하늘의 색이 결정된다. 따라서, 미-레일리(Mie-Rayleigh) 알고리즘을 이용하여 하늘의 색이 렌더링된다.
단계 412에서, 제2 사용자 장비가 날씨 렌더링 결과를 결정한다.
단계 413에서, 제2 사용자 장비가 입자 유형(비 또는 눈)을 설정한다.
설정된 입자 유형에 따라 눈 또는 비가 렌더링된다. 여기서, 그래픽 처리 유닛(graphic processing unit, GPU)의 밸브 텍스처 파일(valve textures file, VTF) 특징이 사용된다. 비 또는 눈 입자 위치에 대한 계산은 GPU에서 수행되며, 비 또는 눈 입자 위치가 동일한 묶음으로 직접 렌더링된다.
단계 414에서, 제2 사용자 장비가 특수 효과를 계산한다.
단계 415에서, 제2 사용자 장비가 최종 렌더링 결과를 결정한다.
단계 416에서, 제2 사용자 장비가 최종의 렌더링 결과를 제공한다.
3D 커뮤니티 내에서 폭죽을 터뜨리는 상호작용 과정과 같은 다른 과정은 기본적으로, 폭죽 상호작용 정보에 따라 폭죽의 효과가 렌더링되는 것을 제외하면 도 7의 과정과 일치한다.
이 정보 상호 작용 방법은 위에 설명되어 있다. 이하에서는, 첨부 도면을 참조하여 본 발명의 실시예에 따른 장치에 대해 설명한다.
도 8을 참조하면, 본 개시의 실시예에 따라 제공되는 사용자 장비는 3D 애플리케이션 시스템에서의 제2 사용자 장비이다. 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 포함한다. 제1 사용자 장비는 앵커의 상호작용 동작에 응답하도록 구성된다. 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체, 및 시뮬레이션 객체가 비디오 콘텐츠를 시청하는 데 사용하는 가상의 화면을 포함한다. 사용자 장비(50)는 획득 유닛(501), 수신 유닛(502), 및 렌더링 유닛(503)을 포함한다.
획득 유닛(501)은 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 비디오 소스 서버로부터 획득하고, 가상의 화면 상에 비디오 콘텐츠를 제공하도록 구성된다.
수신 유닛(502)은, 획득 유닛(501)이 비디오 콘텐츠를 획득한 후 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하도록 구성된다. 이 상호작용 정보는 제1 사용자 장비에 의해 비디오 소스 서버에 업로드된 상호작용 요청에 따라 3D 애플리케이션 서버에 의해 생성된다.
렌더링 유닛(503)은 수신 유닛(502)에 의해 수신된 상호작용 정보에 따라, 3D 커뮤니티 내에 상호작용 정보에 대응하는 객체를 렌더링하도록 구성된다.
본 개시의 본 실시예에 따라 제공되는 사용자 장비(50)에서, 획득 유닛(501)은 제1 사용자 장비에 의해 업로드되고 또한 앵커에 의해 브로드캐스트된 비디오 콘텐츠를 비디오 소스 서버로부터 획득하고, 가상의 화면 상에 비디오 콘텐츠를 제공한다. 수신 유닛(502)은, 획득 유닛(501)이 비디오 콘텐츠를 획득한 후 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하고, 이 상호작용 정보는 제1 사용자 장비에 의해 비디오 소스 서버에 업로드된 상호작용 요청에 따라 3D 애플리케이션 서버에 의해 생성된다. 렌더링 유닛(503)은 수신 유닛(502)에 의해 수신된 상호작용 정보에 따라, 3D 커뮤니티 내에 상호작용 정보에 대응하는 객체를 렌더링한다. 앵커가 2차원 방식으로 단어를 통해서만 청중과 상호 작용할 수 있는 종래 기술에 비해, 본 개시의 본 실시예에 따라 제공되는 사용자 장비는 앵커가 3D 애플리케이션에서의 3D 커뮤니티 내에서 청중과 상호 작용하게 함으로써 상호작용의 다양성을 높일 수 있다.
선택적으로, 수신 유닛(502)은 3D 애플리케이션 서버에 의해 송신되고 또한 타깃 시뮬레이션 객체를 렌더링하는 데 사용되는 상호작용 정보를 수신하도록 구성된다.
렌더링 유닛(503)은 타깃 시뮬레이션 객체를 렌더링하는 데 사용되고 또한 수신 유닛(502)에 의해 수신된 상호작용 정보에 따라, 3D 커뮤니티 내에 타깃 시뮬레이션 객체를 렌더링하도록 구성된다.
선택적으로, 타깃 시뮬레이션 객체는 꾸러미를 3D 커뮤니티 내의 시뮬레이션 객체에 송신하기 위해 사용된다. 이 경우에, 수신 유닛(502)은 추가적으로, 3D 애플리케이션 서버에 의해 송신된 꾸러미 정보를 수신하도록 구성된다.
렌더링 유닛(503)은 꾸러미 정보에 따라, 타깃 시뮬레이션 객체의 이동 트랙 상에서 꾸러미를 렌더링하도록 구성된다.
선택적으로, 3D 커뮤니티 내의 시뮬레이션 객체가 타깃 시뮬레이션 객체에 의해 송신된 꾸러미를 획득하는 경우, 수신 유닛(502)은 추가적으로, 꾸러미가 시뮬레이션 객체에 의해 획득된 것을 나타내고 또한 3D 애플리케이션 서버에 의해 송신된 통지 메시지를 수신하도록 구성된다.
선택적으로, 수신 유닛(502)은 3D 애플리케이션 서버에 의해 송신되고 또한 환경 객체를 렌더링하는 데 사용되는 상호작용 정보를 수신하도록 구성된다.
렌더링 유닛(503)은 환경 객체를 렌더링하는 데 사용되고 또한 수신 유닛(502)에 의해 수신된 상호작용 정보에 따라, 3D 커뮤니티 내에 환경 객체를 렌더링하도록 구성된다.
도 9를 참조하면, 본 개시의 실시예에 따라 제공되는 3D 애플리케이션 서버(60)가 3D 애플리케이션 시스템에 적용된다. 3D 애플리케이션 시스템은 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 더 포함한다. 제1 사용자 장비는 앵커의 상호작용 동작에 응답하도록 구성된다. 제2 사용자 장비에 의해 제공되는 3D 애플리케이션 내의 3D 커뮤니티가 시뮬레이션 객체, 및 앵커에 의해 브로드캐스트되는 라이브 비디오 콘텐츠를 보기 위해 시뮬레이션 객체에 의해 사용되는 가상의 화면을 포함한다. 3D 애플리케이션 서버는 획득 유닛(601), 수신 유닛(602), 생성 유닛(603), 및 송신 유닛(604)을 포함한다.
획득 유닛(601)은 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 비디오 소스 서버로부터 획득하고, 업로드된 비디오 콘텐츠를 제2 사용자 장비에 송신하여 제2 사용자의 가상의 화면 상에 비디오 콘텐츠를 제공하도록 구성된다.
수신 유닛(602)은 비디오 소스 서버로부터 정보 상호작용 요청을 수신하도록 구성된다. 정보 상호작용 요청은 제1 사용자 장비에 의해 비디오 소스 서버에 업로드된다.
생성 유닛(603)은 수신 유닛(602)에 의해 수신된 정보 상호작용 요청에 따라 상호작용 정보를 생성하도록 구성된다.
송신 유닛(604)은 생성 유닛(603)에 의해 생성된 상호작용 정보를 제2 사용자 장비에 송신하도록 구성된다. 이 상호작용 정보는 3D 커뮤니티 내에 상호작용 정보에 대응하는 객체를 렌더링하기 위해 제2 사용자 장비에 의해 사용된다.
본 개시의 본 실시예에서, 획득 유닛(601)은 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 비디오 소스 서버로부터 획득하고, 업로드된 비디오 콘텐츠를 제2 사용자 장비에 송신하여 제2 사용자의 가상의 화면 상에 비디오 콘텐츠를 제공한다. 수신 유닛(602)은 비디오 소스 서버로부터 정보 상호작용 요청을 수신한다. 정보 상호작용 요청은 제1 사용자 장비에 의해 비디오 소스 서버에 업로드된다. 생성 유닛(603)은 수신 유닛(602)에 의해 수신된 정보 상호작용 요청에 따라 상호작용 정보를 생성한다. 송신 유닛(604)은 생성 유닛(603)에 의해 생성된 상호작용 정보를 제2 사용자 장비에 송신하도록 구성된다. 이 상호작용 정보는 3D 커뮤니티 내에 상호작용 정보에 대응하는 객체를 렌더링하기 위해 제2 사용자 장비에 의해 사용된다. 앵커가 2차원 방식으로 단어를 통해서만 청중과 상호 작용할 수 있는 종래 기술에 비해, 본 개시의 본 실시예에 따라 제공되는 3D 애플리케이션 서버는 앵커가 3D 애플리케이션 내에서 3D 커뮤니티 내에서 청중과 상호 작용하게 함으로써 상호작용의 다양성을 높일 수 있다.
선택적으로, 정보 상호작용 요청은 타깃 시뮬레이션 객체를 생성하기 위한 요청이다. 생성 유닛(603)은 타깃 시뮬레이션 객체를 생성하기 위한 요청에 따라 타깃 시뮬레이션 객체의 상호작용 정보를 생성하도록 구성된다.
제2 사용자 장비가 타깃 시뮬레이션 객체의 상호작용 정보에 응답하여 3D 커뮤니티 내에 타깃 시뮬레이션 객체를 렌더링할 수 있도록, 송신 유닛(604)은 타깃 시뮬레이션 객체의 상호작용 정보를 제2 사용자 장비에 송신하도록 구성된다.
선택적으로, 수신 유닛(602)은 추가적으로, 비디오 소스 서버로부터 꾸러미를 송신하기 위한 요청을 수신하도록 구성된다. 여기서, 꾸러미를 송신하기 위한 요청은 제1 사용자 장비에 의해 비디오 소스 서버에 업로드된다.
생성 유닛(603)은 추가적으로, 꾸러미를 송신하기 위한 요청에 따라 꾸러미의 상호작용 정보를 생성하도록 구성된다.
제2 사용자 장비가 꾸러미의 상호작용 정보에 응답하여 타깃 시뮬레이션 객체의 이동 트랙 상에서 꾸러미를 렌더링할 수 있도록, 송신 유닛(604)은 추가적으로, 꾸러미의 상호작용 정보를 제2 사용자 장비에 송신하도록 구성된다.
선택적으로, 도 10을 참조하면, 본 개시의 본 실시예에 따라 제공되는 3D 애플리케이션 서버는 모니터링 유닛(605)을 더 포함한다.
모니터링 유닛(605)은 3D 커뮤니티 내의 시뮬레이션 객체가 타깃 시뮬레이션 객체에 의해 송신된 꾸러미를 획득하는지 여부를 모니터링하도록 구성된다.
모니터링 유닛(605)이 3D 커뮤니티 내의 시뮬레이션 객체가 타깃 시뮬레이션 객체에 의해 송신된 꾸러미를 획득한 것을 모니터링하는 경우, 송신 유닛(604)은 꾸러미가 시뮬레이션 객체에 의해 획득된 것을 나타내는 통지 메시지를 제2 사용자 장비에 송신하도록 구성된다.
선택적으로, 정보 상호작용 요청은 환경 객체를 렌더링하기 위한 요청이다. 생성 유닛(603)은 환경 객체를 렌더링하기 위한 요청에 따라 환경 객체의 상호작용 정보를 생성하도록 구성된다.
제2 사용자 장비가 환경 객체의 상호작용 정보에 응답하여 3D 커뮤니티 내에 환경 객체를 렌더링할 수 있도록, 송신 유닛(604)은 환경 객체의 상호작용 정보를 제2 사용자 장비에 송신하도록 구성된다.
전술한 사용자 장비 및 3D 애플리케이션 서버의 설명에 대해서는, 도 1 내지 도 7의 관련 설명을 참조할 수 있고, 여기서는 세부사항에 대해 추가로 설명하지 않는다.
도 11은 본 개시의 실시예에 따른 사용자 장비(50)를 개략적으로 나타낸 도면이다. 사용자 장비(50)는 3D 애플리케이션 시스템에서의 제2 사용자 장비이다. 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 포함한다. 제1 사용자 장비는 앵커의 상호작용 동작에 응답하도록 구성된다. 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체, 및 시뮬레이션 객체가 비디오 콘텐츠를 시청하기 위해 사용하는 가상의 화면을 포함한다. 본 개시에서의 사용자 장비(50)는 중앙처리장치(CPU)(5101), 그래픽 처리 유닛(GPU)(5102), 송수신기(540), 메모리(550), 및 입력/출력(I/O) 장치(530)를 포함한다. 입력/출력(I/O) 장치(530)는 키보드 또는 마우스일 수 있다. 그래픽 처리 유닛(5102)은 그래프를 렌더링하도록 구성된다. 메모리(550)는 읽기 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 프로세서(510)를 위한 연산 명령과 데이터를 제공하도록 구성된다. 메모리(550) 중 일부는 비휘발성 램(NVRAM)을 더 포함할 수 있다.
일부 구현예에서, 메모리(550)는 실행 가능한 모듈, 또는 데이터 구조, 또는 이들의 서브세트, 또는 이들의 확장된 세트를 저장한다.
본 개시의 본 실시예에서, 메모리(550)에 의해 저장된 연산 명령(연산 명령은 운영 체제에 저장될 수 있음)를 호출함으로써,
송수신기(540)는 제1 사용자 장비에 의해 업로드되고 또한 앵커에 의해 브로드캐스트된 비디오 콘텐츠를 비디오 소스 서버로부터 획득하고, 가상의 화면 상에 비디오 콘텐츠를 제공하며; 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하도록 구성된다. 이 상호작용 정보는 제1 사용자 장비가 비디오 소스 서버에 업로드한 상호작용 요청에 따라 3D 애플리케이션 서버에 의해 생성된다.
그래픽 처리 유닛(5102)은 상호작용 정보에 따라, 3D 커뮤니티 내에 상호작용 정보에 대응하는 객체를 렌더링하도록 구성된다.
앵커가 2차원 방식으로 단어를 통해서만 청중과 상호 작용할 수 있는 종래 기술에 비해, 본 개시의 본 실시예에 따라 제공되는 사용자 장비는 앵커가 3D 애플리케이션에서의 3D 커뮤니티 내에서 청중과 상호 작용하게 함으로써 상호작용의 다양성을 높일 수 있다.
중앙처리장치(5101)는 사용자 장비(50)의 동작을 제어한다. 메모리(550)는 읽기 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 중앙처리장치(5101)를 위한 명령과 데이터를 제공한다. 메모리(550) 중 일부는 비휘발성 램(NVRAM)을 더 포함할 수 있다. 구체적인 적용에서, 사용자 장비(50)의 모든 구성 요소가 버스 시스템(520)을 이용하여 연결되고, 버스 시스템(520)은 데이터 버스 외에 전력 버스, 제어버스, 및 상태 신호 버스 등을 더 포함할 수 있다. 하지만, 설명의 명확성을 위해, 도면에는 모든 유형의 버스가 버스 시스템(520)으로 표시되어 있다.
본 개시의 이전 실시예에서 개시된 방법은 프로세서(510)에 적용될 수 있거나, 또는 프로세서(510)에 의해 구현될 수 있다. 프로세서(510)는 집적 회로 칩일 수 있고, 신호 처리 능력을 가지고 있다. 구현 과정에서, 전술한 방법의 단계가 프로세서(510) 내의 하드웨어 집적 논리 회로, 또는 소프트웨어 형태의 명령을 통해 구현될 수 있다. 프로세서(510)는 범용 프로세서, 디지털 신호 프로세서(DSP), 주문형 반도체(ASIC), 필드 프로그래머블 게이트 어레이(FPGA) 또는 다른 프로그램 가능한 논리 소자, 디스크리트 게이트(discrete gate) 또는 트랜지스터 로직 장치, 또는 독립된 하드웨어 컴포넌트일 수 있으며, 본 발명의 실시예에서 개시된 방법, 단계, 및 논리 블록도를 구현하거나 또는 수행할 수 있다. 범용 프로세서는 마이크로프로세서일 수 있거나, 또는 프로세서는 어떤 종래의 프로세서 또는 이와 유사한 것일 수 있다. 본 발명의 실시예에서 개시된 방법의 단계가 하드웨어 디코딩 프로세서에 의해 직접 구현될 수 있거나, 또는 디코딩 프로세서 내의 하드웨어 모듈과 소프트웨어 모듈을 결합하여 구현될 수 있다. 소프트웨어 모듈은 당해 분야에서 성숙한 저장 매체, 예컨대 랜덤 액세스 메모리, 플래쉬 메모리, 읽기 전용 메모리, 프로그램 가능한 롬(programmable ROM), 전기적으로 소거 가능한 프로그램 가능 메모리(electrically erasable programmable memory), 또는 레지스터에 위치할 수 있다. 저장 매체는 메모리(550)에 위치하며, 프로세서(510)는 메모리(550) 내의 정보를 판독하고, 프로세서의 하드웨어와 함께 전술한 방법의 단계를 수행한다.
선택적으로, 송수신기(540)는 타깃 시뮬레이션 객체를 렌더링하는 데 사용되고 또한 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하도록 구성된다. 여기서, 타깃 시뮬레이션 객체는 꾸러미를 3D 커뮤니티 내의 시뮬레이션 객체에 송신하기 위해 사용된다.
이미지 프로세서(5102)는 타깃 시뮬레이션 객체를 렌더링하는 데 사용되는 상호작용 정보에 따라, 3D 커뮤니티 내에 타깃 시뮬레이션 객체를 렌더링하도록 구성된다.
선택적으로, 송수신기(540)는 3D 애플리케이션 서버에 의해 송신된 꾸러미 정보를 수신하도록 구성된다.
이미지 프로세서(5102)는 꾸러미 정보에 따라, 타깃 시뮬레이션 객체의 이동 트랙 상에서 꾸러미를 렌더링하도록 구성된다.
선택적으로, 3D 커뮤니티 내의 특정 시뮬레이션 객체가 타깃 시뮬레이션 객체에 의해 송신된 꾸러미를 획득한 경우, 송수신기(540)는 꾸러미가 획득된 것을 나타내고 또한 3D 애플리케이션 서버에 의해 송신된 통지 메시지를 수신하도록 구성된다. 여기서, 특정 시뮬레이션 객체는 제2 사용자 장비에 대응하는 시뮬레이션 객체이다.
선택적으로, 송수신기(540)는 3D 애플리케이션 서버에 의해 송신되고 또한 환경 객체를 렌더링하는 데 사용되는 상호작용 정보를 수신하도록 구성된다.
이미지 프로세서(5102)는 환경 객체를 렌더링하는 데 사용되는 상호작용 정보에 따라 3D 커뮤니티 내에 환경 객체를 렌더링하도록 구성된다.
사용자 장비(50)의 이해를 위해, 도 1 내지 도 7의 관련 설명을 참조할 수 있으며, 여기서는 세부사항에 대해 추가로 설명하지 않는다.
도 12는 본 개시의 실시예에 따른 3D 애플리케이션 서버(60)의 구조를 개략적으로 나타낸 도면이다. 3D 애플리케이션 서버(60)는 3D 애플리케이션 시스템에 적용된다. 3D 애플리케이션 시스템은 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 더 포함한다. 제1 사용자 장비는 앵커의 상호작용 동작에 응답하도록 구성된다. 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체, 및 앵커에 의해 브로드캐스트되는 라이브 비디오 콘텐츠를 보기 위해 시뮬레이션 객체에 의해 사용되는 가상의 화면을 포함한다. 3D 애플리케이션 서버(60)는 프로세서(610), 메모리(650), 및 송수신기(630)를 포함한다. 메모리(650)는 읽기 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 프로세서(610)를 위한 연산 명령과 데이터를 제공한다. 메모리(650) 중 일부가 비휘발성 램(NVRAM)을 더 포함할 수 있다.
일부 구현예에서, 메모리(650)는 실행 가능한 모듈, 또는 데이터 구조, 또는 이들의 서브세트, 또는 이들의 확장된 세트를 저장한다.
본 개시의 본 실시예에서, 메모리(650)에 의해 저장된 연산 명령(연산 명령이 운영 체제에 저장될 수 있음)을 호출함으로써,
송수신기(630)는 비디오 소스 서버로부터 정보 상호작용 요청을 획득하도록 구성되고 - 여기서, 정보 상호작용 요청은 제1 사용자 장비에 의해 비디오 소스 서버에 업로드됨 -;
프로세서(610)는 정보 상호작용 요청에 따라 상호작용 정보를 생성하도록 구성되며;
송수신기(630)는 추가적으로, 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 비디오 소스 서버로부터 획득하고, 업로드된 비디오 콘텐츠를 제2 사용자 장비에 송신하며, 상호작용를 정보를 제2 사용자 장비에 송신하도록 구성된다. 여기서, 상호작용 정보는 3D 커뮤니티 내에 상호작용 정보에 대응하는 객체를 렌더링하기 위해 제2 사용자 장비에 의해 사용된다.
앵커가 2차원 방식으로 단어를 통해서만 청중과 상호 작용할 수 있는 종래 기술에 비해, 본 개시의 본 실시예에 따라 제공되는 3D 애플리케이션 서버는 앵커가 3D 애플리케이션에서의 3D 커뮤니티 내에서 청중과 상호 작용하게 함으로써 상호작용의 다양성을 높일 수 있다.
프로세서(610)는 3D 애플리케이션 서버(60)의 동작을 제어하고, 프로세서(610)는 중앙처리장치(CPU)라고도 할 수 있다. 메모리(650)은 읽기 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있고, 프로세서(610)를 위한 명령과 데이터를 제공한다. 메모리(650) 중 일부가 비휘발성 램(NVRAM)을 더 포함할 수 있다. 구체적인 적용에서, 3D 애플리케이션 서버(60)의 모든 구성요소가 버스 시스템(620)을 이용하여 연결되고, 버스 시스템(620)은 데이터 버스 외에 전력 버스, 제어버스, 및 상태 신호 버스 등을 더 포함할 수 있다. 하지만, 설명의 명확성을 위해, 도면에는 모든 유형의 버스가 버스 시스템(620)으로 표시되어 있다.
본 개시의 전술한 실시예에서 개시된 방법은 프로세서(610)에 적용될 수 있거나, 또는 프로세서(610)에 의해 구현될 수 있다. 프로세서(610)는 집적 회로 칩일 수 있고 신호 처리 능력을 가지고 있다. 구현 과정에서, 전술한 방법의 단계가 프로세서(610) 내의 하드웨어 집적 논리 회로, 또는 소프트웨어 형태의 명령을 통해 구현될 수 있다. 프로세서(610)는 범용 프로세서, 디지털 신호 프로세서(DSP), 주문형 반도체(ASIC), 필드 프로그래머블 게이트 어레이(FPGA) 또는 다른 프로그램 가능한 논리 소자, 디스크리트 게이트(discrete gate) 또는 트랜지스터 로직 장치, 또는 독립된 하드웨어 컴포넌트일 수 있으며, 본 발명의 실시예에서 개시된 방법, 단계, 및 논리 블록도를 구현하거나 수행할 수 있다. 범용 프로세서는 마이크로프로세서일 수 있거나, 또는 프로세서는 어떤 종래의 프로세서 또는 이와 유사한 것일 수 있다. 본 발명의 실시예에서 개시된 방법의 단계가 하드웨어 디코딩 프로세서에 의해 직접 구현될 수 있거나, 또는 디코딩 프로세서 내의 하드웨어 모듈과 소프트웨어 모듈을 결합하여 구현될 수 있다. 소프트웨어 모듈은 당해 분야에서 성숙한 저장 매체, 예컨대 랜덤 액세스 메모리, 플래쉬 메모리, 읽기 전용 메모리, 프로그램 가능한 롬(programmable ROM), 전기적으로 소거 가능한 프로그램 가능 메모리, 또는 레지스터에 위치할 수 있다. 저장 매체는 메모리(650)에 위치하고, 프로세서(610)는 메모리(650) 내의 정보를 판독하고, 프로세서의 하드웨어와 결합하여 전술한 방법의 단계를 수행한다.
선택적으로, 정보 상호작용 요청이 타깃 시뮬레이션 객체를 생성하기 위한 요청이면, 프로세서(610)는 타깃 시뮬레이션 객체를 생성하기 위한 요청에 따라 타깃 시뮬레이션 객체의 상호작용 정보를 생성하도록 구성된다.
송수신기(630)는 추가적으로, 타깃 시뮬레이션 객체의 상호작용 정보를 제2 사용자 장비에 송신하도록 구성된다. 타깃 시뮬레이션 객체의 상호작용 정보는 3D 커뮤니티 내에 타깃 시뮬레이션 객체를 렌더링하기 위해 제2 사용자 장비에 의해 사용된다.
선택적으로, 송수신기(630)는 추가적으로, 비디오 소스 서버로부터 꾸러미를 송신하기 위한 요청을 수신하도록 구성된다. 여기서, 꾸러미를 송신하기 위한 요청은 제1 사용자 장비에 의해 비디오 소스 서버에 업로드된다.
프로세서(610)은 추가적으로, 꾸러미 송신 요청에 따라 꾸러미의 상호작용 정보를 생성하도록 구성된다.
송수신기(630)는 추가적으로, 꾸러미의 상호작용 정보를 제2 사용자 장비에 송신하도록 구성된다. 꾸러미의 상호작용 정보는 타깃 시뮬레이션 객체의 이동 트랙 상에서 꾸러미를 렌더링하기 위해 제2 사용자 장비에 의해 사용된다.
선택적으로, 프로세서(610)는 추가적으로, 3D 커뮤니티 내의 특정 시뮬레이션 객체가 타깃 시뮬레이션 객체에 의해 송신된 꾸러미를 획득하는지 여부를 모니터링하도록 구성된다.
3D 커뮤니티 내의 특정 시뮬레이션 객체가 타깃 시뮬레이션 객체에 의해 송신된 꾸러미를 획득하는 것이 모니터링되는 경우, 송수신기(630)는 추가적으로, 꾸러미가 획득된 것을 나타내는 통지 메시지를 제2 사용자 장비에 송신하도록 구성된다. 여기서, 특정 시뮬레이션 객체는 제2 사용자 장비에 대응하는 시뮬레이션 객체이다.
선택적으로, 정보 상호작용 요청이 환경 객체를 렌더링하기 위한 요청이면, 프로세서(610)는 환경 객체를 렌더링하기 위한 요청에 따라 환경 객체의 상호작용 정보를 생성하도록 구성된다.
송수신기(630)는 추가적으로, 환경 객체의 상호작용 정보를 제2 사용자 장비에 송신하도록 구성된다. 환경 객체의 상호작용 정보는 3D 커뮤니티 내에 환경 객체를 렌더링하기 위해 제2 사용자 장비에 의해 사용된다.
3D 애플리케이션 서버(60)에 대해서는, 이해를 위해 도 1 내지 도 7의 관련 설명을 참조할 수 있으며, 여기서는 세부사항에 대해 추가로 설명하지 않는다.
당업자라면 본 실시예의 방법의 모든 단계 또는 일부 단계가 관련 하드웨어에 지시하는 프로그램에 의해 구현될 수 있다는 것을 이해할 것이다. 프로그램은 컴퓨터가 판독 가능한 저장 매체에 저장될 수 있다. 저장 매체는 ROM, RAM, 자기 디스크, 또는 광 디스크 등을 포함할 수 있다.
이상에서는, 본 발명의 실시예에 따라 제공되는 정보 상호작용 방법, 사용자 장비, 3D 어플리케이션 서버, 및 시스템에 대해 상세히 설명하였다. 본 명세서의 특정 예를 사용하여 본 개시의 원리와 구현예를 설명하였지만, 전술한 실시예의 설명은 본 발명의 방법과 본 발명의 핵심 개념을 이해하는 것을 돕기 위한 것일 뿐이다. 한편, 당업자라면 본 개시의 사상에 따라 구체적인 구현예와 응용 범위 모두를 수정할 수 있을 것이다. 결론적으로, 본 명세서의 내용은 본 개시의 내용에 대한 제한으로 해석되어서는 안 된다.

Claims (21)

  1. 3차원(three-dimensional, 3D) 애플리케이션 시스템에 적용되는 정보 상호작용 방법으로서,
    상기 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 포함하고, 상기 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함하며,
    상기 정보 상호작용 방법은,
    상기 제2 사용자 장비가 상기 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 상기 비디오 소스 서버로부터 획득하고, 상기 제2 사용자 장비가 상기 가상의 화면 상에 상기 비디오 콘텐츠를 제공하는 단계;
    상기 제2 사용자 장비가 상기 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하는 단계 - 상기 상호작용 정보는, 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드되는 상호작용 요청에 따라 상기 3D 애플리케이션 서버에 의해 생성됨 -; 및
    상기 제2 사용자 장비가 상기 상호작용 정보에 따라 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하는 단계
    를 포함하는 정보 상호작용 방법.
  2. 제1항에 있어서,
    상기 제2 사용자 장비가 상기 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하는 단계는,
    상기 제2 사용자 장비가 타깃 시뮬레이션 객체를 렌더링하는 데 사용되고 또한 상기 3D 애플리케이션 서버에 의해 송신된 상기 상호작용 정보를 수신하는 단계
    를 포함하고;
    상기 제2 사용자 장비가 상기 상호작용 정보에 따라 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 상기 객체를 렌더링하는 단계는,
    상기 제2 사용자 장비가, 상기 타깃 시뮬레이션 객체를 렌더링하는 데 사용되는 상기 상호작용 정보에 따라 상기 3D 커뮤니티 내에 상기 타깃 시뮬레이션 객체를 렌더링하는 단계
    를 포함하는, 정보 상호작용 방법.
  3. 제2항에 있어서,
    상기 타깃 시뮬레이션 객체는 꾸러미(packet)를 상기 3D 커뮤니티 내의 상기 시뮬레이션 객체에 송신하는 데 사용되고,
    상기 정보 상호작용 방법은,
    상기 제2 사용자 장비가 상기 3D 애플리케이션 서버에 의해 송신된 꾸러미 정보를 수신하는 단계; 및
    상기 제2 사용자 장비가 상기 꾸러미 정보에 따라 상기 타깃 시뮬레이션 객체의 이동 트랙 상에서 상기 꾸러미를 렌더링하는 단계
    를 더 포함하는 정보 상호작용 방법.
  4. 제3항에 있어서,
    상기 3D 커뮤니티 내의 상기 시뮬레이션 객체가 상기 렌더링된 꾸러미를 획득하는 경우, 상기 제2 사용자 장비가 상기 꾸러미가 상기 시뮬레이션 객체에 의해 획득된 것을 나타내고 또한 상기 3D 애플리케이션 서버에 의해 송신된 통지 메시지를 수신하는 단계
    를 더 포함하는 정보 상호작용 방법.
  5. 제1항에 있어서,
    상기 제2 사용자 장비가 상기 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하는 단계는,
    상기 제2 사용자 장비가 환경 객체를 렌더링하는 데 사용되고 또한 상기 3D 애플리케이션 서버에 의해 송신된 상기 상호작용 정보를 수신하는 단계
    를 포함하고;
    상기 제2 사용자 장비가 상기 상호작용 정보에 따라 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 상기 객체를 렌더링하는 단계는,
    상기 제2 사용자 장비가, 상기 환경 객체를 렌더링하는 데 사용되는 상기 상호작용 정보에 따라 상기 3D 커뮤니티 내에 상기 환경 객체를 렌더링하는 단계
    를 포함하는, 정보 상호작용 방법.
  6. 3차원(three-dimensional, 3D) 애플리케이션 시스템에 적용되는 정보 상호작용 방법으로서,
    상기 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 포함하고, 상기 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함하며,
    상기 정보 상호작용 방법은,
    상기 3D 애플리케이션 서버가 상기 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 상기 비디오 소스 서버로부터 획득하고, 상기 3D 애플리케이션 서버가 상기 업로드된 비디오 콘텐츠를 상기 제2 사용자 장비에 송신하여 상기 제2 사용자 장비의 가상의 화면 상에 상기 비디오 콘텐츠를 제공하는 단계;
    상기 3D 애플리케이션 서버가 상기 비디오 소스 서버로부터 정보 상호작용 요청을 수신하는 단계 - 상기 정보 상호작용 요청은 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드됨 -;
    상기 3D 애플리케이션 서버가 상기 정보 상호작용 요청에 따라 상호작용 정보를 생성하는 단계; 및
    상기 3D 애플리케이션 서버가, 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하기 위해 상기 제2 사용자 장비에 의해 사용되는 상기 상호작용 정보를 상기 제2 사용자 장비에 송신하는 단계
    를 포함하는 정보 상호작용 방법.
  7. 제6항에 있어서,
    상기 정보 상호작용 요청은 타깃 시뮬레이션 객체를 생성하기 위한 요청이고;
    상기 3D 애플리케이션 서버가 상기 정보 상호작용 요청에 따라 상기 상호작용 정보를 생성하는 단계는,
    상기 3D 애플리케이션 서버가, 상기 타깃 시뮬레이션 객체를 생성하기 위한 요청에 따라 상기 타깃 시뮬레이션 객체의 상호작용 정보를 생성하는 단계
    를 포함하고;
    상기 3D 애플리케이션 서버가, 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하기 위해 상기 제2 사용자 장비에 의해 사용되는 상기 상호작용 정보를 상기 제2 사용자 장비에 송신하는 단계는,
    상기 제2 사용자 장비가 상기 타깃 시뮬레이션 객체의 상호작용 정보에 응답하여 상기 3D 커뮤니티 내에 상기 타깃 시뮬레이션 객체를 렌더링할 수 있도록, 상기 3D 애플리케이션 서버가 상기 타깃 시뮬레이션 객체의 상호작용 정보를 상기 제2 사용자 장비에 송신하는 단계
    를 포함하는, 정보 상호작용 방법.
  8. 제7항에 있어서,
    상기 3D 애플리케이션 서버가 상기 비디오 소스 서버로부터 꾸러미(packet)를 송신하기 위한 요청을 획득하는 단계 - 상기 꾸러미를 송신하기 위한 요청은 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드됨 -;
    상기 3D 애플리케이션 서버가, 상기 꾸러미를 송신하기 위한 요청에 따라 상기 꾸러미의 상호작용 정보를 생성하는 단계; 및
    상기 제2 사용자 장비가 상기 꾸러미의 상호작용 정보에 응답하여 상기 타깃 시뮬레이션 객체의 이동 트랙 상에서 상기 꾸러미를 렌더링할 수 있도록, 상기 3D 애플리케이션 서버가 상기 꾸러미의 상호작용 정보를 상기 제2 사용자 장비에 송신하는 단계
    를 더 포함하는 정보 상호작용 방법.
  9. 제8항에 있어서,
    상기 3D 커뮤니티 내의 상기 시뮬레이션 객체가 상기 꾸러미를 획득하는 것을 모니터링하는 경우, 상기 3D 애플리케이션 서버가 상기 꾸러미가 상기 시뮬레이션 객체에 의해 획득된 것을 나타내는 통지 메시지를 상기 제2 사용자 장비에 송신하는 단계
    를 더 포함하는 정보 상호작용 방법.
  10. 제6항에 있어서,
    상기 정보 상호작용 요청은 환경 객체를 렌더링하기 위한 요청이고;
    상기 3D 애플리케이션 서버가 상기 정보 상호작용 요청에 따라 상기 상호작용 정보를 생성하는 단계는,
    상기 3D 애플리케이션 서버가, 상기 환경 객체를 렌더링하기 위한 요청에 따라 상기 환경 객체의 상호작용 정보를 생성하는 단계
    를 포함하고;
    상기 3D 애플리케이션 서버가, 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하기 위해 상기 제2 사용자 장비에 의해 사용되는 상기 상호작용 정보를 상기 제2 사용자 장비에 송신하는 단계는,
    상기 제2 사용자 장비가 상기 환경 객체의 상호작용 정보에 응답하여 상기 3D 커뮤니티 내에 상기 환경 객체를 렌더링할 수 있도록, 상기 3D 애플리케이션 서버가 상기 환경 객체의 상호작용 정보를 상기 제2 사용자 장비에 송신하는 단계
    를 포함하는, 정보 상호작용 방법.
  11. 3차원(three-dimensional, 3D) 애플리케이션 시스템에서의 사용자 장비로서,
    상기 3D 애플리케이션 시스템은 3D 애플리케이션 서버, 비디오 소스 서버, 및 제1 사용자 장비를 더 포함하고, 상기 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함하며,
    상기 사용자 장비는,
    상기 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 상기 비디오 소스 서버로부터 획득하고, 상기 가상의 화면 상에 상기 비디오 콘텐츠를 제공하도록 구성된 획득 유닛;
    상기 3D 애플리케이션 서버에 의해 송신된 상호작용 정보를 수신하도록 구성된 수신 유닛 - 상기 상호작용 정보는, 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드되는 상호작용 요청에 따라 상기 3D 애플리케이션 서버에 의해 생성됨 -; 및
    상기 수신 유닛에 의해 수신된 상기 상호작용 정보에 따라, 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하도록 구성된 렌더링 유닛
    을 포함하는 사용자 장비.
  12. 제11항에 있어서,
    상기 수신 유닛은 타깃 시뮬레이션 객체를 렌더링하는 데 사용되고 또한 상기 3D 애플리케이션 서버에 의해 송신된 상기 상호작용 정보를 수신하도록 구성되고;
    상기 렌더링 유닛은, 상기 타깃 시뮬레이션 객체를 렌더링하는 데 사용되고 또한 상기 수신 유닛에 의해 수신된 상기 상호작용 정보에 따라, 상기 3D 커뮤니티 내의 상기 타깃 시뮬레이션 객체를 렌더링하도록 구성된, 사용자 장비.
  13. 제12항에 있어서,
    상기 타깃 시뮬레이션 객체는 꾸러미를 상기 3D 커뮤니티 내의 상기 시뮬레이션 객체에 송신하는 데 사용되고;
    상기 수신 유닛은 추가적으로, 상기 3D 애플리케이션 서버에 의해 송신된 꾸러미 정보를 수신하도록 구성되며;
    상기 렌더링 유닛은, 상기 꾸러미 정보에 따라 상기 타깃 시뮬레이션 객체의 이동 트랙 상에서 상기 꾸러미를 렌더링하도록 구성된, 사용자 장비.
  14. 제13항에 있어서,
    상기 3D 커뮤니티 내의 상기 시뮬레이션 객체가 상기 렌더링된 꾸러미를 획득하는 경우, 상기 수신 유닛은 추가적으로, 상기 꾸러미가 상기 시뮬레이션 객체에 의해 획득된 것을 나타내고 또한 상기 3D 애플리케이션 서버에 의해 송신된 통지 메시지를 수신하도록 구성된, 사용자 장비.
  15. 제11항에 있어서,
    상기 수신 유닛은 환경 객체를 렌더링하는 데 사용되고 또한 상기 3D 애플리케이션 서버에 의해 송신된 상기 상호작용 정보를 수신하도록 구성되고;
    상기 렌더링 유닛은, 상기 환경 객체를 렌더링하는 데 사용되고 또한 상기 수신 유닛에 의해 수신된 상기 상호작용 정보에 따라, 상기 3D 커뮤니티 내에 상기 환경 객체를 렌더링하도록 구성된, 사용자 장비.
  16. 3차원(three-dimensional, 3D) 애플리케이션 시스템에 적용되는 서버로서,
    상기 3D 애플리케이션 시스템은 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 더 포함하고, 상기 제2 사용자 장비에 의해 제공되는 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함하며,
    상기 서버는,
    상기 제1 사용자 장비에 의해 업로드된 비디오 콘텐츠를 상기 비디오 소스 서버로부터 획득하고, 상기 업로드된 비디오 콘텐츠를 상기 제2 사용자 장비에 송신하여 상기 제2 사용자 장비의 가상의 화면 상에 상기 비디오 콘텐츠를 제공하도록 구성된 획득 유닛;
    상기 비디오 소스 서버로부터 정보 상호작용 요청을 수신하도록 구성된 수신 유닛 - 상기 정보 상호작용 요청은 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드됨 -;
    상기 수신 유닛에 의해 수신된 상기 정보 상호작용 요청에 따라 상호작용 정보를 생성하도록 구성된 생성 유닛; 및
    상기 생성 유닛에 의해 생성된 상기 상호작용 정보를 상기 제2 사용자 장비에 송신하도록 구성된 송신 유닛 - 상기 상호작용 정보는 상기 3D 커뮤니티 내에 상기 상호작용 정보에 대응하는 객체를 렌더링하기 위해 상기 제2 사용자 장비에 의해 사용됨 -
    을 포함하는 서버.
  17. 제16항에 있어서,
    상기 정보 상호작용 요청은 타깃 시뮬레이션 객체를 생성하기 위한 요청이고;
    상기 생성 유닛은 상기 타깃 시뮬레이션 객체를 생성하기 위한 요청에 따라 상기 타깃 시뮬레이션 객체의 상호작용 정보를 생성하도록 구성되며;
    상기 제2 사용자 장비가 상기 타깃 시뮬레이션 객체의 상호작용 정보에 응답하여 상기 3D 커뮤니티 내에 상기 타깃 시뮬레이션 객체를 렌더링할 수 있도록, 상기 송신 유닛은 상기 타깃 시뮬레이션 객체의 상호작용 정보를 상기 제2 사용자 장비에 송신하도록 구성된, 서버.
  18. 제17항에 있어서,
    상기 수신 유닛은 추가적으로, 꾸러미를 송신하기 위한 요청을 상기 비디오 소스 서버로부터 수신하도록 구성되고 - 여기서, 상기 꾸러미를 송신하기 위한 상기 요청은 상기 제1 사용자 장비에 의해 상기 비디오 소스 서버에 업로드됨 -;
    상기 생성 유닛은 추가적으로, 상기 꾸러미를 송신하기 위한 요청에 따라 상기 꾸러미의 상호작용 정보를 생성하도록 구성되며;
    상기 제2 사용자 장비가 상기 꾸러미의 상호작용 정보에 응답하여 상기 타깃 시뮬레이션 객체의 이동 트랙 상에서 상기 꾸러미를 렌더링할 수 있도록, 상기 송신 유닛은 추가적으로, 상기 꾸러미의 상호작용 정보를 상기 제2 사용자 장비에 송신하도록 구성된, 서버.
  19. 제18항에 있어서,
    모니터링 유닛을 더 포함하고,
    상기 모니터링 유닛은 상기 3D 커뮤니티 내의 상기 시뮬레이션 객체가 상기 꾸러미를 획득하는지 여부를 모니터링하도록 구성되며;
    상기 모니터링 유닛이 상기 3D 커뮤니티 내의 상기 시뮬레이션 객체가 상기 꾸러미를 획득한 것을 모니터링하는 경우, 상기 송신 유닛은, 상기 꾸러미가 상기 시뮬레이션 객체에 의해 획득된 것을 나타내는 통지 메시지를 상기 제2 사용자 장비에 송신하도록 구성된, 서버.
  20. 제16항에 있어서,
    상기 정보 상호작용 요청은 환경 객체를 렌더링하기 위한 요청이고;
    상기 생성 유닛은 상기 환경 객체를 렌더링하기 위한 요청에 따라 상기 환경 객체의 상호작용 정보를 생성하도록 구성되고;
    상기 제2 사용자 장비가 상기 환경 객체의 상호작용 정보에 응답하여 상기 3D 커뮤니티 내에 상기 환경 객체를 렌더링할 수 있도록, 상기 송신 유닛은 상기 환경 객체의 상호작용 정보를 상기 제2 사용자 장비에 송신하도록 구성된, 서버.
  21. 3차원(three-dimensional, 3D) 애플리케이션 시스템으로서,
    3D 애플리케이션 서버, 비디오 소스 서버, 제1 사용자 장비, 및 제2 사용자 장비를 포함하고, 상기 제2 사용자 장비에 의해 제공된 3D 애플리케이션에서의 3D 커뮤니티가 시뮬레이션 객체와 가상의 화면을 포함하며;
    상기 제2 사용자 장비는 제11항 내지 제15항 중 어느 한 항에 따른 사용자 장비이고;
    상기 3D 애플리케이션 서버는 제16항 내지 제20항 중 어느 한 항에 따른 서버인, 3차원(3D) 애플리케이션 시스템.
KR1020187015519A 2016-03-03 2017-03-02 정보 상호작용 방법, 장치 및 시스템 KR102098669B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610120316.3 2016-03-03
CN201610120316.3A CN105610868B (zh) 2016-03-03 2016-03-03 一种信息交互的方法、设备及系统
PCT/CN2017/075433 WO2017148410A1 (zh) 2016-03-03 2017-03-02 一种信息交互的方法、设备及系统

Publications (2)

Publication Number Publication Date
KR20180080273A true KR20180080273A (ko) 2018-07-11
KR102098669B1 KR102098669B1 (ko) 2020-04-08

Family

ID=55990406

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187015519A KR102098669B1 (ko) 2016-03-03 2017-03-02 정보 상호작용 방법, 장치 및 시스템

Country Status (5)

Country Link
US (1) US10861222B2 (ko)
JP (1) JP6727669B2 (ko)
KR (1) KR102098669B1 (ko)
CN (1) CN105610868B (ko)
WO (1) WO2017148410A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102082670B1 (ko) * 2018-10-12 2020-02-28 주식회사 아프리카티비 방송 시청을 위한 가상 현실 사용자 인터페이스 제공 방법 및 장치
KR20200115402A (ko) 2020-09-18 2020-10-07 정영선 보건마스크 별도 부착용 안전손가락잡이와 안전보관고리 그리고 이의 제조방법
KR20200121061A (ko) * 2019-04-15 2020-10-23 주식회사 아프리카티비 서드 파티의 가상 현실 콘텐츠를 제공하기 위한 장치 및 방법
KR20200145805A (ko) * 2019-04-15 2020-12-30 주식회사 아프리카티비 서드 파티의 가상 현실 콘텐츠를 제공하기 위한 장치 및 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740029B (zh) * 2016-03-03 2019-07-05 腾讯科技(深圳)有限公司 一种内容呈现的方法、用户设备及系统
CN105610868B (zh) 2016-03-03 2019-08-06 腾讯科技(深圳)有限公司 一种信息交互的方法、设备及系统
CN107801083A (zh) * 2016-09-06 2018-03-13 星播网(深圳)信息有限公司 一种基于三维虚拟技术的网络实时互动直播方法及装置
CN106331818A (zh) * 2016-09-27 2017-01-11 北京赢点科技有限公司 一种跨屏互动的方法及系统
CN106658041B (zh) * 2016-12-20 2020-05-19 天脉聚源(北京)传媒科技有限公司 一种信息交互的方法及装置
CN106790066B (zh) * 2016-12-20 2020-02-07 天脉聚源(北京)传媒科技有限公司 一种继续获取信息的方法及装置
CN108243171B (zh) * 2016-12-27 2020-12-22 北京新唐思创教育科技有限公司 在线直播互动系统及方法
CN107820132B (zh) * 2017-11-21 2019-12-06 广州华多网络科技有限公司 直播互动方法、装置及系统
CN109644181B (zh) * 2017-12-29 2021-02-26 腾讯科技(深圳)有限公司 一种多媒体信息分享的方法、相关装置及系统
CN109104619B (zh) * 2018-09-28 2020-10-27 联想(北京)有限公司 用于直播的图像处理方法和装置
CN112492336B (zh) * 2020-11-20 2023-03-31 完美世界(北京)软件科技发展有限公司 礼物发送方法、装置、电子设备及可读介质
CN113365111A (zh) * 2021-06-03 2021-09-07 上海哔哩哔哩科技有限公司 基于直播的互动方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025281A (ja) * 2004-07-09 2006-01-26 Hitachi Ltd 情報源選択システム、および方法
KR100701010B1 (ko) * 2005-12-09 2007-03-29 한국전자통신연구원 가상 스튜디오를 이용한 인터넷 연동형 데이터 방송 시스템및 그 방법
KR20110015905A (ko) * 2009-08-10 2011-02-17 한국전자통신연구원 시청자 참여의 iptv 원격 방송 시스템 및 그 서비스 제공 방법
KR20110137439A (ko) * 2010-06-17 2011-12-23 주식회사 에스비에스콘텐츠허브 가상세계와 현실세계가 융합된 음악 방송 서비스 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007752A (ja) * 2000-03-10 2002-01-11 Heart Gift:Kk オンラインギフト方法
US7222150B1 (en) * 2000-08-15 2007-05-22 Ikadega, Inc. Network server card and method for handling requests received via a network interface
JP2003125361A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
KR20050063473A (ko) * 2003-12-22 2005-06-28 김정훈 가상현실 기술을 사용한 개인 인터넷 방송 방법
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model
US9495791B2 (en) * 2011-10-05 2016-11-15 Bitanimate, Inc. Resolution enhanced 3D rendering systems and methods
JP2013220167A (ja) * 2012-04-16 2013-10-28 Konami Digital Entertainment Co Ltd ゲーム装置、ゲームシステム、ゲーム装置の制御方法、ゲームシステムの制御方法、及びプログラム
JP5462326B2 (ja) * 2012-07-17 2014-04-02 株式会社フォーラムエイト 仮想空間情報処理システム、当該システムのサーバ装置、当該サーバ装置で実行されるプログラム、及び仮想空間情報処理方法
WO2014100770A2 (en) * 2012-12-21 2014-06-26 Sony Coputer Entertainment America Llc Automatic generation of suggested mini-games for cloud-gaming based on recordes gameplay
EP2750032B1 (en) * 2012-12-27 2020-04-29 Sony Computer Entertainment America LLC Methods and systems for generation and execution of miniapp of computer application served by cloud computing system
CN104469440B (zh) * 2014-04-16 2018-10-30 成都理想境界科技有限公司 视频播放方法、视频播放器及对应的播放设备
CN105338479B (zh) * 2014-06-09 2020-03-10 阿里巴巴集团控股有限公司 基于场所的信息处理方法及装置
EP4206870A1 (en) * 2014-06-14 2023-07-05 Magic Leap, Inc. Method for updating a virtual world
CN104618797B (zh) * 2015-02-06 2018-02-13 腾讯科技(北京)有限公司 信息处理方法、装置及客户端
CN105610868B (zh) 2016-03-03 2019-08-06 腾讯科技(深圳)有限公司 一种信息交互的方法、设备及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025281A (ja) * 2004-07-09 2006-01-26 Hitachi Ltd 情報源選択システム、および方法
KR100701010B1 (ko) * 2005-12-09 2007-03-29 한국전자통신연구원 가상 스튜디오를 이용한 인터넷 연동형 데이터 방송 시스템및 그 방법
KR20110015905A (ko) * 2009-08-10 2011-02-17 한국전자통신연구원 시청자 참여의 iptv 원격 방송 시스템 및 그 서비스 제공 방법
KR20110137439A (ko) * 2010-06-17 2011-12-23 주식회사 에스비에스콘텐츠허브 가상세계와 현실세계가 융합된 음악 방송 서비스 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102082670B1 (ko) * 2018-10-12 2020-02-28 주식회사 아프리카티비 방송 시청을 위한 가상 현실 사용자 인터페이스 제공 방법 및 장치
KR20200121061A (ko) * 2019-04-15 2020-10-23 주식회사 아프리카티비 서드 파티의 가상 현실 콘텐츠를 제공하기 위한 장치 및 방법
KR20200145805A (ko) * 2019-04-15 2020-12-30 주식회사 아프리카티비 서드 파티의 가상 현실 콘텐츠를 제공하기 위한 장치 및 방법
KR20200115402A (ko) 2020-09-18 2020-10-07 정영선 보건마스크 별도 부착용 안전손가락잡이와 안전보관고리 그리고 이의 제조방법

Also Published As

Publication number Publication date
CN105610868B (zh) 2019-08-06
CN105610868A (zh) 2016-05-25
KR102098669B1 (ko) 2020-04-08
JP2019511756A (ja) 2019-04-25
JP6727669B2 (ja) 2020-07-22
US10861222B2 (en) 2020-12-08
US20200250881A1 (en) 2020-08-06
WO2017148410A1 (zh) 2017-09-08

Similar Documents

Publication Publication Date Title
KR102098669B1 (ko) 정보 상호작용 방법, 장치 및 시스템
US11617947B2 (en) Video game overlay
US10477179B2 (en) Immersive video
US9937423B2 (en) Voice overlay
JP6196668B2 (ja) クラウド型ゲームシステムにおける描画リソースの動的割り当て
US8403757B2 (en) Method and apparatus for providing gaming services and for handling video content
JP6576245B2 (ja) 情報処理装置、制御方法及びプログラム
CN106303555A (zh) 一种基于混合现实的直播方法、装置和系统
US20170072323A1 (en) Remote rendering server with broadcaster
WO2023029823A1 (zh) 游戏画面的显示方法、装置、设备以及存储介质
CN113209632B (zh) 一种云游戏的处理方法、装置、设备及存储介质
KR20110015502A (ko) 웹 페이지 전달의 가속을 위한 시스템
KR20100111668A (ko) 기록된 비디오 세그먼트와 통합된 스트리밍 인터랙티브 비디오
KR20100106430A (ko) 스트리밍 인터랙티브 비디오로서 함께 압축된 선형 콘텐츠 및 인터랙티브 콘텐츠를 결합하는 방법
CN113873280B (zh) 连麦直播对战互动方法、系统、装置及计算机设备
CN104998412A (zh) 一种单机游戏实现方法及装置
KR20210084248A (ko) Vr 컨텐츠 중계 플랫폼 제공 방법 및 그 장치
CN115779441A (zh) 增益虚拟物品发送方法、装置、移动终端和存储介质
CN116301359A (zh) 一种人机交互的方法、装置、设备和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant