JP6727669B2 - 情報インタラクション方法、デバイス、およびシステム - Google Patents

情報インタラクション方法、デバイス、およびシステム Download PDF

Info

Publication number
JP6727669B2
JP6727669B2 JP2018528068A JP2018528068A JP6727669B2 JP 6727669 B2 JP6727669 B2 JP 6727669B2 JP 2018528068 A JP2018528068 A JP 2018528068A JP 2018528068 A JP2018528068 A JP 2018528068A JP 6727669 B2 JP6727669 B2 JP 6727669B2
Authority
JP
Japan
Prior art keywords
user equipment
interaction information
interaction
information
community
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018528068A
Other languages
English (en)
Other versions
JP2019511756A (ja
Inventor
利 王
利 王
▲偉▼ ▲張▼
▲偉▼ ▲張▼
小▲偉▼ 夏
小▲偉▼ 夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2019511756A publication Critical patent/JP2019511756A/ja
Application granted granted Critical
Publication of JP6727669B2 publication Critical patent/JP6727669B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、その全体が参照により本明細書に組み込まれる、2016年3月3日に中華人民共和国の国家知識産権局に出願した、「INFORMATION INTERACTION METHOD, DEVICE AND SYSTEM」と題した中国特許出願第201610120316.3号の優先権を主張する。
本開示は、3D技術の分野に関し、特に、情報インタラクション方法、情報インタラクションデバイス、および情報インタラクションシステムに関する。
従来の技術における3次元(3D)のシナリオを含むインタラクティブアプリケーションは、既に非常に普及している。通常、3Dアプリケーションシステムは、ユーザ機器および3Dアプリケーションサーバを含む。ユーザ機器は、3Dアプリケーションサーバからインタラクティブアプリケーションのデータを取得し、インタラクティブアプリケーションを提示し得る。
従来の技術におけるインターネット上のライブ放送によるアンカー(anchor)ビデオも、既に非常に普及している。しかし、インターネット上の現在のライブ放送において、アンカーは、対応するライブ放送プラットフォーム上で言葉によってのみユーザと通信することができ、この通信には3Dアプリケーションが関与しない。
情報インタラクション方法が、本開示の実施形態によって提供され、アンカーは、3Dアプリケーションにおいて3Dコミュニティ内の視聴者とインタラクションし、それによって、インタラクションの多様性を高めることができる。対応するユーザ機器、サーバ、およびシステムが、本開示の実施形態によってさらに提供される。
本開示の第1の態様においては、3Dアプリケーションシステムに適用される情報インタラクション方法が提供される。3Dアプリケーションシステムは、3Dアプリケーションサーバ、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器を含む。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクト(simulation object)および仮想スクリーンを含む。方法は、
第1のユーザ機器によってアップロードされたビデオコンテンツをビデオソースサーバから第2のユーザ機器によって取得し、仮想スクリーン上にビデオコンテンツを第2のユーザ機器によって提示するステップと、
3Dアプリケーションサーバによって送信されたインタラクション情報を第2のユーザ機器によって受信するステップであって、インタラクション情報が、第1のユーザ機器によってビデオソースサーバにアップロードされるインタラクション要求に従って3Dアプリケーションサーバによって生成される、ステップと、
インタラクション情報に従って第2のユーザ機器によって、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするステップとを含む。
本開示の第2の態様においては、3Dアプリケーションシステムに適用される情報インタラクション方法が提供される。3Dアプリケーションシステムは、3Dアプリケーションサーバ、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器を含む。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクトおよび仮想スクリーンを含む。方法は、
第1のユーザ機器によってアップロードされたビデオコンテンツをビデオソースサーバから3Dアプリケーションサーバによって取得し、第2のユーザ機器の仮想スクリーン上にビデオコンテンツを提示するために、アップロードされたビデオコンテンツを第2のユーザ機器に3Dアプリケーションサーバによって送信するステップと、
ビデオソースサーバから情報インタラクション要求を3Dアプリケーションサーバによって受信するステップであって、情報インタラクション要求が、第1のユーザ機器によってビデオソースサーバにアップロードされる、ステップと、
情報インタラクション要求に従ってインタラクション情報を3Dアプリケーションサーバによって生成するステップと、
インタラクション情報を第2のユーザ機器に3Dアプリケーションサーバによって送信するステップであって、インタラクション情報が、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするために第2のユーザ機器によって使用される、ステップとを含む。
本開示の第3の態様においては、3Dアプリケーションシステム内のユーザ機器が提供される。3Dアプリケーションシステムは、3Dアプリケーションサーバ、ビデオソースサーバ、および第1のユーザ機器をさらに含む。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクトおよび仮想スクリーンを含む。ユーザ機器は、取得ユニット、受信ユニット、およびレンダリングユニットを含む。
取得ユニットは、第1のユーザ機器によってアップロードされたビデオコンテンツをビデオソースサーバから取得し、仮想スクリーン上にビデオコンテンツを提示するように構成される。
受信ユニットは、3Dアプリケーションサーバによって送信されたインタラクション情報を受信するように構成される。インタラクション情報は、第1のユーザ機器によってビデオソースサーバにアップロードされるインタラクション要求に従って3Dアプリケーションサーバによって生成される。
レンダリングユニットは、受信ユニットによって受信されたインタラクション情報に従って、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするように構成される。
本開示の第4の態様においては、3Dアプリケーションシステムに適用されるサーバが提供される。3Dアプリケーションシステムは、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器をさらに含む。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクトおよび仮想スクリーンを含む。3Dアプリケーションサーバは、取得ユニット、受信ユニット、生成ユニット、および送信ユニットを含む。
取得ユニットは、第1のユーザ機器によってアップロードされたビデオコンテンツをビデオソースサーバから取得し、第2のユーザ機器の仮想スクリーン上にビデオコンテンツを提示するために、アップロードされたビデオコンテンツを第2のユーザ機器に送信するように構成される。
受信ユニットは、ビデオソースサーバから情報インタラクション要求を受信するように構成される。情報インタラクション要求は、第1のユーザ機器によってビデオソースサーバにアップロードされる。
生成ユニットは、受信ユニットによって受信された情報インタラクション要求に従ってインタラクション情報を生成するように構成される。
送信ユニットは、生成ユニットによって生成されたインタラクション情報を第2のユーザ機器に送信するように構成される。インタラクション情報は、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするために第2のユーザ機器によって使用される。
本開示の第5の態様においては、3Dアプリケーションサーバ、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器を含む3Dアプリケーションシステムが提供される。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクトおよび仮想スクリーンを含む。
第2のユーザ機器は、第3の態様によるユーザ機器である。
3Dアプリケーションサーバは、第4の態様による3Dアプリケーションサーバである。
アンカーが2次元の方法で言葉によってのみ視聴者とインタラクションすることができる従来の技術と比較して、本開示の実施形態によって提供される情報インタラクション方法は、アンカーが3Dアプリケーションにおいて3Dコミュニティ内の視聴者とインタラクションすることを可能にし、それによって、インタラクションの多様性を高める。
本開示の実施形態において技術的解決策をよりはっきりと説明するために、実施形態を説明するために必要とされる添付の図面が、下で簡潔に紹介される。明らかに、下の添付の図面は、本開示の一部の実施形態であるに過ぎず、当業者は、創造的な努力なしに添付の図面からその他の添付の図面をさらに導出し得る。
本開示の実施形態による、アンカーが3Dコミュニティの環境を制御する例の概略図である。 本開示の実施形態による3Dアプリケーションシステムの概略図である。 本開示の実施形態による、アンカーによって実行されるライブ放送のビデオコンテンツが仮想スクリーン上に提示されるプロセスの概略図である。 本開示の実施形態による情報インタラクション方法の概略図である。 本開示の実施形態による、アンカーが3Dコミュニティに贈り物を贈る例の概略図である。 本開示の別の実施形態による情報インタラクション方法の概略図である。 本開示の別の実施形態による情報インタラクション方法の概略図である。 本開示の実施形態によるユーザ機器の概略図である。 本開示の実施形態による3Dアプリケーションサーバの概略図である。 本開示の別の実施形態による3Dアプリケーションサーバの概略図である。 本開示の別の実施形態によるユーザ機器の概略図である。 本開示の別の実施形態による3Dアプリケーションサーバの概略図である。
本開示の実施形態による情報インタラクション方法が、提供される。アンカーは、3Dアプリケーションにおいて3Dコミュニティ内の視聴者とインタラクションし、それによって、インタラクションの多様性を高めることができる。対応するユーザ機器、サーバ、およびシステムが、本開示の実施形態によってさらに提供される。詳細な説明が、下で別に与えられる。
本開示の技術的解決策が、本開示の実施形態の添付の図面を参照して以下で明瞭および完全に説明される。明らかに、説明される実施形態は、本開示のすべての実施形態ではなく一部の実施形態であるに過ぎない。いかなる創造的な努力もなしに本開示の実施形態に基づいて当業者によって得られるすべてのその他の実施形態は、本開示の保護範囲内に入る。
理解を容易にするために、本開示において使用される用語が、以下で前もって簡潔に導入される。
本開示の実施形態の3Dアプリケーションシステムは、3Dゲームシステムとして理解され得る。
3Dゲームは、3次元コンピュータパターンに基づく3次元コンピュータゲームである。3Dゲームは、マルチプレイヤオンラインネットワーク3Dゲーム、1人によってプレイされるシングルプレイヤー3Dゲーム、および3Dゲームシステムに基づいて確立された仮想現実ゲームシステムを含むがこれらに限定されない。概して、3Dゲームは、ゲームホストプラットフォーム、モバイル電話ゲームプラットフォーム、およびパーソナルコンピュータゲームプラットフォームなどの様々なプラットフォーム上に実装され得る。
3Dコミュニティは、3次元コンピュータパターンに基づいて開発される3Dゲーム内の仮想コミュニティ環境である。3Dコミュニティは、ゲーム内のプレイヤーに対応するシミュレーションオブジェクトを含み得る。本開示における3Dコミュニティは、仮想スクリーンを含む。仮想スクリーンは、屋外映写スクリーンと同様の大型仮想スクリーンであることが好ましい。
ゲームアンカーは、インターネットなどの電子メディア上でのゲームのレポートおよび説明に従事する人である。
本開示においては、インターネット上で放送されるライブビデオのアンカーがより多様な方法で3Dコミュニティ内の視聴者とインタラクションすることを可能にするために、3Dコミュニティ内でインターネット上で放送されるライブビデオを直接表示する技術が使用され、通信メカニズムが技術に基づいて確立される。直接的なビデオおよびオーディオの提示に加えて、インタラクションの方法は、3Dコミュニティ内の天気を制御すること、花火を打ち上げることなどをさらに含む。たとえば、クリスマスに、アンカーは、祝祭の雰囲気を大きく盛り上げるために、3Dコミュニティ内の天気を雪になるように制御し、同時に、コミュニティ内で花火を打ち上げ、それによって、視聴者の参加を大きく促進することができる。
以上は、アンカーが3Dコミュニティ内の視聴者のために花火を打ち上げるプロセスを示す。花火に加えて、アンカーは、同様の通信メカニズムを使用することによって3Dコミュニティ内の天気を制御することができる。図1に示されるように、アンカーは、3Dコミュニティ内の天気を制御すること、3Dコミュニティを夜に設定し、色つきのランタンを点灯することなどを行い、それによって、アンカーと視聴者との間のインタラクションを大幅に豊かにすることができる。
図2は、本開示の実施形態による3Dアプリケーションシステムの概略図である。
図2に示されるように、本開示の実施形態によって提供される3Dアプリケーションシステムは、3Dアプリケーションサーバ、ビデオソースサーバ、アンカーによって使用される第1のユーザ機器、およびプレイヤーによって使用される第2のユーザ機器を含む。複数の第2のユーザ機器が存在する可能性がある。アンカーは、第1のユーザ機器を使用することによってライブゲームを放送する。放送されるライブゲームのビデオストリームは、ビデオソースサーバにアップロードされる。アンカーは、ゲームサーバに前もって登録される。したがって、現在放送されているコンテンツのソースアドレスは、ゲームサーバに記憶される。プレイヤーは、アンカーとさらにインタラクションし得る。結果として、ライブ放送中にアンカーとシミュレーションオブジェクトとの間のインタラクションがさらに存在し得る。したがって、ユーザ機器は、コンテンツ提供サーバからライブ放送のビデオストリームおよびインタラクションコンテンツを取得することができる。
ライブ放送のビデオストリームおよびインタラクションコンテンツを取得した後、第2のユーザ機器は、オーディオおよびビデオのレンダリングを実行して対応するオーディオコンテンツおよびビデオコンテンツを取得し、3Dアプリケーションにおいてオーディオコンテンツを再生し、仮想スクリーン上でビデオコンテンツおよびインタラクションコンテンツを提示する。
アンカーが視聴率とインタラクションするとき、インタラクション要求が、第1のユーザ機器を使用することによってビデオソースサーバに送信される。ビデオソースサーバは、インタラクション要求を3Dアプリケーションサーバに転送する。3Dアプリケーションサーバは、インタラクション要求に従ってインタラクション情報を生成し、インタラクション情報を第2のユーザ機器に送信する。第2のユーザ機器は、インタラクション情報に従って、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングする。
本開示の実施形態において、インタラクション情報に対応するオブジェクトは、シミュレーションヒューマンオブジェクト(simulation human object)を含む可能性があり、環境オブジェクト(environment object)をさらに含む可能性がある。環境オブジェクトは、天気、色つきのランタン、および花火などのオブジェクトを含む可能性がある。
第2のユーザ機器上の3Dアプリケーションにおいて3Dコミュニティ内の仮想スクリーン上にコンテンツを提示するプロセスに関しては、理解するために図3が参照され得る。プロセスは、以下のステップ101から111を含む。
ステップ101において、アンカーが、インターネット上でライブビデオを現在放送しており、放送されるライブビデオのビデオストリームが、第1のユーザ機器を使用することによってビデオストリームサーバに送られる。
ステップ102において、ユーザが第2のユーザ機器上で3Dアプリケーションを開いた後、アプリケーションが、3Dアプリケーションの3Dレンダリングエンジンを初期化し始める。
ステップ103において、アプリケーションが、アンカーによって現在放送されているビデオのビデオソースアドレスを自動的に要求する。
ステップ104において、3Dアプリケーションサーバが、ビデオソースアドレスをオーディオおよびビデオレンダリングモジュールに配信する。
ステップ105において、オーディオおよびビデオレンダリングモジュールが、放送されるビデオのデータストリームをコンテンツ提供サーバに要求する。
ステップ106において、ライブビデオ放送サーバが、オーディオおよびビデオレンダリングモジュールにビデオのデータストリームを返す。
ステップ107において、オーディオおよびビデオレンダリングモジュールが、オーディオおよびビデオデータを使用することによってオーディオをレンダリングする。
ステップ108において、オーディオおよびビデオレンダリングモジュールが、3Dアプリケーションのオーディオエンジンにオーディオデータを送る。
ステップ109において、オーディオおよびビデオレンダリングモジュールが、オーディオおよびビデオデータを使用することによってビデオの画像をフレーム毎にレンダリングする。
ステップ110において、オーディオおよびビデオレンダリングモジュールが、3Dアプリケーションの3Dレンダリングエンジンに画像データを送る。
ステップ111において、レンダリングエンジンが、オーディオコンテンツを再生し、レンダリングされた静的なフレームデータを使用することによってユーザに3Dビデオを提示する。
3Dコミュニティのビデオコンテンツがレンダリングされた後のアンカーと視聴者との間のインタラクションプロセス、つまり、本開示の実施形態による情報インタラクションに関しては、理解するために図4が参照され得る。インタラクションプロセスは、以下のステップ201から205を含む。
ステップ201において、第1のユーザ機器が、ビデオソースサーバにインタラクション要求を報告する。
ステップ202において、ビデオソースサーバが、インタラクション要求を3Dアプリケーションサーバに転送する。
ステップ203において、3Dアプリケーションサーバが、インタラクション要求に従ってインタラクション情報を生成する。
ステップ204において、3Dアプリケーションサーバが、インタラクション情報を第2のユーザ機器に送信する。
ステップ205において、第2のユーザ機器が、インタラクション情報に従って、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングする。
任意選択で、インタラクション要求は、目標シミュレーションオブジェクトを生成する要求である可能性がある。3Dアプリケーションサーバは、目標シミュレーションオブジェクトを生成する要求に従って目標シミュレーションオブジェクトのインタラクション情報を生成する。
3Dアプリケーションサーバが、目標シミュレーションオブジェクトのインタラクション情報を第2のユーザ機器に送信する。目標シミュレーションオブジェクトのインタラクション情報は、3Dコミュニティ内で目標シミュレーションオブジェクトをレンダリングするために第2のユーザ機器によって使用される。
第2のユーザ機器は、3Dアプリケーションサーバによって送信され、目標シミュレーションオブジェクトをレンダリングするために使用されるインタラクション情報を受信する。
第2のユーザ機器は、目標シミュレーションオブジェクトをレンダリングするために使用されるインタラクション情報に従って3Dコミュニティ内で目標シミュレーションオブジェクトをレンダリングする。
任意選択で、目標シミュレーションオブジェクトは、3Dコミュニティ内のシミュレーションオブジェクトにパケット(packet)を送信するために使用される。この場合、方法は、
ビデオソースサーバからパケットを送信する要求を3Dアプリケーションサーバによって取得するステップであって、パケットを送信する要求が、第1のユーザ機器によってビデオソースサーバにアップロードされる、ステップと、
パケットを送信する要求に従ってパケットのインタラクション情報を3Dアプリケーションサーバによって生成するステップと、
パケットのインタラクション情報を第2のユーザ機器に3Dアプリケーションサーバによって送信するステップであって、パケットのインタラクション情報が、目標シミュレーションオブジェクトの移動軌跡上にパケットをレンダリングするために第2のユーザ機器によって使用される、ステップと、
3Dアプリケーションサーバによって送信されたパケット情報を第2のユーザ機器によって受信するステップと、
パケット情報に従って目標シミュレーションオブジェクトの移動軌跡上にパケットを第2のユーザ機器によってレンダリングするステップとをさらに含む。
任意選択で、方法は、
ビデオソースサーバからパケットを送信する要求を3Dアプリケーションサーバによって取得するステップであって、パケットを送信する要求が、第1のユーザ機器によってビデオソースサーバにアップロードされる、ステップと、
パケットを送信する要求に従ってパケットのインタラクション情報を3Dアプリケーションサーバによって生成するステップと、
パケットのインタラクション情報を第2のユーザ機器に3Dアプリケーションサーバによって送信するステップであって、パケットのインタラクション情報が、目標シミュレーションオブジェクトの移動軌跡上にパケットをレンダリングするために第2のユーザ機器によって使用される、ステップと、
3Dアプリケーションサーバによって送信されたパケット情報を第2のユーザ機器によって受信するステップと、
パケット情報に従って目標シミュレーションオブジェクトの移動軌跡上にパケットを第2のユーザ機器によってレンダリングするステップとをさらに含む。
任意選択で、方法は、
3Dコミュニティ内の特定のシミュレーションオブジェクトが目標シミュレーションオブジェクトによって送信されたパケットを取得することを監視するとき、パケットが取得されることを示す通知メッセージを3Dアプリケーションサーバによって第2のユーザ機器に送信するステップであって、特定のシミュレーションオブジェクトが、第2のユーザ機器に対応するシミュレーションオブジェクトである、ステップと、
3Dコミュニティ内の特定のシミュレーションオブジェクトが目標シミュレーションオブジェクトによって送信されたパケットを取得するとき、3Dアプリケーションサーバによって送信され、パケットが取得されることを示す通知メッセージを第2のユーザ機器によって受信するステップであって、特定のシミュレーションオブジェクトが、第2のユーザ機器に対応するシミュレーションオブジェクトである、ステップとをさらに含む。
任意選択で、情報インタラクション要求は、環境オブジェクトをレンダリングする要求である。
3Dアプリケーションサーバは、環境オブジェクトをレンダリングする要求に従って環境オブジェクトのインタラクション情報を生成する。
3Dアプリケーションサーバは、環境オブジェクトのインタラクション情報を第2のユーザ機器に送信する。環境オブジェクトのインタラクション情報は、3Dコミュニティ内で環境オブジェクトをレンダリングするために第2のユーザ機器によって使用される。
第2のユーザ機器は、3Dアプリケーションサーバによって送信され、環境オブジェクトをレンダリングするために使用されるインタラクション情報を受信する。
第2のユーザ機器は、環境オブジェクトをレンダリングするために使用されるインタラクション情報に従って3Dコミュニティ内で環境オブジェクトをレンダリングする。
理解を容易にするために、アンカーが3Dコミュニティ内のシミュレーションオブジェクトに贈り物を贈るための使者(envoy)を送るプロセス、およびアンカーが3Dコミュニティ内の天気を制御するプロセスが、2つの実施形態を使用することによって以下でそれぞれ説明される。
図5は、アンカーが3Dコミュニティ内で使者を送ることを示す概略図である。図5に示されるように、アンカーは、3Dコミュニティ内でアンカーの代理となる使者を送る。使者は、目標シミュレーションオブジェクトである。使者は、3Dコミュニティ内を歩くことができ、3Dコミュニティ内のシミュレーションオブジェクトに贈り物を贈る。
使者が贈り物を贈るインタラクションプロセスが、図6を参照して説明される。
図6に示されるように、本開示の別の実施形態による情報インタラクションは、以下のステップ301から316を含む。
ステップ301において、アンカーが、第1のユーザ機器を使用することによってコミュニティ管理ページにログインする。
ステップ302において、3Dアプリケーションサーバが、アンカーが登録されているかどうかおよびアンカーが認可されたアンカーであるかどうかを判定するためにアンカーの識別情報を認証する。
ステップ303において、認証が成功する場合、識別情報の認証結果が返される。
ステップ304において、アンカーが、第1のユーザ機器を使用することによって3Dコミュニティを選択する。
ステップ305において、3Dアプリケーションサーバが、選択された3Dコミュニティをアンカーに割り当てる。
本開示において、ステップ301から305は、3Dアプリケーションサーバに統合される3Dコミュニティページ管理機能、3Dコミュニティ加入機能、および3Dコミュニティ割り当て機能によって実施され得る。代替的に、ステップ301から305は、3つの独立したサーバを使用することによって実施され得る。3つの独立したサーバは、ページ管理サーバ、3Dコミュニティ加入サーバ、および3Dコミュニティサーバを含む可能性がある。ページ管理サーバは、管理ページを表示し、ユーザに対してインターフェースを表示する責任を負う。3Dコミュニティ加入サーバは、ページ管理サーバとインタラクションし、アンカー情報などのデータを記憶する責任を負う。3Dコミュニティサーバは、アンカーからインタラクションの要件を受信し、インタラクションの要件を3Dアプリケーションサーバに転送する。
ステップ306において、アンカーが、第1のユーザ機器を使用することによって3Dアプリケーションサーバに使者要求を送信する。
ステップ307において、3Dアプリケーションサーバが、使者要求に従って使者インタラクション情報を生成する。
ステップ308において、3Dアプリケーションサーバが、使者インタラクション情報を第2のユーザ機器に放送する。
ステップ309において、第2のユーザ機器が、使者インタラクション情報に従って3Dコミュニティ内に使者をレンダリングする。
ステップ310において、3Dアプリケーションサーバが、使者の移動経路を第2のユーザ機器に送信する。
ステップ311において、第2のユーザ機器が、使者の移動経路に従って移動する使者をレンダリングする。
ステップ312において、3Dアプリケーションサーバが、プロップ(prop)情報を第2のユーザ機器に送信する。
プロップに加えて、使者は、その他の贈り物をさらに届ける可能性がある。本開示のパケットは、プロップを含む可能性があり、その他の贈り物をさらに含む可能性がある。
ステップ313において、第2のユーザ機器が、プロップ情報に従って、使者がプロップを届けることをレンダリングする。
ステップ314において、届けられたプロップを受け取るプレイヤーが取得される。
ステップ315において、プロップリストが更新される。
ステップ316において、プレイヤーが、プロップが成功裏に受け取られることを通知される。
上述の説明によれば、1組の自動の仮想的な面白い贈り物を贈るシステムが、本開示によって実装され、そのシステムによって、仮想的なコミュニティ内のユーザとアンカーとの間のインタラクションが、改善され得る。
本開示によるアンカーが3Dコミュニティ内の天気を制御するプロセスが、図7を参照して以下で説明される。
図7に示されるように、本開示の別の実施形態によって提供される情報インタラクションは、以下のステップ401から416を含む。
ステップ401において、アンカーが、第1のユーザ機器を使用することによってコミュニティ管理ページにログインする。
ステップ402において、3Dアプリケーションサーバが、アンカーが登録されているかどうかおよびアンカーが認可されたアンカーであるかどうかを判定するためにアンカーの識別情報を認証する。
ステップ403において、認証が成功する場合、識別情報の認証結果が返される。
ステップ404において、アンカーが、第1のユーザ機器を使用することによって3Dコミュニティを選択する。
ステップ405において、3Dアプリケーションサーバが、選択された3Dコミュニティをアンカーに割り当てる。
ステップ401から405は、上述の実施形態のステップ301から305と同じである。
ステップ406において、アンカーが、第1のユーザ機器を使用することによって3Dアプリケーションサーバに天気設定要求を送信する。
ステップ407において、3Dアプリケーションサーバが、天気設定要求に従って天気インタラクション情報を生成する。
ステップ408において、3Dアプリケーションサーバが、天気インタラクション情報を第2のユーザ機器に放送する。
ステップ409において、第2のユーザ機器が、天気インタラクション情報に従って天気パラメータを選択する。
3Dレンダリングエンジンが、まず、3Dコミュニティ内のユーザが興奮することを防止するために、天気パラメータ内の関連する係数に対して線形遷移(linear transition)を実行する。
ステップ410において、第2のユーザ機器が、天気を変更するための時間を設定する。
ステップ411において、第2のユーザ機器が、大気散乱(atmospheric scattering)を計算する。
大気散乱は、設定された時間に従って計算される。空の色は、大気散乱に従って決定される。したがって、空の色は、ミー-レイリーアルゴリズムを使用することによってレンダリングされる。
ステップ412において、第2のユーザ機器が、天気のレンダリング結果を決定する。
ステップ413において、第2のユーザ機器が、粒子の種類(雨または雪)を設定する。
雨または雪が、設定された粒子の種類に従ってレンダリングされる。本明細書においては、グラフィック処理ユニット(GPU)のバルブテクスチャファイル(VTF: valve textures file)機能が、使用される。雨または雪の粒子の位置に関する計算は、GPUにおいて実行され、雨または雪の粒子の位置は、同じバッチにおいて直接レンダリングされる。
ステップ414において、第2のユーザ機器が、特殊効果を計算する。
ステップ415において、第2のユーザ機器が、最終的なレンダリング結果を決定する。
ステップ416において、第2のユーザ機器が、最終的なレンダリング結果を提示する。
3Dコミュニティ内で花火を打ち上げるインタラクションプロセスなどの別のプロセスは、花火の効果が花火インタラクション情報に従ってレンダリングされることを除いて基本的に図7のプロセスと一致する。
情報インタラクション方法は、上で説明されている。以下の説明において、本開示の実施形態によるデバイスが、添付の図面を参照して説明される。
図8を参照すると、本開示の実施形態によって提供されるユーザ機器は、3Dアプリケーションシステム内の第2のユーザ機器である。3Dアプリケーションシステムは、3Dアプリケーションサーバ、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器を含む。第1のユーザ機器は、アンカーのインタラクション操作に応答するように構成される。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクトと、シミュレーションオブジェクトによってビデオコンテンツを見るために使用される仮想スクリーンとを含む。ユーザ機器50は、取得ユニット501、受信ユニット502、およびレンダリングユニット503を含む。
取得ユニット501は、第1のユーザ機器によってアップロードされたビデオコンテンツをビデオソースサーバから取得し、仮想スクリーン上にビデオコンテンツを提示するように構成される。
受信ユニット502は、取得ユニット501がビデオコンテンツを取得した後に3Dアプリケーションサーバによって送信されたインタラクション情報を受信するように構成される。インタラクション情報は、第1のユーザ機器によってビデオソースサーバにアップロードされるインタラクション要求に従って3Dアプリケーションサーバによって生成される。
レンダリングユニット503は、受信ユニット502によって受信されたインタラクション情報に従って、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするように構成される。
本開示のこの実施形態によって提供されるユーザ機器50において、取得ユニット501は、第1のユーザ機器によってアップロードされ、アンカーによって放送されるビデオコンテンツをビデオソースサーバから取得し、仮想スクリーン上にビデオコンテンツを提示する。受信ユニット502は、取得ユニット501がビデオコンテンツを取得した後、3Dアプリケーションサーバによって送信されたインタラクション情報を受信し、インタラクション情報は、第1のユーザ機器によってビデオソースサーバにアップロードされるインタラクション要求に従って3Dアプリケーションサーバによって生成される。レンダリングユニット503は、受信ユニット502によって受信されたインタラクション情報に従って、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングする。アンカーが2次元の方法で言葉によってのみ視聴者とインタラクションすることができる従来の技術と比較して、本開示のこの実施形態によって提供されるユーザ機器は、アンカーが3Dアプリケーションにおいて3Dコミュニティ内の視聴者とインタラクションすることを可能にし、それによって、インタラクションの多様性を高める。
任意選択で、受信ユニット502は、3Dアプリケーションサーバによって送信され、目標シミュレーションオブジェクトをレンダリングするために使用されるインタラクション情報を受信するように構成される。
レンダリングユニット503は、受信ユニット502によって受信され、目標シミュレーションオブジェクトをレンダリングするために使用されるインタラクション情報に従って3Dコミュニティ内で目標シミュレーションオブジェクトをレンダリングするように構成される。
任意選択で、目標シミュレーションオブジェクトは、3Dコミュニティ内のシミュレーションオブジェクトにパケットを送信するために使用される。この場合、受信ユニット502は、3Dアプリケーションサーバによって送信されたパケット情報を受信するようにさらに構成される。
レンダリングユニット503は、パケット情報に従って目標シミュレーションオブジェクトの移動軌跡上にパケットをレンダリングするように構成される。
任意選択で、受信ユニット502は、3Dコミュニティ内のシミュレーションオブジェクトが目標シミュレーションオブジェクトによって送信されたパケットを取得するとき、3Dアプリケーションサーバによって送信され、パケットがシミュレーションオブジェクトによって取得されることを示す通知メッセージを受信するようにさらに構成される。
任意選択で、受信ユニット502は、3Dアプリケーションサーバによって送信され、環境オブジェクトをレンダリングするために使用されるインタラクション情報を受信するように構成される。
レンダリングユニット503は、受信ユニット502によって受信され、環境オブジェクトをレンダリングするために使用されるインタラクション情報に従って3Dコミュニティ内で環境オブジェクトをレンダリングするように構成される。
図9を参照すると、本開示の実施形態によって提供される3Dアプリケーションサーバ60は、3Dアプリケーションシステムに適用される。3Dアプリケーションシステムは、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器をさらに含む。第1のユーザ機器は、アンカーのインタラクション操作に応答するように構成される。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクトと、アンカーによって放送されるライブビデオコンテンツを見るためにシミュレーションオブジェクトによって使用される仮想スクリーンとを含む。3Dアプリケーションサーバは、取得ユニット601、受信ユニット602、生成ユニット603、および送信ユニット604を含む。
取得ユニット601は、第1のユーザ機器によってアップロードされたビデオコンテンツをビデオソースサーバから取得し、第2のユーザ機器の仮想スクリーン上にビデオコンテンツを提示するために、アップロードされたビデオコンテンツを第2のユーザ機器に送信するように構成される。
受信ユニット602は、ビデオソースサーバから情報インタラクション要求を受信するように構成される。情報インタラクション要求は、第1のユーザ機器によってビデオソースサーバにアップロードされる。
生成ユニット603は、受信ユニット602によって受信された情報インタラクション要求に従ってインタラクション情報を生成するように構成される。
送信ユニット604は、生成ユニット603によって生成されたインタラクション情報を第2のユーザ機器に送信するように構成される。インタラクション情報は、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするために第2のユーザ機器によって使用される。
本開示のこの実施形態において、取得ユニット601は、第1のユーザ機器によってアップロードされたビデオコンテンツをビデオソースサーバから取得し、第2のユーザ機器の仮想スクリーン上にビデオコンテンツを提示するために、アップロードされたビデオコンテンツを第2のユーザ機器に送信する。受信ユニット602は、ビデオソースサーバから情報インタラクション要求を受信し、情報インタラクション要求は、第1のユーザ機器によってビデオソースサーバにアップロードされる。生成ユニット603は、受信ユニット602によって受信された情報インタラクション要求に従ってインタラクション情報を生成する。送信ユニット604は、生成ユニット603によって生成されたインタラクション情報を第2のユーザ機器に送信するように構成され、インタラクション情報は、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするために第2のユーザ機器によって使用される。アンカーが2次元の方法で言葉によってのみ視聴者とインタラクションすることができる従来の技術と比較して、本開示のこの実施形態によって提供される3Dアプリケーションサーバは、アンカーが3Dアプリケーションにおいて3Dコミュニティ内の視聴者とインタラクションすることを可能にし、それによって、インタラクションの多様性を高める。
任意選択で、情報インタラクション要求は、目標シミュレーションオブジェクトを生成する要求である。生成ユニット603は、目標シミュレーションオブジェクトを生成する要求に従って目標シミュレーションオブジェクトのインタラクション情報を生成するように構成される。
送信ユニット604は、第2のユーザ機器が目標シミュレーションオブジェクトのインタラクション情報に応答して3Dコミュニティ内で目標シミュレーションオブジェクトをレンダリングするように、目標シミュレーションオブジェクトのインタラクション情報を第2のユーザ機器に送信するように構成される。
任意選択で、受信ユニット602は、ビデオソースサーバからパケットを送信する要求を受信するようにさらに構成され、パケットを送信する要求は、第1のユーザ機器によってビデオソースサーバにアップロードされる。
生成ユニット603は、パケットを送信する要求に従ってパケットのインタラクション情報を生成するようにさらに構成される。
送信ユニット604は、第2のユーザ機器がパケットのインタラクション情報に応答して目標シミュレーションオブジェクトの移動軌跡上にパケットをレンダリングするように、パケットのインタラクション情報を第2のユーザ機器に送信するようにさらに構成される。
任意選択で、図10を参照すると、本開示のこの実施形態によって提供される3Dアプリケーションサーバは、監視ユニット605をさらに含む。
監視ユニット605は、3Dコミュニティ内のシミュレーションオブジェクトが目標シミュレーションオブジェクトによって送信されたパケットを取得するかどうかを監視するように構成される。
送信ユニット604は、3Dコミュニティ内のシミュレーションオブジェクトが目標シミュレーションオブジェクトによって送信されたパケットを取得することを監視ユニット605が監視するとき、パケットがシミュレーションオブジェクトによって取得されることを示す通知メッセージを第2のユーザ機器に送信するように構成される。
任意選択で、情報インタラクション要求は、環境オブジェクトをレンダリングする要求である。生成ユニット603は、環境オブジェクトをレンダリングする要求に従って環境オブジェクトのインタラクション情報を生成するように構成される。
送信ユニット604は、第2のユーザ機器が環境オブジェクトのインタラクション情報に応答して3Dコミュニティ内で環境オブジェクトをレンダリングするように、環境オブジェクトのインタラクション情報を第2のユーザ機器に送信するように構成される。
上述のユーザ機器および3Dアプリケーションサーバの説明に関しては、理解するために図1から図7の関連する説明が参照可能であり、必要以上の詳細は本明細書において説明されない。
図11は、本開示の実施形態によるユーザ機器50の概略構造図である。ユーザ機器50は、3Dアプリケーションシステム内の第2のユーザ機器である。3Dアプリケーションシステムは、3Dアプリケーションサーバ、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器を含む。第1のユーザ機器は、アンカーのインタラクション操作に応答するように構成される。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクトと、シミュレーションオブジェクトによってビデオコンテンツを見るために使用される仮想スクリーンとを含む。本開示のユーザ機器50は、中央処理装置(CPU) 5101、グラフィック処理ユニット(GPU) 5102、トランシーバ540、メモリ550、および入力/出力(I/O)デバイス530を含む。入力/出力(I/O)デバイス530は、キーボードまたはマウスである可能性がある。グラフィック処理ユニット5102は、グラフをレンダリングするように構成される。メモリ550は、読み出し専用メモリおよびランダムアクセスメモリを含む可能性があり、プロセッサ510のための動作命令およびデータを提供するように構成される。メモリ550の一部は、不揮発性ランダムアクセスメモリ(NVRAM)をさらに含む可能性がある。
一部の実装において、メモリ550は、以下の要素、すなわち、実行可能モジュール、またはデータ構造、またはそれらのサブセット、またはそれらの拡張された組を記憶する。
本開示のこの実施形態においては、メモリ550によって記憶された動作命令(動作命令はオペレーティングシステムに記憶される可能性がある)を呼び出すことによって、
トランシーバ540は、第1のユーザ機器によってアップロードされ、アンカーによって放送されるビデオコンテンツをビデオソースサーバから取得し、仮想スクリーン上にビデオコンテンツを提示し、3Dアプリケーションサーバによって送信されたインタラクション情報を受信するように構成され、インタラクション情報は、第1のユーザ機器によってビデオソースサーバにアップロードされるインタラクション要求に従って3Dアプリケーションサーバによって生成され、
グラフィック処理ユニット5102は、インタラクション情報に従って、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするように構成される。
アンカーが2次元の方法で言葉によってのみ視聴者とインタラクションすることができる従来の技術と比較して、本開示のこの実施形態によって提供されるユーザ機器は、アンカーが3Dアプリケーションにおいて3Dコミュニティ内の視聴者とインタラクションすることを可能にし、それによって、インタラクションの多様性を高める。
中央処理装置5101は、ユーザ機器50の動作を制御する。メモリ550は、読み出し専用メモリおよびランダムアクセスメモリを含み、中央処理装置5101に命令およびデータを提供し得る。メモリ550の一部は、不揮発性ランダムアクセスメモリ(NVRAM)をさらに含む可能性がある。特定の適用例において、ユーザ機器50のすべての構成要素は、バスシステム520を使用することによって結合され、データバスの他に、バスシステム520は、電力バス、制御バス、状態信号バスなどをさらに含む可能性がある。しかし、説明を明瞭にするために、図においては、すべての種類のバスがバスシステム520として印を付けられる。
本開示の上述の実施形態において開示された方法は、プロセッサ510に適用されるかまたはプロセッサ510によって実施され得る。プロセッサ510は、集積回路チップである可能性があり、信号処理能力を有する。実装プロセスにおいて、上述の方法のステップは、プロセッサ510のハードウェア集積論理回路またはソフトウェアの形態の命令によって実装される可能性がある。プロセッサ510は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)もしくは別のプログラマブルロジック構成要素、ディスクリートゲートもしくはトランジスタ論理デバイス、またはディスクリートハードウェア構成要素である可能性があり、本開示の実施形態において開示された方法、ステップ、および論理ブロック図を実施または実行し得る。汎用プロセッサは、マイクロプロセッサである可能性があり、またはプロセッサは、任意の従来のプロセッサなどである可能性がある。本開示の実施形態において開示された方法のステップは、ハードウェア復号プロセッサによって直接実施される可能性があり、または復号プロセッサにおいてハードウェアとソフトウェアモジュールとを組み合わせることによって実施される可能性がある。ソフトウェアモジュールは、ランダムアクセスメモリ、フラッシュメモリ、読み出し専用メモリ、プログラマブル読み出し専用メモリ、電気的消去可能プログラマブルメモリ、またはレジスタなどの当技術分野の成熟したストレージ媒体に置かれる可能性がある。ストレージ媒体は、メモリ550に置かれ、プロセッサ510は、メモリ550内の情報を読み、プロセッサのハードウェアとの組合せで上述の方法のステップを実行する。
任意選択で、トランシーバ540は、3Dアプリケーションサーバによって送信され、目標シミュレーションオブジェクトをレンダリングするために使用されるインタラクション情報を受信するように構成され、目標シミュレーションオブジェクトは、3Dコミュニティ内のシミュレーションオブジェクトにパケットを送信するために使用される。
画像プロセッサ5102は、目標シミュレーションオブジェクトをレンダリングするために使用されるインタラクション情報に従って3Dコミュニティ内で目標シミュレーションオブジェクトをレンダリングするように構成される。
任意選択で、トランシーバ540は、3Dアプリケーションサーバによって送信されたパケット情報を受信するように構成される。
画像プロセッサ5102は、パケット情報に従って目標シミュレーションオブジェクトの移動軌跡上にパケットをレンダリングするように構成される。
任意選択で、トランシーバ540は、3Dコミュニティ内の特定のシミュレーションオブジェクトが目標シミュレーションオブジェクトによって送信されたパケットを取得するとき、3Dアプリケーションサーバによって送信され、パケットが取得されることを示す通知メッセージを受信するように構成され、特定のシミュレーションオブジェクトは、第2のユーザ機器に対応するシミュレーションオブジェクトである。
任意選択で、トランシーバ540は、3Dアプリケーションサーバによって送信され、環境オブジェクトをレンダリングするために使用されるインタラクション情報を受信するように構成される。
画像プロセッサ5102は、環境オブジェクトをレンダリングするために使用されるインタラクション情報に従って3Dコミュニティ内で環境オブジェクトをレンダリングするように構成される。
ユーザ機器50を理解するために、図1から図7の関連する説明が参照可能であり、必要以上の詳細は本明細書において説明されない。
図12は、本開示の実施形態による3Dアプリケーションサーバ60の概略構造図である。3Dアプリケーションサーバ60は、3Dアプリケーションシステムに適用される。3Dアプリケーションシステムは、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器をさらに含む。第1のユーザ機器は、アンカーのインタラクション操作に応答するように構成される。第2のユーザ機器によって提示される3Dアプリケーション内の3Dコミュニティは、シミュレーションオブジェクトと、アンカーによって放送されるライブビデオコンテンツを見るためにシミュレーションオブジェクトによって使用される仮想スクリーンとを含む。3Dアプリケーションサーバ60は、プロセッサ610、メモリ650、およびトランシーバ630を含む。メモリ650は、読み出し専用メモリおよびランダムアクセスメモリを含み、プロセッサ610のための動作命令およびデータを提供し得る。メモリ650の一部は、不揮発性ランダムアクセスメモリ(NVRAM)をさらに含む可能性がある。
一部の実装において、メモリ650は、以下の要素、すなわち、実行可能モジュール、またはデータ構造、またはそれらのサブセット、またはそれらの拡張された組を記憶する。
本開示のこの実施形態においては、メモリ650によって記憶された動作命令(動作命令はオペレーティングシステムに記憶される可能性がある)を呼び出すことによって、
トランシーバ630は、ビデオソースサーバから情報インタラクション要求を取得するように構成され、情報インタラクション要求は、第1のユーザ機器によってビデオソースサーバにアップロードされ、
プロセッサ610は、情報インタラクション要求に従ってインタラクション情報を生成するように構成され、
トランシーバ630は、第1のユーザ機器によってアップロードされたビデオコンテンツをビデオソースサーバから取得し、アップロードされたビデオコンテンツを第2のユーザ機器に送信し、インタラクション情報を第2のユーザ機器に送信するようにさらに構成され、インタラクション情報は、3Dコミュニティ内でインタラクション情報に対応するオブジェクトをレンダリングするために第2のユーザ機器によって使用される。
アンカーが2次元の方法で言葉によってのみ視聴者とインタラクションすることができる従来の技術と比較して、本開示のこの実施形態によって提供される3Dアプリケーションサーバは、アンカーが3Dアプリケーションにおいて3Dコミュニティ内の視聴者とインタラクションすることを可能にし、それによって、インタラクションの多様性を高める。
プロセッサ610は、3Dアプリケーションサーバ60の動作を制御し、プロセッサ610は、中央処理装置(CPU)とも呼ばれる可能性がある。メモリ650は、読み出し専用メモリおよびランダムアクセスメモリを含み、プロセッサ610のための命令およびデータを提供し得る。メモリ650の一部は、不揮発性ランダムアクセスメモリ(NVRAM)をさらに含む可能性がある。特定の適用例において、3Dアプリケーションサーバ60のすべての構成要素は、バスシステム620を使用することによって結合され、データバスに加えて、バスシステム620は、電力バス、制御バス、状態信号バスなどをさらに含む可能性がある。しかし、説明を明瞭にするために、図においては、すべての種類のバスがバスシステム620として印を付けられる。
本開示の上述の実施形態において開示された方法は、プロセッサ610に適用されるかまたはプロセッサ610によって実施され得る。プロセッサ610は、集積回路チップである可能性があり、信号処理能力を有する。実装プロセスにおいて、上述の方法のステップは、プロセッサ610のハードウェア集積論理回路またはソフトウェアの形態の命令によって実装される可能性がある。プロセッサ610は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)もしくは別のプログラマブルロジック構成要素、ディスクリートゲートもしくはトランジスタ論理デバイス、またはディスクリートハードウェア構成要素である可能性があり、本開示の実施形態において開示された方法、ステップ、および論理ブロック図を実施または実行し得る。汎用プロセッサは、マイクロプロセッサである可能性があり、またはプロセッサは、任意の従来のプロセッサなどである可能性がある。本開示の実施形態において開示された方法のステップは、ハードウェア復号プロセッサによって直接実施される可能性があり、または復号プロセッサにおいてハードウェアとソフトウェアモジュールとを組み合わせることによって実施される可能性がある。ソフトウェアモジュールは、ランダムアクセスメモリ、フラッシュメモリ、読み出し専用メモリ、プログラマブル読み出し専用メモリ、電気的消去可能プログラマブルメモリ、またはレジスタなどの当技術分野の成熟したストレージ媒体に置かれる可能性がある。ストレージ媒体は、メモリ650に置かれ、プロセッサ610は、メモリ650内の情報を読み、プロセッサのハードウェアとの組合せで上述の方法のステップを実行する。
任意選択で、プロセッサ610は、情報インタラクション要求が目標シミュレーションオブジェクトを生成する要求である場合、目標シミュレーションオブジェクトを生成する要求に従って目標シミュレーションオブジェクトのインタラクション情報を生成するように構成される。
トランシーバ630は、目標シミュレーションオブジェクトのインタラクション情報を第2のユーザ機器に送信するようにさらに構成される。目標シミュレーションオブジェクトのインタラクション情報は、3Dコミュニティ内で目標シミュレーションオブジェクトをレンダリングするために第2のユーザ機器によって使用される。
任意選択で、トランシーバ630は、ビデオソースサーバからパケットを送信する要求を受信するようにさらに構成され、パケットを送信する要求は、第1のユーザ機器によってビデオソースサーバにアップロードされる。
プロセッサ610は、パケット送信要求に従ってパケットのインタラクション情報を生成するようにさらに構成される。
トランシーバ630は、パケットのインタラクション情報を第2のユーザ機器に送信するようにさらに構成される。パケットのインタラクション情報は、目標シミュレーションオブジェクトの移動軌跡上にパケットをレンダリングするために第2のユーザ機器によって使用される。
任意選択で、プロセッサ610は、3Dコミュニティ内の特定のシミュレーションオブジェクトが目標シミュレーションオブジェクトによって送信されたパケットを取得するかどうかを監視するようにさらに構成される。
トランシーバ630は、3Dコミュニティ内の特定のシミュレーションオブジェクトが目標シミュレーションオブジェクトによって送信されたパケットを取得することが監視されるとき、パケットが取得されることを示す通知メッセージを第2のユーザ機器に送信するようにさらに構成され、特定のシミュレーションオブジェクトは、第2のユーザ機器に対応するシミュレーションオブジェクトである。
任意選択で、プロセッサ610は、情報インタラクション要求が環境オブジェクトをレンダリングする要求である場合、環境オブジェクトをレンダリングする要求に従って環境オブジェクトのインタラクション情報を生成するように構成される。
トランシーバ630は、環境オブジェクトのインタラクション情報を第2のユーザ機器に送信するようにさらに構成される。環境オブジェクトのインタラクション情報は、3Dコミュニティ内で環境オブジェクトをレンダリングするために第2のユーザ機器によって使用される。
3Dアプリケーションサーバ60に関しては、理解するために図1から図7の関連する説明が参照可能であり、必要以上の詳細は本明細書において説明されない。
当業者は、実施形態の方法のステップのすべてまたは一部が、関連ハードウェアに命令するプログラムによって実装され得ることを理解するであろう。プログラムは、コンピュータ可読ストレージ媒体に記憶され得る。ストレージ媒体は、ROM、RAM、磁気ディスク、光ディスクなどを含む可能性がある。
本開示の実施形態によって提供される情報インタラクション方法、ユーザ機器、3Dアプリケーションサーバ、およびシステムが、上で詳細に説明されている。本開示の原理および実装が本明細書において特定の例を使用することによって説明されているが、上述の実施形態の説明は、本開示の方法および方法の中核的な考えを理解するのに役立つように意図されているに過ぎない。一方、当業者は、本開示の考えによる特定の実装と適用の範囲との両方に修正を行い得る。結論として、本明細書の内容は、本開示に対する限定と考えられるべきでない。
50 ユーザ機器
501 取得ユニット
502 受信ユニット
503 レンダリングユニット
510 プロセッサ
5101 中央処理装置(CPU)
5102 グラフィック処理ユニット(GPU)、画像プロセッサ
520 バスシステム
530 入力/出力(I/O)デバイス
540 トランシーバ
550 メモリ
60 3Dアプリケーションサーバ
601 取得ユニット
602 受信ユニット
603 生成ユニット
604 送信ユニット
605 監視ユニット
610 プロセッサ
620 バスシステム
630 トランシーバ
650 メモリ

Claims (21)

  1. 3次元(3D)アプリケーションシステムに適用される情報インタラクション方法であって、前記3Dアプリケーションシステムが、3Dアプリケーションサーバ、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器を含み、前記第2のユーザ機器が表示する3Dアプリケーション内の3Dコミュニティが、シミュレーションオブジェクトおよび仮想スクリーンを含み、前記方法が、
    前記第2のユーザ機器が、前記第1のユーザ機器によってアップロードされたビデオコンテンツを前記ビデオソースサーバから取得し、前記仮想スクリーン上に前記ビデオコンテンツを表示するステップと、
    前記第2のユーザ機器が、前記3Dアプリケーションサーバによって送信されたインタラクション情報を受信するステップであって、前記インタラクション情報は、前記3Dアプリケーションサーバが前記ビデオソースサーバから受信したインタラクション要求に従って生成したものであり、前記インタラクション要求は、前記第1のユーザ機器が前記ビデオソースサーバにアップロードしたものである、ステップと、
    前記第2のユーザ機器が、前記インタラクション情報に従って、前記3Dコミュニティ内で前記インタラクション情報に対応するオブジェクトをレンダリングするステップとを含む、方法。
  2. 前記第2のユーザ機器が、前記3Dアプリケーションサーバによって送信された前記インタラクション情報を受信する前記ステップが、
    前記3Dアプリケーションサーバによって送信され、目標シミュレーションオブジェクトをレンダリングするために使用される前記インタラクション情報を前記第2のユーザ機器によって受信することを含み、
    前記インタラクション情報に従って前記第2のユーザ機器によって、前記3Dコミュニティ内で前記インタラクション情報に対応する前記オブジェクトをレンダリングする前記ステップが、
    前記目標シミュレーションオブジェクトをレンダリングするために使用される前記インタラクション情報に従って前記3Dコミュニティ内で前記目標シミュレーションオブジェクトを前記第2のユーザ機器によってレンダリングすることを含む請求項1に記載の方法。
  3. 前記目標シミュレーションオブジェクトが、前記3Dコミュニティ内の前記シミュレーションオブジェクトにパケットを送信するために使用され、
    前記方法が、
    前記3Dアプリケーションサーバによって送信されたパケット情報を前記第2のユーザ機器によって受信するステップと、
    前記パケット情報に従って前記目標シミュレーションオブジェクトの移動軌跡上に前記パケットを前記第2のユーザ機器によってレンダリングするステップとをさらに含む請求項2に記載の方法。
  4. 前記3Dコミュニティ内の前記シミュレーションオブジェクトが前記レンダリングされるパケットを取得するとき、前記3Dアプリケーションサーバによって送信され、前記パケットが前記シミュレーションオブジェクトによって取得されることを示す通知メッセージを前記第2のユーザ機器によって受信するステップをさらに含む請求項3に記載の方法。
  5. 前記第2のユーザ機器が、前記3Dアプリケーションサーバによって送信された前記インタラクション情報を受信する前記ステップが、
    前記3Dアプリケーションサーバによって送信され、環境オブジェクトをレンダリングするために使用される前記インタラクション情報を前記第2のユーザ機器によって受信することを含み、
    前記インタラクション情報に従って前記第2のユーザ機器によって、前記3Dコミュニティ内で前記インタラクション情報に対応する前記オブジェクトをレンダリングする前記ステップが、
    前記環境オブジェクトをレンダリングするために使用される前記インタラクション情報に従って前記3Dコミュニティ内で前記環境オブジェクトを前記第2のユーザ機器によってレンダリングすることを含む請求項1に記載の方法。
  6. 3次元(3D)アプリケーションシステムに適用される情報インタラクション方法であって、前記3Dアプリケーションシステムが、3Dアプリケーションサーバ、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器を含み、前記第2のユーザ機器によって表示される3Dアプリケーション内の3Dコミュニティが、シミュレーションオブジェクトおよび仮想スクリーンを含み、前記方法が、
    前記第1のユーザ機器によってアップロードされたビデオコンテンツを前記ビデオソースサーバから前記3Dアプリケーションサーバによって取得し、前記第2のユーザ機器の前記仮想スクリーン上に前記ビデオコンテンツを表示するために前記アップロードされたビデオコンテンツを前記第2のユーザ機器に前記3Dアプリケーションサーバによって送信するステップと、
    前記ビデオソースサーバから情報インタラクション要求を前記3Dアプリケーションサーバによって受信するステップであって、前記情報インタラクション要求が、前記第1のユーザ機器によって前記ビデオソースサーバにアップロードされる、ステップと、
    前記情報インタラクション要求に従ってインタラクション情報を前記3Dアプリケーションサーバによって生成するステップと、
    前記インタラクション情報を前記第2のユーザ機器に前記3Dアプリケーションサーバによって送信するステップであって、前記インタラクション情報が、前記3Dコミュニティ内で前記インタラクション情報に対応するオブジェクトをレンダリングするために前記第2のユーザ機器によって使用される、ステップとを含む、方法。
  7. 前記情報インタラクション要求が、目標シミュレーションオブジェクトを生成する要求であり、
    前記情報インタラクション要求に従って前記インタラクション情報を前記3Dアプリケーションサーバによって生成する前記ステップが、
    前記目標シミュレーションオブジェクトを生成する前記要求に従って前記目標シミュレーションオブジェクトの前記インタラクション情報を前記3Dアプリケーションサーバによって生成することを含み、
    前記インタラクション情報を前記第2のユーザ機器に前記3Dアプリケーションサーバによって送信する前記ステップであって、前記インタラクション情報が、前記3Dコミュニティ内で前記インタラクション情報に対応する前記オブジェクトをレンダリングするために前記第2のユーザ機器によって使用される、前記ステップが、
    前記第2のユーザ機器が前記目標シミュレーションオブジェクトの前記インタラクション情報に応答して前記3Dコミュニティ内で前記目標シミュレーションオブジェクトをレンダリングするように、前記目標シミュレーションオブジェクトの前記インタラクション情報を前記第2のユーザ機器に前記3Dアプリケーションサーバによって送信することを含む請求項6に記載の方法。
  8. 前記ビデオソースサーバからパケットを送信する要求を前記3Dアプリケーションサーバによって取得するステップであって、前記パケットを送信する前記要求が、前記第1のユーザ機器によって前記ビデオソースサーバにアップロードされる、ステップと、
    前記パケットを送信する前記要求に従って前記パケットの前記インタラクション情報を前記3Dアプリケーションサーバによって生成するステップと、
    前記第2のユーザ機器が前記パケットの前記インタラクション情報に応答して前記目標シミュレーションオブジェクトの移動軌跡上に前記パケットをレンダリングするように、前記パケットの前記インタラクション情報を前記第2のユーザ機器に前記3Dアプリケーションサーバによって送信するステップとをさらに含む請求項7に記載の方法。
  9. 前記3Dコミュニティ内の前記シミュレーションオブジェクトが前記パケットを取得することを監視するとき、前記パケットが前記シミュレーションオブジェクトによって取得されることを示す通知メッセージを前記3Dアプリケーションサーバによって前記第2のユーザ機器に送信するステップをさらに含む請求項8に記載の方法。
  10. 前記情報インタラクション要求が、環境オブジェクトをレンダリングする要求であり、
    前記情報インタラクション要求に従って前記インタラクション情報を前記3Dアプリケーションサーバによって生成する前記ステップが、
    前記環境オブジェクトをレンダリングする前記要求に従って前記環境オブジェクトの前記インタラクション情報を前記3Dアプリケーションサーバによって生成することを含み、
    前記インタラクション情報を前記第2のユーザ機器に前記3Dアプリケーションサーバによって送信する前記ステップであって、前記インタラクション情報が、前記3Dコミュニティ内で前記インタラクション情報に対応する前記オブジェクトをレンダリングするために前記第2のユーザ機器によって使用される、前記ステップが、
    前記第2のユーザ機器が前記環境オブジェクトの前記インタラクション情報に応答して前記3Dコミュニティ内で前記環境オブジェクトをレンダリングするように、前記環境オブジェクトの前記インタラクション情報を前記第2のユーザ機器に前記3Dアプリケーションサーバによって送信することを含む請求項6に記載の方法。
  11. 3次元(3D)アプリケーションシステム内のユーザ機器であって、前記3Dアプリケーションシステムが、3Dアプリケーションサーバ、ビデオソースサーバ、および第1のユーザ機器をさらに含み、ユーザ機器によって表示される3Dアプリケーション内の3Dコミュニティが、シミュレーションオブジェクトおよび仮想スクリーンを含み、前記ユーザ機器が、
    前記第1のユーザ機器によってアップロードされたビデオコンテンツを前記ビデオソースサーバから取得し、前記仮想スクリーン上に前記ビデオコンテンツを表示するように構成された取得ユニットと、
    前記3Dアプリケーションサーバによって送信されたインタラクション情報を受信するように構成された受信ユニットであって、前記インタラクション情報は、前記3Dアプリケーションサーバが前記ビデオソースサーバから受信したインタラクション要求に従って生成したものであり、前記インタラクション要求は、前記第1のユーザ機器が前記ビデオソースサーバにアップロードしたものである、受信ユニットと、
    前記受信ユニットによって受信された前記インタラクション情報に従って、前記3Dコミュニティ内で前記インタラクション情報に対応するオブジェクトをレンダリングするように構成されたレンダリングユニットとを含む、ユーザ機器。
  12. 前記受信ユニットが、前記3Dアプリケーションサーバによって送信され、目標シミュレーションオブジェクトをレンダリングするために使用される前記インタラクション情報を受信するように構成され、
    前記レンダリングユニットが、前記受信ユニットによって受信され、前記目標シミュレーションオブジェクトをレンダリングするために使用される前記インタラクション情報に従って前記3Dコミュニティ内で前記目標シミュレーションオブジェクトをレンダリングするように構成される請求項11に記載のユーザ機器。
  13. 前記目標シミュレーションオブジェクトが、前記3Dコミュニティ内の前記シミュレーションオブジェクトにパケットを送信するために使用され、
    前記受信ユニットが、前記3Dアプリケーションサーバによって送信されたパケット情報を受信するようにさらに構成され、
    前記レンダリングユニットが、前記パケット情報に従って前記目標シミュレーションオブジェクトの移動軌跡上に前記パケットをレンダリングするように構成される請求項12に記載のユーザ機器。
  14. 前記受信ユニットが、前記3Dコミュニティ内の前記シミュレーションオブジェクトが前記レンダリングされるパケットを取得するとき、前記3Dアプリケーションサーバによって送信され、前記パケットが前記シミュレーションオブジェクトによって取得されることを示す通知メッセージを受信するようにさらに構成される請求項13に記載のユーザ機器。
  15. 前記受信ユニットが、前記3Dアプリケーションサーバによって送信され、環境オブジェクトをレンダリングするために使用される前記インタラクション情報を受信するように構成され、
    前記レンダリングユニットが、前記受信ユニットによって受信され、前記環境オブジェクトをレンダリングするために使用される前記インタラクション情報に従って前記3Dコミュニティ内で前記環境オブジェクトをレンダリングするように構成される請求項11に記載のユーザ機器。
  16. 3次元(3D)アプリケーションシステムに適用されるサーバであって、前記3Dアプリケーションシステムが、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器をさらに含み、前記第2のユーザ機器によって表示される3Dアプリケーション内の3Dコミュニティが、シミュレーションオブジェクトおよび仮想スクリーンを含み、前記サーバが、
    前記第1のユーザ機器によってアップロードされたビデオコンテンツを前記ビデオソースサーバから取得し、前記第2のユーザ機器の前記仮想スクリーン上に前記ビデオコンテンツを表示するために前記アップロードされたビデオコンテンツを前記第2のユーザ機器に送信するように構成された取得ユニットと、
    前記ビデオソースサーバから情報インタラクション要求を受信するように構成された受信ユニットであって、前記情報インタラクション要求が、前記第1のユーザ機器によって前記ビデオソースサーバにアップロードされる、受信ユニットと、
    前記受信ユニットによって受信された前記情報インタラクション要求に従ってインタラクション情報を生成するように構成された生成ユニットと、
    前記生成ユニットによって生成された前記インタラクション情報を前記第2のユーザ機器に送信するように構成された送信ユニットであって、前記インタラクション情報が、前記3Dコミュニティ内で前記インタラクション情報に対応するオブジェクトをレンダリングするために前記第2のユーザ機器によって使用される、送信ユニットとを含む、サーバ。
  17. 前記情報インタラクション要求が、目標シミュレーションオブジェクトを生成する要求であり、
    前記生成ユニットが、前記目標シミュレーションオブジェクトを生成する前記要求に従って前記目標シミュレーションオブジェクトの前記インタラクション情報を生成するように構成され、
    前記送信ユニットが、前記第2のユーザ機器が前記目標シミュレーションオブジェクトの前記インタラクション情報に応答して前記3Dコミュニティ内で前記目標シミュレーションオブジェクトをレンダリングするように、前記目標シミュレーションオブジェクトの前記インタラクション情報を前記第2のユーザ機器に送信するように構成される請求項16に記載のサーバ。
  18. 前記受信ユニットが、前記ビデオソースサーバからパケットを送信する要求を受信するようにさらに構成され、前記パケットを送信する前記要求が、前記第1のユーザ機器によって前記ビデオソースサーバにアップロードされ、
    前記生成ユニットが、前記パケットを送信する前記要求に従って前記パケットの前記インタラクション情報を生成するようにさらに構成され、
    前記送信ユニットが、前記第2のユーザ機器が前記パケットの前記インタラクション情報に応答して前記目標シミュレーションオブジェクトの移動軌跡上に前記パケットをレンダリングするように、前記パケットの前記インタラクション情報を前記第2のユーザ機器に送信するようにさらに構成される請求項17に記載のサーバ。
  19. 監視ユニットをさらに含み、
    前記監視ユニットが、前記3Dコミュニティ内の前記シミュレーションオブジェクトが前記パケットを取得するかどうかを監視するように構成され、
    前記送信ユニットが、前記3Dコミュニティ内の前記シミュレーションオブジェクトが前記パケットを取得することを前記監視ユニットが監視するとき、前記パケットが前記シミュレーションオブジェクトによって取得されることを示す通知メッセージを前記第2のユーザ機器に送信するように構成される請求項18に記載のサーバ。
  20. 前記情報インタラクション要求が、環境オブジェクトをレンダリングする要求であり、
    前記生成ユニットが、前記環境オブジェクトをレンダリングする前記要求に従って前記環境オブジェクトの前記インタラクション情報を生成するように構成され、
    前記送信ユニットが、前記第2のユーザ機器が前記環境オブジェクトの前記インタラクション情報に応答して前記3Dコミュニティ内で前記環境オブジェクトをレンダリングするように、前記環境オブジェクトの前記インタラクション情報を前記第2のユーザ機器に送信するように構成される請求項16に記載のサーバ。
  21. 3次元(3D)アプリケーションサーバ、ビデオソースサーバ、第1のユーザ機器、および第2のユーザ機器を含む3Dアプリケーションシステムであって、前記第2のユーザ機器によって表示される3Dアプリケーション内の3Dコミュニティが、シミュレーションオブジェクトおよび仮想スクリーンを含み、
    前記第2のユーザ機器が、請求項11から15のいずれか一項に記載のユーザ機器であり、
    前記3Dアプリケーションサーバが、請求項16から20のいずれか一項に記載のサーバである、3Dアプリケーションシステム。
JP2018528068A 2016-03-03 2017-03-02 情報インタラクション方法、デバイス、およびシステム Active JP6727669B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610120316.3A CN105610868B (zh) 2016-03-03 2016-03-03 一种信息交互的方法、设备及系统
CN201610120316.3 2016-03-03
PCT/CN2017/075433 WO2017148410A1 (zh) 2016-03-03 2017-03-02 一种信息交互的方法、设备及系统

Publications (2)

Publication Number Publication Date
JP2019511756A JP2019511756A (ja) 2019-04-25
JP6727669B2 true JP6727669B2 (ja) 2020-07-22

Family

ID=55990406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018528068A Active JP6727669B2 (ja) 2016-03-03 2017-03-02 情報インタラクション方法、デバイス、およびシステム

Country Status (5)

Country Link
US (1) US10861222B2 (ja)
JP (1) JP6727669B2 (ja)
KR (1) KR102098669B1 (ja)
CN (1) CN105610868B (ja)
WO (1) WO2017148410A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740029B (zh) 2016-03-03 2019-07-05 腾讯科技(深圳)有限公司 一种内容呈现的方法、用户设备及系统
CN105610868B (zh) * 2016-03-03 2019-08-06 腾讯科技(深圳)有限公司 一种信息交互的方法、设备及系统
CN107801083A (zh) * 2016-09-06 2018-03-13 星播网(深圳)信息有限公司 一种基于三维虚拟技术的网络实时互动直播方法及装置
CN106331818A (zh) * 2016-09-27 2017-01-11 北京赢点科技有限公司 一种跨屏互动的方法及系统
CN106790066B (zh) * 2016-12-20 2020-02-07 天脉聚源(北京)传媒科技有限公司 一种继续获取信息的方法及装置
CN106658041B (zh) * 2016-12-20 2020-05-19 天脉聚源(北京)传媒科技有限公司 一种信息交互的方法及装置
CN108243171B (zh) * 2016-12-27 2020-12-22 北京新唐思创教育科技有限公司 在线直播互动系统及方法
CN107820132B (zh) * 2017-11-21 2019-12-06 广州华多网络科技有限公司 直播互动方法、装置及系统
WO2019127349A1 (zh) * 2017-12-29 2019-07-04 腾讯科技(深圳)有限公司 一种多媒体信息分享的方法、相关装置及系统
CN109104619B (zh) * 2018-09-28 2020-10-27 联想(北京)有限公司 用于直播的图像处理方法和装置
KR102082670B1 (ko) * 2018-10-12 2020-02-28 주식회사 아프리카티비 방송 시청을 위한 가상 현실 사용자 인터페이스 제공 방법 및 장치
KR102196994B1 (ko) * 2019-04-15 2020-12-30 주식회사 아프리카티비 서드 파티의 가상 현실 콘텐츠를 제공하기 위한 장치 및 방법
KR102452584B1 (ko) * 2019-04-15 2022-10-11 주식회사 아프리카티비 서드 파티의 가상 현실 콘텐츠를 제공하기 위한 장치 및 방법
KR20200115402A (ko) 2020-09-18 2020-10-07 정영선 보건마스크 별도 부착용 안전손가락잡이와 안전보관고리 그리고 이의 제조방법
CN112492336B (zh) * 2020-11-20 2023-03-31 完美世界(北京)软件科技发展有限公司 礼物发送方法、装置、电子设备及可读介质
CN113365111A (zh) * 2021-06-03 2021-09-07 上海哔哩哔哩科技有限公司 基于直播的互动方法及装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007752A (ja) * 2000-03-10 2002-01-11 Heart Gift:Kk オンラインギフト方法
US7222150B1 (en) * 2000-08-15 2007-05-22 Ikadega, Inc. Network server card and method for handling requests received via a network interface
JP2003125361A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
KR20050063473A (ko) * 2003-12-22 2005-06-28 김정훈 가상현실 기술을 사용한 개인 인터넷 방송 방법
JP2006025281A (ja) 2004-07-09 2006-01-26 Hitachi Ltd 情報源選択システム、および方法
KR100701010B1 (ko) 2005-12-09 2007-03-29 한국전자통신연구원 가상 스튜디오를 이용한 인터넷 연동형 데이터 방송 시스템및 그 방법
KR101276199B1 (ko) * 2009-08-10 2013-06-18 한국전자통신연구원 시청자 참여의 iptv 원격 방송 시스템 및 그 서비스 제공 방법
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model
KR20110137439A (ko) * 2010-06-17 2011-12-23 주식회사 에스비에스콘텐츠허브 가상세계와 현실세계가 융합된 음악 방송 서비스 방법
CA2855190C (en) * 2011-10-05 2017-02-07 Bitanimate, Inc. Resolution enhanced 3d video rendering systems and methods
JP2013220167A (ja) * 2012-04-16 2013-10-28 Konami Digital Entertainment Co Ltd ゲーム装置、ゲームシステム、ゲーム装置の制御方法、ゲームシステムの制御方法、及びプログラム
JP5462326B2 (ja) * 2012-07-17 2014-04-02 株式会社フォーラムエイト 仮想空間情報処理システム、当該システムのサーバ装置、当該サーバ装置で実行されるプログラム、及び仮想空間情報処理方法
TWI559965B (en) * 2012-12-21 2016-12-01 Sony Comp Entertainment Us Sharing recorded gameplay to a social graph
EP2750032B1 (en) * 2012-12-27 2020-04-29 Sony Computer Entertainment America LLC Methods and systems for generation and execution of miniapp of computer application served by cloud computing system
CN104469440B (zh) * 2014-04-16 2018-10-30 成都理想境界科技有限公司 视频播放方法、视频播放器及对应的播放设备
CN105338479B (zh) * 2014-06-09 2020-03-10 阿里巴巴集团控股有限公司 基于场所的信息处理方法及装置
CN112651288B (zh) * 2014-06-14 2022-09-20 奇跃公司 用于产生虚拟和增强现实的方法和系统
CN104618797B (zh) * 2015-02-06 2018-02-13 腾讯科技(北京)有限公司 信息处理方法、装置及客户端
CN105610868B (zh) * 2016-03-03 2019-08-06 腾讯科技(深圳)有限公司 一种信息交互的方法、设备及系统

Also Published As

Publication number Publication date
KR102098669B1 (ko) 2020-04-08
US20200250881A1 (en) 2020-08-06
CN105610868A (zh) 2016-05-25
KR20180080273A (ko) 2018-07-11
CN105610868B (zh) 2019-08-06
WO2017148410A1 (zh) 2017-09-08
JP2019511756A (ja) 2019-04-25
US10861222B2 (en) 2020-12-08

Similar Documents

Publication Publication Date Title
JP6727669B2 (ja) 情報インタラクション方法、デバイス、およびシステム
US11617947B2 (en) Video game overlay
CN111467793B (zh) 利用客户端侧资产整合的云游戏流式传送
US10315109B2 (en) Qualified video delivery methods
US9937423B2 (en) Voice overlay
JP6310073B2 (ja) 描画システム、制御方法、及び記憶媒体
US9940647B2 (en) Qualified video delivery advertisement
US9656160B2 (en) Massive multi-player online (MMO) games server and methods for executing the same
JP5952406B2 (ja) 遠隔描画能力を有するビデオゲーム装置
TW200935917A (en) Tile-based system and method for compressing video
CN111803921A (zh) 基于云手机系统的游戏互动方法、电子设备、存储介质
CN104998412A (zh) 一种单机游戏实现方法及装置
CN114201095A (zh) 直播界面的控制方法、装置、存储介质及电子设备
US20230051868A1 (en) Livestreaming Interaction Method And Apparatus, Electronic Device, And Computer Readable Storage Medium
US11420113B2 (en) Massive multi-player online (MMO) games server and methods for executing the same
CN113453035A (zh) 一种基于增强现实的直播方法和相关装置以及存储介质
KR101915065B1 (ko) Vr 콘텐츠에 대한 라이브 스트리밍 시스템 및 그 시스템의 동작 방법
CN115779441A (zh) 增益虚拟物品发送方法、装置、移动终端和存储介质
WO2024190569A1 (ja) 情報処理装置、情報処理方法、プログラムおよびコンテンツ配信システム
CN115988280A (zh) 基于云游戏的直播互动方法、装置、计算设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200626

R150 Certificate of patent or registration of utility model

Ref document number: 6727669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250