JP6735358B2 - System and method for presenting content - Google Patents

System and method for presenting content Download PDF

Info

Publication number
JP6735358B2
JP6735358B2 JP2018557333A JP2018557333A JP6735358B2 JP 6735358 B2 JP6735358 B2 JP 6735358B2 JP 2018557333 A JP2018557333 A JP 2018557333A JP 2018557333 A JP2018557333 A JP 2018557333A JP 6735358 B2 JP6735358 B2 JP 6735358B2
Authority
JP
Japan
Prior art keywords
viewport
content item
interest
point
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018557333A
Other languages
Japanese (ja)
Other versions
JP2019521547A (en
Inventor
ウォーレン、クリフ
マシュー サットン、チャールズ
マシュー サットン、チャールズ
パラグ グプタ、チェタン
パラグ グプタ、チェタン
スー、ジョイス
フー、アニング
ゼン、ジユ
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2019521547A publication Critical patent/JP2019521547A/en
Application granted granted Critical
Publication of JP6735358B2 publication Critical patent/JP6735358B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Description

本技術は、コンテンツ提示の分野に関する。より詳細には、本技術は、コンピューティングデバイスを通じて、コンテンツアイテムを提示するための技法に関する。 The present technology relates to the field of content presentation. More specifically, the present technology relates to techniques for presenting content items through a computing device.

今日、人々は、多種多様な目的のためにコンピューティングデバイス(またはコンピューティングシステム)を利用している。ユーザは、コンピューティングデバイスを操作して、例えば、相互に対話したり、コンテンツを作成したり、コンテンツを共有したり、情報にアクセスしたりすることができる。従来のアプローチでは、コンテンツアイテム(例えば、画像、映像、音声ファイルなど)は、コンテンツ共有プラットフォームを通じて、利用可能にすることができる。ユーザは、自身のコンピューティングデバイスを操作して、プラットフォームを通じて、コンテンツアイテムにアクセスすることができる。典型的には、コンテンツアイテムは、例えば、コンテンツのパブリッシャおよびコンテンツ共有プラットフォームのユーザを含む多様なエンティティにより、提供またはアップロードされることができる。場合によっては、コンテンツアイテムを、カテゴライズおよびキュレートまたはカテゴライズもしくはキュレートすることができる。 Today, people utilize computing devices (or computing systems) for a wide variety of purposes. Users can operate computing devices to interact with each other, create content, share content, and access information, for example. In the conventional approach, content items (eg, images, videos, audio files, etc.) can be made available through the content sharing platform. Users can operate their computing devices to access content items through the platform. Typically, content items can be provided or uploaded by a variety of entities including, for example, content publishers and users of content sharing platforms. In some cases, content items can be categorized and curated or categorized or curated.

本開示の様々な実施形態は、コンテンツアイテムにアクセスするための少なくとも1つの要求を決定するように構成されたシステム、方法、および非一時的なコンピュータ可読媒体を含み、要求されたコンテンツアイテムは、1組の異なる位置から1つまたは複数のシーンを撮像する1組のカメラフィードを用いて構成される。要求されたコンテンツアイテムにおける1つまたは複数のシーンのうちの少なくとも幾つかをナビゲートする自動視聴モードを記述する情報が取得される。要求されたコンテンツアイテムの再生が提示されるコンピューティングデバイスの表示画面上にビューポートインタフェースが提供される。自動視聴モードに少なくとも部分的に基づいた要求されたコンテンツアイテムの再生中に1つまたは複数のシーンのうちの少なくとも幾つかにわたって、ビューポートインタフェースが自動的にナビゲートされる。 Various embodiments of the present disclosure include systems, methods, and non-transitory computer-readable media configured to determine at least one request to access a content item, the requested content item comprising: It is configured with a set of camera feeds that image one or more scenes from a set of different positions. Information describing an auto-view mode for navigating at least some of the one or more scenes in the requested content item is obtained. A viewport interface is provided on the display screen of the computing device where playback of the requested content item is presented. The viewport interface is automatically navigated across at least some of the one or more scenes during playback of the requested content item based at least in part on the auto-viewing mode.

幾つかの実施形態では、システム、方法、および非一時的なコンピュータ可読媒体は、要求されたコンテンツアイテムの再生中に1つまたは複数のシーンのうちの少なくとも幾つかにわたってビューポートインタフェースをナビゲートするための少なくとも1つの軌跡を記述する情報を取得するように構成される。 In some embodiments, systems, methods, and non-transitory computer readable media navigate a viewport interface across at least some of one or more scenes during playback of a requested content item. Is configured to obtain information describing at least one trajectory for

幾つかの実施形態では、システム、方法、および非一時的なコンピュータ可読媒体は、ユーザの1つまたは複数の属性に少なくとも部分的に基づいてコンピューティングデバイスを操作するユーザに対応するカテゴリを決定すること、カテゴリに関連付けられた少なくとも1つの軌跡を取得することであって、軌跡は、前記カテゴリに含まれる少なくとも幾人にとって関心があると判定されている、少なくとも1つの軌跡を取得すること、を実行するように構成される。 In some embodiments, systems, methods, and non-transitory computer-readable media determine a category corresponding to a user operating a computing device based at least in part on one or more attributes of the user. Obtaining at least one trajectory associated with a category, the trajectory being determined to be of interest to at least some of the people in the category. Configured to run.

幾つかの実施形態では、システム、方法、および非一時的なコンピュータ可読媒体は、要求されたコンテンツアイテムの再生中に現れる少なくとも1つの注目点を記述する情報を取得すること、要求されたコンテンツアイテムの再生中に1つまたは複数のシーンのうちの少なくとも幾つかにわたって、ビューポートインタフェースをナビゲートするための少なくとも1つの軌跡を記述する情報を取得すること、を実行するように構成され、軌跡は、少なくとも1つの注目点を含む。 In some embodiments, systems, methods, and non-transitory computer-readable media obtain information describing at least one point of interest that appears during playback of a requested content item, the requested content item. Capturing information describing at least one trajectory for navigating the viewport interface over at least some of the one or more scenes during playback of the trajectory. , Including at least one point of interest.

幾つかの実施形態では、少なくとも1つの注目点は、要求されたコンテンツアイテムの開発者によって定義される。
幾つかの実施形態では、システム、方法、および非一時的なコンピュータ可読媒体は、ユーザの1つまたは複数の属性に少なくとも部分的に基づいてコンピューティングデバイスを操作するユーザに対応するカテゴリを決定すること、カテゴリに関連付けられた少なくとも1つの注目点を取得すること、を実行するように構成され、少なくとも1つの注目点は、カテゴリに含まれる少なくとも幾人にとって関心があると判定されている。
In some embodiments, at least one point of interest is defined by the developer of the requested content item.
In some embodiments, systems, methods, and non-transitory computer-readable media determine a category corresponding to a user operating a computing device based at least in part on one or more attributes of the user. And obtaining at least one point of interest associated with the category, the at least one point of interest being determined to be of interest to at least some of the people in the category.

幾つかの実施形態では、システム、方法、および非一時的なコンピュータ可読媒体は、ビューポートインタフェースをマニュアルで特定の注目点にナビゲートするために、要求されたコンテンツアイテムの再生中にコンピューティングデバイスを操作するユーザが1つまたは複数のアクションを実行したことを判定すること、特定の注目点を共有するための操作が実行されたことを判定すること、特定の注目点を記述する情報がソーシャルネットワーキングシステムを介して共有されるようにすること、を実行するように構成される。 In some embodiments, the systems, methods, and non-transitory computer-readable media provide a computing device during playback of a requested content item for manually navigating the viewport interface to a particular point of interest. Determining that the user operating the one or more actions has been performed, determining that an operation for sharing a particular point of interest has been performed, and information describing the particular point of interest is social To be shared via a networking system.

幾つかの実施形態では、システム、方法、および非一時的なコンピュータ可読媒体は、ビューポートインタフェースをマニュアルでナビゲートしてカスタマイズされた軌跡を生成するために、要求されたコンテンツアイテムの再生中にコンピューティングデバイスを操作するユーザが1つまたは複数のアクションを実行したことを判定すること、カスタマイズされた軌跡を共有するための操作が実行されたことを判定すること、カスタマイズされた軌跡を記述する情報がソーシャルネットワーキングシステムを介して共有されるようにすること、を実行するように構成される。 In some embodiments, the system, method, and non-transitory computer-readable medium provide for manually navigating the viewport interface during playback of a requested content item to generate a customized trajectory. Determining that a user operating a computing device has performed one or more actions, determining that an action has been performed to share a customized trajectory, describing the customized trajectory. Enabling the information to be shared via a social networking system.

幾つかの実施形態では、システム、方法、および非一時的なコンピュータ可読媒体は、要求されたコンテンツアイテムが、第1の注目点および第2の注目点を含むと判定することであって、第2の注目点は、要求されたコンテンツアイテムの再生中に第1の注目点の後に現れる、判定すること、ビューポートインタフェースを第1の注目点から第2の注目点に自動的にナビゲートする前に方向インジケータがビューポートインタフェースに表示されるようにすること、を実行するように構成され、方向インジケータは、第2の注目点に対応する方向を指し示す。 In some embodiments, the system, method, and non-transitory computer-readable medium determine that the requested content item includes a first point of interest and a second point of interest. 2 points of interest appearing after the first point of interest during playback of the requested content item, determining, automatically navigating the viewport interface from the first point of interest to the second point of interest Previously causing the directional indicator to be displayed in the viewport interface, the directional indicator points to a direction corresponding to the second point of interest.

幾つかの実施形態では、システム、方法、および非一時的なコンピュータ可読媒体は、要求されたコンテンツアイテムは、第1の注目点および第2の注目点を含むと判定することであって、第2の注目点は、要求されたコンテンツアイテムの再生中に第1の注目点の後に現れる、判定すること、少なくとも1つの映像トランジション技術を用いてビューポートインタフェースが第1の注目点から第2の注目点に自動的にナビゲートされること、を実行するように構成される。 In some embodiments, the system, method, and non-transitory computer-readable medium determine that the requested content item includes a first point of interest and a second point of interest. 2 points of interest appearing after the first point of interest during playback of the requested content item, determining that the viewport interface uses the at least one video transition technique from the first point of interest to the second point of interest. Automatically navigated to the point of interest, configured to perform.

開示された技術の多くの他の特徴、応用、実施形態、および/または変形は、添付の図面および以下の詳細な説明から明らかとなることを理解されたい。開示された技術の原理から逸脱することなく、本明細書に記載の構造、システム、非一時的なコンピュータ可読媒体、および方法の追加の実施態様および代替の実施態様の両方または一方を採用することができる。 It should be understood that many other features, applications, embodiments, and/or variations of the disclosed technology will be apparent from the accompanying drawings and the following detailed description. Employing additional and/or alternative implementations of the structures, systems, non-transitory computer-readable media, and methods described herein without departing from the principles of the disclosed technology. You can

本開示の一実施形態による例示的なコンテンツプレゼンテーションモジュールを含む例示的なシステムを示す。1 illustrates an exemplary system including an exemplary content presentation module according to one embodiment of this disclosure. 本開示の一実施形態によるインタフェースモジュールの一例を示す。1 illustrates an example of an interface module according to an embodiment of the present disclosure. 本開示の一実施形態によるコンテンツディレクタモジュールの一例を示す。1 illustrates an example of a content director module according to one embodiment of the present disclosure. 本開示の一実施形態による、コンテンツアイテムがアクセスされた場合にナビゲーションインジケータが提供されるビューポートインタフェースの例を示す。6 illustrates an example viewport interface in which navigation indicators are provided when a content item is accessed, according to one embodiment of the disclosure. 本開示の一実施形態による、コンテンツアイテムがアクセスされた場合にナビゲーションインジケータが提供されるビューポートインタフェースの例を示す。6 illustrates an example viewport interface in which navigation indicators are provided when a content item is accessed, according to one embodiment of the disclosure. 本開示の一実施形態による、コンテンツアイテムがアクセスされた場合にナビゲーションインジケータが提供されるビューポートインタフェースの例を示す。6 illustrates an example viewport interface in which navigation indicators are provided when a content item is accessed, according to one embodiment of the disclosure. 本開示の一実施形態による仮想コンテンツアイテムのユーザエクスペリエンスをカスタマイズするための開発者インタフェースの一例を示す。5 illustrates an example of a developer interface for customizing a user experience for a virtual content item according to an embodiment of the disclosure. 本開示の実施形態によるコンテンツアイテムがアクセスされた場合にビューポートインタフェースに提供可能なナビゲーションインジケータの例を示す。6 illustrates an example of navigation indicators that can be provided to a viewport interface when a content item is accessed according to embodiments of the present disclosure. 本開示の一実施形態によるビューポートインタフェースをナビゲートする例示的な方法を示す。6 illustrates an exemplary method of navigating a viewport interface according to an embodiment of the disclosure. 本開示の実施形態による、多様なシナリオで利用することができる例示的なソーシャルネットワーキングシステムを含む例示的なシステムのネットワーク図である。FIG. 1 is a network diagram of an exemplary system including an exemplary social networking system that can be utilized in various scenarios according to embodiments of the disclosure. 本開示の実施形態による、多様なシナリオで利用可能なコンピュータシステムまたはコンピューティングデバイスの例を示す図である。FIG. 15 illustrates an example computer system or computing device that may be used in various scenarios according to embodiments of the disclosure.

図面は、説明の目的のためだけに、開示された技術の多様な実施形態を示しており、図面は、同様の要素を識別するために同じ参照番号を使用している。当業者は、以下の説明から、本明細書に記載された開示技術の原理から逸脱することなく、図面に示された構造および方法の代替の実施形態を用いることができることを認識するであろう。 The figures depict various embodiments of the disclosed technology for purposes of explanation only, and the figures use the same reference numerals to identify similar elements. Those skilled in the art will recognize from the following description that alternative embodiments of the structures and methods shown in the drawings can be used without departing from the principles of the disclosed technology described herein. ..

コンテンツを提示するためのアプローチ
人々は、多種多様な目的のためにコンピューティングデバイス(またはコンピューティングシステム)を使用する。上記のように、従来のアプローチでは、ユーザは、コンピューティングデバイスを利用して、コンテンツアイテム(例えば、ドキュメント、画像、映像、音声など)を他のユーザと共有することができる。従来のアプローチでは、コンテンツアイテム(例えば、画像、映像、音声ファイルなど)は、コンテンツ共有プラットフォームを通じて、利用可能にすることができる。ユーザは、自身のコンピューティングデバイスを操作して、プラットフォームを通じて、コンテンツアイテムにアクセスすることができる。典型的には、コンテンツアイテムは、例えば、コンテンツのパブリッシャ(content publisher)およびコンテンツ共有プラットフォームのユーザを含む多様なエンティティにより、提供またはアップロードされることができる。
Approaches for Presenting Content People use computing devices (or computing systems) for a wide variety of purposes. As noted above, conventional approaches allow users to utilize computing devices to share content items (eg, documents, images, videos, audio, etc.) with other users. In conventional approaches, content items (eg, images, videos, audio files, etc.) may be made available through a content sharing platform. Users can operate their computing devices to access content items through the platform. Typically, content items can be provided or uploaded by a variety of entities including, for example, content publishers and users of content sharing platforms.

いくつかの例では、ユーザは、例えば、これらのコンピューティングデバイスの表示画面、仮想現実システム、および/またはヘッドマウントディスプレイを介して、仮想コンテンツにアクセスすることができる。仮想コンテンツは、例えば、地理的位置および/または実行されているアクティビティ(activity)などの複数のシーンを撮像する1つまたは複数のビデオおよび/または画像を使用して構成され得る。このような複数のシーンは、現実世界から撮像され、および/またはコンピュータにより生成されてもよい。場合によっては、仮想コンテンツは、ユーザが仮想コンテンツによってキャプチャされた(captured)シーン内をナビゲートできるように構成されている。したがって、仮想コンテンツにアクセスすることによって、ユーザは、例えば、ユーザが任意の場所に物理的に存在し、および/またはシーンにおいて示されたアクティビティを物理的に実行しているかのように、キャプチャされたシーンを仮想的に経験しナビゲートすることができる。 In some examples, a user may access virtual content via, for example, a display screen of these computing devices, a virtual reality system, and/or a head mounted display. Virtual content may be constructed using one or more videos and/or images that capture multiple scenes, such as, for example, geographic location and/or activity being performed. Such multiple scenes may be imaged from the real world and/or computer generated. In some cases, virtual content is configured to allow a user to navigate within a scene captured by the virtual content. Thus, by accessing the virtual content, the user is captured, for example, as if the user were physically present anywhere and/or physically performing the indicated activity in the scene. You can virtually experience and navigate the different scenes.

仮想コンテンツは、例えば、シーンの360度のビュー(view)を撮像する全天球映像(spherical video)であってもよい。全天球映像は、異なる場所および/または位置に配置された複数のカメラによって撮像された様々なビデオストリームまたはフィード(feed)を、シーンの360度のビューを撮像するためにスティッチ(stitching)することによって作成される。全体でスティッチされると、ユーザは、全天球映像にアクセスするかまたは全天球映像を再生して、ある角度で全天球映像の一部分を見ることができる。一般に、全天球映像にアクセスする間、ユーザは、全天球映像によって撮像されたシーンの別の部分にアクセスするために、ビューポート(viewport)の方向(例えば、ピッチ、ヨー、ロール)をズームするかおよび変更することができる。仮想コンテンツの特性を考慮すると、ユーザが、ズームレベルおよび/またはビューポートの方向に対する変更を把握することが困難な場合がある。そのような変更は、仮想コンテンツの開発者によって指定された意図されたズームレベルおよび/またはビューポートの方向から逸脱する可能性がある。幾つかの例では、ビューポートの方向を操作(maneuvering)している間に、ユーザは、1つまたは複数の注目点を含む全天球映像の一部を見逃す可能性がある。例えば、ユーザは、ビューポートの方向が反対の方向を向いていれば、注目点がユーザに視認された時点で一方向を見るようにビューポートの方向を変えることができる。そのような注目点がないと、全体的なユーザエクスペリエンスが低下し、ユーザが仮想コンテンツに関与することにも悪影響を与える可能性がる。したがって、このような従来のアプローチは、これらの問題およびコンピュータ技術で生じる他の問題に対処するには効果的でない可能性がある。 The virtual content may be, for example, a spherical video that captures a 360 degree view of the scene. Spherical video stitches various video streams or feeds captured by multiple cameras located at different locations and/or positions to capture a 360 degree view of a scene. Created by Once stitched in, the user can access or play the spherical image and view a portion of the spherical image at an angle. In general, while accessing a spherical image, the user changes the viewport direction (eg, pitch, yaw, roll) to access another portion of the scene captured by the spherical image. You can zoom and change. Given the nature of virtual content, it may be difficult for a user to see changes to the zoom level and/or viewport orientation. Such changes may deviate from the intended zoom level and/or viewport direction specified by the virtual content developer. In some examples, while maneuvering the viewport orientation, the user may miss a portion of the spherical image that includes one or more points of interest. For example, the user can change the direction of the viewport so that the user views one direction when the point of interest is visually recognized by the user if the directions of the viewports face in the opposite directions. Without such points of interest, the overall user experience may be degraded and the user's involvement with virtual content may be adversely affected. Therefore, such conventional approaches may not be effective in addressing these issues and other issues that arise in computer technology.

コンピュータ技術に基づく改良されたアプローチは、コンピュータ技術の分野において特に生じる従来のアプローチに関連する前述の欠点および他の欠点を克服する。様々な実施形態において、ナビゲーション要素またはインジケータは、仮想コンテンツが提示されるインタフェースまたはビューポートに提供され得る。ナビゲーションインジケータは、ユーザが仮想コンテンツと対話して、i)仮想コンテンツによってキャプチャされた複数のシーンにおけるビューポートの方向または方位(heading)、および/またはii)ビューポートのズームレベルを視覚的に示すように自動的に更新され得る。様々な実施形態では、ナビゲーションインジケータは、アクセスされている仮想コンテンツに存在する複数の注目点のそれぞれの方向または方位を示すように構成することもできる。注目点の方向は、例えば、ビューポートの方向に関連してナビゲーションインジケータ内で識別され得る。その結果、ユーザは、注目点の相対的な方向とともに、いつ注目点が視聴可能であるかを容易に判定することができる。いくつかの実施形態では、ユーザは、ユーザのビューポートを複数の注目点にガイドする自動モードを自動的に用いる(engage)ことができる。 Improved approaches based on computer technology overcome the aforementioned and other drawbacks associated with conventional approaches that occur particularly in the field of computer technology. In various embodiments, navigational elements or indicators may be provided in the interface or viewport where virtual content is presented. Navigation indicators visually indicate a user interacts with the virtual content to: i) viewport heading in multiple scenes captured by the virtual content; and/or ii) viewport zoom level. Can be updated automatically. In various embodiments, the navigation indicator can also be configured to indicate the direction or orientation of each of the plurality of points of interest present in the virtual content being accessed. The direction of the point of interest may be identified in the navigation indicator in relation to the direction of the viewport, for example. As a result, the user can easily determine when the point of interest can be viewed as well as the relative direction of the point of interest. In some embodiments, the user can automatically engage an automatic mode that guides the user's viewport to multiple points of interest.

図1は、本開示の実施形態による、コンテンツアイテムをユーザに提供するように構成された例示的なコンテンツプレゼンテーションモジュール102を含む例示的なシステム100を示す。図1の例に示されるように、コンテンツプレゼンテーションモジュール102は、インタフェースモジュール104と、コンテンツモジュール106と、コンテンツディレクタモジュール108とを含むことができる。場合によっては、例示的なシステム100は、少なくとも1つのデータストア110を含むことができる。この図および本明細書におけるすべての図に示される構成要素(例えば、モジュール、要素など)は、単なる例示にすぎず、任意の他の実施態様は、追加の、より少ない、統合された、または異なる構成要素を含むことができる。いくつかの構成要素は、関連する詳細が不明瞭とならないように図示されない場合がある。 FIG. 1 illustrates an exemplary system 100 including an exemplary content presentation module 102 configured to provide a content item to a user, according to embodiments of the disclosure. As shown in the example of FIG. 1, content presentation module 102 may include interface module 104, content module 106, and content director module 108. In some cases, the exemplary system 100 may include at least one data store 110. The components shown in this figure and all figures herein (eg, modules, elements, etc.) are merely exemplary, and any other implementation may include additional, fewer, integrated, or It can include different components. Some components may not be shown in order not to obscure the relevant details.

いくつかの実施形態では、コンテンツプレゼンテーションモジュール102は、ソフトウェア、ハードウェア、またはこれらの任意の組み合わせとして、部分的にまたは全体的に実装することができる。概して、本明細書で考察されるモジュールは、ソフトウェア、ハードウェア、またはこれらの任意の組み合わせと関連付けることができる。いくつかの実施態様において、モジュールの1つもしくは複数の機能、タスク、および/または動作を、ソフトウェアルーチン、ソフトウェアプロセス、ハードウェア、および/またはこれらの任意の組み合わせによって実行または行うことができる。場合によっては、コンテンツプレゼンテーションモジュール102は、ユーザコンピューティングデバイスまたはクライアントコンピューティングシステム上などの、1つまたは複数のコンピューティングデバイスまたはコンピューティングシステム上で実行しているソフトウェアとして、部分的にまたは全体的に実装することができる。例えば、コンテンツプレゼンテーションモジュール102またはこの少なくとも一部は、図8のユーザデバイス810などのユーザコンピューティングデバイスまたはクライアントコンピューティングシステム上で稼動するアプリケーション(例えば、app)、プログラム、またはアプレットなどとして実装するか、またはこれらの中に実装することができる。さらに、コンテンツプレゼンテーションモジュール102またはこの少なくとも一部は、ネットワークサーバまたはクラウドサーバなどの1つもしくは複数のサーバを含む1つもしくは複数のコンピューティングデバイスまたはコンピューティングシステムを使用して実装することができる。場合によっては、コンテンツプレゼンテーションモジュール102は、図8のソーシャルネットワーキングシステム830などのソーシャルネットワーキングシステム(またはソーシャルネットワーキングサービス)内で部分的にまたは全体的に実装されるか、これと連結して部分的にまたは全体的に動作するように構成することができる。多くの変形例またはその他の可能性が存在し得ることを理解されたい。 In some embodiments, content presentation module 102 may be implemented partially or wholly as software, hardware, or any combination thereof. In general, the modules discussed herein can be associated with software, hardware, or any combination thereof. In some implementations, one or more functions, tasks, and/or operations of the modules may be performed or performed by software routines, software processes, hardware, and/or any combination thereof. In some cases, content presentation module 102 may be partially or wholly implemented as software running on one or more computing devices or computing systems, such as on user computing devices or client computing systems. Can be implemented in. For example, does content presentation module 102, or at least a portion thereof, be implemented as an application (eg, app), program, applet, or the like that runs on a user computing device or client computing system, such as user device 810 of FIG. , Or can be implemented within these. Further, the content presentation module 102, or at least a portion thereof, may be implemented using one or more computing devices or systems that include one or more servers such as network servers or cloud servers. In some cases, content presentation module 102 may be implemented partially or entirely within a social networking system (or social networking service), such as social networking system 830 of FIG. 8, or in conjunction therewith. Alternatively, it can be configured to operate as a whole. It should be appreciated that many variations or other possibilities may exist.

多様な実施形態では、コンテンツプレゼンテーションモジュール102は、インタフェースモジュール104およびコンテンツモジュール106を利用して、コンテンツアイテムをユーザに提供することができる。インタフェースモジュール104は、コンテンツアイテムが提示される(例えば、ストリームされる(streamed))ことができるビューポート(例えば、グラフィカルユーザーインタフェース)を提供するように構成することができる。例えば、ビューポートは、ユーザにより操作されているコンピューティングデバイス上で実行しているソフトウェアアプリケーションを通じて提供されてもよい。ビューポートは、コンピューティングデバイスの表示画面を通じて提示されてもよい。ユーザは、例えば、入力デバイス、または表示画面を通じてアクション、例えばジェスチャ(例えば、タッチスクリーンジェスチャ、ハンドジェスチャなど)を行うことにより、ビューポートと対話することができる。 In various embodiments, the content presentation module 102 can utilize the interface module 104 and the content module 106 to provide content items to a user. The interface module 104 can be configured to provide a viewport (eg, a graphical user interface) in which content items can be presented (eg, streamed). For example, the viewport may be provided through a software application running on the computing device being operated by the user. The viewport may be presented through the display screen of the computing device. The user can interact with the viewport by, for example, performing an action, such as a gesture (eg, a touch screen gesture, a hand gesture, etc.) through an input device or display screen.

コンテンツモジュール106は、インタフェースモジュール104によって提供されるインタフェースを介して提示され得る様々なタイプのコンテンツアイテム(content item)を提供するように構成され得る。例えば、コンテンツアイテムは、ソーシャルネットワーキングシステム(例えば、図8のソーシャルネットワーキングシステム830)または幾つかの他のコンテンツプロバイダシステムから取得されてもよい。様々な実施形態では、コンテンツモジュール106は、複数のシーン(例えば、地理的位置および/または実行されているアクティビティ)を撮像する1つまたは複数の映像および/または画像を使用して構成され得る仮想コンテンツを提供することができる。このような複数のシーンは、現実世界から撮像され、および/またはコンピュータにより生成されてもよい。仮想コンテンツは、360度のビューおよび/または任意の3次元(3D)コンテンツを撮像する任意のコンテンツであり得る。さらに、仮想コンテンツは、ビューポートが任意の時点に提示することができるよりも大きい任意のサイズのコンテンツを含むことができる。そのような例では、ビューポートの位置が変更されると、ビューポートは、コンテンツの異なる部分を表示できる。一例では、仮想コンテンツは、例えば、いくつかの例を挙げると、例えば、直線ステッチング(rectilinear stitching)、球状ステッチング(spherical stitching)、立方ステッチング(cubical stitching)を含む一般に知られているイメージステッチング技術を使用して作成され得る。別の例では、仮想コンテンツは、注目点などのシーンの360度のビューを撮像する全天球映像であってもよい。仮想コンテンツの他の例は、モノスコープ(monoscopic)の360度のビューを使用して構成された映像、立体視(stereoscopic)の180度のビューなどを使用して構成された映像を含み得る。全天球映像は、異なる場所および/または位置に配置された複数のカメラによって撮像された様々なビデオストリームまたはフィード(feed)を、シーンの360度のビューを撮像するためにステッチングすることによって作成され得る。このような複数のビデオストリームは、全天球映像の様々な角度(例えば、0度、30度、60度など)で予め決定されてもよい。ひとたび全体でステッチングされると、ユーザは、全天球映像にアクセスするかまたは全天球映像を再生してある角度で全天球映像の一部分を見ることができる。ユーザに示された全天球映像の一部分は、3次元空間におけるユーザのビューポートの位置及び方向に基づいて決定され得る。 Content module 106 may be configured to provide various types of content items that may be presented via the interface provided by interface module 104. For example, content items may be obtained from a social networking system (eg, social networking system 830 of FIG. 8) or some other content provider system. In various embodiments, the content module 106 may be configured using one or more videos and/or images that image multiple scenes (eg, geographic location and/or activity being performed). Content can be provided. Such multiple scenes may be imaged from the real world and/or computer generated. Virtual content can be any content that images a 360 degree view and/or any three-dimensional (3D) content. Further, virtual content can include content of any size that is larger than the viewport can present at any time. In such an example, when the position of the viewport changes, the viewport can display different portions of the content. In one example, virtual content is a commonly known image that includes, for example, rectilinear stitching, spherical stitching, and cubic stitching, to name a few examples. It can be created using stitching techniques. In another example, the virtual content may be a spherical image capturing a 360 degree view of a scene such as a point of interest. Other examples of virtual content may include video configured using a monoscopic 360-degree view, stereoscopic 180-degree view, and the like. Spherical video is by stitching various video streams or feeds captured by multiple cameras located at different locations and/or positions to capture a 360 degree view of the scene. Can be created. Such multiple video streams may be predetermined at various angles of the spherical image (eg, 0 degrees, 30 degrees, 60 degrees, etc.). Once stitched together, the user can access or view a portion of the spherical image at a certain angle while playing the spherical image. The portion of the spherical image shown to the user may be determined based on the position and orientation of the user's viewport in three-dimensional space.

コンテンツディレクタモジュール108は、仮想コンテンツを見るときのユーザエクスペリエンスのカスタマイズを可能にする様々な機能へのアクセスをコンテンツの開発者に提供することができる。コンテンツディレクタモジュール108に関するさらなる詳細は、図3を参照して以下に提供される。 The content director module 108 can provide content developers with access to various features that allow for customization of the user experience when viewing virtual content. Further details regarding the content director module 108 are provided below with reference to FIG.

いくつかの実施形態では、コンテンツプレゼンテーションモジュール102は、例示的なシステム100における少なくとも1つのデータストア110と通信および動作または通信もしくは動作するように構成することができる。少なくとも1つのデータストア110は、多様なタイプのデータを記憶および維持するように構成することができる。多様な実施形態では、少なくとも1つのデータストア110は、コンテンツプレゼンテーションモジュール102の機能および動作に関連するデータを格納することができる。そのようなデータの1つの例は、インタフェースモジュール104により提供されたインタフェースを通じてアクセスするために利用可能であるコンテンツアイテムである。いくつかの実施態様において、少なくとも1つのデータストア110は、ソーシャルネットワーキングシステム(例えば、図8のソーシャルネットワーキングシステム830)に関連付けられた情報を格納することができる。ソーシャルネットワーキングシステムに関連付けられた情報としては、ユーザ、ソーシャルつながり、ソーシャル対話、位置、ジオフェンスエリア(geo-fenced area)、地図、場所、イベント、ページ、グループ、投稿、通信、コンテンツ、フィード、アカウント設定、プライバシー設定、ソーシャルグラフについてのデータ、および多様な他のタイプのデータが挙げられる。いくつかの実施態様において、少なくとも1つのデータストア110は、ユーザ識別子、ユーザ情報、プロファイル情報、ユーザ指定の設定、ユーザによって生成または投稿されたコンテンツ、多様な他のタイプのユーザデータなどの、ユーザに関連付けられた情報を格納することができる。多くの変形例または他の可能性が存在し得ることを理解されたい。 In some embodiments, content presentation module 102 can be configured to communicate with or operate with or to communicate with at least one data store 110 in exemplary system 100. At least one data store 110 can be configured to store and maintain various types of data. In various embodiments, at least one data store 110 can store data related to the functionality and operation of content presentation module 102. One example of such data is a content item available for access through an interface provided by the interface module 104. In some implementations, at least one data store 110 can store information associated with a social networking system (eg, social networking system 830 in FIG. 8). Information associated with social networking systems includes users, social connections, social interactions, locations, geo-fenced areas, maps, locations, events, pages, groups, posts, communications, content, feeds, accounts. These include data about settings, privacy settings, social graphs, and a variety of other types of data. In some implementations, at least one data store 110 includes a user identifier, user information, profile information, user-specified settings, content generated or posted by the user, various other types of user data, etc. The information associated with the can be stored. It should be appreciated that many variations or other possibilities may exist.

図2は、本開示の実施形態による、インタフェースモジュール202の例200を示す。いくつかの実施形態では、図1のインタフェースモジュール104は、インタフェースモジュール202と共に実装されることができる。図2の例に示すように、インタフェースモジュール202は、ビュー方向モジュール204と、ビューズームレベルモジュール206と、インジケータモジュール208と、注目点モジュール(a points of interest module)210と、自動モードモジュール212と、モーショントランジションモジュール214と、を含むことができる。 FIG. 2 illustrates an example interface module 202 200 according to an embodiment of the disclosure. In some embodiments, the interface module 104 of FIG. 1 can be implemented with the interface module 202. As shown in the example of FIG. 2, the interface module 202 includes a view direction module 204, a view zoom level module 206, an indicator module 208, a points of interest module 210, and an automatic mode module 212. , A motion transition module 214.

上述したように、インタフェースモジュール202は、複数のコンテンツアイテム(例えば、複数の仮想コンテンツアイテム)を提示しアクセスすることができるビューポート(例えば、グラフィカルユーザーインタフェース)を提供するように構成され得る。様々な実施形態では、ユーザは、ユーザによって操作されるコンピューティングデバイスを使用して図1のコンテンツモジュール106を介して提供される複数の仮想コンテンツアイテムにアクセスすることができる。コンピューティングデバイスは、例えば、携帯電話、タブレット、バーチャルリアリティシステム、および/またはヘッドマウントディスプレイを含むコンテンツを処理し提示することができる任意のデバイスとすることができる。アクセスされると、インタフェースモジュール202は、仮想コンテンツアイテムをコンピューティングデバイスのディスプレイスクリーンを介して提示することができる。 As mentioned above, the interface module 202 may be configured to provide a viewport (eg, graphical user interface) that can present and access multiple content items (eg, virtual content items). In various embodiments, a user may use a computing device operated by the user to access multiple virtual content items provided via the content module 106 of FIG. The computing device can be any device capable of processing and presenting content including, for example, cell phones, tablets, virtual reality systems, and/or head mounted displays. Once accessed, the interface module 202 can present the virtual content item via the display screen of the computing device.

仮想コンテンツアイテムが最初にアクセスされるとき、コンピューティングデバイスに関連するビューポートは、仮想コンテンツアイテムのシーンの特定の部分を表示する。表示される部分は、シーンに関連するビューポートの位置および/または方向(例えば、ピッチ、ヨー、ロール)に基づくことができる。いくつかの実施形態では、表示される部分は、仮想コンテンツアイテムの開発者によって指定された位置および/または方向(たとえば、ピッチ、ヨー、ロール)に対応する。いくつかの実施形態では、ユーザは、仮想コンテンツアイテムによってキャプチャされた1つまたは複数のシーンを仮想的にナビゲートすることによってシーンの異なる部分を見ることができる。例えば、ユーザがモバイルデバイスを用いて仮想コンテンツアイテムにアクセスしている場合、例えば、複数のタッチスクリーンジェスチャに基づいて、および/またはモバイルデバイスが所望の位置および/または方向において物理的に移動されていることに基づいて、ビューポートの位置および/または方向を変更することにより仮想コンテンツアイテムにおいて1つまたは複数のシーンをナビゲートすることができる。 When the virtual content item is first accessed, the viewport associated with the computing device displays a particular portion of the scene of the virtual content item. The portion displayed can be based on the position and/or orientation (eg, pitch, yaw, roll) of the viewport relative to the scene. In some embodiments, the displayed portion corresponds to the location and/or orientation (eg, pitch, yaw, roll) specified by the developer of the virtual content item. In some embodiments, a user can view different portions of a scene by virtually navigating one or more scenes captured by the virtual content item. For example, if a user is using a mobile device to access a virtual content item, for example, based on multiple touch screen gestures and/or the mobile device has been physically moved in a desired location and/or direction. Based on the presence, one or more scenes can be navigated in the virtual content item by changing the position and/or orientation of the viewport.

ビューポートの位置および/または方向の変更は、ユーザが仮想コンテンツアイテムと対話するときに、ビュー方向モジュール(view direction module)204によってリアルタイムで決定されてもよい。別の例では、ユーザは、任意のシーンにアクセスしながら、ビューポートのズームレベルを変更することもできる。例えば、ユーザは、シーンの一部分を見るためにビューポートのズームレベルを増大または減少させたい場合がある。そのようなビューポートズームレベルへの変更によって、ビューズームレベルモジュール206によってリアルタイムで決定され得る。例えば、タッチジェスチャ(スワイプジェスチャ、ドラッグジェスチャ、スライドジェスチャ、タップジェスチャ、ダブルタップジェスチャ、ピンチジェスチャ、スプレッドジェスチャ、回転ジェスチャ、フリックジェスチャなど)、ハンドジェスチャおよび/またはコンピューティングデバイスジェスチャーを実行することによって、ユーザは、ビューポート(たとえば、位置、方向、ズームなど)を変更できる。コンピュータデバイスジェスチャ(例えば、傾斜)は、例えば、コンピューティングデバイス内の1つまたは複数のセンサ(例えば、ジャイロスコープ、加速度計、および/または慣性測定ユニット)を使用して判定される。さらに、バーチャルリアリティヘッドマウントディスプレイを介して仮想コンテンツアイテムにアクセスする場合、ユーザは、ユーザの頭の方向を変更することによって、ビューポートの方向を変更することができる。当然のことながら、他の手法が、全天球映像内をナビゲートしズームするために利用されてもよい。通常、ビューポートへの変更または調整は、ビュー方向モジュール204およびビューズームレベルモジュール206によってリアルタイム(たとえば、一定の時間間隔で)で監視され得る。このような変更は、ビューポートへの変更に基づいて決定されるように、仮想コンテンツアイテムからの適切な画像および/またはストリームがユーザに提示され得るように、ビューポートを更新するように用いられる。 Changes in viewport position and/or orientation may be determined in real time by a view direction module 204 when a user interacts with a virtual content item. In another example, the user can change the zoom level of the viewport while accessing any scene. For example, the user may want to increase or decrease the zoom level of the viewport to see a portion of the scene. Changes to such viewport zoom levels can be determined in real time by view zoom level module 206. For example, by performing a touch gesture (swipe gesture, drag gesture, slide gesture, tap gesture, double tap gesture, pinch gesture, spread gesture, rotate gesture, flick gesture, etc.), hand gesture and/or computing device gesture, The user can change the viewport (eg, position, orientation, zoom, etc.). Computer device gestures (eg, tilt) are determined, for example, using one or more sensors (eg, gyroscopes, accelerometers, and/or inertial measurement units) within the computing device. Further, when accessing virtual content items via the virtual reality head mounted display, the user can change the orientation of the viewport by changing the orientation of the user's head. Of course, other techniques may be used to navigate and zoom within the spherical image. Typically, changes or adjustments to the viewport may be monitored in real time (eg, at regular time intervals) by the view direction module 204 and view zoom level module 206. Such changes are used to update the viewport so that the appropriate images and/or streams from the virtual content item can be presented to the user, as determined based on the changes to the viewport. ..

上述したように、幾つかの例では、ビューポートへの変更を把握できないと、ユーザは、アクセスされている仮想コンテンツに関して方向が見失うことになり、そのような方向感覚を失うことは、ユーザエクスペリエンスを低下させる可能性がある。したがって、様々な実施形態において、インジケータモジュール208は、仮想コンテンツが提示されるビューポート内にナビゲーションインジケータを提供するように構成され得る。いくつかの実施形態では、ナビゲーションインジケータは、ビューポート内のオーバーレイ(overlay)として提供される。ナビゲーションインジケータは、i)仮想コンテンツによって撮像された(複数の)シーン内のビューポートの方向または方向、および/またはii)(複数の)シーン内のビューポートのズームレベルを視覚的に示すことができる。いくつかの実施形態では、ナビゲーションインジケータによって示される方向は、ヨー(すなわち、垂直軸に沿ったビューポートの動き)に基づいて決定され得る。しかしながら、具体化に応じて、ナビゲーションインジケータは、ピッチ(すなわち、横軸に沿ったビューポートの動き)および/またはロール(すなわち、縦軸に沿ったビューポートの動き)を示すこともできる。ナビゲーションインジケータは、ユーザが仮想コンテンツと対話して、仮想コンテンツアイテムがアクセスされている間、任意の時点でビューポートの方向および/またはズームレベルを反映するように自動的に更新され得る。 As mentioned above, in some cases, if the user is not aware of changes to the viewport, the user will lose direction with respect to the virtual content being accessed, and loss of such directionality will result in a loss of user experience. May decrease. Thus, in various embodiments, the indicator module 208 may be configured to provide navigation indicators within the viewport where virtual content is presented. In some embodiments, the navigation indicator is provided as an overlay in the viewport. The navigation indicator may visually indicate i) the orientation or direction of the viewport in the scene(s) imaged by the virtual content, and/or ii) the zoom level of the viewport in the scene(s). it can. In some embodiments, the direction indicated by the navigation indicator may be determined based on yaw (ie, viewport movement along the vertical axis). However, depending on the implementation, the navigation indicators may also indicate pitch (ie, viewport movement along the horizontal axis) and/or roll (ie, viewport movement along the vertical axis). The navigation indicator may be automatically updated to reflect the orientation and/or zoom level of the viewport at any time while the user interacts with the virtual content and the virtual content item is being accessed.

いくつかの実施形態では、注目点モジュール210は、アクセスされている仮想コンテンツアイテムの複数のシーンにおける様々な注目点を識別するように用いられる。いくつかの実施形態では、注目点は、ビューポートを介して提示されているビデオストリームに対応する瞬間または時間において1つまたは複数のシーンにおける空間領域として定義され得る。いくつかの実施形態では、このような注目点は、例えば、仮想コンテンツアイテムの開発者によって指定されてもよい。通常、各注目点は、仮想コンテンツアイテムによってキャプチャされた1つまたは複数のシーンにおける任意の場所(例えば、複数の座標)に関連付けられる。いくつかの実施形態では、ナビゲーションインジケータは、ビューポートを介して提示されているシーンにおけるビューポートの位置の閾値距離内の複数の注目点を識別することができる。様々な実施形態において、ナビゲーションインジケータは、注目点の対応する位置または方向を視覚的に示すことができる。しかしながら、実施態様に応じて、複数の注目点を視覚的に示すための他のアプローチは、ナビゲーションインジケータとは別々に、またはナビゲーションインジケータに加えて用いられる。例えば、いくつかの実施形態では、注目点は、注目点の位置または方向を指す方向インジケータ(directional indicator)(例えば、矢印)を使用して視覚的に示される。この例では、注目点がビューポートの右に位置する場合、ビューポートのある領域には、右を指し示す矢印が表示される。同様に、注目点がビューポートが向いている方向の後ろである方向に位置する場合、ユーザに振り向くように指示する矢印が表示されてもよい。いくつかの実施形態では、注目点が、テキストでラベル付けされ得る。例えば、ランドマークなどの注目点は、注目点の名前、その位置、および/または注目点に関する事実を含む記述テキストでラベル付けされる。 In some embodiments, the point of interest module 210 is used to identify various points of interest in the multiple scenes of the virtual content item being accessed. In some embodiments, the point of interest may be defined as a spatial region in one or more scenes at the moment or time corresponding to the video stream being presented via the viewport. In some embodiments, such points of interest may be specified by the developer of the virtual content item, for example. Typically, each point of interest is associated with any location (eg, coordinates) in the scene or scenes captured by the virtual content item. In some embodiments, the navigation indicator can identify multiple points of interest within a threshold distance of the viewport's position in the scene being presented via the viewport. In various embodiments, the navigation indicator can visually indicate the corresponding position or orientation of the point of interest. However, depending on the implementation, other approaches for visually indicating multiple points of interest may be used separately from or in addition to the navigation indicator. For example, in some embodiments, the point of interest is visually indicated using a directional indicator (eg, arrow) that points to the position or direction of the point of interest. In this example, when the point of interest is located to the right of the viewport, an arrow pointing to the right is displayed in the area with the viewport. Similarly, if the point of interest is located behind the direction in which the viewport is facing, an arrow may be displayed instructing the user to turn around. In some embodiments, the points of interest may be labeled with text. For example, points of interest such as landmarks are labeled with descriptive text that includes the name of the point of interest, its location, and/or facts about the point of interest.

いくつかの実施形態では、仮想コンテンツアイテムによってキャプチャされた複数のシーンの注目点は、シーンを見ながらユーザによって定義またはラベル付けされる。一例では、シーンを見ているユーザは、シーン内のある特徴を注目点としてタグ付けすることができる。ユーザは、注目点に関連付けるためにテキストラベルまたはコメントを提供することもできる。いくつかの実施形態では、仮想コンテンツアイテムに後でアクセスする他のユーザが、ユーザによって提供された任意のテキストラベルまたはコメントとともに、ユーザによってタグ付けされた注目点を見ることができるように、ユーザ定義の複数の注目点が保存される。したがって、そのような実施形態では、ユーザが、例えばナビゲーションインジケータを含む上述の複数のアプローチのいずれかを使用して仮想コンテンツアイテムにアクセスしている間に、ユーザ定義の複数の注目点が視覚的に識別される。いくつかの実施形態では、ユーザ定義の複数の注目点は、仮想コンテンツアイテムに組み込まれない。むしろ、ユーザ定義の複数の注目点を組み込んだ仮想コンテンツアイテムのコピーが保存される。次いで、ユーザは、例えばソーシャルネットワーキングシステムを介して、バーチャルコンテンツアイテムの変更されたコピーを他のユーザと共有することができる。いくつかの実施形態では、ユーザ定義の複数の注目点は、各注目点がバーチャルコンテンツアイテムにおいてどこで見つかるかを示すスクリーンショットおよび/または情報(例えば、1つまたは複数のフレーム、複数のタイムスタンプ、複数の時間範囲、座標等の位置データなど)として共有される。 In some embodiments, the points of interest of the multiple scenes captured by the virtual content item are defined or labeled by the user while viewing the scene. In one example, a user viewing a scene can tag certain features in the scene as points of interest. The user may also provide a text label or comment to associate with the point of interest. In some embodiments, the user may be able to see the points of interest tagged by the user, along with any text labels or comments provided by the user, so that other users who later access the virtual content item can see it. Multiple points of interest in the definition are saved. Thus, in such an embodiment, while the user is accessing the virtual content item using any of the plurality of approaches described above, including, for example, a navigation indicator, a plurality of user-defined points of interest are visually visible. Identified by. In some embodiments, the user-defined points of interest are not incorporated into the virtual content item. Rather, a copy of the virtual content item that incorporates multiple user-defined points of interest is saved. The user can then share the modified copy of the virtual content item with other users, eg, via a social networking system. In some embodiments, the user-defined multiple points of interest include screenshots and/or information (eg, one or more frames, multiple time stamps, etc.) showing where each point of interest is found in the virtual content item. Multiple time ranges, position data such as coordinates, etc.) are shared.

いくつかの実施形態では、ユーザは、仮想コンテンツアイテムによってキャプチャされた複数のシーンを見ながら、ビューポートの軌跡(trajectory)を記録することができる。したがって、このような実施形態では、仮想コンテンツアイテム内のシーンを見ながらユーザによって作成されたビューポートの位置および/または方向の変更が、仮想コンテンツアイテムのユーザビューポートの軌跡として保存され得る。ユーザは、例えば、ソーシャルネットワーキングシステムを介して、ビューポートの軌跡を他のユーザと共有することができる。共有されたビューポートの軌跡にアクセスする異なるユーザのビューポートは、ビューポートの軌跡を共有したユーザによるビューポートの位置および/または方向に対する変更に基づいて、仮想コンテンツアイテムによってキャプチャされた複数のシーンにわたってガイドされる。 In some embodiments, a user may record a viewport trajectory while viewing multiple scenes captured by a virtual content item. Thus, in such an embodiment, changes in the position and/or orientation of the viewport created by the user while looking at the scene within the virtual content item may be saved as a trajectory of the user viewport of the virtual content item. Users can share viewport trajectories with other users, for example, via a social networking system. Viewports of different users who access the shared viewport trajectory may include multiple scenes captured by the virtual content item based on changes to the viewport position and/or orientation by the user who shared the viewport trajectory. Will be guided over.

いくつかの実施形態では、仮想コンテンツアイテムの複数の注目点は、ユーザビューポートデータに基づいて自動的に判定される。例えば、仮想コンテンツアイテムを見ている間の複数のユーザビューポートのそれぞれの軌跡が分析されて、どのシーンまたはシーンの領域がユーザによって見られたかを判定することができる。いくつかの実施形態では、仮想コンテンツアイテムの複数のシーンを見ながら、複数のユーザビューポートのそれぞれの位置および/または方向を集約することによって、1つまたは複数のヒートマップ(heat map)が、仮想コンテンツアイテムに対して生成される。そのような実施形態では、ヒートマップが複数のシーンにおけるシーンまたは領域のうちのどれが、集約において他のものよりもより人気があるかまたはより興味深いかを判定するように用いられる。そのようなヒートマップ情報は、複数の特定のシーンまたは複数のシーンにおける領域を複数の注目点として自動的に識別するように用いられる。いくつかの実施形態では、複数のヒートマップは、異なる組のユーザのビューポートの軌跡を集約することによって、仮想コンテンツアイテムに対して生成される。そのような実施形態では、複数のユーザは、幾つかの例を挙げると、複数の人口統計(例えば、性別、年齢範囲など)、複数の興味(例えば、バードウォッチング、スノーボードなど)、および/または複数の関係(例えば、ソーシャルネットワーキングシステムにおける複数のソーシャルコネクション、または「友達」)などの属性に基づいて異なる組に分類される。異なる組のユーザのための別個のヒートマップを生成することにより、注目点モジュール210は、仮想コンテンツアイテムのどの注目点が、それらの共有された属性に応じて複数のユーザのカテゴリまたは組に最も関連するかを判定することができる。いくつかの実施形態では、仮想コンテンツアイテムに対して自動的に生成された複数の注目点を、提案として仮想コンテンツアイテムの開発者に提供される。開発者は、生成された注目点を仮想コンテンツアイテムに組み込むか、または認定することを選択できる。認定されると、生成された複数の注目点は、ユーザが、例えばナビゲーションインジケータを含む上述の複数のアプローチのいずれかを使用して仮想コンテンツアイテムにアクセスしている間に視覚的に示される。 In some embodiments, the multiple points of interest of the virtual content item are automatically determined based on the user viewport data. For example, the trajectory of each of the plurality of user viewports while viewing the virtual content item can be analyzed to determine which scene or region of the scene was viewed by the user. In some embodiments, one or more heat maps are aggregated by aggregating the position and/or orientation of each of the user viewports while viewing the scenes of the virtual content item. Generated for virtual content items. In such an embodiment, heatmaps are used to determine which of the scenes or regions in multiple scenes are more popular or more interesting in aggregation than others. Such heat map information is used to automatically identify multiple specific scenes or regions in multiple scenes as multiple points of interest. In some embodiments, multiple heatmaps are generated for a virtual content item by aggregating viewport trajectories of different sets of users. In such embodiments, the users may be demographics (eg, gender, age range, etc.), interests (eg, birdwatching, snowboarding, etc.), and/or, to name a few. They are classified into different sets based on attributes such as multiple relationships (eg, multiple social connections in a social networking system, or “friends”). By generating separate heatmaps for different sets of users, the point of interest module 210 allows the point of interest of the virtual content item to be most likely to fall into multiple user categories or sets depending on their shared attributes. It can be determined whether it is relevant. In some embodiments, a plurality of automatically generated points of interest for the virtual content item are provided to the developer of the virtual content item as suggestions. The developer may choose to incorporate or qualify the generated attention points into the virtual content item. Once certified, the generated points of interest are visually indicated while the user is accessing the virtual content item using any of the approaches described above, including, for example, navigation indicators.

いくつかの例では、開発者は、自動モードの一部として仮想コンテンツアイテムを見るユーザのためのビューポートの軌跡を予め定義することができる。そのような場合、自動モードモジュール212は、仮想コンテンツアイテムにアクセスしている間に、ユーザがいつでも自動モードを用いるかまたは用いないかを可能にする。いくつかの実施形態では、仮想コンテンツアイテムがアクセスされるときに、自動モードはデフォルトで有効にされてもよい。そのような実施形態では、自動モードにある間、ビューポートは、予め定義されたビューポートの軌跡に基づいて仮想コンテンツアイテムの1つまたは複数のシーンにわたって自動的にナビゲートされる。いくつかの実施形態では、ビューポートの軌跡は、仮想コンテンツアイテムの1つ以上の部分の再生中または仮想コンテンツアイテム全体の再生中にビューポートの対応する位置および/または方向を定義する。 In some examples, a developer may predefine a viewport trajectory for a user to view a virtual content item as part of an automatic mode. In such a case, the automatic mode module 212 allows the user to use or not use the automatic mode at any time while accessing the virtual content item. In some embodiments, automatic mode may be enabled by default when a virtual content item is accessed. In such an embodiment, while in the automatic mode, the viewport is automatically navigated across one or more scenes of virtual content items based on a predefined viewport trajectory. In some embodiments, the viewport trajectory defines a corresponding position and/or orientation of the viewport during playback of one or more portions of the virtual content item or during playback of the entire virtual content item.

いくつかの実施形態では、開発者は、1つまたは複数のシーンにおける1つ以上の注目点を指定してもよく、自動モードが用いられると、ビューポートが、複数の注目点に自動的にガイドされる。このような実施形態では、ビューポートが複数の注目点の間を移動するような各軌跡が自動的に生成される。いくつかの実施形態では、複数の注目点は、ビューポートが複数の注目点に焦点を当てるべき時間の長さを示す時間的情報(例えば、第1の注目点で3秒、第2の注目点で5秒など)に関連付けられる。そのような実施形態では、自動モードモジュール212は、そのような時間的情報に関してビューポートを適切にナビゲートすることができる。いくつかの実施形態では、自動モードが用いられる場合、第1のカラースキーム(color scheme)がナビゲーションインジケータに用いられ、かつ自動モードが用いられていない、つまり、マニュアルモードが有効である場合、第2のカラースキーム(例えば、第1のカラースキームとは逆のカラースキーム)がナビゲーションインジケータに用いられる。 In some embodiments, the developer may specify one or more points of interest in one or more scenes, and when the automatic mode is used, the viewport automatically selects points of interest. Be guided. In such an embodiment, trajectories are automatically generated such that the viewport moves between a plurality of points of interest. In some embodiments, the plurality of points of interest is temporal information indicating the amount of time the viewport should focus on the plurality of points of interest (eg, 3 seconds at the first point of interest, a second point of interest). Points for 5 seconds, etc.). In such an embodiment, the automatic mode module 212 can properly navigate the viewport with respect to such temporal information. In some embodiments, the first color scheme is used for the navigation indicator when the automatic mode is used, and the automatic mode is not used, that is, when the manual mode is in effect. Two color schemes are used for the navigation indicators (eg the color scheme opposite to the first color scheme).

モーショントランジションモジュール(motion transition module)214は、自動モードが用いられている間にビューポートの動きを制御するように構成される。例えば、いくつかの実施形態では、ビューポートは、自動モードで現れるように複数のシーンおよび/または複数の注目点を表示するように自動的に移行される。複数のシーンおよび/または複数の注目点の間で移行する場合、モーショントランジションモジュール214は、1つまたは複数の異なる映像トランジション(film transitioning)の技術を適用することができる。一例では、トランジションは、複数のシーンおよび/または複数の注目点の間の移行が緩やかに行われるディゾルブ効果を使用して実行されてもよい。別の例では、トランジションは、カッティング効果(cut effect)を用いて実行される。他の例は、ワイプトランジションエフェクト、リニアトランジション、イージング(easing)、およびヒンティング(hinting)(たとえば、トランジションを実行する前に方向インジケータを使用するなど)を含む。いくつかの実施形態では、ビューポートは、自動モードでは自動的に移行しない。代わりに、注目点は、注目点の位置または方向を示す方向インジケータ(たとえば、矢印)を使用して、ビューポートに視覚的に表示される。そのような実施形態では、ユーザは、注目点に対応するようにビューポートをマニュアルで操作するオプションを有する。いくつかの実施形態では、モーショントランジションモジュール214は、使用されるデバイスのタイプ(例えば、モバイルコンピューティングデバイス、バーチャルリアリティシステム、ヘッドマウントディスプレイなど)に応じて、異なる映像トランジション技術を適用することができる。例えば、複数のビューポートトランジションは、モバイルコンピューティングデバイスでは自動であるが、バーチャルリアリティシステムおよび/またはヘッドマウントディスプレイでは自動ではない。デバイスのタイプは、どのトランジションエフェクトが使用されるかとともに、複数のシーンおよび/または複数の注目点の間でビューポートがどのように移行するかに影響する。例えば、デバイスがバーチャルリアリティーヘッドマウントディスプレイである場合、方向インジケータおよび/またはディゾルブ効果が用いられてビューポートの移行を実行することができる。別の例では、デバイスがモバイルコンピューティングデバイスである場合、ビューポートの移行を実行するときに複数のトランジションエフェクトが無効される。 The motion transition module 214 is configured to control the viewport movement while the automatic mode is used. For example, in some embodiments, the viewport is automatically transitioned to display multiple scenes and/or multiple points of interest to appear in automatic mode. When transitioning between multiple scenes and/or multiple points of interest, the motion transition module 214 may apply one or more different film transitioning techniques. In one example, the transition may be performed using a dissolve effect in which there is a gradual transition between scenes and/or points of interest. In another example, the transition is performed using a cut effect. Other examples include wipe transition effects, linear transitions, easing, and hinting (eg, using a directional indicator before performing the transition). In some embodiments, the viewport does not transition automatically in automatic mode. Instead, the point of interest is visually displayed in the viewport using a directional indicator (eg, an arrow) that indicates the position or direction of the point of interest. In such an embodiment, the user has the option of manually manipulating the viewport to correspond to the point of interest. In some embodiments, motion transition module 214 may apply different video transition techniques depending on the type of device used (eg, mobile computing device, virtual reality system, head mounted display, etc.). .. For example, multiple viewport transitions are automatic in mobile computing devices, but not in virtual reality systems and/or head mounted displays. The type of device affects which transition effect is used and how the viewport transitions between scenes and/or points of interest. For example, if the device is a virtual reality head-mounted display, directional indicators and/or dissolve effects can be used to perform viewport transitions. In another example, if the device is a mobile computing device, multiple transition effects are disabled when performing a viewport transition.

図3は、本開示の一実施形態によるコンテンツディレクタモジュール302の一例を示す。いくつかの実施形態では、図1のコンテンツディレクタモジュール108は、コンテンツディレクタモジュール302で具体化される。図3の例に示すように、コンテンツディレクタモジュール302は、インタフェースモジュール304、注目点モジュール306、および自動モードモジュール308を含む。 FIG. 3 illustrates an example of the content director module 302 according to one embodiment of the present disclosure. In some embodiments, the content director module 108 of FIG. 1 is embodied in the content director module 302. As shown in the example of FIG. 3, the content director module 302 includes an interface module 304, a point of interest module 306, and an automatic mode module 308.

インタフェースモジュール304は、開発者が仮想コンテンツアイテムのユーザエクスペリエンスをカスタマイズするために利用可能な様々なオプションを含むインタフェースを提供することができる。このインタフェースに関するさらなる詳細は、図5を参照して以下に提供される。いくつかの実施形態では、注目点モジュール306が、仮想コンテンツアイテムにおける1つ以上の注目点を指定するように用いられる。仮想コンテンツアイテムを見ているユーザは、例えばナビゲーションインジケータを含む上記の複数のアプローチのいずれかを使用して、そのような注目点を通知される。一例では、注目点は、仮想コンテンツアイテムの再生中に注目点が現れる位置(例えば、座標)および/または時間(秒)によって定義される。自動モードモジュール308は、1つまたは複数のビューポートの軌跡を生成するように利用される。いくつかの実施形態では、ビューポートの軌跡は、仮想コンテンツアイテムの1つ以上の部分の再生中または仮想コンテンツアイテム全体の再生中にビューポートの対応する位置および/または方向を定義する。例えば、自動モードモジュール308は、注目点モジュール306を用いて指定された注目点に基づいて、仮想コンテンツアイテムの複数のシーンをナビゲートするためのビューポートの軌跡を生成することができる。いくつかの実施形態では、自動モードモジュール308が、仮想コンテンツアイテムの1つまたは複数の部分の再生中にまたは仮想コンテンツアイテム全体の再生中にビューポートの指定された位置および/または方向に基づいて、仮想コンテンツアイテムにおける複数のシーンをナビゲートするためのビューポートの軌跡を生成するように用いられる。例えば、開発者は、仮想コンテンツアイテムの再生中に任意の時間について、ビューポートの位置および/または方向を指定してもよい。 The interface module 304 can provide an interface that includes various options that a developer can use to customize the user experience of a virtual content item. Further details regarding this interface are provided below with reference to FIG. In some embodiments, a point of interest module 306 is used to specify one or more points of interest in the virtual content item. A user viewing a virtual content item is informed of such points of interest using any of the above approaches, including, for example, navigation indicators. In one example, the point of interest is defined by the position (eg, coordinates) and/or time (seconds) that the point of interest appears during playback of the virtual content item. The automatic mode module 308 is utilized to generate one or more viewport trajectories. In some embodiments, the viewport trajectory defines a corresponding position and/or orientation of the viewport during playback of one or more portions of the virtual content item or during playback of the entire virtual content item. For example, the automatic mode module 308 can generate a viewport trajectory for navigating multiple scenes of the virtual content item based on the points of interest specified using the points of interest module 306. In some embodiments, the automatic mode module 308 is based on the specified position and/or orientation of the viewport during playback of one or more portions of the virtual content item or during playback of the entire virtual content item. , Used to generate viewport trajectories for navigating multiple scenes in a virtual content item. For example, the developer may specify the position and/or orientation of the viewport at any time during playback of the virtual content item.

図4Aは、本開示の一実施形態によるコンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされている間にナビゲーションインジケータ406が提供されるビューポートインタフェース404の一例400を示す。この例では、ビューポート404は、コンピューティングデバイス402の表示画面上に提示される。さらに、ビューポート404は、コンピューティングデバイス402上で実行されるソフトウェアアプリケーション(例えば、ウェブブラウザ、ソーシャルネットワーキングアプリケーションなど)を介して提供されてもよい。表示画面に示されているナビゲーションインジケータ406の位置および/またはサイズは、具体化に応じて変更されてもよい。図4Aの例では、ビューポート404は、仮想コンテンツアイテムからのシーンを提示している。この例では、シーンは、他の複数の注目点の中に、2羽の鳥414およびハンググライダー416を含む。ビューポート404は、ビューポートの方向およびズームレベルを識別するための方位インジケータ408を含むナビゲーションインジケータ406を含む。また、ナビゲーションインジケータ406は、注目点410が識別されかつ方位インジケータ408によって識別されるビューポート方向に対して東方向に位置されていることを示す。コンピューティングデバイス402を操作するユーザは、例えば、ビューポートの方向および/またはズームレベルを変更することによってシーンをナビゲートする。例えば、ユーザは、注目点に対応する方向410に向くようにビューポートの方向を変更することができる。その結果、ビューポートは、図4Bの例に示すように、方向410に対応するコンテンツ(例えば、画像および/またはビデオストリーム)を提示するように更新され得る。いくつかの実施形態では、ナビゲーションインジケータ406は、複数の注目点の他に、アクセスされているシーン内で発生する他の複数のタイプのイベントを識別することもできる。例えば、ナビゲーションインジケータ406は、シーン内で生成された音の方向を示すことができる。 FIG. 4A illustrates an example viewport interface 404 400 in which a navigation indicator 406 is provided while a content item (eg, virtual content item) is being accessed in accordance with an embodiment of the present disclosure. In this example, viewport 404 is presented on the display screen of computing device 402. Further, the viewport 404 may be provided via a software application (eg, web browser, social networking application, etc.) running on the computing device 402. The location and/or size of the navigation indicator 406 shown on the display screen may vary depending on the implementation. In the example of FIG. 4A, viewport 404 is presenting a scene from a virtual content item. In this example, the scene includes two birds 414 and a hang glider 416, among other points of interest. Viewport 404 includes a navigation indicator 406 that includes an orientation indicator 408 to identify the orientation and zoom level of the viewport. The navigation indicator 406 also indicates that the point of interest 410 has been identified and is located east of the viewport direction identified by the orientation indicator 408. A user operating the computing device 402 navigates the scene, for example, by changing the viewport orientation and/or zoom level. For example, the user can change the direction of the viewport to face the direction 410 corresponding to the point of interest. As a result, the viewport may be updated to present content (eg, images and/or video streams) corresponding to direction 410, as shown in the example of FIG. 4B. In some embodiments, navigation indicators 406 may also identify multiple points of interest as well as other types of events that occur within the scene being accessed. For example, the navigation indicator 406 can indicate the direction of the sound generated in the scene.

いくつかの実施形態では、ナビゲーションインジケータ406は、最初は、半透明であるかまたはぼやけた色であるか(faded)のように示される。そのような実施形態では、ナビゲーションインジケータ406は、例えば、ビューポート404および/またはコンピューティングデバイス402を用いて、ユーザ対話を検出すると不透明になる。ナビゲーションインジケータ406は、ユーザがナビゲーションインジケータ406に対応する表示画面の領域でタッチジェスチャーを実行するときに不透明になることもある。例えば、ナビゲーションインジケータ406は、コンピューティングデバイス内のセンサに基づいてユーザ対話を検出することができる。いくつかの実施形態では、ナビゲーションインジケータ406は、ユーザ対話が閾値期間において検出されない場合、半透明の状態またはぼやけた色の状態に戻ることができる。いくつかの実施形態では、仮想コンテンツアイテムがアクセスされるときに、自動モードが、デフォルトで有効にされてもよい。そのような実施形態では、自動モードでは、ビューポートは、仮想コンテンツアイテム内の(複数の)シーンを介して自動的にナビゲートされ得る。例えば、仮想コンテンツアイテムの開発者は、(複数の)シーン内の1つ以上の注目点を指定することができ、ビューポートは、複数の注目点が表示されるように自動的にナビゲートされ得る。いくつかの実施形態では、複数の注目点間のビューポート移動のような対応する軌跡が自動的に生成され得る。いくつかの実施形態では、注目点は、ビューポートを介して提示されているビデオストリームに対応する時点または時間に(複数の)シーン内の空間領域として定義され得る。いくつかの実施形態では、複数の注目点は、ビューポートが注目点に焦点を当てるべき時間の長さを示す時間的情報(例えば、第1の注目点で3秒、第2の注目点で5秒、など)に関連付けられる。 In some embodiments, the navigation indicator 406 is initially shown as if it is translucent or faded. In such an embodiment, the navigation indicator 406 becomes opaque upon detecting user interaction, for example using the viewport 404 and/or computing device 402. The navigation indicator 406 may be opaque when the user performs a touch gesture on the area of the display screen corresponding to the navigation indicator 406. For example, the navigation indicator 406 can detect user interaction based on sensors in the computing device. In some embodiments, the navigation indicator 406 can return to a semi-transparent state or a blurred color state if no user interaction is detected for a threshold period. In some embodiments, automatic mode may be enabled by default when a virtual content item is accessed. In such an embodiment, in automatic mode, the viewport may be automatically navigated through the scene(s) within the virtual content item. For example, the developer of a virtual content item can specify one or more points of interest in the scene(s), and the viewport is automatically navigated to display the points of interest. obtain. In some embodiments, corresponding trajectories, such as viewport movements between points of interest, may be automatically generated. In some embodiments, the point of interest may be defined as the spatial region within the scene(s) at a time or time corresponding to the video stream being presented via the viewport. In some embodiments, the plurality of points of interest is temporal information that indicates the length of time the viewport should focus on the point of interest (eg, 3 seconds at the first point of interest, 3 seconds at the second point of interest). 5 seconds, etc.).

上述したように、幾つかの場合では、開発者は、仮想コンテンツアイテムを見るユーザのための自動モードを定義してもよい。このような場合、ユーザは、仮想コンテンツアイテムにアクセスしている間はいつでも自動モードを用いるかまたは用いないことができる。図4Aの例では、自動モードが有効であり、その結果、ビューポート404は、予め定義されたビューポートの軌跡に基づいて仮想コンテンツアイテムにおける1つまたは複数のシーンにわたって自動的にナビゲートされている。幾つかの実施形態では、仮想コンテンツアイテムがアクセスされるとき、自動モードがデフォルトで有効にされてもよい。コンピューティングデバイス402を操作するユーザは、例えば、ビューポート404をマニュアルでナビゲートすることによって、またはナビゲーションインジケータ406に対応する表示画面内の領域を選択すること(例えば、タップジェスチャを実行すること)によって、自動モードを無効にすることができる。幾つかの実施形態では、自動モードは、ユーザが閾値時間の間、ビューポートをマニュアルでナビゲートしなかった場合に再度有効にされる。いくつかの実施形態では、開発者は、1つまたは複数のシーンにおける1つ以上の注目点を指定することができ、自動モードが用いられると、ビューポート404は、注目点に自動的にガイドされる。図4Aの例では、ビューポート404は、図4Bの例に示すように、注目点410に向かって自動的にナビゲートされる。 As mentioned above, in some cases, the developer may define an automatic mode for the user viewing the virtual content item. In such cases, the user may or may not use the automatic mode at any time while accessing the virtual content item. In the example of FIG. 4A, automatic mode is enabled so that viewport 404 is automatically navigated across one or more scenes in a virtual content item based on a predefined viewport trajectory. There is. In some embodiments, automatic mode may be enabled by default when a virtual content item is accessed. A user operating the computing device 402, for example, by manually navigating the viewport 404 or selecting an area within the display screen corresponding to the navigation indicator 406 (eg, performing a tap gesture). Can disable the automatic mode. In some embodiments, the automatic mode is re-enabled if the user does not manually navigate the viewport for a threshold time. In some embodiments, the developer can specify one or more points of interest in one or more scenes, and when the automatic mode is used, the viewport 404 will automatically guide the points of interest. To be done. In the example of FIG. 4A, the viewport 404 is automatically navigated towards the point of interest 410, as shown in the example of FIG. 4B.

図4Bは、本開示の一実施形態によるコンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされている間にナビゲーションインジケータ406が提供されるビューポートインタフェース404の一例440を示す。上述したように、自動モードが用いられている間に、ビューポート404は、注目点に自動的にガイドされる。この例では、コンピューティングデバイス402の表示画面上に提示されるビューポート404の方向は、注目点410として図4Aのナビゲーションインジケータ406に示された注目点418に対応する方向に向くように変更されている。したがって、この例では、自動モード中に予め定義された軌跡をたどる意図された方位407と方位インジケータ408の両方が、注目点418が見える方向に対応する。その結果、ビューポート404に提示されたシーンは、ビューポート調整に対応するコンテンツ(例えば、複数の画像および/または複数のビデオストリーム)を提示するように更新されている。この例では、シーンは、他の複数の注目点の中で、注目点410としてナビゲーションインジケータ406によって識別されたハンググライダー416および熱気球418を示す。図4Bにおいて、方位インジケータ408は、ビューポートの方向の変化に対応するように、点412の周りを右に回転されている。いくつかの実施形態では、コンピューティングデバイス402を操作するユーザは、ナビゲーションインジケータ406に対応するディスプレイ画面の領域でタッチジェスチャーを実行して、ビューポートを仮想コンテンツアイテムに対して定義された初期の、または意図された方向、例えば自動モードに戻らせることができる。また、そのような実施形態では、ビューポートのズームレベルは、タッチジェスチャーを検出すると、仮想コンテンツアイテムに対して定義されたデフォルトの、または意図されたズームレベルにリセットされる。方位インジケータ408は、例えば、ユーザがビューポートをナビゲートする方向に応じて、時計回りまたは反時計回りの方向に点412の周りを回転することができる。例えば、ビューポート方向を0度から180度に変更すると、方位インジケータ408が点412を中心に時計回りの方向に回転し、ビューポート方向が180度から360度に変化すると、方位インジケータ408が点412を中心に反時計回りの方向に回転する。図4Bの例では、自動モードは依然として有効であり、その結果、ビューポート404は、予め定義されたビューポートの軌跡に基づいて仮想コンテンツアイテムの1つまたは複数のシーンにわたって自動的にナビゲートされる。この例では、ビューポート404は、ナビゲーションインジケータ406に示される注目点420に向かって自動的にナビゲートされる。 FIG. 4B illustrates an example viewport interface 404 in which a navigation indicator 406 is provided while a content item (eg, virtual content item) is being accessed in accordance with an embodiment of the present disclosure. As mentioned above, the viewport 404 is automatically guided to the point of interest while the automatic mode is used. In this example, the orientation of the viewport 404 presented on the display screen of the computing device 402 is modified to point in the direction corresponding to the point of interest 418 shown in the navigation indicator 406 of FIG. 4A as point of interest 410. ing. Thus, in this example, both the intended azimuth 407 and the azimuth indicator 408 that follow the predefined trajectory during automatic mode correspond to the direction in which the point of interest 418 is visible. As a result, the scene presented in viewport 404 has been updated to present content (eg, images and/or video streams) corresponding to the viewport adjustment. In this example, the scene shows a hang glider 416 and a hot air balloon 418 identified by navigation indicator 406 as points of interest 410, among other points of interest. In FIG. 4B, the orientation indicator 408 has been rotated to the right about the point 412 to accommodate changes in the viewport orientation. In some embodiments, a user operating the computing device 402 performs a touch gesture in an area of the display screen corresponding to the navigation indicator 406 to bring the viewport to an initial, defined view of the virtual content item. Alternatively, it can be returned to the intended direction, eg automatic mode. Also, in such an embodiment, the zoom level of the viewport is reset to the default or intended zoom level defined for the virtual content item upon detection of the touch gesture. Orientation indicator 408 can rotate about point 412 in a clockwise or counterclockwise direction, depending on, for example, the direction in which the user navigates the viewport. For example, when the viewport direction is changed from 0 degrees to 180 degrees, the azimuth indicator 408 rotates clockwise around the point 412, and when the viewport direction changes from 180 degrees to 360 degrees, the azimuth indicator 408 changes to a point. It rotates counterclockwise around 412. In the example of FIG. 4B, automatic mode is still in effect, so that viewport 404 is automatically navigated across one or more scenes of virtual content items based on a predefined viewport trajectory. It In this example, the viewport 404 is automatically navigated towards the point of interest 420 shown on the navigation indicator 406.

図4Cは、本開示の一実施形態による、コンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされている間にナビゲーションインジケータ406が提供されるビューポートインタフェース404の一例480を示す。上述したように、自動モードが用いられている間、ビューポート404は、注目点に自動的にガイドされる。この例では、コンピューティングデバイス402の表示画面上に提示されるビューポート404の方向は、図4Aのシーンに示されている一対の鳥414に面するように変更されている。したがって、この例では、自動モードにあるときに予め定義された軌跡をたどる意図された方位(intended heading)407と方位インジケータ408は、注目点414を見ることが可能な方向に対応する。図4Cの例では、コンピューティングデバイス402を操作するユーザは、ビューポート404をマニュアルでナビゲートするオプションを有する。マニュアルでナビゲートされると、自動モードは無効にされ、ビューポート404は、予め定義された軌跡に基づいて自動的にガイドされない。ユーザは、例えば、ナビゲーションインジケータ406に対応する表示画面内の領域を選択することによって、自動モードを再び有効にするオプションを有する。 FIG. 4C illustrates an example viewport interface 404 in which a navigation indicator 406 is provided while a content item (eg, virtual content item) is being accessed, according to one embodiment of the disclosure. As mentioned above, the viewport 404 is automatically guided to the point of interest while the automatic mode is used. In this example, the orientation of the viewport 404 presented on the display screen of the computing device 402 has been changed to face the pair of birds 414 shown in the scene of FIG. 4A. Thus, in this example, the intended heading 407 and heading indicator 408, which follows a predefined trajectory when in automatic mode, corresponds to the direction in which the point of interest 414 is visible. In the example of FIG. 4C, a user operating computing device 402 has the option to manually navigate viewport 404. When navigated manually, the automatic mode is disabled and the viewport 404 is not automatically guided based on the predefined trajectory. The user has the option to re-enable the automatic mode, for example by selecting the area in the display screen corresponding to the navigation indicator 406.

図5は、本開示の一実施形態による、仮想コンテンツアイテムのユーザエクスペリエンスをカスタマイズするための開発者インタフェース502の一例500を示す。例示的なインタフェース502は、仮想コンテンツアイテムを再生することができる領域504を含む。仮想コンテンツアイテムの任意のカスタマイズまたは変更は、領域504内の仮想コンテンツアイテムの再生中に反映される。ナビゲータインジケータ506は、開発者がビューポートの位置および/または方向を視覚化することができるように、領域504に含められる。いくつかの実施形態では、開発者は、仮想コンテンツアイテムが再生を開始するときに使用されるビューポートの初期カメラ方向508を定義することができる。初期カメラ方向508は、例えば、ピッチ、ヨー、および/または視野に対応する度合いの値を指定することによって定義されてもよい。 FIG. 5 illustrates an example developer interface 502 for customizing a virtual content item user experience 500 according to an embodiment of the disclosure. The exemplary interface 502 includes a region 504 in which a virtual content item can be played. Any customizations or changes to the virtual content item are reflected during playback of the virtual content item in area 504. A navigator indicator 506 is included in area 504 to allow a developer to visualize the position and/or orientation of the viewport. In some embodiments, the developer can define the initial camera orientation 508 of the viewport used when the virtual content item begins playing. The initial camera direction 508 may be defined, for example, by specifying pitch, yaw, and/or degree-of-view corresponding degree values.

いくつかの実施形態では、開発者は、仮想コンテンツアイテムを見ている複数のユーザが、仮想コンテンツアイテムにおける1つまたは複数のシーンにわたってビューポートを自動的にナビゲートする自動モードを有効にさせる自動モード510または「ディレクターズカット(director’s cut)」を有効にすることができる。幾つかの実施形態では、自動モードが用いられると、ユーザのビューポートは、仮想コンテンツアイテムにおける複数の注目点に自動的に移行することができる。複数の注目点間のビューポートの対応する軌跡は、自動的に生成されてもよい。開発者は、領域504内の仮想コンテンツアイテムを見ながら、注目点を追加するためのオプション512を使用することができる。例えば、バーチャルコンテンツアイテムが領域504で再生されている間、開発者は、注目点を選択してタグ付けするためのオプション512を選択することができる。タグ付けされた注目点は、幾つかの例を挙げると、シーンにおける特徴、シーン内の領域、1組のフレームに対応し得る。注目点インジケータ514は、これまで開発者によってタグ付けされている注目点の数をカウントすることができる。開発者は、例えば、ソーシャルネットワーキングシステムに仮想コンテンツアイテムを公開するためのオプション516を選択することができる。公開された仮想コンテンツアイテムは、指定されたビューポートの軌跡とともに、指定された様々な注目点を記述する情報を含むことができる。この情報は、複数の注目点が適切に表示されるように、ユーザが仮想コンテンツアイテムにアクセスしているときに利用される。いくつかの実施形態では、開発者は、開発者によって指定されるように仮想コンテンツアイテムの複数のシーンおよび/または複数のポイントにわたってユーザのビューポートを自動的にナビゲートする「ディレクターズカット」映像(例えば、自動生成フォールバックユーザインタフェース)の完全に自動化されたバージョンを作成することができる。具体化によっては、自動生成された「ディレクターズカット」映像が再生されているので、映像にアクセスしているユーザは、ビューポートの方向を変更したり、またはビューポートのズームレベルを変更したりすることはできない。いくつかの実施形態では、自動生成された「ディレクターズカット」映像の異なるフォーマットが生成される。例えば、「ディレクターズカット」映像の自動化されたバージョンは、いくつかの例を挙げると、全天球映像(spherical video)、標準レクティリニア映像(regular rectilinear video)、2次元(2D)映像、または3次元(3D)映像としてフォーマットされる。このような実施形態では、様々な属性は、再生のためにユーザのコンピューティングデバイスにどのフォーマットを提供すべきかを決定するように用いられる。例えば、提供されるフォーマットは、コンピューティングデバイスの特性(例えば、コンピューティングデバイス上で再生可能なフォーマット)、ユーザプリファレンス、またはその両方に部分的に基づいて決定されてもよい。いくつかの実施形態では、自動生成された「ディレクターズカット」映像のいくつかのフォーマットは、ユーザのコンピューティングデバイスが映像のデフォルトフォーマットまたは好ましいフォーマットを再生できない場合のフォールバックオプション(fallback option)として機能することができる。例えば、開発者は、「ディレクターズカット」映像の全天球映像バージョンがデフォルトでユーザに提供されることを指定してもよい。ユーザのコンピューティングデバイスが映像の全天球映像バージョンを再生することができない場合、指定された映像バージョンの代わりに異なるバージョン(例えば、映像の2次元バージョン)が提供されてもよい。 In some embodiments, a developer can enable multiple users viewing a virtual content item to enable an automatic mode that automatically navigates a viewport across one or more scenes in the virtual content item. Mode 510 or "director's cut" can be enabled. In some embodiments, when the automatic mode is used, the user's viewport can automatically transition to multiple points of interest in the virtual content item. Corresponding trajectories of viewports between multiple points of interest may be automatically generated. The developer can use the option 512 to add points of interest while looking at the virtual content item in the region 504. For example, while the virtual content item is playing in area 504, the developer may select option 512 to select and tag points of interest. The tagged points of interest may correspond to features in the scene, regions in the scene, or sets of frames, to name a few. The attention point indicator 514 can count the number of attention points that have been tagged by the developer so far. The developer can, for example, select option 516 to publish the virtual content item to the social networking system. The published virtual content item may include information describing the various specified points of interest along with the specified viewport trajectory. This information is used when the user is accessing the virtual content item so that the points of interest are properly displayed. In some embodiments, a developer automatically navigates a user's viewport across multiple scenes and/or multiple points of a virtual content item as specified by the developer in a “director's cut” video ( For example, a fully automated version of an auto-generated fallback user interface) can be created. Depending on the instantiation, the automatically generated "Director's Cut" video is playing, so the user accessing the video changes the viewport orientation or the viewport zoom level. It is not possible. In some embodiments, different formats of the automatically generated "Director's Cut" video are generated. For example, an automated version of a "Director's Cut" video could be spherical video, regular rectilinear video, two-dimensional (2D) video, or 3 to name a few. Formatted as dimensional (3D) video. In such an embodiment, various attributes are used to determine which format should be provided to the user's computing device for playback. For example, the provided format may be determined based in part on characteristics of the computing device (eg, a format playable on the computing device), user preferences, or both. In some embodiments, some formats of the automatically generated "Director's Cut" video act as a fallback option if the user's computing device cannot play the default or preferred format of the video. can do. For example, the developer may specify that the spherical video version of the "Director's Cut" video is provided to the user by default. If the user's computing device is not able to play the spherical video version of the video, a different version (eg, a two-dimensional version of the video) may be provided instead of the designated video version.

図6Aは、コンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされているときに、ビューポートインタフェースに提示されるナビゲーションインジケータ602の一例600を示す。図6Aにおいて、ナビゲーションインジケータ602は、仮想コンテンツアイテムがアクセスされている間、ビューポートの初期または意図された方向604を示す。方向604は、例えば、仮想コンテンツアイテムの開発者によって指定されてもよく、仮想コンテンツアイテムの再生中に異なるポイントで変更されてもよい。また、ナビゲーションインジケータ602は、仮想コンテンツによってキャプチャされた1つまたは複数のシーンにアクセスしている間に、ビューポートの方向または方位を示す方位インジケータ606を含む。この例では、ビューポートの方向は、方位インジケータ606の方向によって示される。ビューポート方向が変化すると、方位インジケータ606は、更新されたビューポートの方向に対応する方向に向くように点608の周りを回転することができる。幾つかの実施形態では、方位インジケータ606によって示される方向は、垂直軸(すなわち、ヨー)に沿ったビューポートの動きに対応する。方位インジケータ606は、アクセスされている1つまたは複数のシーンにおけるビューポートのズームレベルも示すことができる。幾つかの実施形態では、方位インジケータ606の長さまたはサイズは、ビューポートのより高いズームレベルを示すために、点608の周りで増大または伸長する。このような実施形態では、方位インジケータ606の長さまたはサイズは、ビューポートの縮小されたズームレベルを示すために、点608の周りで縮小するか、または縮小する。幾つかの実施形態では、仮想コンテンツアイテムは、デフォルトのズームレベル(例えば、60度または他の特定のズームレベル)に関連付けられてもよい。幾つかの実施形態では、仮想コンテンツアイテムの開発者は、ビューポートを介して適用され得る最小および/または最大のズームレベルを指定することができる。 FIG. 6A shows an example 600 of a navigation indicator 602 presented in a viewport interface when a content item (eg, virtual content item) is being accessed. In FIG. 6A, navigation indicator 602 indicates the initial or intended orientation 604 of the viewport while the virtual content item is being accessed. The direction 604 may be specified, for example, by the developer of the virtual content item and may change at different points during playback of the virtual content item. The navigation indicator 602 also includes an orientation indicator 606 that indicates the orientation or orientation of the viewport while accessing one or more scenes captured by the virtual content. In this example, the viewport orientation is indicated by the orientation of the orientation indicator 606. As the viewport orientation changes, the orientation indicator 606 can rotate about the point 608 to point in a direction corresponding to the updated viewport orientation. In some embodiments, the direction indicated by the orientation indicator 606 corresponds to the viewport movement along the vertical axis (ie, yaw). Orientation indicator 606 may also indicate the zoom level of the viewport in the scene or scenes being accessed. In some embodiments, the length or size of the orientation indicator 606 increases or extends around the point 608 to indicate a higher zoom level in the viewport. In such an embodiment, the length or size of the azimuth indicator 606 will shrink or shrink around the point 608 to indicate the reduced zoom level of the viewport. In some embodiments, the virtual content item may be associated with a default zoom level (eg, 60 degrees or other specific zoom level). In some embodiments, the virtual content item developer can specify a minimum and/or maximum zoom level that can be applied through the viewport.

図6Bは、コンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされているときに、ビューポートインタフェースに提示されるナビゲーションインジケータ622の一例620を示す。図6Bでは、仮想コンテンツアイテムにアクセスするビューポートは、シーンにおいてズームインされる。その結果、方位インジケータ626は、ビューポートの増大されたズームレベルを示すために、点628の周りに伸長されるか、またはサイズが拡大されるように示される。 FIG. 6B shows an example 620 of a navigation indicator 622 presented in the viewport interface when a content item (eg, virtual content item) is being accessed. In FIG. 6B, the viewport accessing the virtual content item is zoomed in on the scene. As a result, orientation indicator 626 is shown stretched or enlarged in size around point 628 to indicate the increased zoom level of the viewport.

図6Cは、コンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされているときに、ビューポートインタフェースに提示され得るナビゲーションインジケータ632の一例630を示す。図6Cにおいて、仮想コンテンツアイテムにアクセスするビューポートの方向は、ビューポートの初期のまたは意図された方向634に対して、西向きまたは左向きである。さらに、ビューポートは、見られているシーンからズームアウトされる。その結果、方位インジケータ636は、ビューポートの方向を示すために点638の周りで左に回転されているものとして示されている。さらに、方位インジケータ636は、ビューポートの低下されたズームレベルを示すために、点638の周りで収縮されるか、またはサイズが縮小されるように示される。 FIG. 6C illustrates an example navigation indicator 630 that may be presented to the viewport interface when a content item (eg, virtual content item) is being accessed. In FIG. 6C, the orientation of the viewport accessing the virtual content item is west or left with respect to the viewport's initial or intended orientation 634. In addition, the viewport is zoomed out of the scene being viewed. As a result, the orientation indicator 636 is shown rotated to the left about the point 638 to indicate the direction of the viewport. Further, the orientation indicator 636 is shown contracted or reduced in size about the point 638 to indicate the reduced zoom level of the viewport.

図6Dは、コンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされているときに、ビューポートインタフェースに提示されるナビゲーションインジケータ642の一例640を示す。図6Dにおいて、仮想コンテンツアイテムにアクセスするビューポートは、仮想コンテンツアイテムのシーンにズームインされる。さらに、仮想コンテンツアイテムにアクセスするビューポートの方向は、ビューポートの初期のまたは意図された方向644に対して西向きかまたは左向きである。その結果、方位インジケータ646は、ビューポートの増大されたズームレベルを示すために、点648の周りで伸長されるか、またはサイズが増大されるように示される。さらに、方位インジケータ646は、ビューポートの方向を示すために、点648の周りを左に回転されているものとして示されている。 FIG. 6D illustrates an example 640 of navigation indicators 642 presented in the viewport interface when a content item (eg, virtual content item) is being accessed. In FIG. 6D, the viewport accessing the virtual content item is zoomed in on the scene of the virtual content item. Furthermore, the orientation of the viewport to access the virtual content item is west or left with respect to the viewport's initial or intended orientation 644. As a result, the orientation indicator 646 is shown stretched or increased in size about the point 648 to indicate the increased zoom level of the viewport. Further, the orientation indicator 646 is shown as rotated to the left about the point 648 to indicate the direction of the viewport.

図6Eは、コンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされているときにビューポートインタフェースに提示され得るナビゲーションインジケータ652の一例650を示す。図6Eでは、ビューポートの初期の、または意図された方向654が更新されている。意図された方向654への変更は、例えば、ビューポートが案内されるシーンにアクセスする場合(例えば、移動する車両からのビュー)など、仮想コンテンツアイテムの再生中の異なる時点で生じる可能性がある。この例では、仮想コンテンツアイテムにアクセスするビューポートは、ビューポートの意図された方向654に対して反対方向を向いている。その結果、方位インジケータ656は、意図された方向654に対して反対方向に点658の周りを回転しているように示される。 FIG. 6E illustrates an example navigation indicator 650 that may be presented to the viewport interface when a content item (eg, virtual content item) is being accessed. In FIG. 6E, the viewport's initial or intended orientation 654 has been updated. Changes to the intended direction 654 may occur at different times during playback of the virtual content item, eg, when the viewport accesses a guided scene (eg, a view from a moving vehicle). .. In this example, the viewport accessing the virtual content item is facing away from the viewport's intended orientation 654. As a result, the orientation indicator 656 is shown rotating around point 658 in the opposite direction to the intended direction 654.

図6Fは、コンテンツアイテム(例えば、仮想コンテンツアイテム)がアクセスされているときに、ビューポートインタフェースに提示されるナビゲーションインジケータ662の一例660を示す。図6Fにおいて、仮想コンテンツアイテムにアクセスするビューポートは、仮想コンテンツアイテムのシーンにズームインされる。さらに、仮想コンテンツアイテムにアクセスするビューポートの方向は、ビューポートの初期の、または意図された方向664に対して西に向いているか、または左に向いている。その結果、方位インジケータ666は、ビューポートの拡大されたズームレベルを示すために、ポイント668の周りで伸長されるか、またはサイズが増大されるように示される。さらに、方位インジケータ666は、ビューポートの方向を示すために、点668の周りで左に回転されているものとして示される。いくつかの実施形態では、ナビゲーションインジケータ662は、アクセスされている仮想コンテンツアイテムのシーンにおける様々な注目点を識別することができる。そのような実施形態では、ナビゲーションインジケータ662は、例えば、方向664および/または方位インジケータ666に対して、注目点の対応する方向670を視覚的に示すことができる。このような複数の注目点は、例えば、仮想コンテンツアイテムの開発者によって指定され得る。一般に、各注目点は、アクセスされているシーン(例えば、ストリームまたはフィード)に対応する時点に関する仮想コンテンツアイテムによってキャプチャされた1つまたは複数のシーンにおける任意の位置に関連付けることができる。いくつかの実施形態では、ナビゲーションインジケータ662は、ビューポートを介して提示されるシーンにおけるビューポート位置の閾値距離内の複数の注目点を識別することができる。 FIG. 6F illustrates an example 660 of navigation indicators 662 presented in the viewport interface when a content item (eg, virtual content item) is being accessed. In FIG. 6F, the viewport accessing the virtual content item is zoomed in on the scene of the virtual content item. Further, the viewport orientation for accessing the virtual content item is either westward or leftward with respect to the viewport's initial or intended orientation 664. As a result, the orientation indicator 666 is shown stretched or increased in size around the point 668 to indicate the enlarged zoom level of the viewport. Further, the orientation indicator 666 is shown as rotated to the left about the point 668 to indicate the orientation of the viewport. In some embodiments, the navigation indicators 662 can identify various points of interest in the scene of the virtual content item being accessed. In such an embodiment, the navigation indicator 662 may visually indicate the corresponding direction 670 of the point of interest to the direction 664 and/or the orientation indicator 666, for example. Such a plurality of points of interest may be designated by the developer of the virtual content item, for example. In general, each point of interest can be associated with any location in the scene or scenes captured by the virtual content item for a time point corresponding to the scene (eg, stream or feed) being accessed. In some embodiments, the navigation indicator 662 can identify multiple points of interest within a threshold distance of viewport position in the scene presented through the viewport.

図7は、本開示の一実施形態による、ビューポートインタフェースをナビゲートするための例示的な方法700を示す。別段の記載がない限り、本明細書で説明する様々な実施形態の範囲内で、同様の、または代替の順序で、または並行して実行される追加の、より少ない、または代替のステップが存在し得ることを理解されたい。 FIG. 7 illustrates an exemplary method 700 for navigating a viewport interface according to one embodiment of this disclosure. Unless stated otherwise, there are additional, fewer, or alternative steps performed in a similar or alternative order or in parallel within the various embodiments described herein. Please understand that you can.

ブロック702において、コンテンツアイテムにアクセスするための少なくとも1つの要求が決定される。要求されたコンテンツアイテムは、1組の異なる位置から1つまたは複数のシーンを撮像する1組のカメラフィードを使用して構成される。ブロック704において、要求されたコンテンツアイテムのシーンの少なくとも幾つかをナビゲートするための自動視聴モードを記述する情報が取得される。ブロック706において、要求されたコンテンツアイテムの再生が提示されるコンピューティングデバイスの表示画面上にビューポートインタフェースが提供される。ブロック708において、ビューポートインタフェースは、自動視聴モードに少なくとも部分的に基づいて、要求されたコンテンツアイテムの再生中にシーンの少なくとも幾つかにわたって自動的にナビゲートされる。 At block 702, at least one request to access the content item is determined. The requested content item is constructed using a set of camera feeds that image one or more scenes from a set of different locations. At block 704, information describing an automatic viewing mode for navigating at least some of the requested content item scenes is obtained. At block 706, a viewport interface is provided on the display screen of the computing device where the playback of the requested content item is presented. At block 708, the viewport interface is automatically navigated over at least some of the scenes during playback of the requested content item based at least in part on the auto-viewing mode.

本開示の様々な実施形態に関連する多くの他の使用、用途、および/または変形があり得ることが企図される。例えば、場合によっては、ユーザは、開示された技術を利用するか否かを選択することができる。また、開示された技術は、様々なプライバシー設定および嗜好が維持され、個人情報が漏洩するのを防止することを保証することもできる。別の例では、本開示の様々な実施形態は、学習、改善、および/または経時的に改良され得る。 It is contemplated that there may be many other uses, applications, and/or variations associated with various embodiments of the present disclosure. For example, in some cases, the user may choose whether to utilize the disclosed technology. The disclosed technology can also ensure that various privacy settings and preferences are maintained and personal information is prevented from leaking. In another example, various embodiments of the present disclosure may be learned, improved, and/or improved over time.

ソーシャルネットワーキングシステム−例示的な実装形態
図8は、本開示の一実施形態による、向上したビデオ符号化のための様々な実施形態で利用され得る例示的なシステム800のネットワーク図を示す。システム800は、1つまたは複数のユーザデバイス810と、1つまたは複数の外部システム820と、ソーシャルネットワーキングシステム(ソーシャルネットワーキングサービス)830と、ネットワーク850とを含む。一実施形態では、前述の実施形態との関連で論じられたソーシャルネットワーキングサービス、プロバイダ、および/またはシステムは、ソーシャルネットワーキングシステム830として実装されてよい。例示の目的のために、図8によって示される、システム800の実施形態は、単一の外部システム820と、単一のユーザデバイス810とを含む。ただし、他の実施形態において、システム800は、より多くのユーザデバイス810、および/または、より多くの外部システム820を含んでもよい。特定の実施形態において、ソーシャルネットワーキングシステム830は、ソーシャルネットワークプロバイダによって運営されるのに対して、外部システム820は、異なるエンティティによって運営され得るという点で、ソーシャルネットワーキングシステム830とは別個のものである。しかしながら、様々な実施形態において、ソーシャルネットワーキングシステム830および外部システム820は、共に動作して、ソーシャルネットワーキングシステム830のユーザ(またはメンバー)に対してソーシャルネットワーキングサービスを提供する。この意味において、ソーシャルネットワーキングシステム830は、外部システム820などの他のシステムがインターネット上のユーザに対してソーシャルネットワーキングサービスおよび機能を提供するために使用し得るプラットフォームまたはバックボーンを提供する。
Social Networking System-Exemplary Implementation FIG . 8 illustrates a network diagram of an exemplary system 800 that may be utilized in various embodiments for enhanced video coding, according to one embodiment of the disclosure. The system 800 includes one or more user devices 810, one or more external systems 820, a social networking system (social networking service) 830, and a network 850. In one embodiment, the social networking services, providers, and/or systems discussed in connection with the above embodiments may be implemented as social networking system 830. For purposes of illustration, the embodiment of system 800 illustrated by FIG. 8 includes a single external system 820 and a single user device 810. However, in other embodiments, system 800 may include more user devices 810 and/or more external systems 820. In certain embodiments, social networking system 830 is separate from social networking system 830 in that external system 820 may be operated by a different entity, while social networking system 830 is operated by a social network provider. .. However, in various embodiments, the social networking system 830 and the external system 820 work together to provide social networking services to users (or members) of the social networking system 830. In this sense, social networking system 830 provides a platform or backbone that other systems such as external system 820 can use to provide social networking services and functionality to users on the Internet.

ユーザデバイス810は、ユーザから入力を受信し、ネットワーク850を通じてデータを送受信することができる1つまたは複数のコンピューティングデバイス(またはコンピューティングシステム)を備える。一実施形態において、ユーザデバイス810は、例えば、マイクロソフトウィンドウズ(登録商標)と互換性のあるオペレーティングシステム(OS)、Apple OS X、および/またはLinux(登録商標)ディストリビューションを実行する従来のコンピュータシステムである。別の実施形態において、ユーザデバイス810は、スマートフォン、タブレット、携帯情報端末(PDA:personal digital assistant)、携帯電話、ラップトップコンピュータ、ウェアラブルデバイス(例えば、眼鏡、腕時計、ブレスレット、その他)、カメラ、機器、その他などのコンピュータ機能を有するコンピューティングデバイスまたはデバイスであってもよい。ユーザデバイス810は、ネットワーク850を通じて通信するように構成される。ユーザデバイス810は、アプリケーション、例えば、ユーザデバイス810のユーザがソーシャルネットワーキングシステム830と対話することを可能にするブラウザアプリケーションを実行することができる。別の実施形態において、ユーザデバイス810は、iOSおよびANDROID(登録商標)などの、ユーザデバイス810のネイティブオペレーティングシステムによって提供されるアプリケーションプログラミングインタフェース(API)を通じてソーシャルネットワーキングシステム830を対話する。ユーザデバイス810は、ネットワーク850を通じて外部システム820およびソーシャルネットワーキングシステム830と通信するように構成される。ネットワーク850は、有線通信システムおよび/または無線通信システムを使用する、ローカルエリアネットワークおよび/または広域ネットワークの任意の組み合わせを備え得る。 User device 810 comprises one or more computing devices (or computing systems) that can receive input from a user and send and receive data over network 850. In one embodiment, the user device 810 is a conventional computer system running, for example, an operating system (OS) compatible with Microsoft Windows®, Apple OS X, and/or a Linux® distribution. Is. In another embodiment, the user device 810 is a smartphone, tablet, personal digital assistant (PDA), mobile phone, laptop computer, wearable device (eg, glasses, watch, bracelet, etc.), camera, device. , Etc. may be a computing device or device having computer functions. User device 810 is configured to communicate over network 850. User device 810 can execute an application, eg, a browser application that allows a user of user device 810 to interact with social networking system 830. In another embodiment, the user device 810 interacts with the social networking system 830 through an application programming interface (API) provided by the native operating system of the user device 810, such as iOS and ANDROID®. User device 810 is configured to communicate with external system 820 and social networking system 830 through network 850. The network 850 may comprise any combination of local area networks and/or wide area networks using wired and/or wireless communication systems.

1つの実施形態において、ネットワーク850は、標準的な通信技術およびプロトコルを使用する。したがって、ネットワーク850は、イーサネット(登録商標)、802.11、マイクロ波アクセスのための世界的相互運用性(WiMAX:worldwide interoperability for microwave access)、3G、4G、CDMA、GSM(登録商標)、LTE、デジタル加入者線(DSL:digital subscriber line)等などの技術を使用するリンクを含み得る。同様に、ネットワーク850上で使用されるネットワーキングプロトコルは、マルチプロトコルラベルスイッチング(MPLS:multiprotocol label switching)、送信制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、簡易メール転送プロトコル(SMTP:simple mail transfer protocol)、ファイル転送プロトコル(FTP)などを含み得る。ネットワーク850上で交換されるデータは、ハイパーテキストマークアップ言語(HTML)および拡張マークアップ言語(XML)を含む技術および/またはフォーマットを使用して表現され得る。また、全部または一部のリンクは、セキュアソケットレイヤ(SSL)、トランスポートレイヤセキュリティ(TLS)、およびインターネットプロトコルセキュリティ(IPsec)などの従来の暗号化技術を使用して暗号化され得る。 In one embodiment, the network 850 uses standard communication technologies and protocols. Accordingly, the network 850 includes Ethernet, 802.11, world wide interoperability for microwave access (WiMAX), 3G, 4G, CDMA, GSM (registered trademark), LTE. , Digital subscriber line (DSL) or the like. Similarly, the networking protocols used on the network 850 include multiprotocol label switching (MPLS), transmission control protocol/Internet protocol (TCP/IP), user datagram protocol (UDP), hypertext transfer protocol. (HTTP), simple mail transfer protocol (SMTP), file transfer protocol (FTP), and the like. Data exchanged over the network 850 may be represented using techniques and/or formats including Hypertext Markup Language (HTML) and Extensible Markup Language (XML). Also, all or some links may be encrypted using conventional encryption techniques such as Secure Socket Layer (SSL), Transport Layer Security (TLS), and Internet Protocol Security (IPsec).

1つの実施形態において、ユーザデバイス810は、外部システム820から、およびソーシャルネットワーキングシステム830から受信されるマークアップ言語文書814を、ブラウザアプリケーション812を使用して処理することによって、外部システム820からのコンテンツおよび/またはソーシャルネットワーキングシステム830からのコンテンツを表示し得る。マークアップ言語文書814は、コンテンツと、そのコンテンツのフォーマッティングまたは表示方法を記述する1つまたは複数の命令とを識別する。マークアップ言語文書814内に含まれる命令を実行することによって、ブラウザアプリケーション812は、マークアップ言語文書814によって記述されたフォーマットまたは表示方法を使用して、識別されたコンテンツを表示する。例えば、マークアップ言語文書814は、外部システム820およびソーシャルネットワーキングシステム830から得られたテキストおよび/または画像データを含む複数のフレームを有するウェブページを生成および表示するための命令を含む。様々な実施形態において、マークアップ言語文書814は、拡張マークアップ言語(XML)データ、拡張ハイパーテキストマークアップ言語(XHTML)データ、または、他のマークアップ言語データを含むデータファイルを備える。また、マークアップ言語文書814は、外部システム820とユーザデバイス810との間のデータ交換を容易にするためのジャバスクリプトオブジェクトノーテーション(JSON:JavaScript(登録商標)Object Notation)データ、パディング付きのJSON(JSONP:JSON with padding)データ、およびジャバスクリプトデータを含み得る。ユーザデバイス810上のブラウザアプリケーション812は、ジャバスクリプトコンパイラを使用して、マークアップ言語文書814を復号し得る。 In one embodiment, user device 810 processes content from external system 820 by processing markup language documents 814 received from external system 820 and from social networking system 830 using browser application 812. And/or content from the social networking system 830 may be displayed. Markup language document 814 identifies the content and one or more instructions that describe how to format or display the content. By executing the instructions contained within the markup language document 814, the browser application 812 uses the format or display method described by the markup language document 814 to display the identified content. For example, markup language document 814 includes instructions for generating and displaying a web page having a plurality of frames containing text and/or image data obtained from external system 820 and social networking system 830. In various embodiments, the markup language document 814 comprises a data file containing extended markup language (XML) data, extended hypertext markup language (XHTML) data, or other markup language data. Also, the markup language document 814 is a Javascript Object Notation (JSON) data for facilitating data exchange between the external system 820 and the user device 810, and JSON with padding. (JSONP: JSON with padding) data, and Javascript data may be included. The browser application 812 on the user device 810 may use a Javascript compiler to decrypt the markup language document 814.

マークアップ言語文書814は、FLASH(商標)アプリケーションまたはUnity(商標)アプリケーション、SilverLight(商標)アプリケーションフレームワーク等などの、アプリケーションまたはアプリケーションフレームワークも含み、または、これらに対してもリンクし得る。 The markup language document 814 may also include or link to applications or application frameworks, such as FLASH™ applications or Unity™ applications, the SilverLight™ application framework, and the like.

1つの実施形態において、ユーザデバイス810は、ユーザデバイス810のユーザがソーシャルネットワーキングシステム830へログインしたかを示すデータを含む、1つまたは複数のクッキー816も含む。クッキー816は、ソーシャルネットワーキングシステム830からユーザデバイス810へ通信されるデータのカスタム化を可能にし得る。 In one embodiment, user device 810 also includes one or more cookies 816 that include data indicating whether the user of user device 810 logged in to social networking system 830. Cookie 816 may enable customization of data communicated from social networking system 830 to user device 810.

外部システム820は、1つまたは複数のウェブページ822a、822bを含む、1つまたは複数のウェブサーバを含む。1つまたは複数のウェブページ822a、822bは、ネットワーク850を使用して、ユーザデバイス810へ通信される。外部システム820は、ソーシャルネットワーキングシステム830とは別個である。例えば、外部システム820は、第1のドメインに対して関連付けられるが、ソーシャルネットワーキングシステム830は、別個のソーシャルネットワーキングドメインに対して関連付けられる。外部システム820に含まれるウェブページ822a、822bは、コンテンツを識別し、識別されたコンテンツのフォーマッティングおよび表示方法を特定する命令を含むマークアップ言語文書814を備える。前述したように、多くのバリエーションまたは他の可能性があり得ることを理解されたい。 External system 820 includes one or more web servers that include one or more web pages 822a, 822b. One or more web pages 822a, 822b are communicated to user device 810 using network 850. External system 820 is separate from social networking system 830. For example, external system 820 is associated with a first domain, while social networking system 830 is associated with a separate social networking domain. Web pages 822a, 822b included in external system 820 include a markup language document 814 that includes instructions that identify content and specify how to format and display the identified content. It should be appreciated that there may be many variations or other possibilities, as mentioned above.

ソーシャルネットワーキングシステム830は、複数のユーザを含み、ソーシャルネットワークのユーザに対して、ソーシャルネットワークの他のユーザと通信および対話するための能力を提供する、ソーシャルネットワークのための1つまたは複数のコンピューティングデバイスを含む。さらに詳細に説明されるように、ソーシャルネットワークは、グラフ、すなわち、エッジとノードとを含むデータ構造によって表現され得る。データベース、オブジェクト、クラス、メタ要素、ファイル、または任意の他のデータ構造を含むが、これらに限定されない、他のデータ構造も、ソーシャルネットワークを表現するために使用され得る。ソーシャルネットワーキングシステム830は、オペレータによって監督、管理、または制御されてよい。ソーシャルネットワーキングシステム830のオペレータは、ソーシャルネットワーキングシステム830内でコンテンツを管理し、ポリシを統制し、使用メトリクスを収集するための、人間、自動化されたアプリケーション、または一連のアプリケーションであってよい。任意のタイプのオペレータが使用されてよい。 The social networking system 830 includes one or more users, and one or more computing for a social network that provides users of the social network with the ability to communicate and interact with other users of the social network. Including device. As described in further detail, social networks may be represented by graphs, ie, data structures that include edges and nodes. Other data structures, including but not limited to databases, objects, classes, meta-elements, files, or any other data structure may also be used to represent social networks. The social networking system 830 may be supervised, managed, or controlled by an operator. The operator of the social networking system 830 may be a human, an automated application, or a set of applications for managing content, controlling policies, and collecting usage metrics within the social networking system 830. Any type of operator may be used.

ユーザは、ソーシャルネットワーキングシステム830に加入し、次いで、そのユーザがつなげられることを望む、ソーシャルネットワーキングシステム830の任意の数の他のユーザへのつながりを追加し得る。本明細書において、「友達」という用語は、ユーザがソーシャルネットワーキングシステム830を通じてつながり、関連、または関係を形成した、ソーシャルネットワーキングシステム830の任意の他のユーザに及ぶ。例えば、一実施形態において、ソーシャルネットワーキングシステム830内のユーザが、ソーシャルグラフ内のノードとして表現される場合、「友達」という用語は、2つのユーザノード間に形成され、かつ、2つのユーザノードを直接的に接続するエッジを指し得る。 A user may subscribe to the social networking system 830 and then add connections to any number of other users of the social networking system 830 that the user wishes to be connected to. As used herein, the term “friend” extends to any other user of social networking system 830 with which the user has connected, formed an association, or relationship through social networking system 830. For example, in one embodiment, when a user in social networking system 830 is represented as a node in a social graph, the term “friend” is formed between two user nodes and It can refer to an edge that connects directly.

つながりは、ユーザによって明示的に追加されても、または、ユーザの共通の特性(例えば、同じ教育機関の卒業生であるユーザ)に基づいて、ソーシャルネットワーキングシステム830によって自動的に作成されてもよい。例えば、第1のユーザは、友達になりたい特定の他のユーザを具体的に選択する。ソーシャルネットワーキングシステム830におけるつながりは、通常は双方向であるが、双方向である必要はなく、そのため、「ユーザ」および「友達」という用語は、枠組みに依存する。ソーシャルネットワーキングシステム830のユーザ間のつながりは、通常は、双務的(「二方向」)または「相互的」であるが、つながりは、片務的、または「一方向」であってもよい。例えば、ボブおよびジョーの両者が、ソーシャルネットワーキングシステム830のユーザであり、互いにつながっている場合、ボブおよびジョーは、互いのつながりである。他方で、ボブは、ジョーによってソーシャルネットワーキングシステム830へ通信されたデータを見るためにジョーとつながることを欲するが、ジョーは、相互的なつながりを形成することを欲しない場合、片務的なつながりが確立され得る。ユーザ間のつながりは、直接的なつながりであり得る。ただし、ソーシャルネットワーキングシステム830のいくつかの実施形態は、つながりが、1つまたは複数のつながりのレベルまたは分離度を通じた間接的なものとなることを可能にする。 The connections may be explicitly added by the user or may be automatically created by the social networking system 830 based on the user's common characteristics (eg, users who are graduates of the same educational institution). For example, the first user specifically selects a specific other user who wants to be a friend. The connections in social networking system 830 are typically bi-directional, but need not be bi-directional, so the terms "user" and "friends" are framework dependent. Connections between users of social networking system 830 are typically bi-directional ("two-way") or "reciprocal", although connections may be unilateral or "one-way." For example, if Bob and Joe are both users of social networking system 830 and are connected to each other, Bob and Joe are connected to each other. On the other hand, if Bob wants to connect with Joe in order to see the data communicated by Joe to the social networking system 830, but Joe does not want to form a reciprocal connection, he is unilaterally connected. Can be established. The connection between the users can be a direct connection. However, some embodiments of social networking system 830 allow connections to be indirect through one or more levels or degrees of connection.

ユーザ間のつながりを確立および維持し、ユーザ間の対話を可能にすることに加えて、ソーシャルネットワーキングシステム830は、ソーシャルネットワーキングシステム830によってサポートされる様々なタイプのアイテムに対してアクションを行うための能力をユーザに対して提供する。こうしたアイテムは、ソーシャルネットワーキングシステム830のユーザが所属し得るグループまたはネットワーク(すなわち、人々、エンティティ、およびコンセプトのソーシャルネットワーク)、ユーザが興味を持ち得るイベントまたはカレンダー入力、ユーザがソーシャルネットワーキングシステム830を通じて使用し得るコンピュータベースのアプリケーション、ソーシャルネットワーキングシステム830によって提供されるサービスを通じてまたはソーシャルネットワーキングシステム830を通じてユーザがアイテムを購入または販売することを可能にする取引、ならびにユーザがソーシャルネットワーキングシステム830内外で実行し得る広告との対話を含み得る。これらは、ユーザがソーシャルネットワーキングシステム830上で作用を与え得るアイテムのわずかな例にすぎず、多くの他の例が可能である。ユーザは、ソーシャルネットワーキングシステム830において、または、ソーシャルネットワーキングシステム830とは別個の外部システム820もしくはネットワーク850を通じてソーシャルネットワーキングシステム830に対して結合される外部システム820において表現されることが可能なありとあらゆるものと対話し得る。 In addition to establishing and maintaining a connection between users and allowing interaction between users, social networking system 830 is for performing actions on various types of items supported by social networking system 830. Providing capabilities to users. Such items may be groups or networks (ie, social networks of people, entities, and concepts) to which a user of the social networking system 830 may belong, events or calendar inputs that the user may be interested in, used by the user through the social networking system 830. Computer-based applications, transactions that allow a user to buy or sell items through the services provided by the social networking system 830, or through the social networking system 830, as well as the user may execute inside or outside the social networking system 830. It may include interaction with advertising. These are just a few examples of items that a user may act on the social networking system 830, and many other examples are possible. A user may be represented in social networking system 830, or in external system 820 separate from social networking system 830 or in external system 820 coupled to social networking system 830 through network 850. You can interact.

ソーシャルネットワーキングシステム830は、多様なエンティティとリンクすることも可能である。例えば、ソーシャルネットワーキングシステム830は、ユーザが互いに対話すること、および、API、ウェブサービス、または他の通信チャネルを通じて外部システム820または他のエンティティと対話することを可能にする。ソーシャルネットワーキングシステム830は、複数のエッジによって相互接続された複数のノードを備える「ソーシャルグラフ」を生成および維持する。ソーシャルグラフ内の各ノードは、別のノードに対して作用を与え得るエンティティおよび/または別のノードによって作用を与えられ得るエンティティを表現し得る。ソーシャルグラフは、様々なタイプのノードを含み得る。ノードのタイプの例は、ユーザ、人間以外のエンティティ、コンテンツアイテム、ウェブページ、グループ、アクティビティ、メッセージ、コンセプト、およびソーシャルネットワーキングシステム830内のオブジェクトによって表現され得る任意の他のものを含む。ソーシャルグラフ内の2つのノード間のエッジは、ノード関係から、またはノードのうちの一方によって他方に対して実行されたアクションから生じ得る、2つのノード間の特定の種類のつながり、または関連を表現し得る。いくつかのケースでは、ノード間のエッジは、重み付けされ得る。エッジの重みは、ノード間のつながりまたは関連の強度などの、そのエッジに対して関連付けられている属性を表現し得る。異なるタイプのエッジが、異なる重みと共に提供され得る。例えば、あるユーザが別のユーザに対して「いいね」を表明するときに作成されるエッジには、ある重みが与えられてよく、ユーザが別のユーザと友達になるときに作成されるエッジには、異なる重みが与えられてよい。 The social networking system 830 can also be linked with various entities. For example, social networking system 830 allows users to interact with each other and with external system 820 or other entities through APIs, web services, or other communication channels. The social networking system 830 creates and maintains a "social graph" that comprises multiple nodes interconnected by multiple edges. Each node in the social graph may represent an entity that can act on and/or be acted on by another node. The social graph may include various types of nodes. Examples of node types include users, non-human entities, content items, web pages, groups, activities, messages, concepts, and any others that may be represented by objects within the social networking system 830. An edge between two nodes in a social graph represents a particular type of connection, or association, between two nodes that may result from node relationships or from actions performed by one of the nodes on the other. You can In some cases, the edges between nodes may be weighted. Edge weights may represent attributes associated with that edge, such as the strength of the connection or association between nodes. Different types of edges may be provided with different weights. For example, an edge created when one user likes another user may be given a weight, and an edge created when a user becomes friends with another user. May be given different weights.

例として、第1のユーザが第2のユーザを友達として識別した場合、第1のユーザを表すノードと、第2のユーザを表す第2のノードとを接続するソーシャルグラフ中のエッジが生成される。様々なノードが互いに関係するかまたは対話するのに伴い、ソーシャルネットワーキングシステム830は、関係および対話を反映するように、様々なノードを接続するエッジを修正する。 As an example, if the first user identifies the second user as a friend, an edge in the social graph connecting the node representing the first user and the second node representing the second user is generated. It As the various nodes relate or interact with each other, the social networking system 830 modifies the edges connecting the various nodes to reflect the relationships and interactions.

ソーシャルネットワーキングシステム830は、ユーザによるソーシャルネットワーキングシステム830との対話を高める、ユーザにより生成されたコンテンツも含む。ユーザにより生成されたコンテンツは、ユーザがソーシャルネットワーキングシステム830に対して追加し、アップロードし、送信し、または「投稿し」得るあらゆるものを含み得る。例えば、ユーザは、ユーザデバイス810からソーシャルネットワーキングシステム830への投稿を通信する。投稿は、ステータスアップデートもしくは他の文字情報などのデータ、位置情報、写真などの画像、映像、リンク、音楽、または、他の同様のデータおよび/もしくはメディアを含み得る。コンテンツも、第三者によってソーシャルネットワーキングシステム830に対して追加され得る。コンテンツ「アイテム」は、ソーシャルネットワーキングシステム830においてオブジェクトとして表現される。このようにして、ソーシャルネットワーキングシステム830のユーザは、様々な通信チャネルを通じて様々なタイプのテキストおよびコンテンツアイテムを投稿することによって、互いに通信することを促される。そのような通信は、ユーザ同士の対話を増加させ、ユーザがソーシャルネットワーキングシステム830と対話する頻度を増加させる。 Social networking system 830 also includes user-generated content that enhances user interaction with social networking system 830. User generated content may include anything that a user may add to, upload, send, or “post” to social networking system 830. For example, a user communicates a post from user device 810 to social networking system 830. Posts may include data such as status updates or other textual information, location information, images such as photos, videos, links, music, or other similar data and/or media. Content may also be added to social networking system 830 by a third party. The content “item” is represented as an object in the social networking system 830. In this way, users of the social networking system 830 are encouraged to communicate with each other by posting different types of text and content items through different communication channels. Such communication increases interaction between users and increases the frequency with which users interact with social networking system 830.

ソーシャルネットワーキングシステム830は、ウェブサーバ832と、API要求サーバ834と、ユーザプロファイルストア836と、つながりストア838と、アクションロガー840と、アクティビティログ842と、認証サーバ844とを含む。本発明の一実施形態において、ソーシャルネットワーキングシステム830は、様々なアプリケーションのための追加的な構成要素、より少ない構成要素、または異なる構成要素を含み得る。ネットワークインタフェース、セキュリティ機構、負荷分散装置、フェイルオーバサーバ、管理およびネットワーク操作コンソールなどの他の構成要素は、本システムの詳細を曖昧にしないように、図示されていない。 The social networking system 830 includes a web server 832, an API request server 834, a user profile store 836, a connection store 838, an action logger 840, an activity log 842, and an authentication server 844. In one embodiment of the invention, social networking system 830 may include additional components, fewer components, or different components for various applications. Other components such as network interfaces, security mechanisms, load balancers, failover servers, management and network operations consoles are not shown so as not to obscure the details of the system.

ユーザプロファイルストア836は、ユーザによって申告され、またはソーシャルネットワーキングシステム830によって推測された職歴、学歴、趣味または嗜好、住所などの経歴的情報、人口学的情報、および他のタイプの記述的情報を含む、ユーザアカウントに関する情報を維持する。この情報は、各ユーザが一意に識別されるように、ユーザプロファイルストア836内に記憶される。ソーシャルネットワーキングシステム830は、異なるユーザ間の1つまたは複数のつながりを記述するデータも、つながりストア838内に記憶する。つながり情報は、同様または共通の職歴、グループメンバーシップ、趣味、または学歴を有するユーザを示し得る。また、ソーシャルネットワーキングシステム830は、ユーザの他のユーザとの関係をユーザが特定することを可能にする、異なるユーザ間におけるユーザによって定義されたつながりを含む。例えば、ユーザによって定義されたつながりは、友達、同僚、パートナー等などの、ユーザの実生活の関係と並行する、他のユーザとの関係をユーザが生成することを可能にする。ユーザは、予め定義されたタイプのつながりから選択しても、またはユーザ自身のつながりタイプを必要に応じて定義してもよい。非人間エンティティ、バケット、クラスタセンタ、画像、興味、ページ、外部システム、コンセプト等などの、ソーシャルネットワーキングシステム830内の他のノードとのつながりも、つながりストア838内に記憶される。 User profile store 836 includes work history, education, hobbies or preferences, biographical information such as addresses, demographic information, and other types of descriptive information declared by the user or inferred by social networking system 830. , Maintain information about user accounts. This information is stored in the user profile store 836 so that each user is uniquely identified. Social networking system 830 also stores data in connection store 838 that describes one or more connections between different users. Connectivity information may indicate users with similar or common work experience, group membership, hobbies, or educational background. The social networking system 830 also includes user-defined connections between different users that allow the user to identify their relationships with other users. For example, a user-defined connection allows a user to create relationships with other users, such as friends, colleagues, partners, etc., that are parallel to the user's real-life relationships. The user may choose from predefined types of connections, or define their own connection type as needed. Connections with other nodes within social networking system 830, such as non-human entities, buckets, cluster centers, images, interests, pages, external systems, concepts, etc., are also stored within connection store 838.

ソーシャルネットワーキングシステム830は、ユーザが対話し得るオブジェクトに関するデータを維持する。このデータを維持するために、ユーザプロファイルストア836およびつながりストア838は、ソーシャルネットワーキングシステム830によって維持されるオブジェクトの対応するタイプのインスタンスを記憶する。各オブジェクトタイプは、オブジェクトのタイプに適した情報を記憶するのに適した情報フィールドを有する。例えば、ユーザプロファイルストア836は、ユーザのアカウントおよびユーザのアカウントに関連した情報を記述するのに適したフィールドを有するデータ構造を含む。特定のタイプの新たなオブジェクトが作成される場合、ソーシャルネットワーキングシステム830は、対応するタイプの新たなデータ構造を初期化し、その新たなデータ構造に対して一意のオブジェクト識別子を割り当て、必要に応じて、そのオブジェクトに対してデータを追加することを開始する。これは、例えば、ユーザがソーシャルネットワーキングシステム830のユーザになった場合に発生し、ソーシャルネットワーキングシステム830は、ユーザプロファイルストア836内にユーザプロファイルの新たなインスタンスを生成し、ユーザアカウントに対して一意の識別子を割り当て、ユーザによって提供される情報をユーザアカウントのフィールドへ投入し始める。 Social networking system 830 maintains data about objects with which the user may interact. To maintain this data, user profile store 836 and connection store 838 store corresponding type instances of objects maintained by social networking system 830. Each object type has an information field suitable for storing information suitable for the type of object. For example, user profile store 836 includes a data structure having fields suitable for describing a user's account and information related to the user's account. When a new object of a particular type is created, the social networking system 830 initializes a new data structure of the corresponding type, assigns a unique object identifier to the new data structure, and optionally , Start adding data to that object. This occurs, for example, when the user becomes a user of the social networking system 830, which creates a new instance of the user profile in the user profile store 836 and is unique to the user account. Assign an identifier and start populating the fields of the user account with the information provided by the user.

つながりストア838は、他のユーザに対するユーザのつながり、外部システム820に対するつながり、または他のエンティティに対するつながりを記述するのに適したデータ構造を含む。つながりストア838は、つながりタイプもユーザのつながりと関連付け得る。つながりタイプは、ユーザのプライバシー設定と共に使用されて、ユーザに関する情報に対するアクセスを規制し得る。本発明の一実施形態において、ユーザプロファイルストア836およびつながりストア838は、連合データベースとして実装され得る。 The connection store 838 includes data structures suitable for describing a user's connections to other users, connections to external systems 820, or connections to other entities. The connection store 838 may also associate the connection type with the user's connection. The connection type may be used in conjunction with the user's privacy settings to regulate access to information about the user. In one embodiment of the invention, user profile store 836 and connection store 838 may be implemented as a federated database.

つながりストア838、ユーザプロファイルストア836、およびアクティビティログ842内に記憶されるデータは、ノードを使用して、ノードを接続する様々なオブジェクトおよびエッジを識別して、異なるオブジェクト間の関係を識別するソーシャルグラフをソーシャルネットワーキングシステム830が生成することを可能にする。例えば、第1のユーザが、ソーシャルネットワーキングシステム830内で第2のユーザとのつながりを確立する場合、ユーザプロファイルストア836からの第1のユーザおよび第2のユーザのユーザアカウントは、ソーシャルグラフ内のノードとして動作し得る。つながりストア838によって記憶される、第1のユーザと第2のユーザとの間のつながりは、第1のユーザおよび第2のユーザに対して関連付けられるノード間のエッジである。この例を続けると、第2のユーザは、次いで、第1のユーザに対して、ソーシャルネットワーキングシステム830内でメッセージを送信し得る。メッセージを送信するアクションは、第1のユーザおよび第2のユーザを表現する、ソーシャルグラフ内の2つのノード間の別のエッジであり、メッセージを送信するアクションは、記憶され得る。また、メッセージ自体が、第1のユーザを表現するノードおよび第2のユーザを表現するノードに対して接続される別のノードとして、ソーシャルグラフにおいて識別され、ソーシャルグラフに含まれ得る。 The data stored in the connections store 838, the user profile store 836, and the activity log 842 uses nodes to identify the various objects and edges that connect the nodes to social relationships that identify relationships between different objects. Allows the social networking system 830 to generate the graph. For example, if the first user establishes a connection with the second user within the social networking system 830, the user accounts of the first user and the second user from the user profile store 836 may be in the social graph. It can act as a node. The connection between the first user and the second user stored by the connection store 838 is the edge between the nodes associated with the first user and the second user. Continuing with this example, the second user may then send a message within the social networking system 830 to the first user. The action of sending the message is another edge between the two nodes in the social graph representing the first user and the second user, and the action of sending the message may be stored. Also, the message itself may be identified in and included in the social graph as another node connected to the node representing the first user and the node representing the second user.

別の例において、第1のユーザは、ソーシャルネットワーキングシステム830によって維持される画像において(または、代替的に、ソーシャルネットワーキングシステム830の外部の別のシステムによって維持される画像において)第2のユーザをタグ付けし得る。画像は、それ自体がソーシャルネットワーキングシステム830内のノードとして表現され得る。このタグ付けアクションは、ユーザの各々と画像との間にエッジを作成するだけでなく、第1のユーザと第2のユーザとの間のエッジも作成し得る。画像もソーシャルグラフ内のノードである。また別の例において、ユーザが、イベントへ参加することを確かめる場合、そのユーザおよびそのイベントは、ユーザプロファイルストア836から取得されるノードであり、そのイベントへの参加は、アクティビティログ842から得られ得るノード間のエッジである。ソーシャルグラフを生成および維持することによって、ソーシャルネットワーキングシステム830は、多くの異なるタイプのオブジェクトを記述するデータ、ならびに、それらのオブジェクト間の対話およびつながりを含み、社会的に関連する情報の豊富なソースを提供する。 In another example, the first user is the second user in an image maintained by the social networking system 830 (or, alternatively, in an image maintained by another system external to the social networking system 830). Can be tagged. The image may itself be represented as a node within the social networking system 830. This tagging action not only creates an edge between each of the users and the image, but may also create an edge between the first user and the second user. Images are also nodes in the social graph. In yet another example, if a user confirms to participate in an event, the user and the event are nodes retrieved from the user profile store 836, and participation in the event is obtained from the activity log 842. It is the edge between the obtained nodes. By generating and maintaining a social graph, social networking system 830 allows data that describes many different types of objects, as well as interactions and connections between those objects, to be a rich source of socially relevant information. I will provide a.

ウェブサーバ832は、ソーシャルネットワーキングシステム830を、ネットワーク850を通じて、1つもしくは複数のユーザデバイス810および/または1つもしくは複数の外部システム820に対してリンクする。ウェブサーバ832は、ウェブページ、およびJava(登録商標)、JavaScript、Flash、XMLなどの他のウェブ関連コンテンツを供給する。ウェブサーバ832は、メールサーバを含み、または、ソーシャルネットワーキングシステム830と1つもしくは複数のユーザデバイス810との間のメッセージを受信およびルーティングするための他のメッセージング機能を含み得る。メッセージは、インスタントメッセージ、キューメッセージ(例えば、電子メール)、テキストおよびSMSメッセージ、または任意の他の適切なメッセージングフォーマットであり得る。 Web server 832 links social networking system 830 through network 850 to one or more user devices 810 and/or one or more external systems 820. The web server 832 serves web pages and other web related content such as Java, Javascript, Flash, XML. Web server 832 may include a mail server, or may include other messaging functionality for receiving and routing messages between social networking system 830 and one or more user devices 810. The message may be an instant message, a queue message (eg email), a text and SMS message, or any other suitable messaging format.

API要求サーバ834は、1つまたは複数の外部システム820およびユーザデバイス810が、1つまたは複数のAPI関数を呼び出すことによって、ソーシャルネットワーキングシステム830からのアクセス情報を呼び出すことを可能にする。API要求サーバ834は、外部システム820が、APIを呼び出すことによって、ソーシャルネットワーキングシステム830に対して情報を送信することも可能にし得る。外部システム820は、1つの実施形態において、ネットワーク850を通じてソーシャルネットワーキングシステム830へAPI要求を送信し、API要求サーバ834は、そのAPI要求を受信する。API要求サーバ834は、API要求に対して関連付けられているAPIを呼び出すことによって要求を処理して、適当な応答を生成する。API要求サーバ834は、その適当な応答を、ネットワーク850を通じて外部システム820へ通信する。例えば、API要求に応答して、API要求サーバ834は、外部システム820に対してログインしたユーザのつながりなどの、ユーザに対して関連付けられているデータを収集し、収集されたデータを外部システム820へ通信する。別の実施形態において、ユーザデバイス810は、外部システム820と同じ手法で、APIを通じてソーシャルネットワーキングシステム830と通信する。 API request server 834 enables one or more external systems 820 and user device 810 to call access information from social networking system 830 by calling one or more API functions. API request server 834 may also allow external system 820 to send information to social networking system 830 by calling an API. The external system 820 sends the API request to the social networking system 830 through the network 850, and the API request server 834 receives the API request in one embodiment. API request server 834 processes the request by invoking the API associated with the API request to generate the appropriate response. API request server 834 communicates the appropriate response to external system 820 over network 850. For example, in response to the API request, the API request server 834 collects data associated with the user, such as connections of users who have logged in to the external system 820, and collects the collected data in the external system 820. Communicate to. In another embodiment, the user device 810 communicates with the social networking system 830 through the API in the same manner as the external system 820.

アクションロガー840は、ソーシャルネットワーキングシステム830内での、および/またはソーシャルネットワーキングシステム830外でのユーザアクションに関する通信をウェブサーバ832から受信することが可能である。アクションロガー840は、ユーザアクションに関する情報をアクティビティログ842へ投入し、ソーシャルネットワーキングシステム830の内部で、およびソーシャルネットワーキングシステム830の外部で、そのユーザによって行われた様々なアクションをソーシャルネットワーキングシステム830が発見することを可能にする。特定のユーザが、ソーシャルネットワーキングシステム830上の別のノードに関して行う任意のアクションは、アクティビティログ842内または同様のデータベースもしくは他のデータレポジトリ内で維持される情報を通じて、各ユーザのアカウントに対して関連付けられ得る。識別および記憶される、ソーシャルネットワーキングシステム830内でユーザによって行われるアクションの例は、例えば、別のユーザに対するつながりを追加すること、別のユーザへメッセージを送信すること、別のユーザからのメッセージを読むこと、別のユーザに対して関連付けられるコンテンツを視聴すること、別のユーザによって投稿されたイベントに参加すること、画像を投稿すること、画像を投稿しようと試行すること、または、別のユーザもしくは別のオブジェクトと対話する他のアクションを含み得る。ユーザが、ソーシャルネットワーキングシステム830内でアクションを行う場合、そのアクションは、アクティビティログ842内に記録される。一実施形態において、ソーシャルネットワーキングシステム830は、アクティビティログ842をエントリのデータベースとして維持する。アクションが、ソーシャルネットワーキングシステム830内で行われる場合、そのアクションについてのエントリが、アクティビティログ842に対して追加される。アクティビティログ842は、アクションログと称され得る。 The action logger 840 can receive communications from the web server 832 regarding user actions within the social networking system 830 and/or outside the social networking system 830. The action logger 840 populates the activity log 842 with information about user actions so that the social networking system 830 discovers various actions performed by the user within the social networking system 830 and outside the social networking system 830. To be able to do. Any action that a particular user takes with respect to another node on social networking system 830 is associated with each user's account through information maintained in activity log 842 or in a similar database or other data repository. Can be done. Examples of actions taken by a user within social networking system 830 that are identified and stored are, for example, adding a connection to another user, sending a message to another user, sending a message from another user. Reading, watching content associated with another user, attending an event posted by another user, posting an image, trying to post an image, or another user Or it may include other actions that interact with another object. When a user takes an action within social networking system 830, the action is recorded in activity log 842. In one embodiment, social networking system 830 maintains activity log 842 as a database of entries. If the action takes place within the social networking system 830, an entry for that action is added to the activity log 842. The activity log 842 may be referred to as an action log.

また、ユーザアクションは、ソーシャルネットワーキングシステム830とは別個の外部システム820などの、ソーシャルネットワーキングシステム830の外部のエンティティ内で発生するコンセプトおよびアクションに対して関連付けられ得る。例えば、アクションロガー840は、ユーザによる外部システム820との対話を記述するデータを、ウェブサーバ832から受信し得る。この例において、外部システム820は、ソーシャルグラフにおける構造化されたアクションおよびオブジェクトに従って、ユーザによる対話を報告する。 Also, user actions may be associated with concepts and actions that occur within entities external to social networking system 830, such as external system 820 separate from social networking system 830. For example, action logger 840 may receive data from web server 832 that describes a user's interaction with external system 820. In this example, external system 820 reports user interactions according to structured actions and objects in the social graph.

ユーザが外部システム820と対話するアクションの他の例は、ユーザが外部システム820もしくは別のエンティティにおいて興味を表現すること、外部システム820もしくは外部システム820内のウェブページ822aと議論するソーシャルネットワーキングシステム830に対してユーザがコメントを投稿すること、ユーザがソーシャルネットワーキングシステム830に対してユニフォームリソースロケータ(URL)もしくは外部システム820に対して関連付けられる他の識別子を投稿すること、ユーザが外部システム820に対して関連付けられるイベントへ参加すること、または、外部システム820に関連する、ユーザによる任意の他のアクションを含む。したがって、アクティビティログ842は、ソーシャルネットワーキングシステム830のユーザと、ソーシャルネットワーキングシステム830とは別個の外部システム820との間の対話を記述するアクションを含み得る。 Other examples of actions that a user interacts with with the external system 820 are social networking system 830 where the user expresses an interest in the external system 820 or another entity, discusses with the external system 820 or a web page 822a within the external system 820. The user posts a comment, the user posts a uniform resource locator (URL) to the social networking system 830 or other identifier associated with the external system 820, the user posts the external system 820 Participating in associated events or any other action by the user associated with the external system 820. Accordingly, activity log 842 may include actions that describe interactions between a user of social networking system 830 and an external system 820 that is separate from social networking system 830.

認証サーバ844は、ソーシャルネットワーキングシステム830のユーザの1つまたは複数のプライバシー設定を強化する。ユーザのプライバシー設定は、ユーザに対して関連付けられる特定の情報がどのように共有され得るかを決定する。プライバシー設定は、ユーザに対して関連付けられる特定の情報の仕様、および情報が共有され得る1つまたは複数のエンティティの仕様を備える。情報が共有され得るエンティティの例は、他のユーザ、アプリケーション、外部システム820、または、その情報に潜在的にアクセスし得る任意のエンティティを含み得る。ユーザによって共有され得る情報は、プロフィール写真などのユーザアカウント情報、ユーザに対して関連付けられる電話番号、ユーザのつながり、つながりを追加すること、ユーザプロフィール情報を変更することなどのユーザによって行われるアクション等を備える。 The authentication server 844 enforces one or more privacy settings for the user of the social networking system 830. User privacy settings determine how certain information associated with the user can be shared. Privacy settings comprise specifications for the particular information associated with a user and specifications for one or more entities with which the information may be shared. Examples of entities with which information may be shared may include other users, applications, external systems 820, or any entity that potentially has access to that information. Information that may be shared by a user includes user account information such as profile pictures, phone numbers associated with the user, user connections, actions taken by the user such as adding connections, changing user profile information, etc. Equipped with.

プライバシー設定仕様は、異なるレベルの粒度で提供され得る。例えば、プライバシー設定は、他のユーザと共有されるべき具体的な情報を識別し得る。プライバシー設定は、職場電話番号、または、プロフィール写真、自宅電話番号、およびステータスを含む個人情報などの関連情報の具体的なセットを識別する。代替的に、プライバシー設定は、ユーザに対して関連付けられる全ての情報に対して適用されてもよい。特定の情報にアクセスすることができるエンティティのセットの仕様も、様々なレベルの粒度で特定され得る。情報が共有され得るエンティティの様々なセットは、例えば、ユーザの全ての友達、友達の全ての友達、全てのアプリケーション、または全ての外部システム820を含み得る。1つの実施形態は、エンティティのセットの仕様がエンティティの一覧表を備えることを可能にする。例えば、ユーザは、一定の情報に対してアクセスすることを許可される外部システム820のリストを提供し得る。別の実施形態は、情報に対してアクセスすることを許可されない例外と共にエンティティのセットを仕様が備えることを可能にする。例えば、ユーザは、全ての外部システム820がユーザの職場情報に対してアクセスすることを許可し得るが、職場情報に対してアクセスすることを許可されない外部システム820のリストを特定し得る。一定の実施形態は、一定の情報に対してアクセスすることを許可されない例外のリストを「ブロックリスト」と呼ぶ。ユーザによって特定されるブロックリストに所属する外部システム820は、プライバシー設定において特定される情報に対してアクセスすることをブロックされる。情報の仕様の粒度と、情報が共有されるエンティティの仕様の粒度との様々な組み合わせが可能である。例えば、全ての個人情報は、友達と共有され得るのに対して、全ての職場情報は、友達の友達と共有され得る。 Privacy setting specifications may be provided at different levels of granularity. For example, privacy settings may identify specific information that should be shared with other users. The privacy settings identify a work phone number or a specific set of related information such as profile picture, home phone number, and personal information including status. Alternatively, privacy settings may be applied to all information associated with the user. The specifications for the set of entities that can access particular information can also be specified at various levels of granularity. The various sets of entities with which information may be shared may include, for example, all friends of the user, all friends of friends, all applications, or all external systems 820. One embodiment allows a specification of a set of entities to include a listing of entities. For example, a user may provide a list of external systems 820 that are allowed access to certain information. Another embodiment allows a specification to have a set of entities with exceptions that are not allowed to access the information. For example, a user may specify a list of external systems 820 that all external systems 820 are allowed to access their work information, but are not allowed to access their work information. Certain embodiments refer to a list of exceptions that are not allowed to access certain information as a "block list." The external system 820 belonging to the block list specified by the user is blocked from accessing the information specified in the privacy settings. Various combinations of the granularity of information specifications and the granularity of specifications of entities with which information is shared are possible. For example, all personal information can be shared with friends, while all work information can be shared with friends of friends.

認証サーバ844は、ユーザに対して関連付けられる一定の情報がユーザの友達、外部システム820、ならびに/または他のアプリケーションおよびエンティティによってアクセスされ得るかを決定するためのロジックを含む。外部システム820は、ユーザの職場電話番号などの、ユーザのより個人的かつ機密的な情報に対してアクセスするために、認証サーバ844からの認証を必要とし得る。ユーザのプライバシー設定に基づいて、認証サーバ844は、別のユーザ、外部システム820、アプリケーション、または別のエンティティが、ユーザによって行われるアクションに関する情報を含む、ユーザに対して関連付けられる情報に対してアクセスすることを許可されているかを決定する。 The authentication server 844 includes logic to determine if certain information associated with the user may be accessed by the user's friends, external systems 820, and/or other applications and entities. External system 820 may require authentication from authentication server 844 to access the user's more personal and sensitive information, such as the user's work phone number. Based on the user's privacy settings, the authentication server 844 may access information associated with the user, including information regarding actions taken by the user, external system 820, application, or another entity. Decide what you are allowed to do.

いくつかの実施形態では、ソーシャルネットワーキングシステム830は、コンテンツプレゼンテーションモジュール846を備えることができる。コンテンツプレゼンテーションモジュール846は、例えば、図1のコンテンツプレゼンテーションモジュール102として実装されてもよい。幾つかの実施形態では、ユーザデバイス810は、図1のコンテンツプレゼンテーションモジュール102によって実行可能な機能の一部または全てを実行するように構成されたコンテンツプレゼンテーションモジュール818を含むことができる。上述したように、多くの変形または他の可能性が存在し得ることを理解されたい。 In some embodiments, social networking system 830 may comprise content presentation module 846. Content presentation module 846 may be implemented as content presentation module 102 of FIG. 1, for example. In some embodiments, user device 810 can include a content presentation module 818 that is configured to perform some or all of the functions executable by content presentation module 102 of FIG. It should be appreciated that there may be many variations or other possibilities, as mentioned above.

ハードウェア実装形態
前述のプロセスおよび特徴は、多種多様なマシンおよびコンピュータシステムアーキテクチャによって、ならびに、多種多様なネットワークおよびコンピューティング環境において実装され得る。図9は、本発明に応じて本明細書に記載された1つまたは複数の実施形態を実装するために使用され得るコンピュータシステム900の例を例示する。コンピュータシステム900は、コンピュータシステム900に対して、本明細書において議論されるプロセスおよび特徴を実行させるための命令のセットを含む。コンピュータシステム900は、他のマシンへ接続され(例えば、ネットワーク化され)得る。ネットワーク化された配置において、コンピュータシステム900は、クライアント/サーバネットワーク環境内のサーバマシンもしくはクライアントマシンの資格において動作し、または、ピアツーピア(もしくは分散)ネットワーク環境内のピアマシンとして動作し得る。本発明の一実施形態において、コンピュータシステム900は、ソーシャルネットワーキングシステム830、ユーザデバイス810、外部システム920、またはこれらの構成要素であってもよい。本発明の一実施形態において、コンピュータシステム900は、ソーシャルネットワーキングシステム830の全てまたは部分を構成する多くのサー間のうちの1つのサーバであってもよい。
Hardware Implementation The processes and features described above may be implemented by a wide variety of machine and computer system architectures, and in a wide variety of networks and computing environments. FIG. 9 illustrates an example computer system 900 that may be used to implement one or more embodiments described herein in accordance with the present invention. Computer system 900 includes a set of instructions for causing computer system 900 to perform the processes and features discussed herein. Computer system 900 can be connected (eg, networked) to other machines. In a networked arrangement, computer system 900 may operate in the context of a server machine or client machine in a client/server network environment, or as a peer machine in a peer-to-peer (or distributed) network environment. In one embodiment of the invention, computer system 900 may be social networking system 830, user device 810, external system 920, or components thereof. In one embodiment of the invention, computer system 900 may be one of many servers that may form all or part of social networking system 830.

コンピュータシステム900は、プロセッサ902と、キャッシュ904と、コンピュータ読取可能な媒体上に記憶され、本明細書において説明されるプロセスおよび特徴へ向けられた、1つまたは複数の実行可能なモジュールおよびドライバとを含む。また、コンピュータシステム900は、高性能入出力(I/O)バス906と、標準I/Oバス908とを含む。ホストブリッジ910は、プロセッサ902を高性能I/Oバス906に対して結合する一方で、I/Oバスブリッジ912は、2つのバス906および908を互いに結合する。システムメモリ914および1つまたは複数のネットワークインタフェース916は、高性能I/Oバス906へ結合される。コンピュータシステム900は、ビデオメモリと、ビデオメモリに対して結合される表示デバイスとをさらに含んでもよい(図示せず)。マスストレージ918およびI/Oポート920は、標準I/Oバス908へ結合される。コンピュータシステム900は、バス908に対して結合される、キーボードおよびポインティングデバイス、表示デバイス、または他の入出力デバイス(図示せず)を随意的に含んでもよい。全体的に、これらの要素は、カリフォルニア州サンタクララのインテルコーポレーション社(Intel Corporation)によって製造されるx86互換性のあるプロセッサ、カリフォルニア州サニーベルのアドバンストマイクロデバイス社(AMD:Advanced Micro Devices,Inc)によって製造されるx86互換性のあるプロセッサ、および任意の他の適切なプロセッサを含むが、これらに限定されない、広範なカテゴリのコンピュータハードウェアシステムを表現することが意図される。 Computer system 900 includes a processor 902, a cache 904, and one or more executable modules and drivers stored on a computer-readable medium and directed to the processes and features described herein. including. Computer system 900 also includes a high performance input/output (I/O) bus 906 and a standard I/O bus 908. Host bridge 910 couples processor 902 to high performance I/O bus 906, while I/O bus bridge 912 couples two buses 906 and 908 to each other. System memory 914 and one or more network interfaces 916 are coupled to high performance I/O bus 906. Computer system 900 may further include video memory and a display device coupled to the video memory (not shown). Mass storage 918 and I/O port 920 are coupled to standard I/O bus 908. Computer system 900 may optionally include a keyboard and pointing device, a display device, or other input/output device (not shown) coupled to bus 908. Overall, these elements are described by an x86-compatible processor manufactured by Intel Corporation of Santa Clara, Calif., by Advanced Micro Devices, Inc., Sunny Bell, Calif. It is intended to represent a broad category of computer hardware systems, including but not limited to manufactured x86 compatible processors, and any other suitable processor.

オペレーティングシステムは、ソフトウェアアプリケーション(図示せず)へのデータの入力およびソフトウェアアプリケーションからのデータの出力を含む、コンピュータシステム900の動作を管理および制御する。オペレーティングシステムは、システム上で実行されているソフトウェアアプリケーションと、システムのハードウェア構成要素との間のインタフェースを提供する。任意の適切なオペレーティングシステム、例えば、LINUXオペレーティングシステム、カリフォルニア州クパチーノのアップルコンピュータ社(Apple Computer,Inc.)から市販されているアップルマッキントッシュオペレーティングシステム、UNIX(登録商標)オペレーティングシステム、マイクロソフト(登録商標)ウィンドウズ(登録商標)オペレーティングシステム、BSDオペレーティングシステム等などが使用され得る。他の実装も可能である。 The operating system manages and controls the operation of computer system 900, including inputting data to and outputting data from software applications (not shown). The operating system provides the interface between the software applications running on the system and the hardware components of the system. Any suitable operating system, such as the LINUX operating system, Apple Macintosh operating system, UNIX operating system, Microsoft® available from Apple Computer, Inc. of Cupertino, Calif. Windows operating system, BSD operating system, etc. may be used. Other implementations are possible.

コンピュータシステム900の要素は、下記においてより詳細に説明される。具体的には、ネットワークインタフェース916は、コンピュータシステム900と、幅広いネットワークのうちの任意のもの、例えば、イーサネット(例えば、IEEE802.3)ネットワーク、バックプレーン等などとの間の通信を提供する。マスストレージ918は、上記に識別されたそれぞれのコンピューティングシステムによって実装される上述されたプロセスおよび特徴を実行するためのデータおよびプログラミング命令のための永続的なストレージを提供するのに対して、システムメモリ914(例えば、DRAM)は、プロセッサ902によって実行される場合のデータおよびプログラミング命令のための一時的なストレージを提供する。I/Oポート920は、コンピュータシステム900へ結合され得る付加的な周辺デバイス間の通信を提供する、1つまたは複数のシリアル通信ポートおよび/またはパラレル通信ポートであり得る。 The elements of computer system 900 are described in more detail below. Specifically, network interface 916 provides communication between computer system 900 and any of a wide variety of networks, such as Ethernet (eg, IEEE 802.3) networks, backplanes, and the like. The mass storage 918 provides persistent storage for data and programming instructions for performing the processes and features described above implemented by the respective computing systems identified above, whereas the system Memory 914 (eg, DRAM) provides temporary storage for data and programming instructions when executed by processor 902. I/O port 920 can be one or more serial and/or parallel communication ports that provide communication between additional peripheral devices that can be coupled to computer system 900.

コンピュータシステム900は、多様なシステムアーキテクチャを含むことができ、コンピュータシステム900の様々な構成要素は、再配置されてもよい。例えば、キャッシュ904は、プロセッサ902と共にチップ上に実装されてもよい。代替的に、キャッシュ904およびプロセッサ902は、「プロセッサモジュール」としてまとめられて、プロセッサ902が「プロセッサコア」と称されてもよい。さらに、本発明の一定の実施形態は、上記構成要素の全部を必要としなくても、または、含まなくてもよい。例えば、標準I/Oバス908へ結合される周辺デバイスは、高性能I/Oバス906へ結合されてもよい。また、いくつかの実施形態において、単一のバスのみが存在して、コンピュータシステム900の構成要素が、その単一のバスへ結合されてもよい。さらに、コンピュータシステム900は、付加的なプロセッサ、記憶デバイス、またはメモリなどの付加的な構成要素を含んでもよい。 Computer system 900 can include a variety of system architectures, and various components of computer system 900 may be rearranged. For example, the cache 904 may be implemented on-chip with the processor 902. Alternatively, cache 904 and processor 902 may be grouped together as a "processor module," with processor 902 referred to as a "processor core." Moreover, certain embodiments of the invention may not require or include all of the above components. For example, a peripheral device coupled to standard I/O bus 908 may be coupled to high performance I/O bus 906. Also, in some embodiments, there may be only a single bus and the components of computer system 900 may be coupled to that single bus. Further, computer system 900 may include additional components such as additional processors, storage devices, or memory.

一般に、本明細書において説明されるプロセスおよび特徴は、オペレーティングシステムの一部もしくは特定のアプリケーション、構成要素、プログラム、オブジェクト、モジュール、または「プログラム」と称される一連の命令として実装され得る。例えば、1つまたは複数のプログラムは、本明細書において説明される具体的なプロセスを実行するために使用され得る。プログラムは、典型的には、1つまたは複数のプロセッサによって読み出され、実行される場合に、コンピュータシステム900に対して、本明細書において説明されるプロセスおよび特徴を実行するための動作を実行させる、1つまたは複数の命令を、コンピュータシステム900内の様々なメモリおよび記憶デバイスにおいて備える。本明細書において説明されるプロセスおよび特徴は、ソフトウェア、ファームウェア、ハードウェア(例えば、特定用途向け集積回路)、または、これらの任意の組み合わせにおいて実装され得る。 In general, the processes and features described herein may be implemented as part of an operating system or a particular application, component, program, object, module, or series of instructions called a "program." For example, one or more programs may be used to carry out the specific processes described herein. A program, when read and executed by one or more processors, typically performs operations on computer system 900 to perform the processes and features described herein. The one or more instructions to cause are included in various memory and storage devices in computer system 900. The processes and features described herein may be implemented in software, firmware, hardware (eg, application specific integrated circuits), or any combination thereof.

1つの実施形態において、本明細書において説明されるプロセスおよび特徴は、分散コンピューティング環境において個々にまたはまとめて、コンピュータシステム900によって実行される一連の実行可能なモジュールとして実装される。前述のモジュールは、ハードウェア、コンピュータ読取可能な媒体(もしくはマシン読取可能な媒体)上に記憶される実行可能なモジュール、または、両者の組み合わせによって実現され得る。例えば、モジュールは、プロセッサ902などの、ハードウェアシステム内のプロセッサによって実行されるべき複数の命令または一連の命令を備え得る。まず、一連の命令は、マスストレージ918などの記憶デバイス上に記憶され得る。ただし、一連の命令は、任意の適切なコンピュータ読取可能な記憶媒体上に記憶されてもよい。さらに、一連の命令は、局所的に記憶される必要はなく、ネットワーク上のサーバなどの遠隔記憶デバイスからネットワークインタフェース916を通じて受信されてもよい。命令は、マスストレージ918などの記憶デバイスからシステムメモリ914内へコピーされ、次いで、プロセッサ902によってアクセスされ、実行される。様々な実施形態において、1つまたは複数のモジュールは、並列処理環境内の複数のサーバなどの、1つまたは複数の位置における、1つまたは複数のプロセッサによって実行され得る。 In one embodiment, the processes and features described herein are implemented in a distributed computing environment, individually or collectively, as a series of executable modules executed by computer system 900. The aforementioned modules may be implemented in hardware, executable modules stored on a computer-readable medium (or machine-readable medium), or a combination of both. For example, a module may comprise multiple instructions or series of instructions to be executed by a processor in a hardware system, such as processor 902. First, the series of instructions may be stored on a storage device such as mass storage 918. However, the series of instructions may be stored on any suitable computer-readable storage medium. Furthermore, the series of instructions need not be stored locally, but may be received through a network interface 916 from a remote storage device such as a server on a network. Instructions are copied from a storage device, such as mass storage 918, into system memory 914 and then accessed and executed by processor 902. In various embodiments, one or more modules may be executed by one or more processors at one or more locations, such as servers in a parallel processing environment.

コンピュータ読取可能な媒体の例は、揮発性メモリデバイスおよび不揮発性メモリデバイスなどの記録可能なタイプの媒体、ソリッドステートメモリ、フロッピー(登録商標)ディスクおよび他の取り外し可能なディスク、ハードディスクドライブ、磁気媒体、光ディスク(例えば、コンパクトディスク読取専用メモリ(CD ROMS)、デジタル多用途ディスク(DVD))、他の同様の非一時的で(もしくは一時的で)、有形の(もしくは無形の)記憶媒体、または、本明細書において説明されるプロセスおよび特徴のうちの任意の1つもしくは複数を実行すべく、コンピュータシステム900による実行のために一連の命令を記憶し、符号化し、もしくは担持するのに適切な任意のタイプの媒体を含むが、これらに限定されない。 Examples of computer readable media include recordable types of media such as volatile and non-volatile memory devices, solid state memory, floppy disks and other removable disks, hard disk drives, magnetic media. , An optical disc (eg, compact disc read only memory (CD ROMS), digital versatile disc (DVD)), other similar non-transitory (or temporary), tangible (or intangible) storage medium, or , Suitable for storing, encoding, or carrying a set of instructions for execution by computer system 900 to perform any one or more of the processes and features described herein. It includes, but is not limited to, any type of medium.

説明の目的のために、多くの具体的な詳細が、本説明の完全な理解を提供するために述べられている。しかしながら、こうした具体的な詳細なしに本開示の実施形態が実施され得ることは、当業者には明らかであろう。いくつかの例において、モジュール、構造、プロセス、特徴、およびデバイスは、本説明を曖昧にすることを回避するために、ブロック図の形式で示される。他の例において、機能ブロック図およびフロー図は、データおよび論理フローを表現するために示される。ブロック図およびフロー図の構成要素(例えば、モジュール、ブロック、構造、デバイス、特徴等)は、本明細書において明示的に説明および図示されたような手法以外の手法で、様々に組み合わされ、分離され、除去され、順序を並べ替えられ、置換されてもよい。 For purposes of explanation, many specific details are set forth in order to provide a thorough understanding of the present description. However, it will be apparent to one skilled in the art that embodiments of the present disclosure may be practiced without these specific details. In some examples, modules, structures, processes, features, and devices are shown in block diagram form in order to avoid obscuring the present description. In another example, functional block diagrams and flow diagrams are presented to represent data and logical flows. The components of the block and flow diagrams (eg, modules, blocks, structures, devices, features, etc.) may be combined and separated in various ways other than as explicitly described and illustrated herein. , Removed, reordered, and replaced.

この明細書における、「1つの実施形態」、「一実施形態」、「他の実施形態」、「一連の実施形態」、「いくつかの実施形態」、「様々な実施形態」等への言及は、実施形態に関連して説明される特定の特徴、設計、構造、または特性が本開示の少なくとも1つの実施形態に含まれることを意味する。本明細書内の様々な部分における「1つの実施形態において」または「別の実施形態」という句の出現は、必ずしも全て同じ実施形態に言及するものとは限らず、別個の実施形態または代替的な実施形態は、他の実施形態と相互排他的ではない。さらに、「実施形態」等への明示的な言及が存在しても存在しなくても、様々な特徴が説明され、様々な特徴は、いくつかの実施形態において様々に組み合わされ、含まれ得るが、他の実施形態においては様々に省略され得る。同様に、いくつかの実施形態にとっては選好事項または要件であり得るが、他の実施形態にとっては選好事項または要件ではない、様々な特徴が説明される。 References herein to "one embodiment," "one embodiment," "other embodiment," "series of embodiments," "some embodiments," "various embodiments," etc. Means that a particular feature, design, structure, or characteristic described in connection with an embodiment is included in at least one embodiment of the present disclosure. The appearances of the phrases "in one embodiment" or "another embodiment" in various parts of this specification are not necessarily all referring to the same embodiment, but separate or alternative embodiments. Embodiments are not mutually exclusive with other embodiments. Further, various features are described in the presence or absence of explicit reference to "an embodiment" or the like, and the various features may be combined and included in various manners in some embodiments. However, it may be variously omitted in other embodiments. Similarly, various features are described that may be a preference or requirement for some embodiments, but not for other embodiments.

本明細書において使用される文言は、主に、読みやすさと教育的目的のために選択されており、発明の主題の輪郭を描くため、または境界線を描くために選択されたものではない。そのため、本発明の範囲は、この詳細な説明によって限定されるのではなく、むしろ、本明細書に基づく出願について発行される任意の請求項によって限定されることが意図される。したがって、本発明の実施形態の開示は、本発明の範囲の例示とはなるが、限定とはならないことが意図され、本発明の範囲は、下記の特許請求の範囲において述べられる。 The language used herein is primarily chosen for readability and educational purposes, and not to delineate or delineate the subject matter of the invention. As such, the scope of the present invention is not intended to be limited by this detailed description, but rather by any claims issued for applications herein. Accordingly, the disclosure of the embodiments of the present invention is intended to be illustrative of, but not limiting of, the scope of the invention, which scope is set forth in the following claims.

Claims (20)

コンピュータが実行する方法であって、
コンピューティングデバイスが、コンテンツアイテムにアクセスするための少なくとも1つの要求を決定することであって、要求されたコンテンツアイテムは、1組の異なる位置から1つまたは複数のシーンを撮像する1組のカメラフィードを用いて構成される、前記少なくとも1つの要求を決定すること、
前記コンピューティングデバイスが、前記要求されたコンテンツアイテムにおける前記1つまたは複数のシーンのうちの少なくとも幾つかをナビゲートする自動視聴モードを記述する情報を取得すること、
前記コンピューティングデバイスが、前記要求されたコンテンツアイテムの再生が提示される前記コンピューティングデバイスの表示画面上にビューポートインタフェースを提供すること、
前記コンピューティングデバイスが、前記自動視聴モードに少なくとも部分的に基づいた前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって、前記ビューポートインタフェースが自動的にナビゲートされるようにすること、を備え
ナビゲーションインジケータ(602)は、コンテンツアイテムがアクセスされた場合に、前記ビューポートインタフェースに提示され、前記ナビゲーションインジケータ(602)は、前記コンテンツアイテムがアクセスされている間、ビューポートの初期方向または意図された方向(604)を示し、ここで方向(604)は、前記コンテンツアイテムの開発者によって指定され、前記方向(604)は、前記コンテンツアイテムの再生中に異なる時点で変化し、
前記ナビゲーションインジケータ(602)は、前記コンテンツにより撮像される1つまたは複数のシーンにアクセスしている間に前記ビューポートの方向または方位を示す方位インジケータ(606)も含み、前記ビューポートの方向は、前記方位インジケータ(606)の方向によって示され、
前記ビューポートの方向が変化すると、前記方位インジケータ(606)が、更新されたビューポートの方向に対応する方向に向くように点(608)の周りを回転し、前記方位インジケータ(606)により示される方向は、垂直軸に沿った前記ビューポートの動きに対応し、
前記方位インジケータ(606)は、アクセスされた1つまたは複数のシーンにおける前記ビューポートのズームレベルも示し、
前記方位インジケータ(606)の長さまたはサイズは、前記ビューポートのより高いズームレベルを示すために前記点(608)の周りで増大または伸長し、前記方位インジケータ(606)の長さまたはサイズは、前記ビューポートの縮小されたズームレベルを示すために前記点(608)の周りで減少または収縮し、
前記コンテンツアイテムは、デフォルトのズームレベルに関連付けられており、コンテンツアイテムの開発者は、前記ビューポートを通じて適用される最小および/または最大のズームレベルを指定することができる、方法。
A method performed by a computer,
A computing device determining at least one request to access a content item, the requested content item being a set of cameras that image one or more scenes from a set of different locations. Determining the at least one request configured with a feed;
The computing device obtaining information describing an automatic viewing mode for navigating at least some of the one or more scenes in the requested content item;
The computing device providing a viewport interface on a display screen of the computing device on which a playback of the requested content item is presented.
The viewport interface automatically causes the computing device to perform at least some of the one or more scenes during playback of the requested content item based at least in part on the automatic viewing mode. To be able to navigate ,
A navigation indicator (602) is presented in the viewport interface when a content item is accessed, and the navigation indicator (602) is the initial orientation or intent of the viewport while the content item is being accessed. Direction (604), wherein the direction (604) is specified by the developer of the content item, and the direction (604) changes at different points during the playback of the content item,
The navigation indicator (602) also includes an orientation indicator (606) that indicates the direction or orientation of the viewport while accessing one or more scenes imaged by the content, where the viewport orientation is , Indicated by the direction of said azimuth indicator (606),
As the viewport orientation changes, the orientation indicator (606) rotates about a point (608) to point in a direction corresponding to the updated viewport orientation, as indicated by the orientation indicator (606). The direction that corresponds to the movement of the viewport along the vertical axis,
The orientation indicator (606) also indicates the zoom level of the viewport in the accessed scene or scenes,
The length or size of the orientation indicator (606) increases or extends around the point (608) to indicate a higher zoom level of the viewport, and the length or size of the orientation indicator (606) is , Decreasing or contracting around the point (608) to indicate a reduced zoom level of the viewport,
The method wherein the content item is associated with a default zoom level, and a developer of the content item can specify a minimum and/or maximum zoom level applied through the viewport .
前記自動視聴モードを記述する情報を取得することは、
前記コンピューティングデバイスが、前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって前記ビューポートインタフェースをナビゲートするための少なくとも1つの軌跡を記述する情報を取得すること、を含む、請求項1に記載の方法。
Acquiring information describing the automatic viewing mode is
The computing device obtains information describing at least one trajectory for navigating the viewport interface over at least some of the one or more scenes during playback of the requested content item. The method of claim 1, comprising:
前記少なくとも1つの軌跡を記述する情報を取得することは、
前記コンピューティングデバイスが、ユーザの1つまたは複数の属性に少なくとも部分的に基づいて前記コンピューティングデバイスを操作するユーザに対応するカテゴリを決定すること、
前記コンピューティングデバイスが、前記カテゴリに関連付けられた少なくとも1つの軌跡を取得することであって、前記軌跡は、前記カテゴリに含まれる少なくとも幾人かのユーザにとって関心があると判定されている、前記少なくとも1つの軌跡を取得すること、を含む、請求項に記載の方法。
Obtaining information describing the at least one trajectory is
The computing device determining a category corresponding to a user operating the computing device based at least in part on one or more attributes of the user;
Said computing device obtaining at least one trajectory associated with said category, said trajectory being determined to be of interest to at least some of the users included in said category. The method of claim 2 , comprising obtaining at least one trajectory.
前記自動視聴モードを記述する情報を取得することは、
前記コンピューティングデバイスが、前記要求されたコンテンツアイテムの再生中に現れる少なくとも1つの注目点を記述する情報を取得すること、
前記コンピューティングデバイスが、前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって、前記ビューポートインタフェースをナビゲートするための少なくとも1つの軌跡を記述する情報を取得すること、をさらに含み、
前記軌跡は、前記少なくとも1つの注目点を含む、請求項1に記載の方法。
Acquiring information describing the automatic viewing mode is
The computing device obtaining information describing at least one point of interest that appears during playback of the requested content item;
Information that describes at least one trajectory for the computing device to navigate the viewport interface over at least some of the one or more scenes during playback of the requested content item; Further comprising:
The method of claim 1, wherein the trajectory includes the at least one point of interest.
前記少なくとも1つの注目点は、前記要求されたコンテンツアイテムの開発者によって定義される、請求項4に記載の方法。 The method of claim 4, wherein the at least one point of interest is defined by a developer of the requested content item. 前記少なくとも1つの注目点を記述する情報を取得することは、
前記コンピューティングデバイスが、ユーザの1つまたは複数の属性に少なくとも部分的に基づいて前記コンピューティングデバイスを操作するユーザに対応するカテゴリを決定すること、
前記コンピューティングデバイスが、前記カテゴリに関連付けられた少なくとも1つの注目点を取得すること、を含み、
前記少なくとも1つの注目点は、前記カテゴリに含まれる少なくとも幾人かのユーザにとって関心があると判定されている、請求項4に記載の方法。
Obtaining information describing the at least one point of interest is
The computing device determining a category corresponding to a user operating the computing device based at least in part on one or more attributes of the user;
The computing device obtaining at least one point of interest associated with the category,
The method of claim 4, wherein the at least one point of interest has been determined to be of interest to at least some users included in the category.
前記コンピューティングデバイスが、前記ビューポートインタフェースをマニュアルで特定の注目点にナビゲートするために、前記要求されたコンテンツアイテムの再生中に前記コンピューティングデバイスを操作するユーザが1つまたは複数のアクションを実行したことを判定すること、
前記コンピューティングデバイスが、前記特定の注目点を共有するための操作が実行されたことを判定すること、
前記コンピューティングデバイスが、前記特定の注目点を記述する情報がソーシャルネットワーキングシステムを介して共有されるようにすること、をさらに備える請求項1に記載の方法。
In order for the computing device to manually navigate the viewport interface to a particular point of interest, a user operating the computing device may perform one or more actions during playback of the requested content item. To determine what has been done,
The computing device determining that an operation has been performed to share the particular point of interest,
The method of claim 1, further comprising causing the computing device to share information describing the particular point of interest via a social networking system.
前記コンピューティングデバイスが、前記ビューポートインタフェースをマニュアルでナビゲートしてカスタマイズされた軌跡を生成するために、前記要求されたコンテンツアイテムの再生中に前記コンピューティングデバイスを操作するユーザが1つまたは複数のアクションを実行したことを判定すること、
前記コンピューティングデバイスが、前記カスタマイズされた軌跡を共有するための操作が実行されたことを判定すること、
前記コンピューティングデバイスが、前記カスタマイズされた軌跡を記述する情報がソーシャルネットワーキングシステムを介して共有されるようにすること、をさらに備える請求項1に記載の方法。
One or more users interact with the computing device during playback of the requested content item in order for the computing device to manually navigate the viewport interface to generate a customized trajectory. To determine that the action of
The computing device determining that an operation for sharing the customized trajectory has been performed,
The method of claim 1, further comprising the computing device causing information describing the customized trajectory to be shared via a social networking system.
前記ビューポートインタフェースが自動的にナビゲートされるようにすることは、
前記コンピューティングデバイスが、前記要求されたコンテンツアイテムは第1の注目点および第2の注目点を含むと判定することであって、前記第2の注目点は、前記要求されたコンテンツアイテムの再生中に第1の注目点の後に現れる、前記判定すること、
前記コンピューティングデバイスが、前記ビューポートインタフェースを前記第1の注目点から前記第2の注目点に自動的にナビゲートする前に方向インジケータが前記ビューポートインタフェースに表示されるようにすること、をさらに含み、
前記方向インジケータは、前記第2の注目点に対応する方向を指し示す、請求項1に記載の方法。
Having the viewport interface automatically navigated is
The computing device determines that the requested content item includes a first point of interest and a second point of interest, the second point of interest being a reproduction of the requested content item. Appearing after the first point of interest in
Causing the computing device to display a directional indicator on the viewport interface before automatically navigating the viewport interface from the first point of interest to the second point of interest; In addition,
The method of claim 1, wherein the direction indicator points in a direction corresponding to the second point of interest.
前記ビューポートインタフェースが自動的にナビゲートされるようにすることは、
前記コンピューティングデバイスが、前記要求されたコンテンツアイテムは第1の注目点および第2の注目点を含むと判定することであって、前記第2の注目点は、前記要求されたコンテンツアイテムの再生中に第1の注目点の後に現れる、前記判定すること、
前記コンピューティングデバイスが、少なくとも1つの映像トランジション技術を用いて前記ビューポートインタフェースが前記第1の注目点から前記第2の注目点に自動的にナビゲートされるようにすること、をさらに含む、請求項1に記載の方法。
Having the viewport interface automatically navigated is
The computing device determines that the requested content item includes a first point of interest and a second point of interest, the second point of interest being a reproduction of the requested content item. Appearing after the first point of interest in
Further comprising causing the computing device to automatically navigate the viewport interface from the first point of interest to the second point of interest using at least one video transition technique. The method of claim 1.
システムであって、
少なくとも1つのプロセッサと、
複数の命令を記憶するメモリと、を備え、
前記複数の命令は、前記少なくとも1つのプロセッサによって実行されると、
前記システムに、
コンテンツアイテムにアクセスするための少なくとも1つの要求を決定することであって、要求されたコンテンツアイテムは、1組の異なる位置から1つまたは複数のシーンを撮像する1組のカメラフィードを用いて構成される、前記少なくとも1つの要求を決定すること、
前記要求されたコンテンツアイテムにおける前記1つまたは複数のシーンのうちの少なくとも幾つかをナビゲートする自動視聴モードを記述する情報を取得すること、
前記要求されたコンテンツアイテムの再生が提示されるコンピューティングデバイスの表示画面上にビューポートインタフェースを提供すること、
前記自動視聴モードに少なくとも部分的に基づいた前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって、前記ビューポートインタフェースが自動的にナビゲートされるようにすること、を行わせ
ナビゲーションインジケータ(602)は、コンテンツアイテムがアクセスされた場合に、前記ビューポートインタフェースに提示され、前記ナビゲーションインジケータ(602)は、前記コンテンツアイテムがアクセスされている間、ビューポートの初期方向または意図された方向(604)を示し、ここで方向(604)は、前記コンテンツアイテムの開発者によって指定され、前記方向(604)は、前記コンテンツアイテムの再生中に異なる時点で変化し、
前記ナビゲーションインジケータ(602)は、前記コンテンツにより撮像される1つまたは複数のシーンにアクセスしている間に前記ビューポートの方向または方位を示す方位インジケータ(606)も含み、前記ビューポートの方向は、前記方位インジケータ(606)の方向によって示され、
前記ビューポートの方向が変化すると、前記方位インジケータ(606)が、更新されたビューポートの方向に対応する方向に向くように点(608)の周りを回転し、前記方位インジケータ(606)により示される方向は、垂直軸に沿った前記ビューポートの動きに対応し、
前記方位インジケータ(606)は、アクセスされた1つまたは複数のシーンにおける前記ビューポートのズームレベルも示し、
前記方位インジケータ(606)の長さまたはサイズは、前記ビューポートのより高いズームレベルを示すために前記点(608)の周りで増大または伸長し、前記方位インジケータ(606)の長さまたはサイズは、前記ビューポートの縮小されたズームレベルを示すために前記点(608)の周りで減少または収縮し、
前記コンテンツアイテムは、デフォルトのズームレベルに関連付けられており、コンテンツアイテムの開発者は、前記ビューポートを通じて適用される最小および/または最大のズームレベルを指定することができる、システム。
A system,
At least one processor,
A memory for storing a plurality of instructions,
The plurality of instructions, when executed by the at least one processor,
In the system,
Determining at least one request to access a content item, wherein the requested content item is configured with a set of camera feeds that image one or more scenes from a set of different locations. Determining the at least one requirement,
Obtaining information describing an automatic viewing mode for navigating at least some of the one or more scenes in the requested content item;
Providing a viewport interface on a display screen of a computing device on which playback of the requested content item is presented.
Causing the viewport interface to be automatically navigated across at least some of the one or more scenes during playback of the requested content item based at least in part on the automatic viewing mode. Do what you do ,
A navigation indicator (602) is presented to the viewport interface when a content item is accessed, and the navigation indicator (602) is the initial orientation or intent of the viewport while the content item is being accessed. Direction (604), wherein the direction (604) is specified by the developer of the content item, and the direction (604) changes at different points during playback of the content item,
The navigation indicator (602) also includes an orientation indicator (606) that indicates the direction or orientation of the viewport while accessing one or more scenes imaged by the content, the viewport orientation being , Indicated by the direction of the azimuth indicator (606),
As the orientation of the viewport changes, the orientation indicator (606) rotates around a point (608) to point in a direction corresponding to the updated viewport orientation, as indicated by the orientation indicator (606). The direction that corresponds to the movement of the viewport along the vertical axis,
The orientation indicator (606) also indicates the zoom level of the viewport in the accessed scene or scenes,
The length or size of the orientation indicator (606) increases or extends around the point (608) to indicate a higher zoom level of the viewport, and the length or size of the orientation indicator (606) is Reducing or contracting around the point (608) to indicate a reduced zoom level of the viewport,
The system wherein the content item is associated with a default zoom level and a developer of the content item can specify a minimum and/or maximum zoom level applied through the viewport .
前記自動視聴モードを記述する情報を取得することは、
前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって前記ビューポートインタフェースをナビゲートするための少なくとも1つの軌跡を記述する情報を取得すること、を前記システムにさらに行わせる、請求項11に記載のシステム。
Acquiring information describing the automatic viewing mode is
Obtaining information describing at least one trajectory for navigating the viewport interface over at least some of the one or more scenes during playback of the requested content item. The system of claim 11, further comprising:
前記少なくとも1つの軌跡を記述する情報を取得することは、
ユーザの1つまたは複数の属性に少なくとも部分的に基づいて前記コンピューティングデバイスを操作するユーザに対応するカテゴリを決定すること、
前記カテゴリに関連付けられた少なくとも1つの軌跡を取得することであって、前記軌跡は、前記カテゴリに含まれる少なくとも幾人かのユーザにとって関心があると判定されている、前記少なくとも1つの軌跡を取得すること、を前記システムにさらに行わせる、請求項12に記載のシステム。
Obtaining information describing the at least one trajectory is
Determining a category corresponding to a user operating the computing device based at least in part on one or more attributes of the user;
Obtaining at least one trajectory associated with the category, wherein the trajectory is determined to be of interest to at least some of the users included in the category. 13. The system of claim 12 , further comprising:
前記自動視聴モードを記述する情報を取得することは、
前記要求されたコンテンツアイテムの再生中に現れる少なくとも1つの注目点を記述する情報を取得すること、
前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって、前記ビューポートインタフェースをナビゲートするための少なくとも1つの軌跡を記述する情報を取得することであって、前記軌跡は、前記少なくとも1つの注目点を含む、前記取得すること、を前記システムにさらに行わせる、請求項11に記載のシステム。
Acquiring information describing the automatic viewing mode is
Obtaining information describing at least one point of interest that appears during playback of the requested content item,
Obtaining information describing at least one trajectory for navigating the viewport interface over at least some of the one or more scenes during playback of the requested content item. The system of claim 11, further comprising: the trajectory including the at least one point of interest, the obtaining.
前記少なくとも1つの注目点は、前記要求されたコンテンツアイテムの開発者によって定義される、請求項14に記載のシステム。 15. The system of claim 14, wherein the at least one point of interest is defined by a developer of the requested content item. 複数の命令を備える非一時的なコンピュータ可読記憶媒体であって、
前記複数の命令は、コンピューティングシステムの少なくとも1つのプロセッサにより実行されると、
前記コンピューティングシステムに、
コンテンツアイテムにアクセスするための少なくとも1つの要求を決定することであって、要求されたコンテンツアイテムは、1組の異なる位置から1つまたは複数のシーンを撮像する1組のカメラフィードを用いて構成される、前記少なくとも1つの要求を決定すること、
前記要求されたコンテンツアイテムにおける前記1つまたは複数のシーンのうちの少なくとも幾つかをナビゲートする自動視聴モードを記述する情報を取得すること、
前記要求されたコンテンツアイテムの再生が提示されるコンピューティングデバイスの表示画面上にビューポートインタフェースを提供すること、
前記自動視聴モードに少なくとも部分的に基づいた前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって、前記ビューポートインタフェースが自動的にナビゲートされるようにすること、を含む方法を行わせ
ナビゲーションインジケータ(602)は、コンテンツアイテムがアクセスされた場合に、前記ビューポートインタフェースに提示され、前記ナビゲーションインジケータ(602)は、前記コンテンツアイテムがアクセスされている間、ビューポートの初期方向または意図された方向(604)を示し、ここで方向(604)は、前記コンテンツアイテムの開発者によって指定され、前記方向(604)は、前記コンテンツアイテムの再生中に異なる時点で変化し、
前記ナビゲーションインジケータ(602)は、前記コンテンツにより撮像される1つまたは複数のシーンにアクセスしている間に前記ビューポートの方向または方位を示す方位インジケータ(606)も含み、前記ビューポートの方向は、前記方位インジケータ(606)の方向によって示され、
前記ビューポートの方向が変化すると、前記方位インジケータ(606)が、更新されたビューポートの方向に対応する方向に向くように点(608)の周りを回転し、前記方位インジケータ(606)により示される方向は、垂直軸に沿った前記ビューポートの動きに対応し、
前記方位インジケータ(606)は、アクセスされた1つまたは複数のシーンにおける前記ビューポートのズームレベルも示し、
前記方位インジケータ(606)の長さまたはサイズは、前記ビューポートのより高いズームレベルを示すために前記点(608)の周りで増大または伸長し、前記方位インジケータ(606)の長さまたはサイズは、前記ビューポートの縮小されたズームレベルを示すために前記点(608)の周りで減少または収縮し、
前記コンテンツアイテムは、デフォルトのズームレベルに関連付けられており、コンテンツアイテムの開発者は、前記ビューポートを通じて適用される最小および/または最大のズームレベルを指定することができる、非一時的なコンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium comprising a plurality of instructions,
The plurality of instructions when executed by at least one processor of a computing system,
In the computing system,
Determining at least one request to access a content item, wherein the requested content item is configured with a set of camera feeds that image one or more scenes from a set of different locations. Determining the at least one requirement,
Obtaining information describing an automatic viewing mode for navigating at least some of the one or more scenes in the requested content item;
Providing a viewport interface on a display screen of a computing device on which playback of the requested content item is presented.
Causing the viewport interface to be automatically navigated across at least some of the one or more scenes during playback of the requested content item based at least in part on the automatic viewing mode. To do the method , including
A navigation indicator (602) is presented in the viewport interface when a content item is accessed, and the navigation indicator (602) is the initial orientation or intent of the viewport while the content item is being accessed. Direction (604), wherein the direction (604) is specified by the developer of the content item, and the direction (604) changes at different points during the playback of the content item,
The navigation indicator (602) also includes an orientation indicator (606) that indicates the direction or orientation of the viewport while accessing one or more scenes imaged by the content, where the viewport orientation is , Indicated by the direction of said azimuth indicator (606),
When the orientation of the viewport changes, the orientation indicator (606) rotates around a point (608) to point in a direction corresponding to the updated viewport orientation, as indicated by the orientation indicator (606). The direction that corresponds to the movement of the viewport along the vertical axis,
The orientation indicator (606) also indicates the zoom level of the viewport in the accessed scene or scenes,
The length or size of the orientation indicator (606) increases or extends around the point (608) to indicate a higher zoom level of the viewport, and the length or size of the orientation indicator (606) is , Decreasing or contracting around the point (608) to indicate a reduced zoom level of the viewport,
The content item is associated with a default zoom level, and the developer of the content item can specify a minimum and/or maximum zoom level applied through the viewport, a non-transitory computer-readable Storage medium.
前記自動視聴モードを記述する情報を取得することは、
前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって前記ビューポートインタフェースをナビゲートするための少なくとも1つの軌跡を記述する情報を取得すること、を前記コンピューティングシステムにさらに行わせる、請求項16に記載の非一時的なコンピュータ可読記憶媒体。
Acquiring information describing the automatic viewing mode is
Obtaining information describing at least one trajectory for navigating the viewport interface over at least some of the one or more scenes during playback of the requested content item. 17. The non-transitory computer readable storage medium of claim 16, further causing the writing system to perform the operation.
前記少なくとも1つの軌跡を記述する情報を取得することは、
ユーザの1つまたは複数の属性に少なくとも部分的に基づいて前記コンピューティングデバイスを操作するユーザに対応するカテゴリを決定すること、
前記カテゴリに関連付けられた少なくとも1つの軌跡を取得することであって、前記軌跡は、前記カテゴリに含まれる少なくとも幾人かのユーザにとって関心があると判定されている、前記少なくとも1つの軌跡を取得すること、を前記コンピューティングシステムにさらに行わせる、請求項17に記載の非一時的なコンピュータ可読記憶媒体。
Obtaining information describing the at least one trajectory is
Determining a category corresponding to a user operating the computing device based at least in part on one or more attributes of the user;
Obtaining at least one trajectory associated with the category, wherein the trajectory is determined to be of interest to at least some of the users included in the category. 18. The non-transitory computer-readable storage medium of claim 17 , further causing the computing system to:
前記自動視聴モードを記述する情報を取得することは、
前記要求されたコンテンツアイテムの再生中に現れる少なくとも1つの注目点を記述する情報を取得すること、
前記要求されたコンテンツアイテムの再生中に前記1つまたは複数のシーンのうちの少なくとも幾つかにわたって、前記ビューポートインタフェースをナビゲートするための少なくとも1つの軌跡を記述する情報を取得することであって、前記軌跡は、前記少なくとも1つの注目点を含む、前記取得すること、を前記コンピューティングシステムにさらに行わせる、請求項16に記載の非一時的なコンピュータ可読記憶媒体。
Acquiring information describing the automatic viewing mode is
Obtaining information describing at least one point of interest that appears during playback of the requested content item,
Obtaining information describing at least one trajectory for navigating the viewport interface over at least some of the one or more scenes during playback of the requested content item. The non-transitory computer readable storage medium of claim 16, further comprising: the trajectory including the at least one point of interest, the obtaining further.
前記少なくとも1つの注目点は、前記要求されたコンテンツアイテムの開発者によって定義される、請求項19に記載の非一時的なコンピュータ可読記憶媒体。 20. The non-transitory computer-readable storage medium of claim 19, wherein the at least one point of interest is defined by a developer of the requested content item.
JP2018557333A 2016-05-02 2016-05-03 System and method for presenting content Active JP6735358B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/144,695 2016-05-02
US15/144,695 US20170316806A1 (en) 2016-05-02 2016-05-02 Systems and methods for presenting content
PCT/US2016/030592 WO2017192125A1 (en) 2016-05-02 2016-05-03 Systems and methods for presenting content

Publications (2)

Publication Number Publication Date
JP2019521547A JP2019521547A (en) 2019-07-25
JP6735358B2 true JP6735358B2 (en) 2020-08-05

Family

ID=60158486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018557333A Active JP6735358B2 (en) 2016-05-02 2016-05-03 System and method for presenting content

Country Status (10)

Country Link
US (1) US20170316806A1 (en)
JP (1) JP6735358B2 (en)
KR (1) KR102505524B1 (en)
CN (1) CN109417655B (en)
AU (1) AU2016405659A1 (en)
BR (1) BR112018072500A2 (en)
CA (1) CA3023018A1 (en)
IL (1) IL262655A (en)
MX (1) MX2018013364A (en)
WO (1) WO2017192125A1 (en)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene
US10841557B2 (en) * 2016-05-12 2020-11-17 Samsung Electronics Co., Ltd. Content navigation
EP3264222B1 (en) * 2016-06-27 2019-04-10 Nokia Technologies Oy An apparatus and associated methods
US11677802B2 (en) 2016-09-09 2023-06-13 Vid Scale, Inc. Methods and apparatus to reduce latency for 360-degree viewport adaptive streaming
CN107888987B (en) * 2016-09-29 2019-12-06 华为技术有限公司 Panoramic video playing method and device
WO2018116253A1 (en) * 2016-12-21 2018-06-28 Interaptix Inc. Telepresence system and method
KR101810671B1 (en) * 2017-03-07 2018-01-25 링크플로우 주식회사 Method for generating direction information of omnidirectional image and device for performing the method
US10362265B2 (en) 2017-04-16 2019-07-23 Facebook, Inc. Systems and methods for presenting content
US10853659B2 (en) * 2017-05-05 2020-12-01 Google Llc Methods, systems, and media for adaptive presentation of a video content item based on an area of interest
JP7091073B2 (en) * 2018-01-05 2022-06-27 キヤノン株式会社 Electronic devices and their control methods
US11689705B2 (en) 2018-01-17 2023-06-27 Nokia Technologies Oy Apparatus, a method and a computer program for omnidirectional video
GB2570708A (en) 2018-02-05 2019-08-07 Nokia Technologies Oy Switching between multidirectional and limited viewport video content
US11616942B2 (en) 2018-03-22 2023-03-28 Interdigital Madison Patent Holdings, Sas Viewport dependent video streaming events
US10777228B1 (en) * 2018-03-22 2020-09-15 Gopro, Inc. Systems and methods for creating video edits
US10721510B2 (en) 2018-05-17 2020-07-21 At&T Intellectual Property I, L.P. Directing user focus in 360 video consumption
US10482653B1 (en) 2018-05-22 2019-11-19 At&T Intellectual Property I, L.P. System for active-focus prediction in 360 video
US11917127B2 (en) 2018-05-25 2024-02-27 Interdigital Madison Patent Holdings, Sas Monitoring of video streaming events
US10827225B2 (en) * 2018-06-01 2020-11-03 AT&T Intellectual Propety I, L.P. Navigation for 360-degree video streaming
JP7146472B2 (en) * 2018-06-18 2022-10-04 キヤノン株式会社 Information processing device, information processing method and program
JP7258482B2 (en) * 2018-07-05 2023-04-17 キヤノン株式会社 Electronics
CN111163306B (en) 2018-11-08 2022-04-05 华为技术有限公司 VR video processing method and related device
KR102127846B1 (en) * 2018-11-28 2020-06-29 주식회사 카이 Image processing method, video playback method and apparatuses thereof
JP7183033B2 (en) * 2018-12-26 2022-12-05 キヤノン株式会社 ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP7385238B2 (en) * 2019-01-07 2023-11-22 株式会社mediVR Rehabilitation support device, rehabilitation support method, and rehabilitation support program
JP2022059098A (en) * 2019-02-20 2022-04-13 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2020184188A1 (en) * 2019-03-08 2020-09-17 ソニー株式会社 Image processing device, image processing method, and image processing program
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
EP3996376A4 (en) * 2019-07-03 2023-08-09 Sony Group Corporation Information processing device, information processing method, reproduction processing device, and reproduction processing method
JP2022541908A (en) * 2019-07-22 2022-09-28 インターデジタル ヴイシー ホールディングス, インコーポレイテッド Method and apparatus for delivering volumetric video content
US10834381B1 (en) * 2019-07-25 2020-11-10 International Business Machines Corporation Video file modification
CN112541147A (en) * 2019-09-23 2021-03-23 北京轻享科技有限公司 Content publishing management method and system
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
WO2022220306A1 (en) * 2021-04-16 2022-10-20 パナソニックIpマネジメント株式会社 Video display system, information processing device, information processing method, and program
WO2022225957A1 (en) * 2021-04-19 2022-10-27 Vuer Llc A system and method for exploring immersive content and immersive advertisements on television
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252975B1 (en) * 1998-12-17 2001-06-26 Xerox Corporation Method and system for real time feature based motion analysis for key frame selection from a video
JP4128033B2 (en) * 2002-06-18 2008-07-30 富士通株式会社 Profile data retrieval apparatus and program
JP4285287B2 (en) * 2004-03-17 2009-06-24 セイコーエプソン株式会社 Image processing apparatus, image processing method and program, and recording medium
US7598977B2 (en) * 2005-04-28 2009-10-06 Mitsubishi Electric Research Laboratories, Inc. Spatio-temporal graphical user interface for querying videos
US8453061B2 (en) * 2007-10-10 2013-05-28 International Business Machines Corporation Suggestion of user actions in a virtual environment based on actions of other users
CN101504805A (en) * 2009-02-06 2009-08-12 祁刃升 Electronic map having road side panoramic image tape, manufacturing thereof and interest point annotation method
EP2462494A4 (en) * 2009-06-05 2014-08-13 Mozaik Multimedia Inc Ecosystem for smart content tagging and interaction
KR101716636B1 (en) 2009-07-27 2017-03-15 코닌클리케 필립스 엔.브이. Combining 3d video and auxiliary data
SG176327A1 (en) * 2010-05-20 2011-12-29 Sony Corp A system and method of image processing
US9599715B2 (en) * 2010-08-03 2017-03-21 Faro Technologies, Inc. Scanner display
JP5678576B2 (en) * 2010-10-27 2015-03-04 ソニー株式会社 Information processing apparatus, information processing method, program, and monitoring system
US9288511B2 (en) * 2011-02-18 2016-03-15 Futurewei Technologies, Inc. Methods and apparatus for media navigation
EP2719187A4 (en) * 2011-06-07 2015-03-11 In Situ Media Corp System and method for identifying and altering images in a digital video
WO2013024364A2 (en) * 2011-08-17 2013-02-21 Iopener Media Gmbh Systems and methods for virtual viewing of physical events
MX365168B (en) * 2012-08-31 2019-05-14 Fox Sports Productions Llc Systems and methods for tracking and tagging objects within a broadcast.
JP5923021B2 (en) * 2012-10-05 2016-05-24 日本電信電話株式会社 Video viewing history analysis device, video viewing history analysis method, and video viewing history analysis program
US8928666B2 (en) * 2012-10-11 2015-01-06 Google Inc. Navigating visual data associated with a point of interest
JP6044328B2 (en) * 2012-12-26 2016-12-14 株式会社リコー Image processing system, image processing method, and program
CN103971589B (en) * 2013-01-28 2017-10-03 腾讯科技(深圳)有限公司 The processing method and processing device that the interest point information of map is made an addition in street view image
US9933921B2 (en) * 2013-03-13 2018-04-03 Google Technology Holdings LLC System and method for navigating a field of view within an interactive media-content item
KR101501028B1 (en) * 2013-04-04 2015-03-12 박정환 Method and Apparatus for Generating and Editing a Detailed Image
US9652852B2 (en) * 2013-09-24 2017-05-16 Faro Technologies, Inc. Automated generation of a three-dimensional scanner video
US20150124171A1 (en) * 2013-11-05 2015-05-07 LiveStage°, Inc. Multiple vantage point viewing platform and user interface
US20150221341A1 (en) * 2014-01-31 2015-08-06 Audi Ag System and method for enhanced time-lapse video generation using panoramic imagery
JP2015162117A (en) * 2014-02-27 2015-09-07 ブラザー工業株式会社 server device, program, and information processing method
US9760768B2 (en) * 2014-03-04 2017-09-12 Gopro, Inc. Generation of video from spherical content using edit maps
JP6369080B2 (en) * 2014-03-20 2018-08-08 大日本印刷株式会社 Image data generation system, image generation method, image processing apparatus, and program
JP6354244B2 (en) * 2014-03-25 2018-07-11 大日本印刷株式会社 Image playback terminal, image playback method, program, and multi-viewpoint image playback system
US20170142486A1 (en) * 2014-07-18 2017-05-18 Sony Corporation Information processing device, display device, information processing method, program, and information processing system
US20170244959A1 (en) * 2016-02-19 2017-08-24 Adobe Systems Incorporated Selecting a View of a Multi-View Video

Also Published As

Publication number Publication date
JP2019521547A (en) 2019-07-25
CN109417655A (en) 2019-03-01
KR20190002539A (en) 2019-01-08
BR112018072500A2 (en) 2019-03-12
MX2018013364A (en) 2019-03-28
AU2016405659A1 (en) 2018-11-15
CA3023018A1 (en) 2017-11-09
US20170316806A1 (en) 2017-11-02
KR102505524B1 (en) 2023-03-03
IL262655A (en) 2018-12-31
WO2017192125A1 (en) 2017-11-09
CN109417655B (en) 2021-04-20

Similar Documents

Publication Publication Date Title
JP6735358B2 (en) System and method for presenting content
JP6921842B2 (en) Systems and methods for presenting content
JP2018534661A (en) Spherical video mapping
US10692187B2 (en) Systems and methods for presenting content
US10445614B2 (en) Systems and methods for evaluating content
US20180190327A1 (en) Systems and methods for providing content
US10362265B2 (en) Systems and methods for presenting content
US11182639B2 (en) Systems and methods for provisioning content
US11166080B2 (en) Systems and methods for presenting content
EP3217267B1 (en) Systems and methods for presenting content
US20220092332A1 (en) Systems and methods for provisioning content
US10489979B2 (en) Systems and methods for providing nested content items associated with virtual content items
US20180300747A1 (en) Systems and methods for providing demographic analysis for media content based on user view or activity
EP3388955A1 (en) Systems and methods for presenting content
EP3242273B1 (en) Systems and methods for presenting content
EP3389281B1 (en) Systems and methods for provisioning content
EP3389282B1 (en) Systems and methods for provisioning content
US20190200088A1 (en) Systems and methods for presenting content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190426

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200713

R150 Certificate of patent or registration of utility model

Ref document number: 6735358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250