JP7258857B2 - Modification of video data capture by the imaging device based on video data previously captured by the imaging device - Google Patents

Modification of video data capture by the imaging device based on video data previously captured by the imaging device Download PDF

Info

Publication number
JP7258857B2
JP7258857B2 JP2020511521A JP2020511521A JP7258857B2 JP 7258857 B2 JP7258857 B2 JP 7258857B2 JP 2020511521 A JP2020511521 A JP 2020511521A JP 2020511521 A JP2020511521 A JP 2020511521A JP 7258857 B2 JP7258857 B2 JP 7258857B2
Authority
JP
Japan
Prior art keywords
video data
user
imaging device
captured
online system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020511521A
Other languages
Japanese (ja)
Other versions
JP2020532903A (en
Inventor
チャールズ チャン ヴィンセント
Original Assignee
メタ プラットフォームズ, インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/121,087 external-priority patent/US10666857B2/en
Priority claimed from US16/121,060 external-priority patent/US10805521B2/en
Priority claimed from US16/121,081 external-priority patent/US10868955B2/en
Application filed by メタ プラットフォームズ, インク. filed Critical メタ プラットフォームズ, インク.
Publication of JP2020532903A publication Critical patent/JP2020532903A/en
Priority to JP2023061105A priority Critical patent/JP2023098930A/en
Priority to JP2023061106A priority patent/JP2023098931A/en
Application granted granted Critical
Publication of JP7258857B2 publication Critical patent/JP7258857B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition

Description

本開示は、概して、動画データのキャプチャに関し、より具体的には、以前キャプチャされた動画データに基づいて動画データキャプチャを修正することに関する。 TECHNICAL FIELD This disclosure relates generally to capturing video data and, more particularly, to modifying video data capture based on previously captured video data.

従前に比して、クライアント装置、オンラインシステム、及びネットワークによって互いにより多くの量のコンテンツを交換することが可能となるに至っている。例えば、オンラインシステムはそのユーザが次のようなデータを交換することを可能とする:異なるユーザによってユーザに関連付けられたクライアント装置を介してキャプチャされた動画データ。具体的な例では、オンラインシステムはユーザと追加のユーザとの間で動画メッセージングを確立でき、ユーザらがリアルタイム又は準リアルタイムで各々のクライアント装置によってキャプチャされた動画データを交換することが可能とされ得る。 It has become possible for client devices, online systems and networks to exchange greater amounts of content with each other than ever before. For example, the online system allows its users to exchange data such as: video data captured by different users via a client device associated with the user. In a specific example, the online system can establish video messaging between the user and additional users, allowing the users to exchange video data captured by their respective client devices in real time or near real time. obtain.

もっとも、動画データを提供するに際しては、慣行的なクライアント装置は、ユーザが動画キャプチャを手動設定することを要する。例えば、クライアント装置のユーザはクライアント装置に入力を提供して、クライアント装置の撮像装置の焦点を特定したり、クライアント装置の撮像装置の倍率やクライアント装置の撮像装置の他のパラメータを指定したりできる。クライアント装置の撮像装置のパラメータを特定する初期入力を提供することを要することに加え、慣行的なクライアント装置はユーザに次のことをも要求する:クライアント装置の撮像装置の視野内のローカルエリアの異なる部分にクライアント装置の撮像装置を手動再配置すること。したがって、クライアント装置の撮像装置によってキャプチャされて別のクライアント装置へと伝達されるコンテンツを、ユーザは手動で選定及び維持する。ユーザ提供入力に対しての依存故にユーザはクライアント装置によってキャプチャされる動画データについて相当な制御を得ることできる一方で、慣行的なクライアント装置によると、動画データキャプチャがなされる間においては動画メッセージングセッション中に他のタスクを容易にユーザは行えないことになる。なぜならば、慣行的なクライアント装置は、ユーザから提供された1つ以上の入力の受信なくしては状況変化に応じて動画キャプチャを調整できないからである。 However, in providing video data, conventional client devices require the user to manually configure video capture. For example, a user of the client device may provide input to the client device to specify the focus of the client device's imager, specify the magnification of the client device's imager, or other parameters of the client device's imager. . In addition to requiring the user to provide initial input specifying the parameters of the client device's imager, conventional client devices also require the user to: Manually relocating the imaging device of the client device to a different part. Thus, the user manually selects and maintains the content that is captured by the imaging device of the client device and communicated to another client device. While the user can gain considerable control over the video data captured by the client device because of its reliance on user-provided input, conventional client devices allow a video messaging session during which video data capture takes place. The user cannot easily perform other tasks during this time. This is because conventional client devices cannot adjust video capture in response to changing circumstances without receiving one or more user-provided inputs.

オンラインシステムのユーザに関連付けられている様々なクライアント装置h1つ以上の撮像装置を含む。クライアント装置内に含まれる撮像装置は、クライアント装置の周りのローカルエリアの動画データをキャプチャするように構成されており、例えば、ビデオ通話時やユーザがビデオキャプチャ機能を起動した際が含まれる。また、クライアント装置は、1つ以上の撮像装置に結合されたコントローラを含む。コントローラは1つ以上のモデルを撮像装置によってキャプチャされた動画データに適用して、撮像装置によってキャプチャされた動画データ及び/又は撮像装置のパラメータを1つ以上のモデルの適用に基づいて修正する。これによって、撮像装置によって以前キャプチャされた動画データの特徴又は内容に基づいてキャプチャされた動画データを、コントローラが修正することが可能となる。 Various client devices associated with users of the online system include one or more imaging devices. An imaging device included within the client device is configured to capture video data in a local area around the client device, including, for example, during a video call or when a user activates a video capture function. The client device also includes a controller coupled to the one or more imaging devices. The controller applies one or more models to the video data captured by the imaging device and modifies the video data captured by the imaging device and/or parameters of the imaging device based on application of the one or more models. This allows the controller to modify the captured video data based on features or content of video data previously captured by the imaging device.

コントローラは、様々な実施形態での動画データや他のデータ内にキャプチャされたユーザやその他の者についての1つ以上のプライバシ設定を、維持及び強制する。例えば、コントローラは既定プライバシ設定を付与されていることができ、ユーザが手動でプライバシ設定を変更してユーザ特定をなすことをコントローラに許すまではユーザ特定をコントローラができないようにできる。既定プライバシ設定は任意の動画データや音声データや他のデータすらに迄及び得るのであり、データ内の任意のユーザを撮像装置が特定してよいか否かをユーザが選択できるようにし得る。また、プライバシ設定は、クライアント装置から別のエンティティ(例えば、別のクライアント装置やサードパーティシステム)への情報伝達をも規律する。様々なプライバシ設定により、ユーザは次のことに関しての許可を制御できる:ユーザの特定;及び任意のユーザ関連データについての記憶及び共有。プライバシ設定はまた、各個人について個別的に強制されることができる。例えば、ユーザ特定機能に関してオプトインするユーザは、クライアント装置周辺のローカルエリア内にて付随的にキャプチャされ得る他のユーザについて既定プライバシ設定を、変更することはできない。 The controller maintains and enforces one or more privacy settings for users and others captured within video data and other data in various embodiments. For example, the controller may be provided with default privacy settings, and the controller may not be able to identify the user until the user manually changes the privacy setting to allow the controller to make the user identification. Default privacy settings can extend to any video data, audio data, or even other data, and can allow users to choose whether or not the imaging device may identify any users in the data. Privacy settings also govern the communication of information from a client device to another entity (eg, another client device or a third party system). Various privacy settings allow users to control permissions regarding: user identification; and storage and sharing of any user-related data. Privacy settings can also be individually enforced for each individual. For example, a user who opts in for user-specific features cannot change default privacy settings for other users that may be incidentally captured within the local area around the client device.

様々な実施形態では、クライアント装置によるユーザ特定の有効化にまつわるユーザプライバシ設定に基づいて、コントローラは、1つ以上の機械学習モデルを、撮像装置によってキャプチャされた動画データに、適用して、キャプチャされた動画データ内に含まれるユーザを位置決めする。コントローラ210によってキャプチャ動画データに適用されたモデルは、(2次元又は3次元での)顔追跡や2次元体位追跡や3次元体位追跡や任意の他の適切な方法を行って人間の顔の部分や人間の人体の部分を特定できる。様々な実施形態では、コントローラは、キャプチャされた動画データ又は撮像装置のパラメータを修正して、位置決め済みユーザをより際立って提示する。例えば、コントローラは、キャプチャされた動画データをクロッピングして、動画データの少なくとも1人の人間を含まない部分を除去する。別の例としては、コントローラは、撮像装置の焦点を人間の顔へと修正し、撮像装置の倍率(例えば、ズーム)を増大させる。様々な実施形態では、ユーザに対しては次のオプションが与えられる:クライアント装置内にローカルで及び/又はクラウド上に任意の記録(ビデオ・音声等)が記憶されることを防止することと、保存済みならば任意の記録を削除すること。 In various embodiments, based on user privacy settings around user-specific activation by the client device, the controller applies one or more machine learning models to the video data captured by the imaging device to locating users included in the video data. The model applied to the captured video data by the controller 210 performs face tracking (in 2D or 3D), 2D pose tracking, 3D pose tracking, or any other suitable method to map parts of the human face. and human body parts can be identified. In various embodiments, the controller modifies captured video data or imaging device parameters to present the positioned user more prominently. For example, the controller crops the captured video data to remove portions of the video data that do not include at least one person. As another example, the controller corrects the focus of the imager to the human face and increases the magnification (eg, zoom) of the imager. In various embodiments, the user is given the option to: prevent any recordings (video, audio, etc.) from being stored locally on the client device and/or on the cloud; Delete any records if they have been saved.

様々な実施形態では、ユーザ特定機能が有効化されている場合、コントローラによって適用される1つ以上のモデルは1つ以上の規則を適用してクライアント装置の撮像装置によってキャプチャされた動画データを修正する。例えば、人間の顔がカメラに向けられているとコントローラが決定した場合、コントローラはキャプチャされた動画データを修正して動画データ内にいる(位置決めされた)人物をより際立たせて表示する。別の例では、動画データ及び撮像装置から特定された人物間の距離をコントローラが決定し、キャプチャされた動画データを修正して、撮像装置からの決定済み距離が少なくとも下限に達している人物については同人について少なくとも閾値寸法を伴って(例えば、閾値高さや閾値幅を少なくとも伴って、又は、撮像装置の視野についての閾値百分率を少なくとも伴って)提示するか、撮像装置からの決定済み距離閾値距離未満の人物については閾値寸法セットを少なくとも伴って表示する。 In various embodiments, the one or more models applied by the controller apply one or more rules to modify the video data captured by the imaging device of the client device when the user specific functionality is enabled. do. For example, if the controller determines that a human face is facing the camera, the controller modifies the captured video data to make the person (positioned) in the video data appear more prominent. In another example, the controller determines the distance between the identified persons from the video data and the imaging device, and modifies the captured video data for persons whose determined distance from the imaging device is at least a lower bound. presents the doujin with at least a threshold dimension (e.g., with at least a threshold height or threshold width, or with at least a threshold percentage of the field of view of the imaging device), or a determined distance threshold distance from the imaging device People with less than 100 are displayed with at least a set of threshold dimensions.

コントローラはクライアント装置の他のコンポーネントからのデータを受信して受信された動画データ及びクライアント装置の他のコンポーネントからのデータの特徴に基づいてキャプチャされた動画データを修正できる。例えば、撮像装置又はクライアント装置は、クライアント装置周辺のローカルエリアからの音声データをキャプチャするように構成されたマイクロフォン等の音声キャプチャ装置を、含む。コントローラは、ユーザ選定プライバシ設定に服するが、キャプチャされた動画データを修正するに際して、キャプチャされた音声データをキャプチャされた動画データと共に処理し得る。様々な実施形態では、コントローラは、1つ以上のモデルをキャプチャされた音声データに適用して、音声データの源泉を含めたキャプチャされた動画データ内の位置を決定する。コントローラは、1つ以上のモデルを、音声データの源泉を含むキャプチャされた動画データ内の位置に適用する。キャプチャされた動画データ内の(人物を含む音声データの源泉を含む)位置決定をなすモデル適用に応じて、コントローラはキャプチャされた動画データを修正して、音声データの源泉を含むキャプチャされた動画データ内の位置をより際立たせて提示し、撮像装置を再位置決めして音声データの源泉に合焦させる(例えば、音声データの源泉によって占有される撮像装置の視野を増大させることや撮像装置の視野内の音声データ源泉位置を変更すること)。もっとも、コントローラは、音声データ源泉を含むキャプチャされた動画データ内の位置が人物を含まないとの決定に応じて、コントローラは、キャプチャ動画データ修正や撮像装置再配置をなさない。別の例としては、コントローラはキャプチャされた動画データを修正するか撮像装置を再配置するかして、コントローラがキャプチャ動画データ内のキャプチャ音声データ源泉であると決定した特定人物をより際立たせて提示する(例えば、音声データの源泉によって占有される撮像装置の視野を増大させることや撮像装置の視野内の音声データ源泉位置を変更すること)。これによってキャプチャ動画データは発話者と決定されたユーザをより際立たせて表示でき或いはクライアント装置の音声キャプチャ装置によってキャプチャされた音声データを提供する。 The controller can receive data from other components of the client device and modify the captured video data based on characteristics of the received video data and data from other components of the client device. For example, an imaging device or client device includes an audio capture device, such as a microphone, configured to capture audio data from a local area around the client device. The controller is subject to user-selected privacy settings, but may process the captured audio data along with the captured video data in modifying the captured video data. In various embodiments, the controller applies one or more models to the captured audio data to determine locations within the captured video data, including the source of the audio data. A controller applies one or more models to locations within the captured video data that contain the source of the audio data. In response to applying a model that makes a positional determination (including sources of audio data, including people) within the captured video data, the controller modifies the captured video data to produce a captured video that includes sources of audio data. Positions within the data are presented more prominently, and the imager is repositioned to focus on the source of the audio data (e.g., increasing the field of view of the imager occupied by the source of the audio data or changing the audio data source position within the field of view). However, the controller does not modify the captured video data or relocate the imager in response to determining that a location within the captured video data that contains the audio data source does not contain a person. As another example, the controller may modify the captured video data or reposition the imaging device to make the particular person the controller determined to be the source of the captured audio data in the captured video data more prominent. Presenting (eg, increasing the field of view of the imager occupied by the source of the audio data or changing the position of the audio data source within the field of view of the imager). This allows the captured video data to more prominently display the user determined to be the speaker or provides audio data captured by the audio capture device of the client device.

動画メッセージングセッションやユーザが動画キャプチャ機能及びユーザ特定機能を有効化した他の状況下においては、コントローラは興味対象ユーザを特定する情報を受信した後にキャプチャされた動画データに対して1つ以上のモデルを適用して、撮像装置の1つ以上のパラメータを修正してローカルエリアまわりで興味対象ユーザを追跡する。例えば、コントローラは1つ以上の顔認識モデルをキャプチャ動画データ内に配置されている人物に適用して、(オンラインシステムから受信されたかオンラインシステムからの情報に基づいて以前キャプチャされた動画データから特定された)興味対象ユーザの顔に一致する人物の顔を特定するのであり、その後撮像装置の焦点を再配置するのであって興味対象ユーザの顔に一致する顔を有する人物へと焦点を合わせる。代替的には、コントローラは興味対象ユーザを含むキャプチャされた動画データからカラーマップを抽出し、撮像装置の焦点を再配置し、抽出したカラーマップが撮像装置によってキャプチャされた動画データ内に含まれたままとなるようにする。 In a video messaging session or other situation where the user has enabled the video capture and user identification features, the controller may apply one or more models to the captured video data after receiving information identifying the user of interest. is applied to modify one or more parameters of the imaging device to track the user of interest around the local area. For example, the controller may apply one or more facial recognition models to a person located within the captured video data, identified from previously captured video data (either received from the online system or based on information from the online system). identify a person's face that matches the face of the user of interest), and then refocus the imaging device to focus on the person whose face matches the face of the user of interest. Alternatively, the controller extracts a colormap from the captured video data containing the user of interest, refocuses the imaging device, and includes the extracted colormap in the video data captured by the imaging device. leave it alone.

本発明による実施形態は、特に、方法及びコンピュータプログラム製品に向けられた添付の請求項に開示され、ある請求項のカテゴリ、例えば方法、で述べる特徴は別の請求項のカテゴリ、例えば、コンピュータプログラム製品、システム、記憶媒体においても同様に権利付与請求することができる。添付の請求項の従属又は後方参照は単に形式的理由のために選ばれている。もっとも、任意の先行請求項への意図的な後方参照(特に多数項従属)により得られる任意の主題も同様に請求できるので、請求項とその特徴のあらゆる組合せが開示され、添付の請求項で選ばれる従属に関係なく請求することができる。請求できる主題は、添付の請求項に記載される通りの特徴の組合せだけでなく、請求項の特徴のあらゆる他の組合せも含み、請求項で述べられる各特徴はあらゆる他の特徴又は請求項の他の特徴の組合せと組み合わせることができる。また、本明細書で説明又は図示される実施形態及び特徴のいずれも、個々の請求項及び/又は本明細書で説明若しくは図示されるあらゆる実施形態若しくは特徴、若しくは添付の請求項の特徴のいずれかとのあらゆる組合せで請求することができる。 Embodiments in accordance with the invention are disclosed in the accompanying claims, particularly directed to methods and computer program products, wherein features recited in one claim category, e.g. Products, systems, and storage media can be similarly entitled. Dependencies or back references to the appended claims are chosen for formal reasons only. However, since any subject matter derived by intentional back-reference (especially multiple claim dependency) to any preceding claim may be claimed as well, any combination of claim and features thereof is disclosed and claimed in the appended claim. Claims can be made regardless of the subordination chosen. Claimable subject matter includes not only the combination of features as set forth in the appended claims, but also any other combination of features of the claims, wherein each feature recited in a claim may be used in conjunction with any other feature or combination of the claims. It can be combined with other feature combinations. Also, any of the embodiments and features described or illustrated herein may be referred to in an individual claim and/or any embodiment or feature described or illustrated herein or any feature of an appended claim. and can be claimed in any combination.

図面は例示目的のみにおいて様々な実施形態について表している。本明細書において記述されている原理から逸脱することなく、本明細書において示されている構造及び方法の代替実施形態が採用されることが可能であるということを当業者であれば以降の論考から容易に認識するであろう。 The drawings depict various embodiments for illustrative purposes only. Those skilled in the art will appreciate that alternative embodiments of the structures and methods shown herein can be employed without departing from the principles described herein. will be easily recognized from

1つの実施形態によるオンラインシステムが動作するシステム環境のブロック図である。1 is a block diagram of a system environment in which an online system operates according to one embodiment; FIG. 1つの実施形態によるクライアント装置のブロック図である。1 is a block diagram of a client device according to one embodiment; FIG. 1つの実施形態によるオンラインシステムのブロック図である。1 is a block diagram of an online system according to one embodiment; FIG. 実施形態による、動画データセグメントをオンラインシステムのユーザに提示するために選定するための方法についてのフローチャートであって、これは興味対象ユーザの視線が動画データ内の異なる位置に向けられている確率に基づいている、フローチャートである。4 is a flow chart of a method for selecting video data segments for presentation to users of an online system, according to an embodiment, which is based on the probability that an interested user's gaze is directed to different positions within the video data. It is based on a flow chart.

システムアーキテクチャ
図1は、オンラインシステム140のためのシステム環境100のブロック図である。図1によって示されているシステム環境100は、1つ又は複数のクライアント装置110と、ネットワーク120と、1つ又は複数のサードパーティシステム130と、オンラインシステム140とを備える。また、図1に示されているシステム環境100内では、コントローラ117がクライアント装置110に結合されている。代替構成においては、異なる構成要素及び/又は更なる構成要素がシステム環境100内に含まれ得る。例えば、オンラインシステム140は、ソーシャルネットワーキングシステム、コンテンツ共有ネットワーク、又はコンテンツをユーザに提供する別のシステムである。
System Architecture FIG. 1 is a block diagram of system environment 100 for online system 140 . The system environment 100 illustrated by FIG. 1 comprises one or more client devices 110 , a network 120 , one or more third party systems 130 and an online system 140 . Also within system environment 100 shown in FIG. 1, controller 117 is coupled to client device 110 . In alternative configurations, different and/or additional components may be included within system environment 100 . For example, online system 140 is a social networking system, a content sharing network, or another system that provides content to users.

クライアント装置110は、ユーザ入力を受け取ること、並びにネットワーク120を通じてデータを送信すること及び/又は受け取ることが可能な1つ又は複数のコンピューティング装置である。1つの実施形態においては、クライアント装置110は、デスクトップ又はラップトップコンピュータ等、従来のコンピュータシステムである。あるいは、クライアント装置110は、携帯情報端末(PDA)、モバイル電話、スマートフォン、又は別の適切な機器等、コンピュータ機能を有する機器であり得る。クライアント装置110は、ネットワーク120を通じて通信を行うように構成されている。1つの実施形態においては、クライアント装置110は、クライアント装置110のユーザがオンラインシステム140とインタラクションすることを可能にするアプリケーションを実行する。例えば、クライアント装置110は、ネットワーク120を通じたクライアント装置110とオンラインシステム140との間におけるインタラクションを可能にするためにブラウザアプリケーションを実行する。別の実施形態においては、クライアント装置110は、IOS(登録商標)又はANDROID(登録商標)等、クライアント装置110のネイティブオペレーティングシステム上で稼働するアプリケーションプログラミングインタフェース(API)を通じてオンラインシステム140とインタラクションする。図2との関連で以下においてさらに説明されるように、クライアント装置110は、コンテンツを提示するように構成された表示装置115と、クライアント装置110の周りのローカルエリアの画像又は動画データをキャプチャするように構成された1つ以上の撮像装置とを含む。 Client device 110 is one or more computing devices capable of receiving user input and transmitting and/or receiving data over network 120 . In one embodiment, client device 110 is a conventional computer system, such as a desktop or laptop computer. Alternatively, client device 110 may be a computer-capable device such as a personal digital assistant (PDA), mobile phone, smart phone, or another suitable device. Client device 110 is configured to communicate over network 120 . In one embodiment, client device 110 executes an application that allows a user of client device 110 to interact with online system 140 . For example, client device 110 executes a browser application to enable interaction between client device 110 and online system 140 over network 120 . In another embodiment, the client device 110 interacts with the online system 140 through an application programming interface (API) that runs on the client device's 110 native operating system, such as IOS® or ANDROID®. As further described below in connection with FIG. 2, the client device 110 captures image or video data of a local area around the client device 110 with a display device 115 configured to present content. and one or more imaging devices configured to.

クライアント装置110は、ネットワーク120を通じて通信を行うように構成されており、ネットワーク120は、有線通信システム及び/又は無線通信システムの両方を使用する、ローカルエリアネットワーク及び/又はワイドエリアネットワークの任意の組合せを含むことができる。1つの実施形態においては、ネットワーク120は、標準的な通信技術及び/又はプロトコルを使用する。例えば、ネットワーク120は次のような技術を用いる通信リンクを含む:イーサネット(登録商標)、802.11系プロトコル、WiMAX(登録商標)(マイクロ波アクセスに関する世界的相互運用仕様)、3G、4G、CDMA(符号分割多元接続)、DSL(デジタル加入者線)等。ネットワーク120を通じて通信するために使用されるネットワーキングプロトコルの例としては、マルチプロトコルラベルスイッチング(MPLS)、トランスミッションコントロールプロトコル/インターネットプロトコル(TCP/IP)、ハイパーテキストトランスポートプロトコル(HTTP)、シンプルメールトランスファプロトコル(SMTP)、及びファイルトランスファプロトコル(FTP)が含まれる。ネットワーク120を通じて交換されるデータは、ハイパーテキストマークアップ言語(HTML)又は拡張マークアップ言語(XML)等の任意の適切なフォーマットを使用して表現され得る。いくつかの実施形態においては、ネットワーク120の通信リンクのうちのすべて又はいくつかは、任意の適切な1つ又は複数の技術を使用して暗号化され得る。 Client device 110 is configured to communicate over network 120, which may be any combination of local and/or wide area networks using both wired and/or wireless communication systems. can include In one embodiment, network 120 uses standard communication technologies and/or protocols. For example, network 120 includes communication links using technologies such as: Ethernet, 802.11 family protocols, WiMAX (Worldwide Interoperability Specification for Microwave Access), 3G, 4G, CDMA (Code Division Multiple Access), DSL (Digital Subscriber Line), etc. Examples of networking protocols used to communicate over network 120 include Multiprotocol Label Switching (MPLS), Transmission Control Protocol/Internet Protocol (TCP/IP), Hypertext Transport Protocol (HTTP), Simple Mail Transfer Protocol. (SMTP), and File Transfer Protocol (FTP). Data exchanged over network 120 may be expressed using any suitable format, such as Hypertext Markup Language (HTML) or Extensible Markup Language (XML). In some embodiments, all or some of the communication links of network 120 may be encrypted using any suitable technique or techniques.

1つ又は複数のサードパーティシステム130はオンラインシステム140と通信するためのネットワーク120に統合されることが可能であり、オンラインシステム140については、以下に図3と併せてさらに説明される。1つの実施形態においては、サードパーティシステム130は、クライアント装置110によって実行するためのアプリケーションについて記述する情報を伝達するアプリケーションプロバイダ、又はクライアント装置上で実行されるアプリケーションによって利用するためのデータをクライアント装置110に対して伝達するアプリケーションプロバイダである。他の実施形態においては、サードパーティシステム130は、クライアント装置110を通じて提示するためのコンテンツ又は他の情報を提供する。サードパーティシステム130は、情報、例えば、サードパーティシステム130によって提供される広告、コンテンツ、又はアプリケーションに関する情報をオンラインシステム140に対して伝達し得る。 One or more third party systems 130 may be integrated into network 120 for communicating with online system 140, which is further described below in conjunction with FIG. In one embodiment, the third party system 130 is an application provider that conveys information describing an application for execution by the client device 110 or data for use by an application executing on the client device. 110 is an application provider. In other embodiments, third party system 130 provides content or other information for presentation through client device 110 . Third party system 130 may communicate information to online system 140 , such as information regarding advertisements, content, or applications provided by third party system 130 .

図2はクライアント装置117の実施形態についてのブロック図である。図2の実施形態では、クライアント装置110は、表示装置115と撮像装置117とコントローラ210とを含む。もっとも、他の実施形態では、クライアント装置110は図2に示されたものと異なるかそれらに追加したコンポーネントを含む。 FIG. 2 is a block diagram of an embodiment of client device 117 . In the embodiment of FIG. 2, client device 110 includes display device 115 , imaging device 117 and controller 210 . However, in other embodiments, client device 110 includes components different from or in addition to those shown in FIG.

表示装置115はクライアント装置110に統合されるかクライアント装置110と結合されていることができる。例えば、クライアント装置110に統合された表示装置115としてはクライアント装置110に含まれた表示スクリーンが挙げられる。代替的には、表示装置115は、クライアント装置110に結合されたモニタや他のディスプレイたり得る。表示装置115は画像データ又は動画データをユーザに提示する。表示装置115によって提示される画像又は動画データは、クライアント装置110上で実行されているアプリケーションによって決定される。クライアント装置110上には様々なアプリケーションが含まれ得るのであり、それ故に異なるアプリケーションの実行によって、ユーザによって表示装置115をもって提示されるコンテンツが変わる。 Display device 115 may be integrated into client device 110 or coupled with client device 110 . For example, display device 115 integrated with client device 110 may include a display screen included with client device 110 . Alternatively, display device 115 may be a monitor or other display coupled to client device 110 . The display device 115 presents image data or moving image data to the user. The image or video data presented by display device 115 is determined by the application running on client device 110 . A variety of applications may be included on the client device 110 and therefore the execution of different applications will change the content presented by the user with the display device 115 .

撮像装置117は、クライアント装置110の周囲のローカルエリアに関し且つ撮像装置117の視野内の動画データまたは画像を、キャプチャする。一部の実施形態では、撮像装置117は、1つ又は複数のカメラ、1つ又は複数のビデオカメラ、又は画像データ若しくは動画データをキャプチャし得る任意の他の装置を含む。また、撮像装置117は1つ以上のフィルタ(例えば、S/N比を増大させるのに用いるフィルタ)を含み得る。様々なパラメータ(例えば、焦点距離、フォーカス、フレームレート、ISO、センサ温度、シャッター速度、絞り値、焦点等)によって、撮像装置117による動画データ又は画像データのキャプチャ挙動が構成される。したがって、撮像装置117の1つ以上のパラメータを修正すれば、1つ以上のパラメータの修正後は、撮像装置117によってキャプチャされる動画データ又は画像データが修正される。図2がクライアント装置110内に含まれる単一の撮像装置117を示しているも、他の実施形態ではクライアント装置110は任意の適切な個数の撮像装置117を含み得る。様々な実施形態では、ユーザに対しては次のオプションが与えられる:クライアント装置内にローカルで及び/又はクラウド上に任意の記録(ビデオ・音声等)が記憶されることを防止することと、保存済みならば任意の記録を削除すること。 The imaging device 117 captures video data or images of the local area around the client device 110 and within the field of view of the imaging device 117 . In some embodiments, imaging device 117 includes one or more cameras, one or more video cameras, or any other device capable of capturing image or video data. Imaging device 117 may also include one or more filters (eg, filters used to increase the signal-to-noise ratio). Various parameters (eg, focal length, focus, frame rate, ISO, sensor temperature, shutter speed, aperture value, focus, etc.) configure the capture behavior of video or image data by the imaging device 117 . Thus, modifying one or more parameters of imaging device 117 modifies the video or image data captured by imaging device 117 after modifying the one or more parameters. Although FIG. 2 shows a single imaging device 117 included within client device 110, client device 110 may include any suitable number of imaging devices 117 in other embodiments. In various embodiments, the user is given the option to: prevent any recordings (video, audio, etc.) from being stored locally on the client device and/or on the cloud; Delete any records if they have been saved.

コントローラ210は撮像装置117に結合されており、プロセッサに結合された記憶装置を備えている。様々な実施形態では、コントローラ210は表示装置115にも結合されている。コントローラ210は命令を含んでおり、該命令がプロセッサによって実行されると、1つ以上のモデルを、撮像装置117によってキャプチャされた動画データに、適用する。様々な実施形態では、1つ以上のモデルは、動画データ、音声データ、画像データ、又は任意のデータの組み合わせに対して適用されるのでありこれらは撮像装置117によって又はクライアント装置110に{含まれる/結合されている}任意の他の装置によってキャプチャされたものである。図4と併せてさらに以下において説明されるように、コントローラ210によってキャプチャ動画データに適用されるモデルは、1つ以上の規則をキャプチャ動画データの特徴に適用して、キャプチャ動画データのオブジェクト、人物、動作又は任意の他の適切な内容を特定する。モデルの適用によってそして1つ以上のプライバシ設定を伴って、コントローラ210はキャプチャ動画データを修正するか撮像装置117の1つ以上のパラメータを修正するのであり、これによって後にキャプチャ動画データが修正される。例えば、ユーザはコントローラ210がモデルを適用することを承認でき、該モデルによってキャプチャ動画データの特徴に基づいてキャプチャ動画データ内のユーザを位置決めでき、キャプチャ動画データを修正して位置決め済みユーザをより際立たせたり、或いは、撮像装置117の1つ以上のパラメータ(例えば、焦点距離、倍率若しくはズーム、キャプチャ動画データのクロッピング)を修正したりして、追加的動画データが位置決め済みユーザをより際立たせて伴うようにする。追加の動画データは位置決め済み人物をより顕著に含んでおり次のようにして提示することによってこれをなす:少なくとも閾値寸法セットを伴って(例えば、少なくとも閾値高さや閾値幅を伴って)位置決め済み人物を提示すること;位置決め済み人物を撮像装置117の視野の少なくとも閾値量にわたって若しくは少なくともキャプチャ動画データのフレームの閾値量にわたって提示すること;又は位置決め済み人物をキャプチャ動画データ内の1つ以上の具体的位置にて提示すること。もっとも、コントローラ210によって適用されるモデルは、撮像装置117によってキャプチャされた動画データの任意の適切なコンポーネントを特定でき、撮像装置117のパラメータを修正でき、キャプチャ動画データを適宜修正できる。 Controller 210 is coupled to imaging device 117 and includes storage coupled to the processor. In various embodiments, controller 210 is also coupled to display device 115 . Controller 210 includes instructions that, when executed by the processor, apply one or more models to video data captured by imaging device 117 . In various embodiments, one or more models are applied to video data, audio data, image data, or any combination of data included by imaging device 117 or in client device 110. /coupled} is captured by any other device. As described further below in conjunction with FIG. 4, the model applied to the captured video data by the controller 210 applies one or more rules to the features of the captured video data to determine the objects, people, and objects of the captured video data. , actions or any other suitable content. By applying the model and with one or more privacy settings, the controller 210 modifies the captured video data or modifies one or more parameters of the imaging device 117, which subsequently modifies the captured video data. . For example, the user can authorize the controller 210 to apply a model by which the user can be positioned within the captured video data based on characteristics of the captured video data, and the captured video data can be modified to make the positioned user more prominent. The additional video data can make the positioned user stand out more by standing or by modifying one or more parameters of the imaging device 117 (e.g., focal length, magnification or zoom, cropping of the captured video data). make it accompany The additional video data contains the positioned person more prominently and does this by presenting it as follows: positioned with at least a threshold dimension set (e.g. with at least a threshold height and a threshold width) presenting the person; presenting the positioned person over at least a threshold amount of the field of view of the imaging device 117 or over at least a threshold amount of frames of the captured video data; be presented at a designated position. However, the model applied by the controller 210 can identify any suitable component of the video data captured by the imaging device 117, modify the parameters of the imaging device 117, and modify the captured video data accordingly.

様々な実施形態では、クライアント装置110はマイクロフォン等の1つ以上の音声キャプチャ装置を含む。例えば、クライアント装置110はマイクロフォンのアレイを含んでおり、これは2又は3次元においてビームフォーミングをするように構成されている。音声キャプチャ装置は、クライアント装置110を囲むローカルエリア内の異なる領域からの音声信号をキャプチャする。様々な実施形態では、1つ胃異常の音声キャプチャ装置は、コントローラ210に結合されており、クライアント装置110の周りのローカルエリアの異なる領域を特定する情報を維持している。例えば、コントローラ210はクライアント装置110の周りのローカルエリアに関して24個の15度領域を特定するのであり、これらはクライアント装置110内のある点から延伸しており、クライアント装置110の周りの360度にわたるローカルエリアの各部分を特定している。 In various embodiments, client device 110 includes one or more audio capture devices, such as microphones. For example, client device 110 includes an array of microphones, which are configured to beamform in two or three dimensions. The audio capture device captures audio signals from different regions within the local area surrounding client device 110 . In various embodiments, one gastric anomaly audio capture device is coupled to the controller 210 and maintains information identifying different regions of the local area around the client device 110 . For example, the controller 210 may identify twenty-four 15 degree regions for the local area around the client device 110, which extend from a point within the client device 110 and span 360 degrees around the client device 110. Each part of the local area is identified.

1つ以上の音声キャプチャ装置は、コントローラ210に結合されている。ユーザのプライバシ設定に服する態様で、コントローラ210は、機械学習モデルや他の音響認識モデル等の1つ以上のモデルを、クライアント装置110の周りのローカルエリアのある領域からキャプチャされた音声データに、適用する。コントローラ210はユーザ又はオブジェクト(例えば、テレビジョンやモバイル機器)を特定する情報を含み、また、クライアント装置110の周りのローカルエリアのある領域からキャプチャされた音声に1つ以上のモデルを適用することによって、キャプチャ音声データがコントローラ210によって特定されたユーザ若しくはオブジェクトからの音声データを含むか環境ノイズを含むかを決定する。一部の実施形態では、コントローラ210によって適用される1つ以上のモデルは、1つ以上の音声キャプチャ装置が領域内の音声をキャプチャしたもととしてコントローラ210によって特定されたあるユーザ又はあるオブジェクトを、決定する。他の実施形態では、クライアント装置110は1つ以上の音声装置によってキャプチャされた音声データをオンラインシステム140へと伝達し、それは1つ以上のモデルを適用するのであり、音声データが特定されたオブジェクト若しくはユーザからキャプチャされた音声データを含んでいるかを決定したり、音声データのキャプチャ元となった特定済みの具体的なユーザ若しくはオブジェクトを決定する。オンラインシステム140は、キャプチャ音声データが特定済みのオブジェクト若しくはユーザからキャプチャされた音声データを含むかの兆候をクライアント装置110に提供するか、又は、音声データのキャプチャ元となった具体的な特定済みオブジェクト若しくはユーザを指定する情報を提供する。コントローラ210又はオンラインシステム140は、クライアント装置110の周りのローカルエリアの他の領域からキャプチャされた音声についてそうであるかを同様に決定する。異なる領域における音声データのキャプチャ元の特定済みオブジェクト又はユーザの決定に基づいて、コントローラ210は1つ以上の音声装置の配置を修正して、1つ以上の領域からキャプチャされる音声の質を向上させる。例えば、コントローラ210は1つ以上の音声キャプチャ装置を再配置して音声の質を向上させるのであって、該音声は音声データのキャプチャ元となったローカルエリアの周りの領域から得られたものであり、それは具体的なユーザ、若しくは、具体的なオブジェクトからのものである。同様に、コントローラ210は、撮像装置117の1つ以上のパラメータを修正できるのであり、異なるユーザやオブジェクトから音声データがキャプチャされたクライアント装置110の周りのローカルエリアの領域に基づいてこれをなす。様々な実施形態では、1つ以上の音声装置及び撮像装置117は、クライアント装置110の周りのローカルエリアの異なる部分に向けられていることができる。例えば、撮像装置117はユーザによって記述されたオブジェクトへと向けられており、他方でコントローラ210は1つ以上の音声装置を、特定のユーザによって音声データキャプチャがなされたもとのクライアント装置110の周りのローカルエリアの領域へと、向ける。 One or more audio capture devices are coupled to controller 210 . In a manner that is subject to user privacy settings, controller 210 applies one or more models, such as machine learning models and other acoustic recognition models, to audio data captured from a region of the local area around client device 110. , apply. Controller 210 includes information identifying a user or object (e.g., television or mobile device) and applies one or more models to audio captured from a region of the local area around client device 110. determines whether the captured audio data includes audio data from the user or object identified by controller 210 or includes environmental noise. In some embodiments, the one or more models applied by controller 210 identify a user or an object identified by controller 210 from which one or more audio capture devices captured audio in a region. ,decide. In other embodiments, the client device 110 communicates audio data captured by one or more audio devices to the online system 140, which applies one or more models to identify the object to which the audio data is specified. Alternatively, determine whether it contains audio data captured from a user, or determine the specific user or object identified from which the audio data was captured. Online system 140 may provide client device 110 with an indication that the captured audio data includes audio data captured from an identified object or user, or may provide the specific identified data from which the audio data was captured. Provides information specifying an object or user. Controller 210 or online system 140 similarly determines whether this is the case for audio captured from other regions of the local area around client device 110 . Based on an identified object or user determination from which audio data is captured in different regions, the controller 210 modifies the placement of one or more audio devices to improve the quality of audio captured from one or more regions. Let For example, the controller 210 may relocate one or more audio capture devices to improve the quality of the audio that was obtained from regions around the local area from which the audio data was captured. Yes, either from a concrete user or from a concrete object. Similarly, the controller 210 can modify one or more parameters of the imaging device 117 based on the regions of the local area around the client device 110 where audio data has been captured from different users or objects. In various embodiments, one or more audio and imaging devices 117 may be directed to different portions of the local area around client device 110 . For example, the imaging device 117 is directed at an object described by a user, while the controller 210 directs one or more audio devices locally around the client device 110 from which audio data capture was made by a particular user. Point to the realm of the area.

様々な実施形態では、オンラインシステム140及びクライアント装置110のコントローラ210は、1つ以上のプライバシ設定を、協調的に及び/又は個別的に保持及び強制するのであって、該プライバシ設定は、キャプチャ動画データや他のデータから特定されたユーザや人物用のものである。ユーザ又は人物のプライバシ設定は、ユーザ又は人物と関連付けられた特定の情報をどのように共有できるかを決定するのであり、また、ユーザ又は人物を特定する情報と関連付けて記憶され得る。一部の実施形態では、コントローラ210は、オンラインシステム140によって維持されている1つ以上のユーザについてのプライバシ設定を、検索する。1つの実施形態では、プライバシ設定はユーザと関連付けられる特定の情報を指定するのであり、また、指定された情報が他のエンティティのどれと共有され得るかを特定する。情報を共有できるエンティティの例は、他のユーザ、アプリケーション、サードパーティシステム130、又は、潜在的に情報にアクセスできる任意のエンティティを含み得る。ユーザによって共有され得る情報の例としては次のものが挙げられる:ユーザ又は人物を含む画像データ;ユーザ又は人物からキャプチャされた音声を含む音声データ;ユーザ又は人物を含む動画データ等。 In various embodiments, the online system 140 and the controller 210 of the client device 110 cooperatively and/or individually maintain and enforce one or more privacy settings, which privacy settings may For users or persons identified from data or other data. A user's or person's privacy settings determine how certain information associated with the user or person can be shared, and may be stored in association with information that identifies the user or person. In some embodiments, controller 210 retrieves privacy settings for one or more users maintained by online system 140 . In one embodiment, privacy settings specify certain information associated with a user and also specify with which other entities the specified information may be shared. Examples of entities with which information can be shared may include other users, applications, third party systems 130, or any entity that potentially has access to the information. Examples of information that may be shared by users include: image data including users or persons; audio data including audio captured from users or persons; video data including users or persons, and the like.

例えば、特定の実施形態では、プライバシ設定によって第1のユーザが次の行動をオンラインシステム140に許すか否かを(オプトアウトしたりオプトインしなかったりすることによって)指定できる:任意の目的について、ユーザと関連する特定のオブジェクトや情報を受信・収集・ロギング・記憶すること。特定の実施形態では、プライバシ設定によって第1のユーザは次の行動を特定の動画キャプチャ装置や音声キャプチャ装置やアプリケーションやプロセスがなし得るかを定め得る:ユーザと関連付けられた特定のオブジェクトや情報に対してのアクセス・記憶・利用。プライバシ設定によって、特定の装置・アプリケーション・プロセスがオブジェクトや情報についてアクセス・記憶・利用をなすことについて、第1のユーザがオプトインやオプトアウトすることが可能たり得る。オンラインシステム140は、特定の機能又はサービスを第1のユーザに提供する目的でそのような情報へのアクセスを得ることができ、それに際して他の任意の目的に関してはそのような情報についてアクセス権をオンラインシステム140が有さないで済む。そのようなオブジェクトや情報に関してアクセス・記憶・利用をなす前に、そしてそのようなアクションを許可する前に、オンラインシステムはユーザに対してプライバシ設定を提供せよとプロンプトできるのであって、該プライバシ設定は次のことに関する:どのアプリケーション若しくはプロセスが(仮にそれらが存在するとすれば)オブジェクトや情報に対してアクセス・記憶・使用をなし得るか。非限定的な例としては、第1のユーザがメッセージを第2のユーザへとオンラインソーシャルネットワークに関連するアプリケーション(例えばメッセージングアプリ)を介して送信でき、そのようなメッセージがオンラインシステム140によって記憶されるべきではないとしたプライバシ設定を指定できる。 For example, in certain embodiments, the privacy settings allow the first user to specify (by opting out or not opting in) whether the online system 140 allows the following actions: for any purpose; Receiving, collecting, logging, or storing specific objects or information associated with a user. In certain embodiments, privacy settings may allow a first user to define whether a particular video or audio capture device, application, or process can: access, storage, and use of Privacy settings may allow a first user to opt-in or opt-out of a particular device, application, or process accessing, storing, or using objects or information. Online system 140 may obtain access to such information for the purpose of providing a particular function or service to a first user, while granting access to such information for any other purpose. Online system 140 need not have it. Before accessing, storing or using such objects or information, and before permitting such actions, online systems can prompt users to provide privacy settings, which privacy settings may be set. is about: What applications or processes (if they exist) can access, store, and use objects and information. As a non-limiting example, a first user can send a message to a second user via an application associated with an online social network (e.g., a messaging app), and such message is stored by online system 140. You can specify privacy settings that should not be set.

オンラインシステム140及び/又はコントローラ210によって維持・強制されているプライバシ設定は、デフォルト設定と関連付けられていることができる。様々な実施形態では、コントローラ210がユーザから、コントローラ210に対してのユーザ特定を許すプライバシ設定を、取得しない限り、コントローラ210は、キャプチャされた動画データ・音声データ・他のデータ内のユーザを、特定しない。例えば、ユーザと関連付けられているプライバシ設定はデフォルト設定を有しており、該設定によれば、コントローラ210がユーザを特定することを許すプライバシ設定となるように手動で変更をユーザが加えない限り、コントローラ210がユーザを特定することが妨げられてコントローラがユーザ特定できないようになる。また、様々な実施形態では、代替的なプライバシ設定は、クライアント装置110からのユーザを特定する情報の別のエンティティ(例えば、別のクライアント装置110やオンラインシステム140やサードパーティシステム130)への伝達を規律する。代替的プライバシ設定はデフォルト設定を有しており、様々な実施形態では、ユーザを特定する情報の送信が妨げられるのであり、ユーザが手動で代替的プライバシ設定を修正して送信を許さない限り、コントローラ210は、ユーザを特定する情報を他のエンティティへと送信することが妨げられる。コントローラ210は、1つ以上のプライバシ設定をキャプチャされた動画データや他のデータから特定された各ユーザについて保持するのであり、送信及び各ユーザの特定についてユーザ毎の制御が可能となる。一部の実施形態では、コントローラ210が初めて人物をキャプチャデータから特定した際に、コントローラ210は人物に対してプライバシ設定を提供せよとプロンプトし、提供されたプライバシ設定を該人物を特定する情報と関連付けて記憶する。 Privacy settings maintained and enforced by online system 140 and/or controller 210 can be associated with default settings. In various embodiments, the controller 210 may identify the user in captured video, audio, or other data unless the controller 210 obtains privacy settings from the user that allow the user to be identified to the controller 210. , not specified. For example, the privacy settings associated with a user may have default settings, unless the user manually changes the privacy settings to allow the controller 210 to identify the user. , the controller 210 is prevented from identifying the user so that the controller cannot identify the user. Also, in various embodiments, alternative privacy settings may be achieved by communicating user-identifying information from client device 110 to another entity (eg, another client device 110, online system 140, or third-party system 130). discipline. Alternate privacy settings have default settings that, in various embodiments, prevent transmission of information that identifies the user, unless the user manually modifies the alternate privacy settings to allow transmission. Controller 210 is prevented from transmitting information identifying the user to other entities. Controller 210 maintains one or more privacy settings for each user identified from captured video data and other data, allowing per-user control over transmission and identification of each user. In some embodiments, when controller 210 first identifies a person from the captured data, controller 210 prompts the person to provide privacy settings, and combines the provided privacy settings with information identifying the person. Store in association.

様々な実施形態では、ユーザ認証やエクスペリエンス個人化目的での入力としてユーザの個人情報や生体測定情報を用い得る機能を備えるオンラインシステム140及び/又はクライアント装置110の様々なコンポーネントについては、ユーザはこれらの機能を活用することを選んで装置及びオンラインシステムを用いる際の己のエクスペリエンスを強化できる。非限定的な例としては、ユーザは自発的に個人情報や生態測定情報をオンラインシステム140に提供することができる。ユーザのプライバシ設定は、そのような情報が認証等の特定のプロセスのみのために利用され得るということを指定でき、また、そのような情報は任意の第三者と共有されてはならぬことやオンラインシステム140と関連付けられている他のプロセスやアプリケーションによって利用されてはならぬことを指定できる。別の非限定的な例としては、オンラインシステム140は、ユーザが声紋記録をオンラインソーシャルネットワークに提供する機能をもたらし得る。非限定的な例について述べるに、ユーザが仮にオンラインソーシャルネットワークのこの機能を活用することを望むのであれば、ユーザは己の声のボイスレコーディングを提供してオンラインソーシャルネットワーク上にステータス更新をもたらし得る。音声入力の記録をユーザの声紋と比べてユーザによって発せられた言葉が何であるかを決定できる。ユーザのプライバシ設定はそのような録音が音声入力用途のみに利用できるものであると指定でき(例えば、ユーザを認証するため、音声メッセージを送るため、オンラインソーシャルネットワークの音声操作機能を利用するために音声認識を向上させるため等)、また、そのような録音は任意のサードパーティシステムと共有されてはならぬことやオンラインシステム140と関連付けられている他のプロセスやアプリケーションによって利用されてはならぬことを指定できる。別の非限定的な例としては、オンラインシステム140は、ユーザが参照用画像(例えば、顔プロファイル等)をオンラインソーシャルネットワークに提供する機能をもたらし得る。オンラインソーシャルネットワークは、(ユーザを認証したり、写真内ユーザをタグ付けしたりするために)参照用画像を後に受信された画像入力と対比できる。ユーザのプライバシ設定は、そのような録音は限定目的(例えば、認証や写真内ユーザのタグ付け)のためのみに利用できることを指定でき、また、そのような録音は任意のサードパーティシステムと共有されてはならぬことやオンラインシステム140と関連付けられている他のプロセスやアプリケーションによって利用されてはならぬことを指定できる。生態測定データ及び/又は他の個人データについてのそのような制約のどれであっても、クライアント装置110に対しても適用できる。 In various embodiments, for various components of online system 140 and/or client device 110 with features that may use the user's personal and biometric information as input for user authentication and experience personalization purposes, the user may You can choose to take advantage of the features of to enhance your experience when using the device and online system. As a non-limiting example, users can voluntarily provide personal information and biometric information to online system 140 . User privacy settings may specify that such information may only be used for certain processes, such as authentication, and such information shall not be shared with any third parties. or other processes or applications associated with online system 140. As another non-limiting example, online system 140 may provide the ability for users to contribute voiceprint recordings to online social networks. By way of non-limiting example, if a user wishes to take advantage of this feature of an online social network, the user may provide a voice recording of his/her voice to cause status updates on the online social network. . A recording of the voice input can be compared to the user's voiceprint to determine what the words uttered by the user are. A user's privacy settings may specify that such recordings are only available for voice input purposes (e.g., to authenticate users, to send voice messages, to use the voice-activated features of online social networks). to improve speech recognition), and such recordings may not be shared with any third party system or utilized by any other process or application associated with the online system 140. can be specified. As another non-limiting example, online system 140 may provide the ability for users to provide reference images (eg, facial profiles, etc.) to online social networks. Online social networks can compare reference images with later received image inputs (to authenticate users, tag users in photos, etc.). User privacy settings may specify that such recordings may only be used for limited purposes (e.g., authentication or tagging users in photos), and such recordings may not be shared with any third-party systems. It may be specified that it must not be used by other processes or applications associated with online system 140 . Any such restrictions on biometric data and/or other personal data may also apply to client device 110 .

ユーザは次の行為を許可できる:データのキャプチャ;ユーザの特定;並びに/又は1つ以上の手法でのユーザ関連データの共有及びクロスアプリケーション利用。例えば、ユーザは、クライアント装置110の機能を利用する前及び/又はオンラインシステム140上でアクションを執り行う前に、様々なプライバシ設定を予め選ぶことができる。別の例では、ユーザが初めてアクションを遂行する場合やクライアント装置110及び/若しくはオンラインシステム140の機能を初めて利用する場合、並びに/又は、ユーザが所定期間にわたってアクションを遂行していない場合や機能を使っていない場合に、選択ダイアログをもってプロンプトできる。さらに別の例では、クライアント装置110及びオンラインシステム140は、ユーザデータを必要とする特定の機能がユーザの選択のせいで稼働し始めたり無効化されたりした場合には、通知をユーザにもたらし得るのであり、通知を介してユーザがさらなる選択を下せるようにする。ユーザが許可を与えるためには他の適切な手法もある。 Users may allow the following actions: capture of data; identification of users; and/or sharing and cross-application use of user-related data in one or more ways. For example, a user may pre-select various privacy settings prior to utilizing client device 110 functionality and/or performing an action on online system 140 . Another example is when the user performs an action for the first time or utilizes a feature of client device 110 and/or online system 140 for the first time and/or when the user has not performed an action or feature for a predetermined period of time. Can be prompted with a selection dialog if not in use. In yet another example, client device 110 and online system 140 may provide notification to the user when a particular feature requiring user data is activated or disabled due to user selection. and allow the user to make further choices via notifications. There are other suitable techniques for users to grant permissions.

一部の実施形態では、コントローラ210はオンラインシステム140によって維持されている情報を或いは1つ以上のサードパーティシステム130から取得するのであって、これはキャプチャ動画データから特定されたユーザについてのものであり、かかる所為はユーザについてのプライバシ設定に服する。以前クライアント装置110によってキャプチャされたユーザを含む動画データや音声データや画像データや他のデータ並びに取得された情報に基づいて、コントローラ210は、クライアント装置110を介してユーザに提示するためのコンテンツを生成できる。例えば、コントローラ210は、クライアント装置110によってキャプチャされた動画データ又は画像データからコントローラ210によって特定された1つ以上のオブジェクトと関連付けられているオンラインシステム140からのコンテンツアイテムを、オーバレイする。代替的には、オンラインシステム140は、クライアント装置110から受信されたユーザを含む動画データ・音声データ・画像データ・その他データ並びにユーザについて維持されている(或いはオンラインシステム140によって1つ以上のサードパーティシステム130から取得された)情報に基づいて、ユーザ用のコンテンツを生成するのであり、既生成コンテンツをユーザに提示するためにクライアント装置110に提供する。 In some embodiments, the controller 210 obtains information maintained by the online system 140 or from one or more third party systems 130 about the user identified from the captured video data. Yes, and such behavior is subject to privacy settings about the user. Based on the acquired information, as well as video, audio, image, and other data involving the user previously captured by the client device 110, the controller 210 may generate content for presentation to the user via the client device 110. can be generated. For example, controller 210 overlays content items from online system 140 that are associated with one or more objects identified by controller 210 from video or image data captured by client device 110 . Alternatively, online system 140 may maintain video data, audio data, image data, and other data including user and user received from client device 110 (or may be provided by online system 140 to one or more third parties). Based on the information (obtained from system 130), content is generated for the user, and pre-generated content is provided to client device 110 for presentation to the user.

図3は、オンラインシステム140のアーキテクチャのブロック図である。図3において示されているオンラインシステム140は、ユーザプロファイルストア305、コンテンツストア310、アクションロガー315、アクションログ320、エッジストア325、コンテンツ選択モジュール330、及びウェブサーバ335を含む。その他の実施形態においては、オンラインシステム140は、各種アプリケーションに関するさらなる、より少ない、又は異なる構成要素を含み得る。ネットワークインタフェース、セキュリティ機能、ロードバランサ、フェイルオーバサーバ、管理及びネットワークオペレーションコンソール等等の従来の構成要素は、このシステム構成の詳細をわかりにくくすることのないように、示されていない。 FIG. 3 is a block diagram of the architecture of online system 140 . Online system 140 shown in FIG. 3 includes user profile store 305 , content store 310 , action logger 315 , action log 320 , edge store 325 , content selection module 330 and web server 335 . In other embodiments, online system 140 may include additional, fewer, or different components for various applications. Conventional components such as network interfaces, security features, load balancers, failover servers, management and network operations consoles, etc. are not shown so as not to obscure the details of this system configuration.

オンラインシステム140の各ユーザは、ユーザプロファイルストア305に記憶されているユーザプロファイルに関連付けられている。ユーザプロファイルは、ユーザが明示的にシェアしたユーザに関する宣言的情報を含み、かつオンラインシステム140によって推定されるプロファイル情報も含み得る。1つの実施形態においては、ユーザプロファイルは、対応するオンラインシステムのユーザの1つ又は複数の属性をそれぞれ記述する複数のデータフィールドを含む。ユーザプロファイルに記憶される情報の例には、職歴、学歴、性別、趣味やプリファレンス、ロケーション等等、人物、人口統計学的及びその他のタイプの記述的情報が含まれる。ユーザプロファイルは、ユーザが提供する他の情報、例えば、画像やビデオを記憶することもできる。ある実施形態においては、ユーザの画像を、画像に表示されるオンラインシステムのユーザを特定する情報、ユーザがユーザのユーザプロファイルにタグ付けして記憶した画像を特定する情報でタグ付けすることが可能である。ユーザプロファイルストア305内のユーザプロファイルは、コンテンツストア310内のコンテンツアイテムに対して行われてアクションログ320に記憶される、対応するユーザによるアクションへの参照を維持することもできる。 Each user of online system 140 is associated with a user profile stored in user profile store 305 . A user profile includes declarative information about the user that the user has explicitly shared, and may also include profile information inferred by online system 140 . In one embodiment, a user profile includes multiple data fields each describing one or more attributes of the corresponding online system user. Examples of information stored in user profiles include personal, demographic and other types of descriptive information such as work history, education, gender, hobbies and preferences, location, and the like. A user profile may also store other information provided by the user, such as images and videos. In some embodiments, a user's image can be tagged with information identifying the user of the online system that appears in the image, information identifying the image that the user has tagged and stored in the user's user profile. is. User profiles in user profile store 305 may also maintain references to actions by the corresponding user taken on content items in content store 310 and stored in action log 320 .

また、ユーザについて維持されているプロファイルは、ユーザに関連付けられている1つ以上のクライアント装置110の特徴を含んでおり、オンラインシステム140が、クライアント装置110によって提供される特徴からユーザを後に特定できるようになる。例えば、オンラインシステム140と関連付けられており且つクライアント装置110上で実行されているアプリケーションは、装置識別子又はクライアント装置110を一意的に識別する他の情報を、ユーザ識別子との関連でオンラインシステム140に提供する。オンラインシステム110は装置識別子又はクライアント装置110を一意的に識別する他の情報を、ユーザについて維持されているユーザプロファイル内に格納し、後にオンラインシステム140が装置識別子又はクライアント装置110を一意的に識別する他の情報を受信した場合にユーザの特定がなされる。ユーザと関連付けられているクライアント装置110の他の特徴は、代替的に又は追加的に、ユーザによって管理されているユーザプロファイル内に含まれていることができる。例えば、ユーザプロファイルは次の事項を含む:ネットワーク120にアクセスするためにクライアント装置110によって利用されるネットワークアドレス;オンラインシステム140が情報を得た元たるクライアント装置110上で実行されているアプリケーションの識別子;オンラインシステム140が情報を得た元たるクライアント装置110のタイプ(例えば、製造業者名、クライアント装置110の型式の識別子等);オンラインシステム140が情報を得た元たるクライアント装置110上で実行されているオペレーティングシステム。もっとも、オンラインシステム140はクライアント装置110の任意の適切な特徴をユーザプロファイル内に格納でき、オンラインシステム140は、ユーザプロファイルに対応するユーザによって利用されるクライアント装置110についての情報を、維持できる。 The profile maintained for the user also includes characteristics of one or more client devices 110 associated with the user, such that the online system 140 can later identify the user from the characteristics provided by the client device 110. become. For example, an application associated with online system 140 and running on client device 110 may transmit a device identifier or other information that uniquely identifies client device 110 to online system 140 in association with the user identifier. offer. Online system 110 stores the device identifier or other information that uniquely identifies client device 110 in a user profile maintained for the user for later online system 140 to uniquely identify the device identifier or client device 110 . Identification of the user is made when other information is received. Other characteristics of the client device 110 associated with the user may alternatively or additionally be contained within a user profile maintained by the user. For example, a user profile includes: the network address used by client device 110 to access network 120; the identifier of the application running on client device 110 from which online system 140 obtained information; type of client device 110 from which online system 140 obtained information (e.g., manufacturer name, model identifier of client device 110, etc.); execution on client device 110 from which online system 140 obtained information; operating system. However, online system 140 may store any suitable characteristics of client device 110 in the user profile, and online system 140 may maintain information about client device 110 utilized by the user corresponding to the user profile.

ユーザプロファイルストア305内のユーザプロファイルは、しばしば個人に関連付けられて、個人がオンラインシステム140を通じて互いにインタラクションすることを可能にするが、ユーザプロファイルは企業や組織等のエンティティについても記憶することができる。これによりエンティティは、オンラインシステム140上で、他のオンラインシステムのユーザとつながり、かつコンテンツを交換するためにプレゼンスを確立することが可能である。エンティティは、自社についての情報、自社製品についての情報を投稿し、又はエンティティのユーザプロファイルに関連付けられているブランドページを使用してオンラインシステム140のユーザに他の情報を提供することができる。オンラインシステム140の他のユーザは、ブランドページとつながって、ブランドページに投稿された情報を受け取るか、又はブランドページからの情報を受け取ることができる。ブランドページに関連付けられているユーザプロファイルは、そのエンティティに関する背景又は情報データをユーザに提供する、エンティティ自体に関する情報を含み得る。 User profiles in the user profile store 305 are often associated with individuals and allow individuals to interact with each other through the online system 140, but user profiles can also be stored for entities such as businesses and organizations. This allows entities to establish a presence on online system 140 in order to connect and exchange content with users of other online systems. Entities can post information about their company, about their products, or provide other information to users of online system 140 using branded pages associated with the entity's user profile. Other users of the online system 140 may connect with the Brand Page to receive information posted on the Brand Page or receive information from the Brand Page. A user profile associated with a brand page may contain information about the entity itself that provides the user with background or informational data about that entity.

コンテンツストア310は、様々なタイプのコンテンツを各々が表す複数のオブジェクトを記憶する。オブジェクトによって表されるコンテンツの例には、ページ投稿、ステータスの更新、写真、ビデオ、リンク、共有コンテンツアイテム、ゲームアプリケーションの達成度、地域のビジネスにおけるチェックインイベント、ブランドページ、又は他のタイプのコンテンツが含まれる。オンラインシステムのユーザは、ステータスの更新、オンラインシステム140内の他のオブジェクトに関連付けるためにユーザがタグ付けした写真、イベント、グループ、又はアプリケーション等、コンテンツストア310によって記憶されるオブジェクトを作成することができる。いくつかの実施形態においては、オブジェクトはサードパーティアプリケーション、又はオンラインシステム140とは別のサードパーティアプリケーションから受け取られる。1つの実施形態においては、コンテンツストア310内のオブジェクトは、1つのコンテンツ、又は複数のコンテンツ「アイテム」を表す。そのため、オンラインシステムのユーザは、様々な通信チャネルを通してテキストや様々なタイプの媒体のコンテンツアイテムをオンラインシステム140に投稿することによって、互いに通信するよう促される。これによりユーザ同士のインタラクションの量が増え、オンラインシステム140内でユーザがインタラクションする頻度が増す。 The content store 310 stores multiple objects each representing different types of content. Examples of content represented by objects include page posts, status updates, photos, videos, links, shared content items, game application achievements, check-in events for local businesses, branded pages, or other types of content. Contains content. Users of the online system can create objects that are stored by the content store 310, such as status updates, photos that the user has tagged for association with other objects in the online system 140, events, groups, or applications. can. In some embodiments, the object is received from a third party application or a third party application separate from online system 140 . In one embodiment, an object in content store 310 represents a piece of content or multiple content "items." As such, users of the online system are encouraged to communicate with each other by posting text and content items of various types of media to the online system 140 through various communication channels. This increases the amount of interaction between users and increases the frequency with which users interact within online system 140 .

コンテンツストア310に含まれる1つ又は複数のコンテンツアイテムは、ユーザに提示するためのコンテンツたるクリエーティブと入札額とを含む。クリエーティブは、テキスト、画像、オーディオ、ビデオ、又はユーザに提示される他の適切なデータである。様々な実施形態において、クリエーティブはまた、コンテンツのページを特定する。例えば、コンテンツアイテムは、コンテンツアイテムがアクセスされたときにユーザを対象とするコンテンツのランディングページのネットワークアドレスを指定するリンクを含む。ユーザに対してコンテンツが提示された場合、入札額は、ユーザによってコンテンツアイテムに含まれ、かつ入札額は、コンテンツアイテム内のコンテンツがユーザに提示された場合、提示されたときにコンテンツアイテム内のコンテンツがユーザインタラクションを受け取った場合、又はコンテンツアイテム内のコンテンツがユーザに提示されたときに何らかの適切な条件が満たされた場合に、広告主によってオンラインシステム140に提供される金銭的補償等の期待値を決定するために使用される。例えば、コンテンツアイテムに含まれる入札額は、コンテンツアイテム内のコンテンツが表示された場合に、コンテンツアイテムをオンラインシステム140に提供したユーザからオンラインシステム140が受け取る金額を指定する。いくつかの実施形態では、コンテンツアイテムからコンテンツを提示することのオンラインシステム140への期待値は、入札額に、コンテンツアイテムのコンテンツがユーザによってアクセスされる確率を乗算することによって決定され得る。 One or more content items contained in the content store 310 include content creatives and bid amounts for presentation to users. Creatives are text, images, audio, video, or other suitable data presented to the user. In various embodiments, the creative also identifies pages of content. For example, the content item includes a link that specifies the network address of the landing page of the content intended for the user when the content item is accessed. If the content is presented to the user, the bid amount is included in the content item by the user, and if the content in the content item is presented to the user, the bid amount is included in the content item when presented. An expectation, such as financial compensation, provided by an advertiser to the online system 140 if the content receives user interaction or if some appropriate condition is met when the content in the content item is presented to the user. used to determine the value. For example, the bid amount included in the content item specifies the amount that the online system 140 will receive from a user who has provided the content item to the online system 140 when the content in the content item is displayed. In some embodiments, the expected value for the online system 140 of presenting content from a content item may be determined by multiplying the bid amount by the probability that the content of the content item will be accessed by a user.

様々なコンテンツアイテムは、コンテンツアイテムに関連するユーザが、そのコンテンツアイテムに含まれるコンテンツが提示されたときに他のユーザが実行することを所望するインタラクションを識別する目標を含み得る。例示的な目的としては次のものを挙げることができる:コンテンツアイテムと関連付けられているアプリケーションをインストールすること;コンテンツアイテムについての選好を示すこと;他のユーザとコンテンツアイテムを共有すること、コンテンツアイテムと関連付けられているオブジェクトと相互作用すること;任意の他の適切な相互作用をなすこと。コンテンツアイテムからのコンテンツがオンラインシステムのユーザに提示されると、オンラインシステム140は、提示されたユーザとコンテンツアイテム又はコンテンツアイテムに関連するオブジェクトとの間のインタラクションを記録する。さらに、オンラインシステムユーザがコンテンツアイテムに含まれる目標を満たす、コンテンツアイテムとのインタラクションを実行したときに、オンラインシステム140は、コンテンツアイテムに関連するユーザから補償金を受け取る。 Various content items may include goals that identify interactions that users associated with the content item would like other users to perform when presented with the content included in the content item. Exemplary purposes may include: installing an application associated with a content item; indicating preferences for a content item; sharing a content item with other users; interacting with an object associated with; making any other suitable interaction. When content from a content item is presented to a user of the online system, the online system 140 records interactions between the presented user and the content item or objects associated with the content item. In addition, online system 140 receives compensation from users associated with content items when online system users perform interactions with content items that satisfy goals contained in the content items.

さらに、コンテンツアイテムは、コンテンツアイテムをオンラインシステム140に提供したユーザによって指定された1つ又は複数のターゲティング基準を含み得る。コンテンツアイテム要求に含まれるターゲティング基準は、コンテンツアイテムと共に提示されるのに適したユーザの1つ又は複数の特徴を指定する。例えば、ターゲティング基準は、少なくとも1つのターゲティング基準を満たすユーザプロファイル情報、エッジ、又はアクションを有するユーザを識別するために使用される。したがって、ターゲティング基準は、ユーザが特定の特性を有するユーザを識別することを可能にし、その後の個々のユーザへのコンテンツの配信を簡略化する。 Additionally, the content item may include one or more targeting criteria specified by the user who submitted the content item to online system 140 . The targeting criteria included in the content item request specify one or more characteristics of the user that are eligible to be presented with the content item. For example, targeting criteria are used to identify users with user profile information, edges, or actions that meet at least one targeting criteria. Thus, targeting criteria allow users to identify users with particular characteristics, simplifying subsequent delivery of content to individual users.

1つの実施形態では、ターゲティング基準は、ユーザと他のユーザ又はオンラインシステム140のオブジェクトとの間のアクション又は接続タイプを指定し得る。ターゲティング基準は、ユーザと、サードパーティシステム130上等のオンラインシステム140の外部で実行されるオブジェクトとの間のインタラクションも指定し得る。例えば、ターゲティング基準は、他のユーザへのメッセージの送信、アプリケーションの使用、グループへの参加、グループからの離脱、イベントへの参加、イベントの説明の生成、オンラインマーケットプレイスを使用した製品又はサービスの購入又は検討、サードパーティシステム130からの情報の要求、アプリケーションのインストール、又は他の任意の適切なアクション等の特定のアクションを行ったユーザを識別する。アクションをターゲティング基準に含めることで、ユーザはコンテンツアイテムの提示に適したユーザをさらに絞り込むことができる。別の例として、ターゲティング基準は、他のユーザ又はオブジェクトへの接続を有するか、又は他のユーザ又はオブジェクトへの特定のタイプの接続を有するユーザを識別する。 In one embodiment, targeting criteria may specify actions or connection types between users and other users or objects of online system 140 . Targeting criteria may also specify interactions between users and objects running outside of online system 140 , such as on third-party system 130 . For example, targeting criteria may include sending messages to other users, using applications, joining groups, leaving groups, attending events, generating event descriptions, selling products or services using online marketplaces. Identifies the user who performed a particular action, such as making a purchase or review, requesting information from a third party system 130, installing an application, or any other suitable action. By including actions in the targeting criteria, users can further narrow down who is suitable for presenting content items. As another example, targeting criteria identify users who have connections to other users or objects, or who have a particular type of connection to other users or objects.

プライバシ設定に基づいて、アクションロガー315は、オンラインシステム140の内部及び/又は外部のユーザアクションに関する通信を受信することについて許可を受けていることができ、ユーザアクションに関する情報をアクションログ320に投入できる。アクションの例には、別のユーザへのつながりを追加すること、別のユーザにメッセージを送信すること、画像をアップロードすること、別のユーザからのメッセージを読むこと、別のユーザに関連付けられているコンテンツを閲覧すること、別のユーザによって投稿されたイベントに出席することが含まれる。さらに、多数のアクションがオブジェクト及び1人又は複数人の特定のユーザを伴うことがあるため、これらのアクションも特定のユーザに関連付けられて、アクションログ320に記憶される。 Based on privacy settings, action logger 315 may be permitted to receive communications regarding user actions internal and/or external to online system 140 and may populate information regarding user actions into action log 320 . . Examples of actions include adding a connection to another user, sending a message to another user, uploading an image, reading a message from another user, including viewing content posted by other users and attending events posted by other users. Furthermore, since many actions may involve objects and one or more specific users, these actions are also associated with specific users and stored in action log 320 .

プライバシ設定に基づいて、アクションログ320は、オンラインシステム140が、オンラインシステム140上でのユーザアクション、及び、オンラインシステム140に情報を伝達するサードパーティシステム130上でのアクションを追跡するために使用されることに関してユーザから許可を受けていることができる。ユーザはオンラインシステム140上のさまざまなオブジェクトとインタラクションすることができ、これらのインタラクションについて記述する情報がアクションログ320に記憶される。オブジェクトとの相互作用の例としては次のものが挙げられる:ポストについてコメントすること;リンクを共有すること;クライアント装置110を介して物理的場所にチェックインすること;コンテンツアイテムにアクセスすること;任意の他の適切な相互作用をなすこと。アクションログ320に含まれるオンラインシステム140上のオブジェクトとの相互作用のさらなる例としては、次のものを挙げることができる:写真アルバムについてコメントすること;ユーザと通信すること;オブジェクトとのコネクションを確立すること;イベントに参加すること;グループに参加すること;イベントを作成すること;アプリケーションを承認すること;アプリケーションを利用すること;オブジェクトについて選好を表明すること(オブジェクトに対して「いいね」発すること);トランザクションに入ること。さらに、アクションログ320は、オンラインシステム140上の広告及びオンラインシステム140上で動作する他のアプリケーションとの、ユーザのインタラクションを記録することができる。いくつかの実施形態においては、アクションログ320からのデータは、ユーザの関心又はプリファレンスを推測するために使用されて、ユーザのユーザプロファイルに含まれる関心を強化し、ユーザのプリファレンスをさらに完全に理解できるようにする。 Based on privacy settings, action log 320 is used by online system 140 to track user actions on online system 140 and actions on third-party systems 130 that communicate information to online system 140 . may have permission from the user to do so. A user can interact with various objects on online system 140 and information describing these interactions is stored in action log 320 . Examples of interactions with objects include: commenting on posts; sharing links; checking in to physical locations via client device 110; accessing content items; Make any other appropriate interaction. Further examples of interactions with objects on online system 140 that are included in action log 320 may include: commenting on photo albums; communicating with users; establishing connections with objects. participating in an event; joining a group; creating an event; approving an application; using an application; to enter a transaction); Additionally, action log 320 may record user interactions with advertisements on online system 140 and other applications running on online system 140 . In some embodiments, data from the action log 320 is used to infer the interests or preferences of the user to enhance the interests contained in the user's user profile and further refine the user's preferences. make it understandable.

アクションログ320は、外部ウェブサイト等のサードパーティシステム130上で行われてオンラインシステム140に伝達されるユーザアクションを記憶することもでき、これはユーザのプライバシ設定に服する。例えば、電子商取引のウェブサイトはソーシャルプラグインを通じてオンラインシステム140のユーザを認識することができるので、電子商取引のウェブサイトがオンラインシステム140のユーザを識別することが可能である。オンラインシステム140のユーザは一意に識別できるため、前述の例におけるように、電子商取引のウェブサイトは、オンラインシステム140外のユーザのアクションに関する情報を、ユーザに関連付けるためにオンラインシステム140に伝達することができる。そのため、アクションログ320は、ウェブページの閲覧履歴、関わった広告、行った購入、及び買い物や購買からの他のパターン等を含む、ユーザがサードパーティシステム130上で行うアクションに関する情報を記録することができる。さらに、サードパーティシステム130に関連付けられ、かつクライアント装置110上で実行するアプリケーションを介してユーザが実行するアクションは、アクションログ320内の記録及びユーザとの関連付けのためにアプリケーションによってアクションロガー315に伝達され得る。 The action log 320 can also store user actions taken on a third party system 130 such as an external website and communicated to the online system 140, which are subject to the user's privacy settings. For example, it is possible for an e-commerce website to identify users of the online system 140 because the e-commerce website can recognize users of the online system 140 through social plug-ins. Because users of online system 140 are uniquely identifiable, as in the previous example, e-commerce websites may communicate information about user actions outside online system 140 to online system 140 for association with the user. can be done. As such, the action log 320 records information about actions the user takes on the third-party system 130, including browsing history of web pages, advertisements involved, purchases made, and other patterns from shopping and purchases. can be done. Additionally, actions performed by a user via an application associated with the third party system 130 and running on the client device 110 are recorded in the action log 320 and communicated by the application to the action logger 315 for association with the user. can be

1つの実施形態においては、エッジストア225は、ユーザとオンラインシステム140上の他のオブジェクトとのつながりについて記述する情報をエッジとして記憶する。いくつかのエッジはユーザによって定義されることができ、ユーザが他のユーザとの関係を指定することが可能である。例えば、ユーザは、友達、同僚、パートナー等、ユーザの実生活の関係に即した他のユーザとのエッジを生成することができる。オンラインシステム140上のあるページへの関心を表明すること、オンラインシステム140の他のユーザとリンクをシェアすること、及び、オンラインシステム140の他のユーザが行った投稿にコメントすること等、ユーザがオンラインシステム140でオブジェクトとインタラクションするとき、他のエッジが生成される。 In one embodiment, edge store 225 stores information describing connections between users and other objects on online system 140 as edges. Some edges can be user-defined, allowing users to specify relationships to other users. For example, a user can generate edges with other users, such as friends, co-workers, partners, etc., that match the user's real-life relationships. A user may, for example, express an interest in a page on online system 140, share a link with other users of online system 140, or comment on posts made by other users of online system 140. Other edges are generated when interacting with objects in the online system 140 .

エッジは、ユーザ同士のインタラクション、ユーザとオブジェクトのインタラクション、又はオブジェクト同士のインタラクションの特性をそれぞれ表す様々な特徴を含むことができる。例えば、エッジに含まれる特徴は、2人のユーザ間のインタラクションの割合、2人のユーザが互いにインタラクションしたのがどれくらい最近であったか、あるユーザがオブジェクトに関して取得した情報の割合もしくは量、又はユーザがオブジェクトに関して投稿したコメントの数とタイプを記述する。特徴は、ある特定のオブジェクト又はユーザについて記述する情報を表すこともできる。例えば、特徴は、ある特定のトピックに対してユーザがもつ関心のレベル、ユーザがオンラインシステム140にログインしている割合、又はユーザに関する人口統計学的情報について記述する情報を表すことができる。各特徴は、ソースオブジェクト又はユーザ、ターゲットオブジェクト又はユーザ、及び特徴値に関連付けることができる。特徴は、ソースオブジェクト又はユーザ、ターゲットオブジェクト又はユーザについて、又はソースオブジェクト又はユーザとターゲットオブジェクト又はユーザとの間におけるインタラクションについて記述する値に基づいた式として指定され得る。そのため、エッジは1つ又は複数の特徴式として表され得る。 Edges can include various features that characterize interactions between users, interactions between users and objects, or interactions between objects, respectively. For example, features included in an edge could be the rate of interaction between two users, how recently the two users interacted with each other, the rate or amount of information a user obtained about an object, or whether a user Describe the number and types of comments posted about the object. Features can also represent information that describes a particular object or user. For example, characteristics may represent information describing the level of interest a user has in a particular topic, the rate at which the user is logged into the online system 140, or demographic information about the user. Each feature can be associated with a source object or user, a target object or user, and a feature value. A feature can be specified as a value-based expression that describes a source object or user, a target object or user, or an interaction between a source object or user and a target object or user. As such, an edge may be represented as one or more feature expressions.

エッジストア325は、オブジェクト、関心、及び他のユーザについての関連性(affinity)スコア等、エッジに関する情報も記憶する。オンラインシステム140によって経時的に関連性スコア、又は、「関連性」が計算されて、ユーザが行うアクションに基づいて、オンラインシステム140内のオブジェクト又は別のユーザへのユーザの関心を見積ることができる。オンラインシステム140によって経時的にユーザの関連性が計算されて、ユーザが行うアクションに基づいてオンラインシステム140内のオブジェクト、トピック、又は別のユーザへのユーザの関心を見積ることができる。関連性の計算については、2010年12月23日に出願された米国特許出願第12/978,265号、2012年11月30日に出願された米国特許出願第13/690,254号、2012年11月30日に出願された米国特許出願第13/689,969号、及び2012年11月30日に出願された米国特許出願第13/690,088号にさらに記述されており、各々の全体が参照によって取り込まれている。1つの実施形態においては、ユーザと特定のオブジェクトとの間における複数のインタラクションを、1つのエッジとしてエッジストア225内に記憶することができる。あるいは、ユーザと特定のオブジェクトとの間における各インタラクションを別個のエッジとして記憶する。いくつかの実施形態においては、ユーザ間のつながりをユーザプロファイルストア305に記憶することができ、又はユーザプロファイルストア305がユーザ間のつながりを決定するためにエッジストア325にアクセスすることができる。 Edge store 325 also stores information about edges, such as affinity scores for objects, interests, and other users. A relevance score, or "relevance," may be calculated by the online system 140 over time to estimate a user's interest in objects or other users within the online system 140 based on actions taken by the user. . A user's relevance may be calculated by the online system 140 over time to estimate a user's interest in objects, topics, or other users within the online system 140 based on actions taken by the user. No. 12/978,265, filed Dec. 23, 2010; U.S. Patent Application No. 13/690,254, filed Nov. 30, 2012; No. 13/689,969, filed November 30, 2012, and U.S. Patent Application No. 13/690,088, filed November 30, 2012, wherein each Entirely incorporated by reference. In one embodiment, multiple interactions between a user and a particular object can be stored as an edge in edge store 225 . Alternatively, each interaction between the user and a particular object is stored as a separate edge. In some embodiments, connections between users can be stored in the user profile store 305, or the user profile store 305 can access the edge store 325 to determine connections between users.

コンテンツ選択モジュール330は、1つ又は複数のコンテンツアイテムをユーザに提示されるべくクライアント装置110への伝達のために選択する。ユーザへの提示に適したコンテンツアイテムは、視聴ユーザへの提示のためにコンテンツアイテムのうちの1つ又は複数を選択するコンテンツ選択モジュール230によって、コンテンツストア210から、又は別のソースから取得される。ユーザへの提示に適したコンテンツアイテムは、ユーザの特性によって満たされる少なくとも閾値数のターゲティング基準に関連付けられたコンテンツアイテムであるか、又はターゲティング基準に関連付けられていないコンテンツアイテムである。様々な実施形態において、コンテンツ選択モジュール330は、ユーザに提示するための一組のコンテンツアイテムを特定する1つ又は複数の選択プロセスにおいてユーザに提示するのに適したコンテンツアイテムを含む。例えば、コンテンツ選択モジュール330は、オンラインシステム140によってユーザに関連付けられた属性に基づいて、かつ個々のコンテンツアイテムに対するユーザの関連性に基づいて、ユーザに対する様々なコンテンツアイテムの関連性の度合いを決定する。ユーザにとってのコンテンツアイテムの関連性の度合いは、ユーザにとってのコンテンツアイテムの質の度合いに基づいており、コンテンツアイテムに含まれるクリエーティブやコンテンツアイテム内のリンクによって特定されるランディングページのコンテンツに基づいていることができる。関連性の度合いに基づいて、コンテンツ選択モジュール330は、ユーザに提示するためのコンテンツアイテムを選択する。追加の例として、コンテンツ選択モジュール330は、ユーザへの提示のために、最も高い関連性の度合いを有するコンテンツアイテム、又は少なくとも閾値の関連性の度合いを有するコンテンツアイテムを選択する。代替的に、コンテンツ選択モジュール330は、その関連する関連性の度合いに基づいてコンテンツアイテムをランク付けし、ランク付けにおいて最上位位置にあるコンテンツアイテム、又はランク付けにおいて少なくとも閾値位置にあるコンテンツアイテムをユーザへの提示のために選択する。 Content selection module 330 selects one or more content items for transmission to client device 110 to be presented to the user. Content items suitable for presentation to the user are obtained from the content store 210 or from another source by a content selection module 230 that selects one or more of the content items for presentation to the viewing user. . A content item suitable for presentation to a user is a content item associated with at least a threshold number of targeting criteria satisfied by the user's characteristics, or a content item associated with no targeting criteria. In various embodiments, the content selection module 330 includes content items suitable for presentation to the user in one or more selection processes that identify a set of content items for presentation to the user. For example, the content selection module 330 determines the degree of relevance of various content items to the user based on attributes associated with the user by the online system 140 and based on the user's relevance to individual content items. . The degree of relevance of a content item to a user is based on the degree of quality of the content item to the user and is based on the creative contained in the content item and the landing page content identified by the links within the content item. be able to. Based on the degree of relevance, content selection module 330 selects content items for presentation to the user. As an additional example, the content selection module 330 selects content items having the highest degree of relevance, or having at least a threshold degree of relevance, for presentation to the user. Alternatively, the content selection module 330 ranks the content items based on their degree of relative relevance and selects the content items at the highest position in the ranking or at least a threshold position in the ranking. Select for presentation to the user.

ユーザへの提示に適したコンテンツアイテムは、入札額に関連するコンテンツアイテムを含み得る。コンテンツ選択モジュール330は、ユーザに提示するためのコンテンツを選択するときにコンテンツアイテムに関連する入札額を使用する。様々な実施形態において、コンテンツ選択モジュール330は、それらの入札額に基づいて様々なコンテンツアイテムに関連付けられた期待値を決定し、最大期待値に関連付けられたコンテンツアイテム、又は少なくとも提示のための閾値期待値に関連付けられたコンテンツアイテムを選択する。コンテンツアイテムに関連付けられた期待値は、コンテンツアイテムを提示することに関するオンラインシステム140への期待補償額を表す。例えば、コンテンツアイテムに関連付けられた期待値は、コンテンツアイテムの入札額と、ユーザがコンテンツアイテムとインタラクションする可能性との乗算値である。コンテンツ選択モジュール330は、コンテンツアイテムに関連付けられた入札額に基づいてコンテンツアイテムをランク付けし、ランク付けにおいて少なくとも閾値位置にあるコンテンツアイテムをユーザへの提示のために選択し得る。いくつかの実施形態では、コンテンツ選択モジュール330は、入札額及びコンテンツアイテムに関連する関連性の度合いに基づいて、入札額に関連しないコンテンツアイテム及び入札額に関連するコンテンツアイテムの両方を統一したランキングでランク付けする。統一したランキングに基づいて、コンテンツ選択モジュール330は、ユーザに提示するためのコンテンツを選択する。統一したランクキングを通じて入札額に関連するコンテンツアイテムと入札額に関連しないコンテンツアイテムを選択することは、2012年7月10日に出願された米国特許出願第13/545,266号にさらに記載されており、この特許出願を参照によりその全体を本明細書に組み込む。 Content items suitable for presentation to a user may include content items associated with a bid amount. The content selection module 330 uses the bid amount associated with the content item when selecting content for presentation to the user. In various embodiments, the content selection module 330 determines the expected value associated with various content items based on their bid amounts and determines the content item associated with the maximum expected value, or at least a threshold for presentation. Select the content item associated with the expected value. The expected value associated with the content item represents the expected amount of compensation to online system 140 for presenting the content item. For example, the expected value associated with a content item is the bid amount for the content item multiplied by the likelihood that a user will interact with the content item. The content selection module 330 may rank the content items based on the bid amounts associated with the content items and select those content items that are at least a threshold position in the ranking for presentation to the user. In some embodiments, the content selection module 330 provides a unified ranking of both non-bid related content items and bid related content items based on the bid amount and the degree of relevance associated with the content items. rank in. Based on the unified ranking, content selection module 330 selects content for presentation to the user. Selecting bid-relevant and non-bid-relevant content items through unified ranking is further described in U.S. patent application Ser. No. 13/545,266, filed July 10, 2012. and this patent application is incorporated herein by reference in its entirety.

例えば、コンテンツ選択モジュール330は、オンラインシステム140のユーザにコンテンツのフィードを提示する要求を受け取る。フィードは、ユーザに接続している他のオンラインシステムの複数のユーザに関連付けられた複数のアクションを記述するストーリー等のコンテンツアイテムを、含む。コンテンツ選択モジュール330は、ユーザについての情報を取得するために、ユーザプロファイルストア305、コンテンツストア310、アクションログ320、及びエッジストア325のうちの1つ又は複数にアクセスする。例えば、ユーザに接続されている他の複数のユーザに関連付けられている複数のアクションを記述する情報、又はユーザに接続されている複数のユーザに関連付けられている他のデータが取得される。コンテンツストア310からのコンテンツアイテムは、コンテンツ選択モジュール330によって取得及び分析されて、ユーザへの提示に適した候補コンテンツアイテムを特定する。例えば、ユーザに接続されていない複数のユーザに関連するコンテンツアイテム、又はユーザに対する関連性が閾値未満の複数のユーザに関連するストーリーは、候補コンテンツアイテムとして破棄される。様々な基準に基づいて、コンテンツ選択モジュール330は、識別されたユーザに提示するための候補コンテンツアイテムとして特定された1つ又は複数のコンテンツアイテムを選択する。選択されたコンテンツアイテムは、ユーザに提示されるコンテンツのフィードに含まれる。例えば、コンテンツのフィードは、オンラインシステム140を介してユーザに接続された複数のユーザに関連付けられたアクションを記述する少なくとも閾値数のコンテンツアイテムを含む。 For example, content selection module 330 receives a request to present a feed of content to a user of online system 140 . The feed contains content items, such as stories describing actions associated with users of other online systems connected to the user. Content selection module 330 accesses one or more of user profile store 305, content store 310, action log 320, and edge store 325 to obtain information about the user. For example, information describing actions associated with other users connected to the user or other data associated with users connected to the user is obtained. Content items from the content store 310 are retrieved and analyzed by the content selection module 330 to identify candidate content items suitable for presentation to the user. For example, content items associated with multiple users who are not connected to the user, or stories associated with multiple users with less than a threshold relevance to the user are discarded as candidate content items. Based on various criteria, the content selection module 330 selects one or more identified content items as candidate content items for presentation to the identified user. The selected content items are included in the feed of content presented to the user. For example, the feed of content includes at least a threshold number of content items describing actions associated with a plurality of users connected to the user via online system 140 .

様々な実施形態において、コンテンツ選択モジュール330は、ユーザへの提示のために選択された複数のコンテンツアイテムを含むフィードを介してユーザにコンテンツを提示する。コンテンツ選択モジュール330は、選択されたコンテンツアイテムがフィードを介して提示される順序も決定し得る。例えば、コンテンツ選択モジュール330は、ユーザが様々なコンテンツアイテムとインタラクションする可能性に基づいてフィード内のコンテンツアイテムを順序付ける。 In various embodiments, the content selection module 330 presents content to the user via a feed containing a plurality of content items selected for presentation to the user. Content selection module 330 may also determine the order in which the selected content items are presented via the feed. For example, the content selection module 330 orders content items in the feed based on the likelihood that a user will interact with various content items.

ユーザのアクション又は同意に基づいて、コンテンツ選択モジュール330は、オンラインシステムのユーザと関連付けられているクライアント装置110内に含まれる撮像装置117によってキャプチャされた動画データを受信するのであり、また、動画データを受信側クライアント装置110へと送信するのであり、表示装置115を介して閲覧側ユーザに提示させるためにこれがなされる。オンラインシステム140は、閲覧ユーザを特定する要求をクライアント装置110から受信でき、閲覧ユーザから承認を受信したことに応答して、クライアント装置110から受信側クライアント装置110へと動画データを後に提供できる。反対に、オンラインシステム140は受信側クライアント装置110を介して閲覧ユーザからの要求を受信するのであり、ユーザから承認を受信したことに応答して、クライアント装置110から受信された動画データを受信側クライアント装置110に提供する。これによって、オンラインシステム140の異なるユーザらが、オンラインシステム140を介して、ユーザと関連付けられているクライアント装置110によってキャプチャされた動画データを交換することが可能となる。 Based on the user's action or consent, the content selection module 330 receives video data captured by the imaging device 117 included in the client device 110 associated with the user of the online system and also receives video data. is sent to the receiving client device 110 for presentation to the viewing user via the display device 115 . The online system 140 can receive a request from the client device 110 identifying the viewing user, and can later provide the video data from the client device 110 to the receiving client device 110 in response to receiving approval from the viewing user. Conversely, online system 140 receives a request from a viewing user via recipient client device 110 and, in response to receiving approval from the user, forwards video data received from client device 110 to the recipient. provided to the client device 110; This allows different users of the online system 140 to exchange video data captured by the client device 110 associated with the user via the online system 140 .

また、コンテンツ選択モジュール330は閲覧ユーザから受信側クライアント装置110を介して命令を受信でき、1つ以上の命令をクライアント装置110へと送信する。受信された命令に基づいて、クライアント装置110は、命令受信後にキャプチャされた動画データを修正するか、或いは、命令に基づいて撮像装置117の1つ以上のパラメータを修正する。したがって、クライアント装置110は受信側クライアント装置110からの1つ以上の命令に基づいてキャプチャ動画データを修正して、修正済み動画データ又は修正済みパラメータを用いて撮像装置117によってキャプチャされた動画データを、コンテンツ選択モジュール330へと送信するのであり、該モジュールは、動画データを受信側クライアント装置110へと送信するのであり、このことは図4との関係でさらに後述されている。これによって、閲覧ユーザはクライアント装置110によってキャプチャされた動画データについて修正又は調整をなし得るのであり、これは受信側クライアント装置110を介して閲覧ユーザに提供される。 The content selection module 330 can also receive instructions from the viewing user via the receiving client device 110 and send one or more instructions to the client device 110 . Based on the received instructions, the client device 110 modifies the video data captured after receiving the instructions, or modifies one or more parameters of the imaging device 117 based on the instructions. Accordingly, the client device 110 modifies the captured video data based on one or more instructions from the receiving client device 110 to render the modified video data or the video data captured by the imaging device 117 using the modified parameters. , to the content selection module 330, which transmits the video data to the receiving client device 110, which is further described below in connection with FIG. This allows the viewing user to make modifications or adjustments to the video data captured by the client device 110 , which is provided to the viewing user via the receiving client device 110 .

様々な実施形態では、コンテンツ選択モジュール330は、オンラインシステム140のユーザの1つ以上のプライバシ設定を実施する。ユーザのプライバシ設定は、ユーザと関連付けられている特定の情報がどのようにして共有され得るかを決定するのであり、ユーザプロファイル記憶部305内にあるユーザのユーザプロファイル内に格納され得る。1つの実施形態では、プライバシ設定はユーザと関連付けられる特定の情報を指定するのであり、また、指定された情報が他のエンティティのどれと共有され得るかを特定する。情報を共有できるエンティティの例は、他のユーザ、アプリケーション、サードパーティシステム130、又は、潜在的に情報にアクセスできる任意のエンティティを含み得る。ユーザが共有できる情報の例としては次のものを挙げることができる:ユーザプロファイル情報(プロファイル写真等)、ユーザと関連付けられた電話番号、ユーザの接続者、ユーザを含む動画データ、ユーザが取った動作(接続の追加等)、ユーザプロファイル情報の変更及び類すること。様々な実施形態では、オンラインシステム140はユーザと関連付けられているプライバシ設定を維持しており、これはユーザと関連付けられているコンテンツに関してアクセス又は受信を他のエンティティが行うのを妨げる既定設定を有しており、ユーザが異なるプライバシ設定を修正することが許されており、これによって、ユーザによって指定された他のエンティティが修正済みプライバシ設定に対応するコンテンツに関してアクセス又は検索することが許される。 In various embodiments, content selection module 330 enforces one or more privacy settings of users of online system 140 . A user's privacy settings determine how certain information associated with the user can be shared, and can be stored in the user's user profile in user profile storage 305 . In one embodiment, privacy settings specify certain information associated with a user and also specify with which other entities the specified information may be shared. Examples of entities with which information can be shared may include other users, applications, third party systems 130, or any entity that can potentially access the information. Examples of information that a user may share include: user profile information (such as profile picture), phone number associated with the user, who the user is connected to, video data including the user, and video data taken by the user. Actions (such as adding connections), changing user profile information and the like. In various embodiments, online system 140 maintains privacy settings associated with users, which have default settings that prevent other entities from accessing or receiving content associated with users. and allows users to modify different privacy settings, thereby permitting other entities designated by the user to access or search for content corresponding to the modified privacy settings.

プライバシ設定仕様は、異なる粒度レベルで提供することができる。1つの実施形態では、プライバシ設定は、他のユーザと共有すべき特定の情報を特定することができる。例えば、プライバシ設定は、職場の電話番号又は特定の一連の関連情報(プロファイル写真、自宅の電話番号およびステータスを含む個人情報等)を特定する。あるいは、プライバシ設定は、ユーザと関連付けられたすべての情報に適用することができる。また、特定の情報にアクセスできる一連のエンティティの仕様も、様々な粒度レベルで指定することができる。情報を共有できる様々な一連のエンティティは、例えば次のものを含み得る:ユーザに接続された全てのユーザ、ユーザに接続されたユーザの組、ユーザに接続されたユーザに接続された追加のユーザ、全てのアプリケーション、全てのサードパーティシステム130、特定のサードパーティシステム130、又は全ての外部システム。 Privacy settings specifications can be provided at different granularity levels. In one embodiment, privacy settings may specify certain information to be shared with other users. For example, a privacy setting may specify a work phone number or a certain set of related information (such as a profile picture, home phone number and personal information including status). Alternatively, privacy settings can apply to all information associated with a user. A specification of the set of entities that can access a particular piece of information can also be specified at various levels of granularity. Various sets of entities with which information can be shared may include, for example: all users connected to the user, a set of users connected to the user, additional users connected to the user connected to the user. , all applications, all third party systems 130, a specific third party system 130, or all external systems.

1つの実施形態は、エンティティについての列挙を用いることによって、特定された情報にアクセスすることを許されたエンティティを指定したり、或いは、異なるエンティティに提示される情報のタイプを特定したりする。例えば、ユーザは、他のユーザに伝達される又はユーザの指定グループに伝達されるアクションのタイプを、指定できる。代替的には、ユーザは、他のユーザに対して公開又は提示されることにならないアクションタイプや他の情報を指定できる。 One embodiment uses enumerations on entities to specify entities that are allowed to access specified information or to specify the types of information presented to different entities. For example, a user can specify the types of actions that are communicated to other users or to designated groups of users. Alternatively, users can specify action types and other information that will not be exposed or presented to other users.

コンテンツ選択モジュール330は、ユーザと関連付けられている特定の情報が、オンラインシステム140、サードパーティシステム130、及び/又は他のアプリケーション・エンティティを介してユーザに接続された他のユーザによってアクセスされ得るかを決定するためのロジックを含む。ユーザのプライバシ設定に基づいて、コンテンツ選択モジュール330は、別のユーザ、サードパーティシステム130、アプリケーション又は別のエンティティに対して、ユーザと関連付けられた情報(ユーザが取った動作についての情報を含む)へのアクセスが認められているかどうかを判断する。例えば、コンテンツ選択モジュール230は、ユーザのプライバシ設定を用いて、ユーザを含む動画データを別のユーザに提示してよいかを決定する。これによって、ユーザのプライバシ設定が、どのユーザや他のエンティティが次のデータを受信することを許されているかを指定できる:ユーザのアクションについてのデータ;ユーザと関連付けられている他のデータ。 Content selection module 330 determines whether particular information associated with the user can be accessed by other users connected to the user via online system 140, third-party system 130, and/or other application entities. Contains logic to determine Based on the user's privacy settings, the content selection module 330 may communicate information associated with the user (including information about actions taken by the user) to other users, third-party systems 130, applications, or other entities. determine whether access to the For example, the content selection module 230 uses the user's privacy settings to determine whether video data containing the user may be presented to another user. This allows a user's privacy settings to specify which users and other entities are allowed to receive: data about the user's actions; other data associated with the user.

ウェブサーバ335は、ネットワーク120を通じてオンラインシステム140を1つ又は複数のクライアント装置110へ、ならびに1つ又は複数のサードパーティシステム130へリンクさせる。ウェブサーバ335は、ウェブページ、及びその他のコンテンツ、例えば、JAVA(登録商標)、FLASH(登録商標)、XML等を供給する。ウェブサーバ335は、オンラインシステム140とクライアント装置110との間におけるメッセージ、例えば、インスタントメッセージ、キューに入れられたメッセージ(例、電子メール)、テキストメッセージ、ショートメッセージサービス(SMS)のメッセージ、又はその他の適切なメッセージング技術を使用して送信されるメッセージを受け取って回送することができる。ユーザは、コンテンツストア310に記憶される情報(例、画像又はビデオ)をアップロードするよう求める要求をウェブサーバ335に送信することができる。加えて、ウェブサーバ335は、IOS(登録商標)、ANDROID(登録商標)、WEBOS(登録商標)、又はBlackberry(登録商標)OS等のネイティブクライアント装置オペレーティングシステムに対してデータを直接送信するためのアプリケーションプログラミングインタフェース(API)機能を提供することができる。 Web server 335 links online system 140 to one or more client devices 110 and to one or more third party systems 130 over network 120 . Web server 335 serves web pages and other content, such as JAVA, FLASH, XML, and the like. The web server 335 can process messages, such as instant messages, queued messages (e.g., email), text messages, Short Message Service (SMS) messages, or other messages between the online system 140 and the client device 110 . can receive and forward messages sent using any suitable messaging technology. A user can send a request to web server 335 to upload information (eg, an image or video) stored in content store 310 . In addition, the web server 335 may be used to send data directly to a native client device operating system such as IOS®, ANDROID®, WEBOS®, or BlackBerry® OS. Application programming interface (API) functionality can be provided.

以前キャプチャされた動画データの特徴に基づいての動画データキャプチャの修正
図4は、1つの実施形態についての相互作用に関する図であって、撮像装置117によって以前キャプチャされた動画の特徴に基づいて撮像装置117によってなされる動画データのキャプチャ挙動を修正する方法についての相互作用図である。様々な実施形態では、図4との関連で説明される諸ステップは異なる順序にて行われ得る。また、一部の実施形態では、方法は、図4に示すものとは異なるステップ及び/又は追加のステップを含み得る。
Modification of Video Data Capture Based on Features of Previously Captured Video Data FIG. 4 is an interaction diagram for one embodiment taken by imager 117 based on features of previously captured video. FIG. 4 is an interaction diagram of a method for modifying video data capture behavior made by device 117. FIG. In various embodiments, the steps described in connection with FIG. 4 may be performed in different orders. Also, in some embodiments, the method may include different and/or additional steps than those shown in FIG.

撮像装置117は送信側クライアント装置110A内に含まれており、これは図1及び2との関連でさらに上述されており、送信側クライアント装置110Aのまわりのローカルエリアの動画データをキャプチャ(405)する。撮像装置117によってキャプチャされたイメージは、コントローラ210に伝達されるのであり、これは送信側クライアント装置110A内に含まれている(他の実施形態ではこれはクライアント装置110に結合されている)。様々な実施形態では、ユーザは(例えば。予め選択されたプライバシ設定及び/又はプロンプトされた選択によって)コントローラ210に対して、撮像装置117によってキャプチャ(405)された動画の特徴に1つ以上の機械学習モデルを適用することに関して、承認を与え得るのであって、キャプチャ動画データ内に含まれる人物を位置決めできる。様々な実施形態では、コントローラ210は動画データを修正して、位置決め済みユーザをより際立たせて示して、修正済み動画データをオンラインシステム140へと送信する。位置決め済みユーザはより顕著に提示されるのであり、次のようにして提示することによってこれをなす:少なくとも閾値寸法セットを伴って(例えば、少なくとも閾値高さや閾値幅を伴って)動画データ内に提示すること;撮像装置117の視野の少なくとも閾値量にわたって若しくは少なくともキャプチャ動画データのフレームの閾値量にわたって提示すること;又はキャプチャ動画データ内の1つ以上の具体的位置にて提示すること。例えば、コントローラ210は、キャプチャされた動画データをクロッピングして、動画データの少なくとも1人の人間を含まない部分を除去する。別の例としては、コントローラ210は、人物を含む動画データの部分のズーム(倍率ともいう。)を上げる。キャプチャ動画データを修正するために、コントローラ210は、撮像装置117によってキャプチャされた後に動画データを修正でき、又は、撮像装置117の1つ以上のパラメータを修正して、撮像装置117がどのようにして動画データをキャプチャ(405)するかを修正できる。 The imaging device 117 is included in the sending client device 110A, which is further described above in connection with FIGS. 1 and 2, to capture 405 video data of the local area around the sending client device 110A. do. Images captured by imaging device 117 are communicated to controller 210, which is contained within sending client device 110A (which in other embodiments is coupled to client device 110). In various embodiments, the user (e.g., through pre-selected privacy settings and/or prompted selections) tells the controller 210 to specify one or more features of the video captured 405 by the imaging device 117. Approval may be given for applying machine learning models to locate persons contained within the captured video data. In various embodiments, the controller 210 modifies the animation data to show the positioned user more prominently and transmits the modified animation data to the online system 140 . Positioned users are more prominently presented, and do this by presenting: within the video data with at least a threshold dimension set (e.g., with at least a threshold height and a threshold width) presenting; presenting over at least a threshold amount of the field of view of the imaging device 117 or over at least a threshold amount of frames of the captured video data; or presenting at one or more specific locations within the captured video data. For example, the controller 210 crops the captured video data to remove portions of the video data that do not include at least one person. As another example, controller 210 increases the zoom (also referred to as magnification) for portions of video data that include people. To modify the captured video data, the controller 210 can modify the video data after it has been captured by the imaging device 117 or modify one or more parameters of the imaging device 117 to determine how the imaging device 117 performs. can modify whether to capture (405) video data.

様々な実施形態では、コントローラ210は1つ以上の方法を適用してキャプチャ動画データ内の人物を位置決めする。もっとも、コントローラ210は、1つ以上のモデルをキャプチャ動画データに適用することによってオブジェクト(例えば、アプライアンス、家具、プロダクト)を同様に位置決めすることができる。以下の例はモデルを動画データに適用することに関連しているが、1つ以上のモデルを動画データ・音声データ・画像データ・クライアント装置110によってキャプチャされた任意の他のデータ・それらの任意の組み合わせに対して適用できる。コントローラ210は、任意の適切なモデル又はモデルの組合せを用いて、撮像装置117によってキャプチャ(405)された動画データ内の人物を位置決めすることができる。コントローラ210によってキャプチャ動画データに適用されたモデルは、(2次元又は3次元での)顔追跡や2次元体位追跡や3次元体位追跡や任意の他の適切な方法を行って人間の顔の部分や人間の人体の部分を特定できる。同様に、コントローラ210によって適用されたモデルは、キャプチャ動画データからオブジェクトを特定できる。一部の実施形態では、ユーザの承認に基づいて、コントローラ210はオンラインシステム140と通信して、オンラインシステム140から取得された情報に基づいてオブジェクト又は人物をより具体的に特定するのであり、他方、他の実施形態では、コントローラ210はローカルでモデルを維持しており、キャプチャ動画データから異なるオブジェクト又は人物を特定する。1つ以上のモデルの適用に基づいて、コントローラ210は、位置決め済みユーザの人体の特定の部分を含むキャプチャ動画データについてのクロッピング又はズーミングを修正して、位置決め済みユーザ人体の特定の部分をより際立たせて表示できる。例えば、1つ以上のモデルが人物の顔を特定した場合、コントローラはキャプチャ動画データを修正して人物の顔を含まない動画データの部分を除去する。1つ以上のモデルの適用がキャプチャ動画データ内において複数の人物を位置決めした場合、コントローラ210はキャプチャ動画データを修正して動画の異なる部分が異なる人物を表示するようにする。例えば、コントローラ210はキャプチャ動画データをグリッドに分割するのであって、グリッドの各領域は異なる人物の1つ以上の部分を表示する。他の実施形態では、コントローラ210は、人物の部分を含む動画データの部分に関しての撮像装置117の倍率(即ち、ズーム)を上げる。したがって、コントローラ210はキャプチャ動画データの部分をクロッピングでき、又は、キャプチャ動画データの部分の倍率(即ち、ズーム)を上げることができ、これによって動画データを修正して、キャプチャ動画データ内にいる一人以上の人物の部分をより際立たせて提示できる。また、1つ以上のモデルの適用に基づいてキャプチャ動画データを修正する際には、コントローラ210は1つ以上のモデルを適用して、修正済み動画データを安定化して一人以上の位置決め済み人物の部分をより高いクオリティで提示できる。 In various embodiments, controller 210 applies one or more methods to position the person in the captured video data. However, the controller 210 can similarly position objects (eg, appliances, furniture, products) by applying one or more models to the captured video data. Although the examples below relate to applying models to video data, one or more of the models may be applied to video data, audio data, image data, any other data captured by the client device 110, or any of them. can be applied to any combination of Controller 210 may use any suitable model or combination of models to locate the person in the video data captured 405 by imaging device 117 . The model applied to the captured video data by the controller 210 performs face tracking (in 2D or 3D), 2D pose tracking, 3D pose tracking, or any other suitable method to map parts of the human face. and human body parts can be identified. Similarly, the model applied by the controller 210 can identify objects from captured video data. In some embodiments, upon user authorization, controller 210 communicates with online system 140 to more specifically identify an object or person based on information obtained from online system 140; In other embodiments, the controller 210 maintains a model locally and identifies different objects or people from the captured video data. Based on the application of one or more models, the controller 210 modifies the cropping or zooming on the captured video data that includes the particular portion of the positioned user's body to make the particular portion of the positioned user's body more prominent. It can be displayed standing up. For example, if one or more models identify a person's face, the controller modifies the captured video data to remove portions of the video data that do not include the person's face. If the application of one or more models positions multiple people within the captured video data, controller 210 modifies the captured video data so that different portions of the video show different people. For example, the controller 210 divides the captured video data into grids, each area of the grid displaying one or more parts of a different person. In other embodiments, controller 210 increases the magnification (ie, zoom) of imaging device 117 for portions of video data that include portions of people. Accordingly, the controller 210 can crop a portion of the captured video data or increase the magnification (i.e., zoom) of a portion of the captured video data, thereby modifying the video data so that one person within the captured video data The part of the person described above can be presented more conspicuously. Also, when modifying the captured video data based on application of one or more models, the controller 210 may apply the one or more models to stabilize the modified video data and position one or more of the positioned persons. The part can be presented in higher quality.

プライバシ設定に基づいて、コントローラ210は、特定済み人物の人体の部位を位置決めする1つ以上のモデルを適用して、撮像装置117の1つ以上のパラメータ又は撮像装置117によってキャプチャされた動画データを修正して、キャプチャ動画データ内に含まれる位置決め済み人物の人体の部分を修正できる。例えば、コントローラ210は特定済み人物の人体の異なる関節を見つけた上で、キャプチャ動画データ若しくは撮像装置117のパラメータを修正して、キャプチャ動画データ内の位置決め済み人物の人体の異なる部位に対応する関節を含めることができる。したがって、キャプチャ動画データに人物の頭部であれ人物の頭部及び胴体であれ人物の全身が含まれているかについて、コントローラ210は修正をなし得る。コントローラ210は、キャプチャ動画データ内に含まれる人物の人体の部分を修正する様々な規則を含み得るのであり、これは次のことに基づいていることができる:以前キャプチャされた動画データ内に含まれるコンテンツ;以前キャプチャされた動画データ内にて特定された動き;動画データから特定された任意の他の適切な特徴。 Based on the privacy settings, the controller 210 applies one or more models that position the identified person's body parts to one or more parameters of the imaging device 117 or video data captured by the imaging device 117. Modifications can be made to modify the body parts of the positioned person contained within the captured video data. For example, the controller 210 finds different joints of the body of the identified person, and then modifies the captured video data or the parameters of the imaging device 117 to determine the joints corresponding to the different parts of the positioned person's body in the captured video data. can include Accordingly, the controller 210 may make corrections as to whether the captured video data includes the full body of the person, whether the person's head or the person's head and torso. The controller 210 can include various rules for modifying the human body parts of a person included in the captured video data, which can be based on: motion identified in previously captured video data; any other suitable features identified from the video data.

様々な実施形態では、コントローラ210によって適用される1つ以上のモデルは1つ以上の規則を適用して送信側クライアント装置110Aの撮像装置117によってキャプチャ(405)された動画データを修正する。例えば、コントローラ210はキャプチャ動画データを修正して動画データから人物をより際立たせて表示するのであり、動画データの人物がいる部分についてのキャプチャデータについてのズームを修正するか又は動画データの人物がいる部分についてのクロッピングを修正することでこれをなして、人物の顔がカメラに向けられているとコントローラ210が決定した場合に人物以外のオブジェクトを除去する。例を挙げるに、コントローラ210はキャプチャ動画データを修正してユーザの顔をより際立たせて表示するのであり、人物の顔が撮像装置117に向けられている(例えば、人物の顔の1つ以上の具体的な特徴が撮像装置117によってキャプチャされた場合)とコントローラ210によって適用された1つ以上のモデルが決定した場合にそうする。別の例では、コントローラ210は動画データ内にいる人物らと撮像装置117との間の距離を決定して、決定された撮像装置117からの距離が最低な人物を際立たせて表示するように又は撮像装置からの決定済み距離が閾値距離未満となる人物らを際立たせて表示するようにキャプチャ動画データを修正する。別の例では、コントローラ210は1つ以上のモデルを適用して、人物又はオブジェクトが動いていくにつれて撮像装置117を再配置して、撮像装置117によってキャプチャされた動画データが人物又はオブジェクトの動きを追跡できるようにする。 In various embodiments, one or more models applied by controller 210 apply one or more rules to modify video data captured 405 by imaging device 117 of sending client device 110A. For example, the controller 210 modifies the captured video data to make the person stand out more from the video data, such as modifying the zoom for the captured data for the part of the video data where the person is, or the video data where the person is. It does this by modifying the cropping for the part to remove non-human objects when the controller 210 determines that a human face is facing the camera. By way of example, the controller 210 modifies the captured video data to display the user's face more prominently, with the person's face directed toward the imaging device 117 (eg, one or more of the person's faces). is captured by the imaging device 117) and one or more models applied by the controller 210 are determined. In another example, the controller 210 determines the distance between persons in the video data and the imaging device 117 so that the person closest to the determined imaging device 117 is displayed prominently. Alternatively, the captured moving image data is modified so as to highlight persons whose determined distance from the imaging device is less than the threshold distance. In another example, the controller 210 applies one or more models to reposition the imaging device 117 as the person or object moves, such that the video data captured by the imaging device 117 is the movement of the person or object. be trackable.

コントローラ210によって適用される1つ以上のモデルは、キャプチャ動画データ内の特定済みの複数の人物の位置について配慮する規則に基づいて、キャプチャ動画データを修正できる。様々な実施形態では、ユーザはキャプチャされた動画内のユーザを位置決めすることについてコントローラ210に承認を与えることができ、コントローラ210はキャプチャされた動画にモデルを適用してユーザの視線がキャプチャ動画データのどの位置に向けられているかを決定できる。特定の人物を含むキャプチャ動画データ内の位置へ向けられた視線を伴う位置決め済みユーザが少なくとも閾値人数又は閾値量となっているとの決定に応答して、コントローラ210は、キャプチャ動画データを修正して特定の人物をより表示する(例えば、キャプチャ動画データをクロッピングして特定の人物以外のコンテンツを除去したり、特定の人物の倍率若しくはズームを上げたりすること)。別の例を挙げるに、コントローラ210は動画データ内にいる異なる人物間の距離を決定して互いに閾値距離内にいる人物らをより際立たせて表示するようにキャプチャ動画データを修正する。これによって、人物のグループが位置決めされている動画データの部分についてクロッピング又はズーミングをすることによって、コントローラがキャプチャ動画データを修正することが可能となる。また、コントローラ210は、キャプチャ動画データ内で特定されたオブジェクト又は人物に基づいて、キャプチャ動画データから1つ以上のフレームを除去できる。例えば、キャプチャ動画データ内にて閾値個数未満のオブジェクト又は人物が特定された場合、又は、キャプチャ動画データ内にて閾値量未満のオブジェクト又は人物の動きが特定されたと決定された場合、コントローラ210は、キャプチャ動画データをオンラインシステム140へと送信(410)する前にキャプチャ動画データからフレームを除去する。他の実施形態では、オンラインシステム140は送信側クライアント装置110Aから受信された動画データからフレームを除去するのであり、上述の条件を用いてキャプチャ動画データを受信側クライアント装置110Bへと以下詳述するように送信(415)する前にこれをなす。 One or more models applied by the controller 210 can modify the captured video data based on rules that take into account the locations of identified persons within the captured video data. In various embodiments, the user can give authorization to the controller 210 for positioning the user within the captured video, and the controller 210 applies a model to the captured video to allow the user's gaze to be reflected in the captured video data. can determine which position of the In response to determining that there are at least a threshold number or amount of positioned users with gazes directed to locations within the captured video data that include a particular person, the controller 210 modifies the captured video data. to show more of a particular person (eg, cropping captured video data to remove content other than a particular person, or increasing the magnification or zoom of a particular person). As another example, the controller 210 determines the distance between different persons in the video data and modifies the captured video data to more prominently display those who are within a threshold distance of each other. This allows the controller to modify the captured video data by cropping or zooming on the portion of the video data where the group of people is located. The controller 210 can also remove one or more frames from the captured video data based on objects or people identified within the captured video data. For example, if it is determined that less than a threshold number of objects or persons were identified in the captured video data, or that less than a threshold amount of object or person movement was identified in the captured video data, the controller 210 , remove frames from the captured video data before sending 410 the captured video data to the online system 140 . In another embodiment, the online system 140 removes frames from the video data received from the sending client device 110A, and uses the above conditions to pass the captured video data to the receiving client device 110B, as detailed below. Do this before sending (415) so that

コントローラ210は送信側クライアント装置110Aの他のコンポーネントからのデータを受信して受信された動画データ及び送信側クライアント装置110Aの他のコンポーネントからのデータの特徴に基づいてキャプチャされた動画データを修正できる。例えば、撮像装置117又はクライアント装置110は、クライアント装置110周辺のローカルエリアからの音声データをキャプチャするように構成されたマイクロフォン等の音声キャプチャ装置を、含む。ユーザは、キャプチャされた動画データを修正するに際して、キャプチャされた音声データをキャプチャされた動画データと共に処理することをコントローラ210に許すことができる。様々な実施形態では、コントローラ210は、1つ以上のモデルをキャプチャされた音声データに適用して、音声データの源泉を含めたキャプチャされた動画データ内の位置を決定する。コントローラ210は、1つ以上のモデルを、音声データの源泉を含むキャプチャされた動画データ内の位置に適用する。キャプチャされた動画データ内の(人物を含む音声データの源泉を含む)位置決定をなすモデル適用に応じて、コントローラ210はキャプチャされた動画データを修正して、音声データの源泉を含むキャプチャされた動画データ内の位置をより際立たせて提示し(即ち、キャプチャ動画データの源泉を含む位置についてのズームを上げる又はキャプチャ動画データの源泉を含む位置についてクロッピングしてキャプチャ動画データの源泉以外のオブジェクトを除去する)、又は、撮像装置117を再位置決めして音声データの源泉に合焦させる。もっとも、コントローラ210は、音声データ源泉を含むキャプチャされた動画データ内の位置が人物を含まないとの決定に応じて、コントローラは、キャプチャ動画データ修正や撮像装置117の再配置をなさない。別の例としては、コントローラ210はキャプチャされた動画データを修正するか撮像装置117を再配置するかして、コントローラ210がキャプチャ動画データ内のキャプチャ音声データ源泉であると決定した特定人物をより際立たせて提示するのであり、これによってキャプチャ動画データは発話者又は送信側クライアント装置110Aの音声キャプチャ装置によってキャプチャされた音声データを提供する者と決定された人物をより際立たせて表示できる(即ち、音声データを提供する者と決定された人物を含む位置のズームを上げるかキャプチャ動画データの源泉を含む位置についてクロッピングして、音声データを提供する者と決定された人物以外のオブジェクトを除去する)。 The controller 210 can receive data from other components of the sending client device 110A and modify the captured video data based on characteristics of the received video data and data from other components of the sending client device 110A. . For example, imaging device 117 or client device 110 may include an audio capture device, such as a microphone, configured to capture audio data from a local area around client device 110 . The user may allow the controller 210 to process the captured audio data along with the captured video data in modifying the captured video data. In various embodiments, controller 210 applies one or more models to the captured audio data to determine locations within the captured video data, including the source of the audio data. The controller 210 applies one or more models to locations within the captured video data that contain the source of the audio data. In response to applying a model that makes a positional determination (including sources of audio data, including people) within the captured video data, the controller 210 modifies the captured video data to generate the captured video data, including sources of audio data. Presenting locations within the video data more prominently (i.e. zooming up for locations containing the source of the captured video data or cropping for locations containing the source of the captured video data to show objects other than the source of the captured video data) remove), or reposition the imaging device 117 to focus on the source of the audio data. However, in response to the controller 210 determining that a location within the captured video data that contains the audio data source does not contain a person, the controller does not modify the captured video data or reposition the imaging device 117 . As another example, the controller 210 may modify the captured video data or reposition the imaging device 117 to make the particular person that the controller 210 determined to be the source of the captured audio data in the captured video data more visible. This allows the captured video data to more prominently display the speaker or the person determined to provide the audio data captured by the audio capture device of the sending client device 110A (i.e. , Zoom up the position containing the person determined to be the audio data provider or crop the position containing the source of the captured video data to remove objects other than the person determined to be the audio data provider ).

一部の実施形態では、ユーザは、コントローラ210が1つ以上のモデルを適用して、撮像装置117によって以前キャプチャ(405)された動画データに基づいてキャプチャ動画データ又はクライアント装置110の撮像装置117のパラメータを修正することについて、許可を与えることもできる。例えば、コントローラ210が複数の人物をキャプチャ動画データ内に位置決めした場合、コントローラ210はキャプチャ動画データ又は撮像装置117の1つ以上のパラメータを修正して各位置づけ済み人物がキャプチャされた動画内において最低量の期間に亘って際立って提示されるようにする(例えば、少なくとも閾値寸法セットを伴って動画データ内に提示すること;撮像装置117の視野の少なくとも閾値量にわたって若しくは少なくともキャプチャ動画データのフレームの閾値量にわたって提示すること;又はキャプチャ動画データ内の1つ以上の具体的位置にて提示すること)。別の例としては、プライバシ設定に服するが、コントローラ210は、少なくとも閾値期間にわたってキャプチャ動画データ内にて際立たせて提示されたキャプチャ動画データ内人物を特定する情報を、記憶する。コントローラ210がキャプチャ動画データ内にて追加の人物を位置決めした場合、コントローラ210は、追加の人物を、キャプチャ動画データ内にて際立たせて提示された人物を特定する記憶済み情報と、比較する。追加の人物が記憶済み情報にて特定されていないことに応答して、コントローラ210はキャプチャ動画データを修正するか又は撮像装置117の1つ以上のパラメータを修正して、追加の人物が閾値時間量にわたって際立たせて表示されるようにする。これによって、コントローラ210は、コントローラ210によって動画データ内にて位置決めされた各人物が少なくとも閾値時間量にわたって際立たせて表示されるよう動画データを修正できるようになる。 In some embodiments, the controller 210 applies one or more models to allow the user to capture video data based on video data previously captured 405 by the imaging device 117 or the imaging device 117 of the client device 110 . You can also give permission to modify the parameters of For example, if the controller 210 has positioned multiple persons within the captured video data, the controller 210 may modify one or more parameters of the captured video data or the imaging device 117 so that each positioned person has the lowest position within the captured video. be prominently presented over a period of time (e.g., presented in video data with at least a threshold dimension set; across at least a threshold amount of the field of view of imaging device 117 or at least for frames of captured video data); presenting over a threshold amount; or presenting at one or more specific locations within the captured video data). As another example, subject to privacy settings, the controller 210 stores information identifying persons in the captured video data who have been prominently presented in the captured video data for at least a threshold period of time. If the controller 210 locates an additional person within the captured video data, the controller 210 compares the additional person with the stored information identifying the person who was prominently presented within the captured video data. In response to the additional person not being identified in the stored information, the controller 210 modifies the captured video data or modifies one or more parameters of the imaging device 117 so that the additional person is not identified in the threshold time period. To be displayed prominently across quantities. This allows the controller 210 to modify the video data such that each person positioned within the video data by the controller 210 is prominently displayed for at least a threshold amount of time.

また、コントローラ210は、キャプチャ動画データ内にいる人物らの動きを特定したことに応答してキャプチャ動画データ又は撮像装置117のパラメータを修正できる。例えば、コントローラ210によってキャプチャ動画に適用された1つ以上のモデルが、位置決め済み人物がオブジェクトに向かって身振り(ジェスチャ)していると決定した場合、コントローラ210はキャプチャ動画を修正して位置決め済み人物とオブジェクトが際立たせて提示されるようにする。例を挙げるに、キャプチャ動画が位置決め済み人物を際立たせて表示しており(例えば、位置決め済み人物を少なくとも閾値寸法セットを伴って表示すること又は位置決め済み人物を動画データの1つ以上のフレームについて少なくとも閾値量を占有するように表示すること)、また、コントローラが、位置決め済み人物がオブジェクトに向かって身振りしていると決定した場合、コントローラ210はキャプチャ動画を修正して位置決め済み人物とオブジェクトが提示されるようにする。例えば、コントローラ210はキャプチャ動画データの倍率を下げて、位置決め済み人物及びオブジェクトが両方キャプチャ動画に含まれるようにできる。別の例では、コントローラ210が1つ以上のモデルを適用して位置決め済み人物がオブジェクトをホールドしていると決定した場合、コントローラ210はキャプチャ動画データ又は撮像装置117の1つ以上のパラメータを修正して、オブジェクトが際立って提示されるようにする(例えば、撮像装置の焦点をオブジェクトへと変更すること及び撮像装置117のズームを上げること)。一部の実施形態では、コントローラ210は、特定の期間にわたってキャプチャ動画データ内の位置決め済み人物によってホールドされたオブジェクトを際立たせて提示でき、そして、キャプチャ動画データ又は撮像装置117のパラメータを修正してキャプチャ動画データにおいて位置決め済み人物が再び際立って提示されるようにできる。 The controller 210 may also modify parameters of the captured video data or the imaging device 117 in response to identifying movement of persons within the captured video data. For example, if one or more models applied to the captured video by the controller 210 determine that the positioned person is gesturing toward an object, the controller 210 modifies the captured video to match the positioned person. and objects to be presented prominently. For example, the captured video may show the positioned person prominently (e.g., displaying the positioned person with at least a set of threshold dimensions or displaying the positioned person for one or more frames of video data). display to occupy at least a threshold amount), and if the controller determines that the positioned person is gesturing toward the object, the controller 210 modifies the captured video so that the positioned person and the object are be presented. For example, the controller 210 can scale down the captured video data so that both positioned people and objects are included in the captured video. In another example, if the controller 210 applies one or more models to determine that the positioned person is holding an object, the controller 210 modifies one or more parameters of the captured video data or imaging device 117. so that the object is presented prominently (eg, changing the focus of the imager to the object and increasing the zoom of the imager 117). In some embodiments, the controller 210 can highlight the object held by the positioned person in the captured video data over a specific period of time, and modify the captured video data or imaging device 117 parameters to The positioned person can again be prominently presented in the captured video data.

送信側クライアント装置110Aは動画データを送信側クライアント装置110Aからオンラインシステム140へと送信(410)するのであって、これは後記においてさらに説明されるようにコントローラ210によって修正され得るのであり、オンラインシステム140はキャプチャ動画データを受信側クライアント装置110Bへと送信(415)する。表示装置115を用いて、受信側クライアント装置110Bは、オンラインシステム140からオンラインシステム140の閲覧ユーザへと、動画データを、提示(420)する。様々な実施形態では、閲覧ユーザは、送信側クライアント装置110Aと通信するための要求を、受信側クライアント装置110Bからオンラインシステム140へと、伝達する。オンラインシステム140は要求を送信側クライアント装置110Aへと伝達し、送信側クライアント装置110Aは応答をオンラインシステム140に提供する。要求に応答して送信側クライアント装置110Aが承認をオンラインシステム140に提供した場合、オンラインシステム140は送信側クライアント装置110Aの撮像装置117によってキャプチャ(405)され且つオンラインシステム140に提供された動画データを、表示装置115での提示のために受信側クライアント装置110Bに提供するのであり、逆もまた然り。 Sending client device 110A transmits 410 video data from sending client device 110A to online system 140, which may be modified by controller 210 as further described below, and online system 140 transmits (415) the captured video data to the receiving client device 110B. Using the display device 115, the receiving client device 110B presents 420 the video data from the online system 140 to the viewing user of the online system 140. FIG. In various embodiments, a viewing user communicates a request to communicate with sending client device 110A from receiving client device 110B to online system 140 . Online system 140 communicates the request to sending client device 110A, and sending client device 110A provides online system 140 with a response. If the sending client device 110A provides authorization to the online system 140 in response to the request, the online system 140 captures (405) the video data captured 405 by the imaging device 117 of the sending client device 110A and provided to the online system 140. is provided to the receiving client device 110B for presentation on the display device 115, and vice versa.

様々な実施形態では、ユーザは、(予め定められていたプライバシ設定及びユーザアクションを介することに基づいて)送信側クライアント装置110Aに対して、コントローラ210によってキャプチャ動画内にて位置決めされた人物らに対応する1つ以上のユーザを特定する情報を、オンラインシステム140に提供することを許すことができ、1つ以上のユーザを特定する情報が含まれ受信側クライアント装置110Bへと送信(420)される動画データが伴う。代替的には、オンラインシステム140に対して、送信側クライアント装置110Aは、コントローラ210によって位置決めされた人物らを含む動画データの部分を特定し、オンラインシステム140は、コントローラ210によって位置決めされた人物らを伴う動画データの部分を、オンラインシステムユーザを特定する記憶済み画像と、比較する。プライバシ設定に基づいて、オンラインシステム140は、記憶済み画像によって特定されるユーザを特定する情報を検索するのであって、該画像は、コントローラ210が人物らを位置決めした際に送信側クライアント装置110Aのコントローラ210の動画データの部分との関係で少なくとも閾値類似度を有するものとオンラインシステム140によって決定された画像である。これによって、ユーザらがこのような特定機能にオプトインするのであれば、オンラインシステム140は、送信側クライアント装置110Aから受信された動画データ内に含まれるオンラインシステム140のユーザを、特定できる。オンラインシステム140は、コントローラ210によって位置決めされた人物がいる受信済み動画データの部分並びにユーザを特定するオンラインシステム140によって記憶された画像(例えば、ユーザのユーザプロファイル内のプロファイル画像や識別情報を伴ってユーザがタグ付けされるユーザの顔を含む画像)に対して1つ以上の顔認識プロセス又は他の識別プロセスを適用して、受信済み動画データの部分内の位置決め済み人物がオンラインシステムユーザであるかを決定できる。例えば、オンラインシステム140は送信側クライアント装置110Aからの動画データを増補できるのであり、オンラインシステムユーザであるとオンラインシステム140によって特定された人物を含む送信側クライアント装置110Aからの動画データの部分上に対して、オンラインシステムユーザを特定する情報(例えば、名前、名字、電子メールアドレス等)を重畳表示できる。オンラインシステム140は増補された動画データを受信側クライアント装置110Bへと送信(420)する。代替的には、オンラインシステム140は、送信側クライアント装置110Aから受信された動画データ内にいる人物に対応するオンラインシステムユーザを特定する情報を生成し、動画内の人物に対応するオンラインシステムユーザを特定する情報を動画データと共に受信側クライアント装置110Bへと送信する。例えば、オンラインシステム140は、送信側クライアント装置110Aから受信された動画データ内の人物に対応するオンラインシステムユーザについての名前や名字やユーザ名等のリストを生成するのであって、動画データと共にこれを閲覧ユーザに対して受信側クライアント装置110Bによって提示する。 In various embodiments, the user may direct the sending client device 110A (via predetermined privacy settings and user actions) to the persons positioned in the captured video by the controller 210. Corresponding one or more user-identifying information can be allowed to be provided to the online system 140 and sent 420 to the receiving client device 110B in which the one or more user-identifying information is included. accompanied by video data. Alternatively, to the online system 140, the sending client device 110A identifies the portion of the video data that includes the persons positioned by the controller 210, and the online system 140 identifies the persons positioned by the controller 210. portion of the video data with , to the stored image identifying the online system user. Based on the privacy setting, the online system 140 retrieves information identifying the user identified by the stored image, which image will appear on the sending client device 110A when the controller 210 locates the persons. The image determined by the online system 140 to have at least a threshold similarity with respect to the portion of the video data on the controller 210 . This allows the online system 140 to identify the users of the online system 140 included in the video data received from the sending client device 110A, if the users opt-in to such specific features. On-line system 140 includes the portion of the received video data with the person located by controller 210 as well as the image stored by on-line system 140 identifying the user (e.g., along with the profile image and identifying information in the user's user profile). The user applies one or more facial recognition processes or other identification processes to the images containing the user's face to be tagged, and the located person within the portion of the received video data is the online system user. can decide whether For example, online system 140 can augment the video data from sending client device 110A such that on the portion of the video data from sending client device 110A that includes a person identified by online system 140 as being an online system user: On the other hand, information identifying the online system user (eg, name, surname, email address, etc.) can be superimposed. The online system 140 transmits 420 the augmented video data to the receiving client device 110B. Alternatively, online system 140 generates information identifying online system users corresponding to persons in the video data received from sending client device 110A, and identifies online system users corresponding to persons in the video. The specified information is transmitted to the receiving client device 110B together with the video data. For example, the online system 140 may generate a list of names, surnames, user names, etc. for online system users corresponding to persons in the video data received from the client device 110A, and include this with the video data. Presented to the viewing user by the receiving client device 110B.

オンラインシステム140のユーザエクスペリエンスを向上させるためにユーザが様々なユーザ関連データの使用を許可する一部の実施形態では、オンラインシステム140は、受信側クライアント装置110Bと関連付けられている閲覧ユーザと送信側クライアント装置110Aから受信された動画データから特定されたユーザとの間の関連性を考慮することができ、送信側クライアント装置110Aから受信された動画データ内にいる人物に対応するオンラインシステムユーザを特定する情報の生成時にこれがなされ得る。例えば、オンラインシステム140は、オンラインシステム140によって維持されている閲覧ユーザへの接続を有している送信側クライアント装置110Aから受信された動画データから特定されたオンラインシステムユーザについての特定情報を、生成する。幾つかの実施形態では、オンラインシステム140は、オンラインシステム140によって維持されている閲覧ユーザへの接続を有していない送信側クライアント装置110Aから受信された動画データから特定されたオンラインシステムユーザについての特定情報を、生成することはできない。代替的には、オンラインシステム140は、閲覧ユーザに接続されている受信動画データから特定されたオンラインシステムユーザの特定情報と、閲覧ユーザに接続されていないオンラインシステムユーザの特定情報とを、視覚的に区別する。別の例としては、オンラインシステム140は、送信側クライアント装置110Aから受信された動画データから特定された各オンラインシステムユーザについての閲覧ユーザの関連性を決定するのであり、また、動画データから特定されたオンラインシステムユーザの特定情報の提示態様を修正する。例えば、オンラインシステム140は受信された動画データから特定されたオンラインシステムユーザを特定する情報を生成するのであって、これはオンラインシステム140が閲覧ユーザとの関係で少なくとも閾値の関連性を有していると決定した識別済みオンラインシステムユーザを視覚的に区別する。別の例としては、オンラインシステム140は、受信された動画データから特定されたオンラインシステムユーザを特定する情報をランク付けするのであって、受信された動画データから特定されたオンラインシステムユーザについての閲覧ユーザの関連性に基づいてこれをなす。オンラインシステム140は、受信された動画データから特定されたオンラインシステムユーザであって少なくとも閾値のランク順位を有しているユーザについての特定情報と、受信された動画データから特定された他のオンラインシステムユーザの特定情報とを、視覚的に区別する情報を生成する。別の実施形態では、オンラインシステム140は、受信された動画データから特定されたオンラインシステムユーザを特定する情報を提示する情報(information that presents information)を生成するのであって、受信された動画データから特定されたオンラインシステムユーザについての閲覧ユーザの関連性に基づいてこれをなす。 In some embodiments that allow users to use various user-related data to enhance the user experience of online system 140, online system 140 may use the viewing user and sender associated with recipient client device 110B. Identifies an online system user corresponding to a person in the video data received from the sending client device 110A, which can take into account the relationship between the users identified from the video data received from the client device 110A. This can be done at the time of generating the information to be used. For example, online system 140 generates identification information about online system users identified from video data received from sending client devices 110A that have connections to viewing users maintained by online system 140. do. In some embodiments, online system 140 provides information about online system users identified from video data received from sending client device 110A who do not have a connection to the viewing user maintained by online system 140. Specific information cannot be generated. Alternatively, the online system 140 visually displays the specific information of the online system user identified from the received video data connected to the viewing user and the specific information of the online system user not connected to the viewing user. distinguish between As another example, the online system 140 determines the viewing user relevance for each online system user identified from the video data received from the sending client device 110A and also determines the viewing user relevance identified from the video data. Modify the presentation of specific information for online system users. For example, the online system 140 generates information identifying the identified online system user from the received video data, which the online system 140 has at least a threshold relevance with respect to the viewing user. Visually distinguish identified online system users determined to be As another example, the online system 140 ranks information identifying online system users identified from the received video data, wherein viewing for online system users identified from the received video data. It does this based on user relevance. The online system 140 stores specific information about users who are online system users identified from the received video data and have at least a threshold ranking, and other online systems identified from the received video data. Information that is visually distinguishable from the user's specific information is generated. In another embodiment, the online system 140 generates information that presents information identifying online system users identified from the received video data. It does this based on the viewing user's relevance to the identified online system user.

受信側クライアント装置110Bはオンラインシステム140からの動画データを表示装置115を介して提示(420)するのであり、これによって送信側クライアント装置110Aは受信側クライアント装置110Bにて提示するための動画データを提供できる。オンラインシステム140のユーザを特定するオンラインシステム140からの情報は、受信側クライアント装置110Bによって、動画データと共に、提示される。提示された動画データから、受信側クライアント装置110Bは、閲覧ユーザからの興味対象ユーザ選択を受信(425)するのであり、興味対象ユーザを特定する情報をオンラインシステム140へと送信(430)する。様々な実施形態では、閲覧ユーザは、興味対象オブジェクトを選択できる。例えば、閲覧ユーザは、動画データと共に提示されたオンラインシステム140のユーザを特定する情報から興味対象ユーザを特定する情報を選択するのでありまた受信側クライアント装置110B及び受信側クライアント装置110Bは興味対象ユーザを特定する情報をオンラインシステム140へと送信(430)する。閲覧ユーザは動画データに含まれており受信側クライアント装置110Bによって動画データと共に提示されるユーザ記述情報から興味対象ユーザを特定する情報を選択できる。代替的には、閲覧ユーザは人物を含む動画データの部分を選択し、受信側クライアント装置110Bはオンラインシステム140に対して提示された動画データの選択部分を特定し、オンラインシステム140は動画データの選択部分のコンテンツをユーザと関連付けられている顔や身体の記憶済み画像(例えば、ユーザプロファイル内に含まれる画像や様々なユーザが特定されているオンラインシステム140によって維持されている画像等)と比較して、動画の選択部分のコンテンツに合致する1つ以上の記憶済み画像に関連付けられているユーザを興味対象ユーザとして特定する。 The client device 110B on the receiving side presents (420) the video data from the online system 140 via the display device 115, whereby the client device 110A on the transmitting side presents the video data for presentation on the client device 110B on the receiving side. can provide. Information from the online system 140 that identifies the user of the online system 140 is presented along with the video data by the receiving client device 110B. From the presented video data, the receiving client device 110B receives (425) an interested user selection from the viewing user and transmits (430) information identifying the interested user to the online system 140. FIG. In various embodiments, a viewing user can select an object of interest. For example, the browsing user selects the information identifying the interested user from the information identifying the users of the online system 140 presented with the video data, and the receiving client device 110B and the receiving client device 110B are the interested users. , is sent 430 to online system 140 . The browsing user can select information identifying the interested user from the user-written information included in the moving image data and presented together with the moving image data by the receiving client device 110B. Alternatively, the viewing user selects the portion of the video data that includes the person, the receiving client device 110B identifies the selected portion of the video data presented to the online system 140, and the online system 140 selects the portion of the video data. Compare the content of the selection to stored images of the face and body associated with the user (e.g., images contained within the user profile or maintained by the online system 140 where various users are identified). to identify users associated with one or more stored images that match the content of the selected portion of the video as users of interest.

オンラインシステム140は、興味対象ユーザを特定する情報を送信側クライアント装置110Aへと送信(435)する。興味対象ユーザを特定する情報及び撮像装置117によってキャプチャ(405)された動画データ内に含まれるオブジェクトの特徴に基づいて、コントローラ210は、キャプチャされた動画データ又は送信側クライアント装置110Aの撮像装置117のパラメータを修正(440)して、興味対象ユーザをより際立って提示する。修正は、どのようにキャプチャ動画が変更されるかについての通知がキャプチャされるユーザに検討させて承認させるためにクライアント装置110Aに表示された後になされ得るか、及び/又は、事前承認(例えば、プライバシ設定を介しての承認)に基づいてなされ得るのであってこれは受信側クライアント装置110Bを支配する予め承認を受けている人物らのリストに関することである。撮像装置117のパラメータについて加え得る修正としては次のものが挙げられる:興味対象ユーザを含む動画データの部分についての倍率を上げること;又は興味対象ユーザを含まない動画データの部分を除去すること。様々な実施形態では、送信側クライアント装置110Aのコントローラ210は、キャプチャ動画データに上記においてさらに説明した1つ以上のモデルを適用して、キャプチャ動画データを修正(440)して興味対象ユーザをより際立たせて提示する。興味対象ユーザを際立たせて提示するように修正された動画データは、送信側クライアント装置110Aからオンラインシステム140へと送信(445)され、オンラインシステム140は興味対象ユーザを際立たせて提示している動画データを受信側クライアント装置110Bへと送信(450)し、それが修正済み動画データを閲覧ユーザに提示(455)する。 Online system 140 transmits 435 information identifying the user of interest to sending client device 110A. Based on the information identifying the user of interest and the characteristics of the objects contained in the video data captured 405 by the imaging device 117, the controller 210 may determine whether the captured video data or the imaging device 117 of the sending client device 110A are modified 440 to present the interested user more prominently. Modifications may be made after a notification about how the captured video is changed is displayed on the client device 110A for review and approval by the captured user, and/or prior approval (e.g., (approval via privacy settings), which relates to a list of pre-approved persons in control of the recipient client device 110B. Modifications that may be made to the imaging device 117 parameters include: increasing the magnification for portions of the video data that contain the user of interest; or removing portions of the video data that do not contain the user of interest. In various embodiments, the controller 210 of the sending client device 110A applies one or more models further described above to the captured video data to modify 440 the captured video data to better represent the user of interest. Present it prominently. The video data modified to highlight the user of interest is transmitted 445 from the sending client device 110A to the online system 140, where the online system 140 is presenting the user of interest prominently. The animation data is transmitted (450) to the receiving client device 110B, which presents (455) the modified animation data to the viewing user.

コントローラ210は興味対象ユーザを特定する情報を受信した後にキャプチャされた動画データに対して1つ以上のモデルを適用して、撮像装置117の1つ以上のパラメータを修正してローカルエリアまわりで興味対象ユーザを追跡する。例えば、コントローラ210は1つ以上の顔認識モデルをキャプチャ動画データ内に配置されている人物に適用して、(オンラインシステム140から受信されたかオンラインシステムからの情報に基づいて以前キャプチャ(405)された動画データから特定された)興味対象ユーザの顔に一致する人物の顔を特定するのであり、その後撮像装置117の焦点を再配置するのであって興味対象ユーザの顔に一致する顔を有する人物へと焦点を合わせる。代替的には、コントローラ210は興味対象ユーザを含むキャプチャされた動画データからカラーマップを抽出し、撮像装置117の焦点を再配置し、抽出したカラーマップが撮像装置117によってキャプチャされた動画データ内に含まれたままとなるようにする。一部の実施形態では、コントローラ210は興味対象ユーザを特定する情報を受信し、その後撮像装置117を修正して特定された人物又はオブジェクトを追跡するようにするのであり、撮像装置117によってキャプチャされた動画データが特定された人物又はオブジェクトの動きを追跡できるようにする。 The controller 210 applies one or more models to the captured video data after receiving the information identifying the user of interest to modify one or more parameters of the imaging device 117 to adjust the number of users of interest around the local area. Track your target audience. For example, the controller 210 may apply one or more facial recognition models to the person(s) located within the captured video data (previously captured 405 based on information received from or from the online system 140). identifying a person's face that matches the face of the user of interest (identified from the video data obtained from the video data); focus on. Alternatively, the controller 210 extracts a color map from the captured video data containing the user of interest, repositions the focus of the imaging device 117, and inserts the extracted color map into the video data captured by the imaging device 117. remain included in the In some embodiments, controller 210 receives information identifying a user of interest and then modifies imaging device 117 to track the identified person or object, captured by imaging device 117 . moving image data to track the movement of an identified person or object.

様々な実施形態では、閲覧ユーザは、受信側クライアント装置110Bの表示装置115によって提示された動画データを修正するための追加命令を、オンラインシステム140に提供し、オンラインシステム140は命令を送信側クライアント装置110Aへと送信する。オンラインシステム140からの命令に基づいて、送信側クライアント装置110Aのコントローラ210は、撮像装置117の1つ以上のパラメータを修正するか、又は、撮像装置117によってキャプチャ(405)された動画データを修正する。例えば、オンラインシステム140を介して閲覧ユーザによって提供された命令によって、コントローラ210は、送信側クライアント装置110Aの撮像装置117を次のように構成することとなる:撮像装置117の視野内を興味対象ユーザが動くにつれて撮像装置117が再配置されるようにすること。別の例としては、オンラインシステムを介して閲覧ユーザによって提供された命令は、送信側クライアント装置110Aの撮像装置117によってキャプチャ(405)されて且つ受信側クライアント装置110Bを介して提示された動画データ内のオブジェクトを特定する。送信側クライアント装置110Aがオンラインシステム140からの命令を受信した際に、コントローラ210はキャプチャ動画データを修正するか又は撮像装置117の1つ以上のパラメータを修正して、追加のクライアント装置110にその後提供されるキャプチャ動画データが特定されたオブジェクトを含むこととなるようにする。これによって、閲覧ユーザは、送信側クライアント装置110Aの撮像装置117によってキャプチャされ且つ受信側クライアント装置110Bを介して閲覧ユーザに提示される動画データを修正するための命令を、送信側クライアント装置110Aに提供できる。様々な実施形態では、閲覧ユーザは送信側クライアント装置110Aへと伝達するための命令をオンラインシステム140に提供でき、それによって送信側クライアント装置110Aによってキャプチャされた動画データを修正し、送信側クライアント装置110Aによってキャプチャされ且つ受信側クライアント装置110Bによって提示(425)された動画データで興味対象ユーザを特定せずにこれをなせる。これによって、閲覧ユーザが、送信側クライアント装置110Aによってキャプチャされた動画データを、変更できる。 In various embodiments, the viewing user provides additional instructions to the online system 140 for modifying the video data presented by the display device 115 of the receiving client device 110B, and the online system 140 provides the instructions to the sending client device 110B. Send to device 110A. Based on instructions from the online system 140, the controller 210 of the sending client device 110A modifies one or more parameters of the imaging device 117 or modifies the video data captured 405 by the imaging device 117. do. For example, instructions provided by a viewing user via the online system 140 may cause the controller 210 to configure the imager 117 of the sending client device 110A as follows: Allow the imaging device 117 to be repositioned as the user moves. As another example, instructions provided by a viewing user via an online system may result in video data captured 405 by imaging device 117 of sending client device 110A and presented via receiving client device 110B. Identifies an object in When the sending client device 110A receives instructions from the online system 140, the controller 210 modifies the captured video data or modifies one or more parameters of the image capture device 117 to send to additional client devices 110 thereafter. To ensure that the provided captured video data includes the specified object. This allows the viewing user to send a command to the sending client device 110A to modify the video data captured by the imaging device 117 of the sending client device 110A and presented to the viewing user via the receiving client device 110B. can provide. In various embodiments, a viewing user can provide instructions to the online system 140 for transmission to the sending client device 110A, thereby modifying the video data captured by the sending client device 110A, and This can be done without identifying the user of interest in the video data captured by 110A and presented 425 by the receiving client device 110B. This allows the viewing user to change the video data captured by the sending client device 110A.

結び
例示的実施形態についての上記の開示は、例示目的で提供される。それらは網羅的なものとして意図されてはおらず、また、開示される形態そのものに特許権を限定することも意図されていない。上述の開示に照らせば、多くの変更形態及び変形形態が可能であるということを当業者であれば理解することができる。
Conclusion The above disclosure of exemplary embodiments is provided for purposes of illustration. They are not intended to be exhaustive, nor are they intended to limit patent rights to the precise forms disclosed. Persons of ordinary skill in the art can appreciate that many modifications and variations are possible in light of the above disclosure.

この説明のいくつかの部分は、情報に関するオペレーションのアルゴリズム及びシンボル表示という点から本発明の実施形態について記述している。これらのアルゴリズム的な記述及び表示は一般に、データ処理技術分野における技術者たちによって、それらの技術者たちの作業のエンティティを他の当業者たちに対して効果的に伝達するために利用されている。これらのオペレーションは、機能的に、計算処理的に、又は論理的に記述されているが、コンピュータプログラム又は等価な電気回路、マイクロコード等によって実施されるということがわかる。さらに、一般性を失うことなく、モジュールとしてオペレーションのこれらの構成に言及することが時として好都合であることもわかっている。記述されているオペレーション及びそれらの関連付けられているモジュールは、ソフトウェア、ファームウェア、ハードウェア、又はそれらの任意の組合せで具体化されることが可能である。 Some portions of this description describe embodiments of the invention in terms of algorithms and symbolic representations of operations on information. These algorithmic descriptions and representations are commonly used by those skilled in the data processing arts to effectively convey the substance of their work to others skilled in the art. . These operations, although described functionally, computationally, or logically, will be understood to be implemented by computer programs or equivalent electrical circuitry, microcode, or the like. Moreover, it has also proven convenient at times, without loss of generality, to refer to these arrangements of operations as modules. The described operations and their associated modules may be embodied in software, firmware, hardware, or any combination thereof.

本明細書において記述されているステップ、オペレーション、又はプロセスのうちのいずれも、1つ以上のハードウェアモジュールもしくはソフトウェアモジュールを用いて、単独で、又はその他の装置と組み合わせて実行又は実施されることが可能である。1つの実施形態においては、ソフトウェアモジュールは、記述されている工程、オペレーション、又はプロセスのうちの任意のもの又はすべてを実行するためにコンピュータプロセッサによって実行されることが可能であるコンピュータプログラムコードを含むコンピュータ可読媒体を備えるコンピュータプログラム製品とともに実装される。 any of the steps, operations, or processes described herein may be performed or implemented using one or more hardware or software modules, alone or in combination with other devices; is possible. In one embodiment, the software modules comprise computer program code executable by a computer processor to perform any or all of the steps, operations, or processes described. Implemented with a computer program product comprising a computer-readable medium.

実施形態は、本明細書におけるオペレーションを実行するための装置に関連することも可能である。この装置は、求められている目的のために特別に構築されることが可能であり、及び/又は、コンピュータ内に記憶されているコンピュータプログラムによって選択的にアクティベート若しくは再構成される汎用コンピューティング装置を備えることができる。そのようなコンピュータプログラムは、コンピュータシステムバスへ結合されることが可能である非一時的な有形のコンピュータ可読記憶媒体、又は電子命令を記憶するのに適している任意のタイプのメディア内に記憶されることが可能である。さらに、本明細書において言及されているあらゆるコンピューティングシステムは、シングルプロセッサを含むことができ、又はコンピューティング機能を高めるためにマルチプロセッサ設計を採用している構成であることが可能である。 Embodiments can also relate to an apparatus for performing the operations herein. This apparatus may be specially constructed for the required purposes, and/or it may be a general-purpose computing apparatus selectively activated or reconfigured by a computer program stored in the computer. can be provided. Such a computer program may be stored in a non-transitory, tangible computer-readable storage medium capable of being coupled to a computer system bus, or any type of medium suitable for storing electronic instructions. It is possible to Additionally, any computing system referred to herein may include a single processor, or may be a configuration employing a multi-processor design to increase computing capabilities.

実施形態は、本明細書において記述されているコンピューティングプロセスによって製造される製品に関連することも可能である。そのような製品は、コンピューティングプロセスから生じる情報を備えることができ、それらの情報は、非一時的な有形のコンピュータ可読記憶媒体上に記憶され、本明細書において記述されているコンピュータプログラム製品又はその他のデータの組合せの任意の実施形態を含むことができる。 Embodiments may also relate to products manufactured by the computing processes described herein. Such products may comprise information resulting from a computing process, which information is stored on a non-transitory tangible computer-readable storage medium and which is the computer program product or product described herein. Any embodiment of other data combinations can be included.

最後に、本明細書において使用されている言葉は、主として読みやすさ及び教示上の目的で選択されており、特許権の線引き又は画定を行うために選定されてはいない場合がある。したがって、特許権の範囲は、この詳細な説明によってではなく、むしろ本明細書に基づく出願上で生じるあらゆる請求項によって限定されるということが意図されている。したがって、実施形態の開示は、特許権の範囲を例示するものであり、限定するものではないということが意図されており、特許権の範囲は、添付の特許請求の範囲において示される。 Finally, the language used herein has been chosen primarily for readability and instructional purposes and may not have been chosen to delineate or define patent rights. Accordingly, it is intended that the scope of patents be limited not by this detailed description, but rather by any claims that issue on an application based hereon. Accordingly, the disclosure of embodiments is intended to be illustrative, not limiting, of the scope of patent, which is indicated in the following claims.

本発明による実施形態は、特に、方法及びコンピュータプログラム製品に向けられた添付の請求項に開示され、ある請求項のカテゴリ、例えば方法、で述べる特徴は別の請求項のカテゴリ、例えば、コンピュータプログラム製品、システム、記憶媒体においても同様に権利付与請求することができる。添付の請求項の従属又は後方参照は単に形式的理由のために選ばれている。もっとも、任意の先行請求項への意図的な後方参照(特に多数項従属)により得られる任意の主題も同様に請求できるので、請求項とその特徴のあらゆる組合せが開示され、添付の請求項で選ばれる従属に関係なく請求することができる。請求できる主題は、添付の請求項に記載される通りの特徴の組合せだけでなく、請求項の特徴のあらゆる他の組合せも含み、請求項で述べられる各特徴はあらゆる他の特徴又は請求項の他の特徴の組合せと組み合わせることができる。また、本明細書で説明又は図示される実施形態及び特徴のいずれも、個々の請求項及び/又は本明細書で説明若しくは図示されるあらゆる実施形態若しくは特徴、若しくは添付の請求項の特徴のいずれかとのあらゆる組合せで請求することができる。 Embodiments in accordance with the invention are disclosed in the accompanying claims, particularly directed to methods and computer program products, wherein features recited in one claim category, e.g. Products, systems, and storage media can be similarly entitled. Dependencies or back references to the appended claims are chosen for formal reasons only. However, since any subject matter derived by intentional back-reference (especially multiple claim dependency) to any preceding claim may be claimed as well, any combination of claim and features thereof is disclosed and set forth in the appended claim. Claims can be made regardless of the subordination chosen. Claimable subject matter includes not only the combination of features as set forth in the appended claims, but also any other combination of the features of the claims, wherein each feature recited in a claim may be used in conjunction with any other feature or combination of the claims. It can be combined with other feature combinations. Also, any of the embodiments and features described or illustrated herein may be referred to in an individual claim and/or any embodiment or feature described or illustrated herein or any feature of an appended claim. and can be claimed in any combination.

本発明による1つの実施形態によれば、コンピュータ実施方法は次のステップを含み得る:
クライアント装置内に含まれる撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを提供するステップであって、前記動画データはオンラインシステムの1つ以上のユーザを含む、提供するステップと、
前記クライアントによって維持されている1つ以上のモデルを前記キャプチャされた動画データの特徴に対して適用するステップと、
前記キャプチャされた動画データ内に含まれる、オンラインシステムの前記1つ以上のユーザを、位置決めするステップと、
前記動画データを前記オンラインシステムへと送信するステップと、
前記オンラインシステムから前記キャプチャされた動画データ内の興味対象ユーザを特定する情報を受信するステップと、
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップと、
前記修正された1つ以上のパラメータを用いて前記撮像装置によって以後キャプチャされた動画データを、前記オンラインシステムへと送信するステップ。
According to one embodiment in accordance with the invention, a computer-implemented method may include the steps of:
providing captured video data for a local area within a field of view of an imaging device included in a client device, said video data including one or more users of an online system;
applying one or more models maintained by the client to features of the captured video data;
locating the one or more users of an online system included within the captured video data;
transmitting the video data to the online system;
receiving information from the online system identifying users of interest in the captured video data;
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; a highlighting step;
Sending video data subsequently captured by the imaging device using the modified one or more parameters to the online system.

前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によって以後キャプチャされた前記動画データの部分であって前記興味対象ユーザを含む部分の倍率を増大させるステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
increasing the magnification of the portion of the video data subsequently captured by the imaging device that includes the user of interest.

前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によって以後キャプチャされた前記動画データを修正して、前記撮像装置によって以後キャプチャされた前記動画データの1つ以上の部分であって前記興味対象ユーザを含まない1つ以上の部分を除去するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
modifying the video data subsequently captured by the imaging device to remove one or more portions of the video data subsequently captured by the imaging device that do not include the user of interest step to do.

前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップと、
前記撮像装置の焦点を前記興味対象ユーザへと再調整するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
identifying the user of interest in video data captured by the imaging device;
Refocusing the imaging device to the user of interest.

前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップは、次のステップを含み得る:
1つ以上の顔認識モデルを適用して前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップ。
Identifying the user of interest within video data captured by the imaging device may include the steps of:
Applying one or more facial recognition models to identify the user of interest in video data captured by the imaging device.

前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップは、次のステップを含み得る:
前記興味対象ユーザを含む前記キャプチャされた動画データの部分からカラーマップを抽出するステップ。
Identifying the user of interest within video data captured by the imaging device may include the steps of:
Extracting a color map from the portion of the captured video data that includes the user of interest.

本発明による1つの実施形態によれば、コンピュータ実施方法は次のステップを含み得る:
前記オンラインシステムから命令を受信して前記撮像装置によってキャプチャされた追加の動画データを修正するステップと、
前記受信した命令に応答して前記撮像装置の前記1つ以上のパラメータを修正するステップ。
According to one embodiment in accordance with the invention, a computer-implemented method may include the steps of:
receiving instructions from the online system to modify additional video data captured by the imaging device;
modifying the one or more parameters of the imaging device in response to the received instructions.

前記受信した命令に応答して前記撮像装置の前記1つ以上のパラメータを修正するステップは、次のステップを含み得る:
前記興味対象ユーザが前記撮像装置の視野内で動くのに付随して前記撮像装置を再配置するステップ。
Modifying the one or more parameters of the imaging device in response to the received instructions may include:
Repositioning the imaging device as the user of interest moves within the field of view of the imaging device.

前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
1つ以上のモデルを、前記撮像装置によって以後キャプチャされた前記動画データであって前記興味対象ユーザの動きを特定する動画データに対して、適用するステップと、
前記興味対象ユーザの特定された動きに基づいて前記撮像装置の視野を修正するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
applying one or more models to the video data subsequently captured by the imaging device that identifies movement of the user of interest;
Modifying the field of view of the imaging device based on the identified movement of the user of interest.

本発明による1つの実施形態によれば、コンピュータ実施方法は次のステップを含み得る:
クライアント装置内に含まれる撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを、オンラインシステムにて、受信するステップであって、前記動画データはオンラインシステムの1つ以上のユーザを含む、受信するステップと、
前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する情報を、検索するステップと、
前記オンラインシステムの閲覧ユーザを特定するステップと、
前記動画データ及び前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する前記情報を、前記閲覧ユーザと関連付けられた追加のクライアント装置へと送信するステップと、
前記追加のクライアント装置から前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザの興味対象ユーザを特定する情報を受信するステップと、
前記興味対象ユーザを特定する情報を前記クライアント装置へと送信するステップと、
前記クライアント装置の前記撮像装置によってキャプチャされた追加の動画データを受信するステップであって、前記追加の動画データはクロッピング又はズーミングされてより際立たされた前記興味対象ユーザを含む部分を含む、受信するステップと、
前記追加の動画データを前記追加のクライアント装置へと送信するステップ。
According to one embodiment in accordance with the invention, a computer-implemented method may include the steps of:
receiving, at an online system, captured video data for a local area within a field of view of an imaging device included in a client device, said video data including one or more users of the online system; receiving;
retrieving information identifying the one or more users of the online system contained within the video data;
identifying users viewing the online system;
transmitting the video data and the information identifying the one or more users of the online system contained within the video data to an additional client device associated with the viewing user;
receiving information identifying users of interest of the one or more users of the online system included in the video data from the additional client device;
transmitting information identifying the user of interest to the client device;
receiving additional video data captured by the imaging device of the client device, the additional video data including a portion including the user of interest that has been cropped or zoomed to make it more prominent; a step;
transmitting the additional video data to the additional client device;

前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する情報を、検索するステップは次のステップを含み得る:
前記オンラインシステムを介して前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定するステップと、
前記オンラインシステムを介して前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定する情報を検索するステップ。
Retrieving information identifying the one or more users of the online system contained within the video data may include:
identifying a user of the online system included in the online system connected to the viewing user via the online system;
retrieving information identifying a user of the online system contained in the online system connected to the viewing user via the online system;

前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する情報を、検索するステップは次のステップを含み得る:
前記オンラインシステムを介して前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定するステップと、
前記動画データ内に含まれる前記オンラインシステムの前記ユーザを特定する情報であって、前記オンラインシステムを介して前記閲覧ユーザに接続された前記動画データ内に含まれるユーザを 前記オンラインシステムを介して前記閲覧ユーザに接続されていない動画データ内含有ユーザから 視覚的に区別する情報を、生成するステップ。
Retrieving information identifying the one or more users of the online system contained within the video data may include:
identifying a user of the online system included in the online system connected to the viewing user via the online system;
information specifying the user of the online system included in the moving image data, the user included in the moving image data connected to the browsing user via the online system being identified as the user via the online system; Generating information that visually distinguishes from users contained within the video data that are not connected to the viewing user.

前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する情報を、検索するステップは次のステップを含み得る:
前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性を決定するステップと、
前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて、生成するステップ。
Retrieving information identifying the one or more users of the online system contained within the video data may include:
determining the viewing user's relevance for each user of the online system included in the video data;
Generating information identifying each user of the online system included in the video data based on the viewing user's relevance to each user of the online system included in the video data.

前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて、生成するステップは次のステップを含み得る:
関連性が少なくとも閾値となる前記閲覧ユーザについて、前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を生成するステップ。
The step of generating information specifying each user of the online system included in the video data based on the relevance of the viewing user to each user of the online system included in the video data is as follows: May include steps:
Generating information identifying each user of the online system included in the video data for the viewing users whose relevance is at least a threshold.

前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて、生成するステップは次のステップを含み得る:
前記動画データ内に含まれる前記オンラインシステムの前記ユーザを、前記動画データ内に含まれる前記オンラインシステムの前記ユーザについての前記閲覧ユーザの関連性に基づいて、ランク付けするステップと、
前記ランク付けにおける順位が少なくとも閾値となるユーザについて、前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、生成するステップ。
The step of generating information specifying each user of the online system included in the video data based on the relevance of the viewing user to each user of the online system included in the video data is as follows: May include steps:
ranking the users of the online system included in the video data based on the viewing user's relevance to the users of the online system included in the video data;
Generating information identifying each user of the online system included in the video data for users whose rank in the ranking is at least a threshold.

本発明による1つの実施形態によれば、コンピュータ実施方法は次のステップを含み得る:
前記オンラインシステムにて命令を前記追加のクライアント装置から受信して前記クライアント装置の前記撮像装置によってキャプチャされた動画データを修正するステップと、
前記命令を前記クライアント装置へと送信するステップと、
前記命令に基づいて前記撮像装置によってキャプチャされた追加の動画データを前記クライアント装置から受信するステップと、
前記追加の動画データを前記オンラインシステムから前記追加のクライアント装置へと送信するステップ。
According to one embodiment in accordance with the invention, a computer-implemented method may include the steps of:
receiving instructions at the online system from the additional client device to modify video data captured by the imaging device of the client device;
sending said instructions to said client device;
receiving from the client device additional video data captured by the imaging device based on the instructions;
transmitting the additional video data from the online system to the additional client device;

本発明による1つの実施形態では、符号化された命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品においては該命令がプロセッサによって実行されると、該プロセッサによって次のステップがなされ得る:
クライアント装置内に含まれる撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを提供するステップであって、前記動画データはオンラインシステムの1つ以上のユーザを含む、提供するステップと、
前記クライアントによって維持されている1つ以上のモデルを前記キャプチャされた動画データの特徴に対して適用するステップと、
前記キャプチャされた動画データ内に含まれる、オンラインシステムの前記1つ以上のユーザを、位置決めするステップと、
前記動画データを前記オンラインシステムへと送信するステップと、
前記オンラインシステムから前記キャプチャされた動画データ内の興味対象ユーザを特定する情報を受信するステップと、
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップと、
前記修正された1つ以上のパラメータを用いて前記撮像装置によって以後キャプチャされた動画データを、前記オンラインシステムへと送信するステップ。
In one embodiment according to the invention, in a computer program product comprising a computer readable storage medium having encoded instructions, the following steps may be taken by the processor when the instructions are executed by the processor:
providing captured video data for a local area within a field of view of an imaging device included in a client device, said video data including one or more users of an online system;
applying one or more models maintained by the client to features of the captured video data;
locating the one or more users of an online system included within the captured video data;
transmitting the video data to the online system;
receiving information from the online system identifying users of interest in the captured video data;
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; a highlighting step;
Sending video data subsequently captured by the imaging device using the modified one or more parameters to the online system.

前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によって以後キャプチャされた前記動画データを修正して、前記撮像装置によって以後キャプチャされた前記動画データの1つ以上の部分であって前記興味対象ユーザを含まない1つ以上の部分を除去するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
modifying the video data subsequently captured by the imaging device to remove one or more portions of the video data subsequently captured by the imaging device that do not include the user of interest step to do.

前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップと、
前記撮像装置の焦点を前記興味対象ユーザへと再調整するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
identifying the user of interest in video data captured by the imaging device;
Refocusing the imaging device to the user of interest.

本発明による1つの実施形態では、1つ以上のコンピュータ可読非一時的記憶媒体は、本発明による方法又は前述の実施形態のいずれかを実施するために実行されたときに動作可能であるソフトウェアを具体化し得る。 In one embodiment according to the invention, one or more computer-readable non-transitory storage media carry software operable when executed to perform the method according to the invention or any of the foregoing embodiments. can be materialized.

本発明による1つの実施形態では、システムは次の要素を備え得る:1つ以上のプロセッサと、プロセッサに結合された少なくとも1つのメモリであって、該メモリはプロセッサによって実行可能な命令を含み、プロセッサが命令を実行するに際してプロセッサは本発明又は任意の上述の実施形態による命令を実施するように動作可能である、メモリ。 In one embodiment according to the invention, a system may comprise the following elements: one or more processors and at least one memory coupled to the processors, the memory containing instructions executable by the processors; A memory in which the processor is operable to implement instructions according to the present invention or any of the above-described embodiments as the processor executes the instructions.

本発明による1つの実施形態では、好ましくはコンピュータ可読非一時的記憶媒体を含むコンピュータプログラム製品は、データ処理システム上で実行されたときに、本発明による方法又は前述の実施形態のいずれかを実施するように動作可能であり得る。 In one embodiment according to the invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs the method according to the invention or any of the foregoing embodiments when executed on a data processing system. may be operable to

本発明による1つの実施形態では、それがコンピュータによって実施される場合には特に、方法は次のステップを含み得る:
1つ以上のモデルをクライアント装置にて維持するステップであって、各モデルは1つ以上の規則を適用して 前記撮像装置によってキャプチャされた前記動画データの特徴に基づいて 前記クライアント装置の撮像装置によってキャプチャされた動画データ内にいるオンラインシステムのユーザの身体のどの部分であるかを決定するステップと、
クライアント装置内に含まれる前記撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを提供するステップと、
前記キャプチャされた動画データ内に含まれる前記ユーザを位置決めするステップと、
1つ以上の前記維持されているモデルを前記キャプチャされた動画データに適用するステップと、前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの部分についてクロッピング又はズーミングするステップと、
前記修正された動画データを前記オンラインシステムへと送信するステップ。
In one embodiment according to the invention, particularly when it is computer-implemented, the method may include the steps of:
maintaining one or more models on a client device, each model applying one or more rules based on features of the video data captured by the imaging device of the client device; determining which part of the body of a user of the online system is within the video data captured by
providing captured video data for a local area within the field of view of the imaging device contained within a client device;
locating the user included within the captured video data;
applying one or more of the maintained models to the captured video data; and modifying video data captured by the imaging device based on applying the one or more models to the user. cropping or zooming a portion of the video data that includes one or more portions of
sending said modified video data to said online system;

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記ユーザの身体の関節を特定するステップと、
前記1つ以上のモデルに含まれる1つ以上の規則に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの身体の異なる部分に対応する関節を含めるステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
identifying joints of the user's body;
Modifying video data captured by the imaging device to include joints corresponding to different parts of the user's body based on one or more rules contained in the one or more models.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
下記の群から1つ以上を選択したものが含まれることとなるように前記動画データを修正するステップ:前記ユーザの頭部、前記ユーザの胴体、前記ユーザの全身、及び前記1つ以上のモデル内に含まれる1つ以上の規則の適用に基づいてのそれらについての任意の組み合わせからなる群。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
modifying said video data to include a selection of one or more from the following group: said user's head, said user's torso, said user's full body, and said one or more models; A group consisting of any combination thereof based on the application of one or more rules contained within.

前記1つ以上の規則は下記の群から選択した1つ以上に基づいていることができる:前記撮像装置によって以前キャプチャされた動画データの内容、前記撮像装置によって以前キャプチャされた動画データ内の前記ユーザの動き、及びそれらについての任意の組み合わせからなる群。 The one or more rules may be based on one or more selected from the following group: content of video data previously captured by the imaging device; A group consisting of user movements and any combination thereof.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用から、前記ローカルエリア内のオブジェクトに向かって前記ユーザが身振りしていることを決定するステップと、
前記撮像装置の倍率を減少させて前記撮像装置によってキャプチャされる追加の動画データが前記ユーザと前記ユーザからの身振りを向けられている前記オブジェクトとを含むようにするステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
determining from application of the one or more models that the user is gesturing toward an object within the local area;
Decreasing the magnification of the imaging device such that additional video data captured by the imaging device includes the user and the object to which the user is gesturing.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用から、前記ローカルエリア内のオブジェクトを前記ユーザがホールドしていることを決定するステップと、
撮像装置のヴォーカルポイントをオブジェクトへと移し、また、撮像装置の倍率を増大させるステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
determining from application of the one or more models that the user is holding an object within the local area;
Moving the vocal point of the imager to the object and increasing the magnification of the imager.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用に基づいて前記撮像装置の視野に影響を及ぼす前記撮像装置の1つ以上のパラメータを修正するステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
Modifying one or more parameters of the imaging device that affect the field of view of the imaging device based on application of the one or more models.

撮像装置のパラメータには、撮像装置の倍率が含まれ得る。 The imaging device parameters may include the magnification of the imaging device.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記撮像装置によってキャプチャされた動画データを修正して前記特定されたユーザを含む前記キャプチャされた動画データの部分の倍率を修正するステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
Modifying the video data captured by the imaging device to modify the magnification of the portion of the captured video data that includes the identified user.

前記キャプチャされた動画データ内に含まれる前記ユーザを位置決めするステップは次のステップを含み得る:
前記オンラインシステムから前記ユーザを特定する情報を受信するステップと、
前記受信された情報に基づいて、前記特定されたユーザを含む前記撮像装置によってキャプチャされた動画データの部分を特定するステップ。
Locating the user included within the captured video data may include the steps of:
receiving information identifying the user from the online system;
Based on the received information, identifying a portion of video data captured by the imaging device that includes the identified user.

本発明による1つの実施形態では、符号化された命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品においては該命令がプロセッサによって実行されると、該プロセッサによって次のステップがなされ得る:
1つ以上のモデルをクライアント装置にて維持するステップであって、各モデルは1つ以上の規則を適用して 前記撮像装置によってキャプチャされた前記動画データの特徴に基づいて 前記クライアント装置の撮像装置によってキャプチャされた動画データ内にいるユーザの身体のどの部分であるかを決定するステップと、
クライアント装置内に含まれる前記撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを提供するステップと、
前記キャプチャされた動画データ内に含まれる前記ユーザを位置決めするステップと、
1つ以上の前記維持されているモデルを前記キャプチャされた動画データに適用するステップと、
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの部分についてクロッピング又はズーミングするステップと、
前記修正された動画データを前記オンラインシステムへと送信するステップ。
In one embodiment according to the invention, in a computer program product comprising a computer readable storage medium having encoded instructions, the following steps may be taken by the processor when the instructions are executed by the processor:
maintaining one or more models on a client device, each model applying one or more rules based on features of the video data captured by the imaging device of the client device; determining which part of the user's body is within the video data captured by
providing captured video data for a local area within the field of view of the imaging device contained within a client device;
locating the user included within the captured video data;
applying one or more of the maintained models to the captured video data;
modifying video data captured by the imaging device based on application of the one or more models to crop or zoom portions of the video data that include one or more portions of the user;
sending said modified video data to said online system;

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記ユーザの身体の関節を特定するステップと、
前記1つ以上のモデルに含まれる1つ以上の規則に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの身体の異なる部分に対応する関節を含めるステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
identifying joints of the user's body;
Modifying video data captured by the imaging device to include joints corresponding to different parts of the user's body based on one or more rules contained in the one or more models.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
下記の群から1つ以上を選択したものが含まれることとなるように前記動画データを修正するステップ:前記ユーザの頭部、前記ユーザの胴体、前記ユーザの全身、及び前記1つ以上のモデル内に含まれる1つ以上の規則の適用に基づいてのそれらについての任意の組み合わせからなる群。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
modifying said video data to include a selection of one or more from the following group: said user's head, said user's torso, said user's full body, and said one or more models; A group consisting of any combination thereof based on the application of one or more rules contained within.

前記1つ以上の規則は下記の群から選択した1つ以上に基づいていることができる:前記撮像装置によって以前キャプチャされた動画データの内容、前記撮像装置によって以前キャプチャされた動画データ内の前記ユーザの動き、及びそれらについての任意の組み合わせからなる群。 The one or more rules may be based on one or more selected from the following group: content of video data previously captured by the imaging device; A group consisting of user movements and any combination thereof.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用から、前記ローカルエリア内のオブジェクトに向かって前記ユーザが身振りしていることを決定するステップと、
前記撮像装置の倍率を減少させて前記撮像装置によってキャプチャされる追加の動画データが前記ユーザと前記ユーザからの身振りを向けられている前記オブジェクトとを含むようにするステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
determining from application of the one or more models that the user is gesturing toward an object within the local area;
Decreasing the magnification of the imaging device such that additional video data captured by the imaging device includes the user and the object to which the user is gesturing.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用から、前記ローカルエリア内のオブジェクトを前記ユーザがホールドしていることを決定するステップと、
前記撮像装置の焦点を前記オブジェクトへと移し、また、前記撮像装置の倍率を増大させるステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
determining from application of the one or more models that the user is holding an object within the local area;
Moving the focus of the imaging device to the object and increasing the magnification of the imaging device.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用に基づいて前記撮像装置の視野に影響を及ぼす前記撮像装置の1つ以上のパラメータを修正するステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
Modifying one or more parameters of the imaging device that affect the field of view of the imaging device based on application of the one or more models.

撮像装置のパラメータには、撮像装置の倍率が含まれ得る。 The imaging device parameters may include the magnification of the imaging device.

前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記撮像装置によってキャプチャされた動画データを修正して前記ユーザを含む前記キャプチャされた動画データの部分の倍率を修正するステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
Modifying the video data captured by the imaging device to modify the magnification of the portion of the captured video data that includes the user.

前記キャプチャされた動画データ内に含まれる前記ユーザを位置決めするステップは次のステップを含み得る:
前記オンラインシステムから前記ユーザを特定する情報を受信するステップと、
前記受信された情報に基づいて、前記特定されたユーザを含む前記撮像装置によってキャプチャされた動画データの部分を特定するステップ。
Locating the user included within the captured video data may include the steps of:
receiving information identifying the user from the online system;
Based on the received information, identifying a portion of video data captured by the imaging device that includes the identified user.

本発明による1つの実施形態では、1つ以上のコンピュータ可読非一時的記憶媒体は、本発明による方法又は前述の実施形態のいずれかを実施するために実行されたときに動作可能であるソフトウェアを具体化し得る。 In one embodiment according to the invention, one or more computer-readable non-transitory storage media carry software operable when executed to perform the method according to the invention or any of the foregoing embodiments. can be materialized.

本発明による1つの実施形態では、システムは次の要素を備え得る:1つ以上のプロセッサと、プロセッサに結合された少なくとも1つのメモリであって、該メモリはプロセッサによって実行可能な命令を含み、プロセッサが命令を実行するに際してプロセッサは本発明又は任意の上述の実施形態による命令を実施するように動作可能である、メモリ。 In one embodiment according to the invention, a system may comprise the following elements: one or more processors and at least one memory coupled to the processors, the memory containing instructions executable by the processors; A memory in which the processor is operable to implement instructions according to the present invention or any of the above-described embodiments as the processor executes the instructions.

本発明による1つの実施形態では、好ましくはコンピュータ可読非一時的記憶媒体を含むコンピュータプログラム製品は、データ処理システム上で実行されたときに、本発明による方法又は前述の実施形態のいずれかを実施するように動作可能であり得る。 In one embodiment according to the invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs the method according to the invention or any of the foregoing embodiments when executed on a data processing system. may be operable to

本発明による1つの実施形態では、それがコンピュータによって実施される場合には特に、方法は次のステップを含み得る:
クライアント装置にて1つ以上のモデルを維持するステップであって、各モデルは1つ以上の規則を適用して前記クライアント装置の撮像装置によってキャプチャされた動画データ内のユーザを位置決めし且つ前記動画データ内に示すべき1つ以上の前記位置決め済みユーザを決定する、維持するステップと、
クライアント装置内に含まれる前記撮像装置の視野内のローカルエリアについての動画データをキャプチャするステップと、
前記キャプチャされた動画データ内にて複数のユーザを位置決めするステップと、
1つ以上の前記維持されているモデルを前記キャプチャされた動画データに適用するステップと、
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップと、
前記修正された動画データを前記クライアント装置からオンラインシステムへと送信するステップ。
In one embodiment according to the invention, particularly when it is computer-implemented, the method may include the steps of:
maintaining one or more models on a client device, each model applying one or more rules to locate a user within video data captured by an imaging device of the client device; determining and maintaining one or more of the positioned users to represent in data;
capturing video data for a local area within the field of view of the imaging device contained within a client device;
positioning a plurality of users within the captured video data;
applying one or more of the maintained models to the captured video data;
modifying the captured video data to indicate one or more of the positioned users based on application of the one or more of the maintained models;
transmitting the modified video data from the client device to an online system;

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記1つ以上の前記維持されたモデルの適用に基づいて前記撮像装置の1つ以上のパラメータを修正するステップと、
前記ローカルエリアについての追加の動画データを、前記撮像装置の前記修正された1つ以上のパラメータを用いて、キャプチャするステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
modifying one or more parameters of the imaging device based on application of the one or more of the maintained models;
Capturing additional video data for the local area using the modified one or more parameters of the imaging device.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
1つ以上の維持されているモデルの適用によって、前記位置決め済みユーザの視線が向けられているキャプチャされた動画データ内の箇所を決定するステップと、
前記撮像装置の焦点を、少なくとも閾値となる人数分の位置決め済みユーザの視線が向けられている位置決め済みユーザへと、修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
determining where in the captured video data the positioned user's gaze is directed by application of one or more maintained models;
Correcting the focus of the imaging device to positioned users to which at least a threshold number of positioned users are gazed.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データ内で位置決め済みの異なるユーザ間の距離を決定するステップと、
追加でキャプチャされた動画データが相互に閾値距離内となっているユーザを含むものとなるように前記撮像装置の焦点を修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
determining distances between different users positioned within the captured video data;
Modifying the focus of the imaging device so that additionally captured video data includes users within a threshold distance of each other.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記クライアント装置に含まれる音声キャプチャ装置を介して音声データをキャプチャするステップと、
前記維持されているモデルの1つ以上を、前記キャプチャされた音声データと前記キャプチャされた動画データとに対して適用することによって、前記ローカルエリア内の前記音声データの源泉を決定するステップと、
前記ローカルエリア内の前記音声データの前記源泉はユーザであると決定するステップと、
前記ローカルエリア内の前記音声データの前記源泉は前記ユーザであると決定したことに応答して、前記撮像装置の焦点を、前記音声データの前記源泉へと修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
capturing audio data via an audio capture device included in the client device;
determining the origin of the audio data within the local area by applying one or more of the maintained models to the captured audio data and the captured video data;
determining that the source of the audio data within the local area is a user;
Refocusing the imaging device to the source of the audio data in response to determining that the source of the audio data within the local area is the user.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記維持されているモデルの1つ以上の適用によって位置決め済みユーザの動きを特定するステップと、
前記位置決め済みユーザの特定された動きに基づいて前記撮像装置の視野を修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
identifying movement of the positioned user by applying one or more of the maintained models;
Modifying the field of view of the imaging device based on the identified movement of the positioned user.

前記維持されているモデルの1つ以上の適用によって位置決め済みユーザの動きを特定するステップは、次のステップを含み得る:
前記位置決め済みユーザが前記ローカルエリア内に含まれるオブジェクトに向かって身振りしていると特定するステップ。
Identifying motion of the positioned user by applying one or more of the maintained models may include the steps of:
identifying that the positioned user is gesturing toward an object contained within the local area;

前記撮像装置の視野を修正するステップは、次のステップを含み得る:
前記撮像装置の倍率を減少させて前記撮像装置によってキャプチャされる追加の動画データが前記位置決め済みユーザと前記位置決め済みユーザからの身振りを向けられている前記オブジェクトとを含むようにするステップ。
Modifying the field of view of the imager may include the steps of:
Decreasing the magnification of the imaging device such that additional video data captured by the imaging device includes the positioned user and the object to which the positioned user is gesturing.

前記維持されているモデルの1つ以上の適用によって位置決め済みユーザの動きを特定するステップは、次のステップを含み得る:
前記1つ以上の維持されているモデルの適用から、前記ローカルエリア内のオブジェクトを前記位置決め済みユーザがホールドしていることを決定するステップ。
Identifying motion of the positioned user by applying one or more of the maintained models may include the steps of:
Determining from the application of the one or more maintained models that the positioned user is holding an object within the local area.

前記撮像装置の視野を修正するステップは、次のステップを含み得る:
前記撮像装置の焦点を前記オブジェクトへと移し、また、前記撮像装置の倍率を増大させるステップ。
Modifying the field of view of the imager may include the steps of:
Moving the focus of the imaging device to the object and increasing the magnification of the imaging device.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データを修正するステップであって、各位置決め済みユーザが、前記キャプチャされた動画データ内において少なくとも閾値寸法にて少なくとも閾値期間にわたって、提示されることとなる、修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
Modifying the captured video data such that each positioned user is presented in the captured video data at least a threshold dimension and for at least a threshold period of time.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データを修正するステップであって、各位置決め済みユーザが、前記キャプチャされた動画データ内において少なくとも閾値期間にわたって、提示されることとなる、修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
Modifying the captured video data, wherein each positioned user will be presented in the captured video data for at least a threshold period of time.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記維持されているモデルの1つ以上の適用によって前記キャプチャされた動画データ内のユーザの顔を特定するステップと、
前記キャプチャされた動画データを修正して、前記キャプチャされた動画データの、前記ユーザの前記顔を含まない部分を除去するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
identifying a user's face in the captured video data by applying one or more of the maintained models;
Modifying the captured video data to remove portions of the captured video data that do not include the face of the user.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データを修正して前記位置決め済みユーザの各々を含めるステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
modifying the captured video data to include each of the positioned users;

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記1つ以上の維持されているモデルの適用によって前記キャプチャされた動画データを安定化するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
Stabilizing the captured video data by applying the one or more maintained models.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
比較するステップであって、前記キャプチャされた動画データ内の位置決め済みユーザを、前記キャプチャされた動画データで少なくとも閾値寸法を伴って以前提示されたことがある前記キャプチャされた動画データ内に含まれるユーザについて記述する格納済みデータと、比較するステップと、
前記キャプチャされた動画データを修正して前記位置決め済みユーザを際立って提示するステップであって、該ステップは、前記特定されたユーザが、前記キャプチャされた動画データ内に含まれる以前は少なくとも閾値寸法を伴っていたユーザに、前記キャプチャされた動画データで合致しないと決定した比較ステップに応じてなされる、ステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
comparing, wherein positioned users in said captured video data are included in said captured video data that have been previously presented with at least a threshold dimension in said captured video data. stored data describing the user; and comparing;
modifying the captured video data to prominently present the located user, wherein the identified user has at least a threshold dimension before being included in the captured video data. , in response to a comparing step that determines that the captured video data does not match.

本発明による1つの実施形態では、符号化された命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品においては該命令がプロセッサによって実行されると、該プロセッサによって次のステップがなされ得る:
クライアント装置にて1つ以上のモデルを維持するステップであって、各モデルは1つ以上の規則を適用して前記クライアント装置の撮像装置によってキャプチャされた動画データ内のユーザを位置決めし且つ前記動画データの特徴から前記動画データ内に示すべき1つ以上の前記位置決め済みユーザを決定する、維持するステップと、
クライアント装置内に含まれる前記撮像装置の視野内のローカルエリアについての動画データをキャプチャするステップと、
前記キャプチャされた動画データ内にて複数のユーザを位置決めするステップと、
1つ以上の前記維持されているモデルを前記キャプチャされた動画データに適用するステップと、
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップ。
前記修正された動画データを前記クライアント装置からオンラインシステムへと送信するステップ。
In one embodiment according to the invention, in a computer program product comprising a computer readable storage medium having encoded instructions, the following steps may be taken by the processor when the instructions are executed by the processor:
maintaining one or more models on a client device, each model applying one or more rules to locate a user within video data captured by an imaging device of the client device; determining and maintaining one or more of the positioned users to be represented within the video data from data characteristics;
capturing video data for a local area within the field of view of the imaging device contained within a client device;
positioning a plurality of users within the captured video data;
applying one or more of the maintained models to the captured video data;
Modifying the captured animation data to indicate one or more of the positioned users based on application of the one or more of the maintained models.
transmitting the modified video data from the client device to an online system;

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
1つ以上の維持されているモデルの適用によって、前記位置決め済みユーザの視線が向けられているキャプチャされた動画データ内の箇所を決定するステップと、
前記撮像装置の焦点を、少なくとも閾値となる人数分の既特定人の視線が向けられている位置決め済み人物へと、修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
determining where in the captured video data the positioned user's gaze is directed by application of one or more maintained models;
Refocusing the imaging device to a positioned person having at least a threshold number of identified persons in their line of sight.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データ内で位置決め済みの異なるユーザ間の距離を決定するステップと、
追加でキャプチャされた動画データが相互に閾値距離内となっている人物を含むものとなるように前記撮像装置の焦点を修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
determining distances between different users positioned within the captured video data;
Modifying the focus of the imaging device so that additionally captured video data includes persons within a threshold distance of each other.

前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記クライアント装置に含まれる音声キャプチャ装置を介して音声データをキャプチャするステップと、
前記維持されているモデルの1つ以上を、前記キャプチャされた音声データと前記キャプチャされた動画データとに対して適用することによって、前記ローカルエリア内の前記音声データの源泉を決定するステップと、
前記ローカルエリア内の前記音声データの前記源泉は位置決め済みユーザであると決定するステップと、
前記ローカルエリア内の前記音声データの前記源泉は前記位置決め済みユーザであると決定したことに応答して、前記撮像装置の焦点を、前記音声データの前記源泉へと修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
capturing audio data via an audio capture device included in the client device;
determining the origin of the audio data within the local area by applying one or more of the maintained models to the captured audio data and the captured video data;
determining that the source of the audio data within the local area is a located user;
Refocusing the imaging device to the source of the audio data in response to determining that the source of the audio data within the local area is the located user.

本発明による1つの実施形態では、1つ以上のコンピュータ可読非一時的記憶媒体は、本発明による方法又は前述の実施形態のいずれかを実施するために実行されたときに動作可能であるソフトウェアを具体化し得る。 In one embodiment according to the invention, one or more computer-readable non-transitory storage media carry software operable when executed to perform the method according to the invention or any of the foregoing embodiments. can be materialized.

本発明による1つの実施形態では、システムは次の要素を備え得る:1つ以上のプロセッサと、プロセッサに結合された少なくとも1つのメモリであって、該メモリはプロセッサによって実行可能な命令を含み、プロセッサが命令を実行するに際してプロセッサは本発明又は任意の上述の実施形態による命令を実施するように動作可能である、メモリ。 In one embodiment according to the invention, a system may comprise the following elements: one or more processors and at least one memory coupled to the processors, the memory containing instructions executable by the processors; A memory in which the processor is operable to implement instructions according to the present invention or any of the above-described embodiments as the processor executes the instructions.

本発明による1つの実施形態では、好ましくはコンピュータ可読非一時的記憶媒体を含むコンピュータプログラム製品は、データ処理システム上で実行されたときに、本発明による方法又は前述の実施形態のいずれかを実施するように動作可能であり得る。 In one embodiment according to the invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs the method according to the invention or any of the foregoing embodiments when executed on a data processing system. may be operable to

Claims (19)

撮像装置(117)を含むクライアント装置(110)によってキャプチャされた動画データを修正するためのコンピュータ実施方法であって、コントローラ(210)が前記撮像装置(117)に結合されており、前記方法は、
前記撮像装置(117)が、当該撮像装置(117)の視野内のローカルエリアについてのキャプチャされた第1の動画データを提供するステップを含み、前記第1の動画データはオンラインソーシャルネットワークシステムの1人以上のユーザを含み、且つ前記方法は
前記コントローラ(210)が、前記第1の動画データ内でキャプチャされた前記1人以上のユーザについて、1つ以上のプライバシ設定を維持するステップと、
前記1人以上のユーザの前記1つ以上のプライバシ設定に基づいて、前記コントローラ(210)が、前記クライアント装置(110)によって維持されている1つ以上のモデルを前記キャプチャされた第1の動画データの特徴に対して適用することにより、前記キャプチャされた第1の動画データ内に含まれる前記オンラインソーシャルネットワークシステムの前記1人以上のユーザを位置決めするステップと
位置決め済みの前記1人以上のユーザを含む前第1の動画データを前記オンラインソーシャルネットワークシステムへと送信するステップと、
前記オンラインソーシャルネットワークシステムを介して、前記ャプチャされた第1の動画データ内の位置決め済みの前記1人以上のユーザの中から興味対象ユーザを特定する情報を受信するステップと、
前記興味対象ユーザの前記1つ以上のプライバシ設定に基づいて、前記コントローラ(210)が、前記撮像装置(117)の1つ以上のパラメータを修正して前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップと、
正された前記1つ以上のパラメータを用いて前記撮像装置(117)によって以後キャプチャされた前記第2の動画データを、前記オンラインソーシャルネットワークシステムへと送信するステップと、によって特徴付けられる、コンピュータ実施方法。
A computer-implemented method for modifying video data captured by a client device (110) including an imaging device (117), wherein a controller (210) is coupled to the imaging device (117), the method comprising: ,
said imaging device (117) providing captured first video data for a local area within the field of view of said imaging device (117) , said first video data being one of an online social network system; comprising at least one user , and wherein the method comprises :
said controller (210) maintaining one or more privacy settings for said one or more users captured within said first video data;
Based on the one or more privacy settings of the one or more users, the controller (210) converts one or more models maintained by the client device (110) into the captured first animation. locating the one or more users of the online social network system included within the captured first video data by applying to data characteristics ;
sending said first video data including said one or more users positioned to said online social network system;
receiving , via the online social network system, information identifying users of interest from among the one or more users positioned within the captured first video data;
Based on the one or more privacy settings of the user of interest, the controller (210) modifies one or more parameters of the imaging device (117) to be subsequently captured by the imaging device (117). modifying the second moving image data to make the interested user stand out more by cropping or zooming a portion of the second moving image data including the interested user;
and sending the second video data subsequently captured by the imaging device (117) using the modified one or more parameters to the online social network system. Implementation method.
請求項1に記載のコンピュータ実施方法において、前記撮像装置(117)の1つ以上のパラメータを修正して前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データの前記興味対象ユーザを含む部分の倍率を増大させるステップを含む、コンピュータ実施方法。
2. The computer-implemented method of claim 1, wherein one or more parameters of the imaging device (117) are modified to modify second video data subsequently captured by the imaging device (117) to The step of cropping or zooming a portion of the second video data containing the target user to make the user of interest stand out more,
A computer-implemented method comprising increasing the magnification of a portion of said second video data subsequently captured by said imaging device (117) containing said user of interest.
請求項1又は請求項2に記載のコンピュータ実施方法において、前記撮像装置(117)の1つ以上のパラメータを修正して前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データを修正して、前記撮像装置(117)によって以後キャプチャされた前記第2の動画データの前記興味対象ユーザを含まない1つ以上の部分を除去するステップを含む、コンピュータ実施方法。
3. The computer-implemented method of claim 1 or claim 2, wherein one or more parameters of the imaging device (117) are modified to modify second video data subsequently captured by the imaging device (117). and cropping or zooming a portion of the second moving image data containing the interested user to make the interested user stand out more,
modifying the second moving image data subsequently captured by the imaging device (117) to provide one of the second moving image data subsequently captured by the imaging device (117) that does not include the interested user; A computer-implemented method comprising the step of removing said portion.
請求項1乃至3のいずれかに記載のコンピュータ実施方法において、前記撮像装置(117)の1つ以上のパラメータを修正して前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データ内の前記興味対象ユーザを特定するステップと、
前記撮像装置(117)の焦点を前記興味対象ユーザへと再調整するステップとを含む、コンピュータ実施方法。
4. The computer-implemented method of any of claims 1-3, wherein one or more parameters of the imaging device (117) are modified to affect second video data subsequently captured by the imaging device (117). Cropping or zooming a portion of the second video data that includes the user of interest by modifying to make the user of interest stand out more,
identifying the user of interest in the second video data subsequently captured by the imaging device (117) ;
refocusing said imaging device (117) onto said user of interest.
請求項4に記載のコンピュータ実施方法において、前記撮像装置(117)によって以後キャプチャされた前記第2の動画データ内の前記興味対象ユーザを特定するステップは、
1つ以上の顔認識モデルを適用して前記撮像装置(117)によって以後キャプチャされた前記第2の動画データ内の前記興味対象ユーザを特定するステップを含む、コンピュータ実施方法。
5. The computer-implemented method of claim 4, wherein identifying the user of interest within the second video data subsequently captured by the imaging device (117) comprises:
A computer-implemented method, comprising applying one or more facial recognition models to identify the user of interest in the second video data subsequently captured by the imaging device (117) .
請求項4に記載のコンピュータ実施方法において、前記撮像装置(117)によって以後キャプチャされた前記第2の動画データ内の前記興味対象ユーザを特定するステップは、
前記興味対象ユーザを含む前記以後キャプチャされた第2の動画データの部分からカラーマップを抽出するステップを含む、コンピュータ実施方法。
5. The computer-implemented method of claim 4, wherein identifying the user of interest within the second video data subsequently captured by the imaging device (117) comprises:
A computer-implemented method, comprising extracting a color map from the portion of the subsequently captured second video data that includes the user of interest.
請求項1乃至6のいずれかに記載のコンピュータ実施方法において、
前記オンラインソーシャルネットワークシステムから前記撮像装置(117)によって以後キャプチャされる前記第2の動画データを修正するための命令を受信するステップと、
信した前記命令に応答して前記撮像装置(117)の前記1つ以上のパラメータを修正するステップとをさらに含む、コンピュータ実施方法。
7. The computer-implemented method of any of claims 1-6,
receiving instructions from the online social network system to modify the second video data subsequently captured by the imaging device (117) ;
and modifying said one or more parameters of said imaging device (117) in response to said received instructions.
請求項7に記載のコンピュータ実施方法において、受信した前記命令に応答して前記撮像装置(117)の前記1つ以上のパラメータを修正するステップは、
前記興味対象ユーザが前記撮像装置(117)の視野内で動くのに付随して前記撮像装置(117)を再配置するステップを含む、コンピュータ実施方法。
8. The computer-implemented method of claim 7 , wherein modifying said one or more parameters of said imaging device (117) in response to said received instructions comprises:
A computer-implemented method comprising repositioning the imaging device (117) as the user of interest moves within the field of view of the imaging device (117 ).
請求項1乃至のいずれかに記載のコンピュータ実施方法において、前記撮像装置(117)の1つ以上のパラメータを修正して前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、
前記興味対象ユーザの動きを特定する1つ以上のモデルを、前記撮像装置(117)によって以後キャプチャされた前記第2の動画データに対して適用するステップと、
前記興味対象ユーザの特定された動きに基づいて前記撮像装置(117)の視野を修正するステップとを含む、コンピュータ実施方法。
9. The computer-implemented method of any of claims 1-8 , wherein one or more parameters of the imaging device (117) are modified to affect second video data subsequently captured by the imaging device (117). Cropping or zooming a portion of the second video data that includes the user of interest by modifying to make the user of interest stand out more,
applying one or more models identifying the movement of the user of interest to the second video data subsequently captured by the imaging device (117) ;
modifying the field of view of the imaging device (117) based on the identified movement of the user of interest.
コンピュータ実施方法であって、
クライアント装置(110)内に含まれる撮像装置(117)の視野内のローカルエリアについての動画データをオンラインシステムにて受信するステップであって、前記動画データはオンラインシステムの1以上のユーザを含む、受信するステップと、
前記動画データ内に含まれる前記オンラインシステムの前記1以上のユーザを特定する情報を検索するステップと、
前記オンラインシステムの閲覧ユーザを特定するステップと、
前記動画データと前記動画データ内に含まれる前記オンラインシステムの前記1人以上のユーザを特定する前記情報とを、前記閲覧ユーザと関連付けられた追加のクライアント装置(110)へと送信するステップと、
前記追加のクライアント装置(110)から前記動画データ内に含まれる前記オンラインシステムの前記1以上のユーザの興味対象ユーザを特定する情報を受信するステップと、
前記興味対象ユーザを特定する情報を前記クライアント装置(110)へと送信するステップと、
前記クライアント装置(110)の前記撮像装置(117)によってキャプチャされた追加の動画データを受信するステップであって、前記追加の動画データはクロッピング又はズーミングされてより際立たされた前記興味対象ユーザを含む部分を含む、受信するステップと、
前記追加の動画データを前記追加のクライアント装置(110)へと送信するステップとを含む、コンピュータ実施方法。
A computer-implemented method comprising:
receiving in an online system video data for a local area within the field of view of an imaging device (117) included in a client device (110) , said video data being sent to one or more users of the online system; receiving;
retrieving information identifying the one or more users of the online system contained within the video data;
identifying users viewing the online system;
transmitting said video data and said information identifying said one or more users of said online system contained within said video data to an additional client device (110) associated with said viewing user;
receiving information identifying users of interest of the one or more users of the online system included in the video data from the additional client device (110) ;
transmitting information identifying the user of interest to the client device (110) ;
receiving additional video data captured by the imaging device ( 117 ) of the client device (110 ), the additional video data including the user of interest cropped or zoomed to make it more prominent. receiving, including a portion;
and transmitting said additional video data to said additional client device (110) .
請求項10に記載のコンピュータ実施方法において、前記動画データ内に含まれる前記オンラインシステムの前記1以上のユーザを特定する情報を検索するステップは、
前記オンラインシステムを介して、前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定するステップと、
前記オンラインシステムを介して、前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定する情報を検索するステップとを含む、コンピュータ実施方法。
11. The computer-implemented method of claim 10 , wherein retrieving information identifying the one or more users of the online system contained within the video data comprises:
identifying users of the online system included in the online system connected to the viewing user via the online system;
retrieving, via the online system, information identifying users of the online system contained in the online system connected to the viewing user.
請求項10又は請求項11に記載のコンピュータ実施方法において、前記動画データ内に含まれる前記オンラインシステムの前記1以上のユーザを特定する情報を検索するステップは、
前記オンラインシステムを介して、前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定するステップと、
前記動画データ内に含まれる前記オンラインシステムの前記ユーザを特定する情報であって、前記オンラインシステムを介して前記閲覧ユーザに接続された前記動画データ内に含まれるユーザを、前記オンラインシステムを介して前記閲覧ユーザに接続されていない前記動画データ内に含まれるユーザから視覚的に区別する情報を、生成するステップとを含む、コンピュータ実施方法。
12. The computer-implemented method of claim 10 or claim 11 , wherein retrieving information identifying the one or more users of the online system contained within the video data comprises:
identifying users of the online system included in the online system connected to the viewing user via the online system;
Information specifying the user of the online system included in the video data, wherein the user included in the video data connected to the viewing user via the online system is identified via the online system generating information that visually distinguishes from users contained within the video data that are not connected to the viewing user.
請求項10乃至12のいずれかに記載のコンピュータ実施方法において、前記動画データ内に含まれる前記オンラインシステムの前記1以上のユーザを特定する情報を検索するステップは、
前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性を決定するステップと、
前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて、生成するステップとを含む、コンピュータ実施方法。
13. The computer-implemented method of any of claims 10-12 , wherein retrieving information identifying the one or more users of the online system contained within the video data comprises:
determining the viewing user's relevance for each user of the online system included in the video data;
and generating information identifying each user of the online system included in the video data based on the viewing user's relevance to each user of the online system included in the video data. , a computer-implemented method.
請求項13に記載のコンピュータ実施方法において、前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて生成するステップは、
関連性が少なくとも閾値となる前記閲覧ユーザについて、前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を生成するステップを含む、コンピュータ実施方法。
14. The computer-implemented method of claim 13 , wherein information identifying each user of the online system included in the video data is associated with the viewing user for each user of the online system included in the video data. The step to generate based on
A computer-implemented method comprising generating information identifying each user of the online system included in the video data for the viewing users having at least a threshold relevance.
請求項13に記載のコンピュータ実施方法において、前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて生成するステップは、
前記動画データ内に含まれる前記オンラインシステムの前記ユーザを、前記動画データ内に含まれる前記オンラインシステムの前記ユーザについての前記閲覧ユーザの関連性に基づいて、ランク付けするステップと、
前記ランク付けにおける順位が少なくとも閾値となる各ユーザであって前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、生成するステップとを含む、コンピュータ実施方法。
14. The computer-implemented method of claim 13 , wherein information identifying each user of the online system included in the video data is associated with the viewing user for each user of the online system included in the video data. The step to generate based on
ranking the users of the online system included in the video data based on the viewing user's relevance to the users of the online system included in the video data;
generating information identifying each user of the online system included in the video data whose position in the ranking is at least a threshold.
請求項10乃至15のいずれかに記載のコンピュータ実施方法において、
前記オンラインシステムにて、前記クライアント装置(110)の前記撮像装置(117)によってキャプチャされる前記追加の動画データを修正するための命令を前記追加のクライアント装置(110)から受信するステップと、
前記命令を前記クライアント装置(110)へと送信するステップと、
前記命令に基づいて前記撮像装置(117)によってキャプチャされた前記追加の動画データを前記クライアント装置(110)から受信するステップと、
前記追加の動画データを前記オンラインシステムから前記追加のクライアント装置(110)へと送信するステップとをさらに含む、コンピュータ実施方法。
16. The computer-implemented method of any of claims 10-15 ,
receiving instructions from the additional client device (110) to modify the additional video data captured by the imaging device (117) of the client device (110) in the online system;
sending said instructions to said client device (110) ;
receiving from the client device (110) the additional video data captured by the imaging device (117 ) based on the instructions;
and transmitting said additional video data from said online system to said additional client device (110) .
符号化された命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、該命令はプロセッサによって実行されると、該プロセッサに、撮像装置(117)を含むクライアント装置(110)によってキャプチャされた動画データを修正するための方法を実行させ、前記方法は、
前記撮像装置(117)の視野内のローカルエリアについてのキャプチャされた第1の動画データを提供するステップを含み、前記第1の動画データはオンラインソーシャルネットワークシステムの1以上のユーザを含み且つ前記方法は、
前記第1の動画データ内でキャプチャされた前記1人以上のユーザについて、1つ以上のプライバシ設定を維持するステップと、
前記1人以上のユーザの前記1つ以上のプライバシ設定に基づいて、前記クライアント装置(110)によって維持されている1つ以上のモデルを前記キャプチャされた第1の動画データの特徴に対して適用することにより、前記キャプチャされた第1の動画データ内に含まれる前記オンラインソーシャルネットワークシステムの前記1人以上のユーザを位置決めするステップと、
位置決め済みの前記1人以上のユーザを含む前記第1の動画データを前記オンラインソーシャルネットワークシステムへと送信するステップと、
前記オンラインソーシャルネットワークシステムを介して、前記キャプチャされた第1の動画データ内の位置決め済みの前記1人以上のユーザの中から興味対象ユーザを特定する情報を受信するステップと、
前記興味対象ユーザの前記1つ以上のプライバシ設定に基づいて、前記撮像装置(117)の1つ以上のパラメータを修正して前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップと、
正された前記1つ以上のパラメータを用いて前記撮像装置(117)によって以後キャプチャされた前記第2の動画データを、前記オンラインソーシャルネットワークシステムへと送信するステップと、
によって特徴付けられる、コンピュータプログラム製品。
A computer program product comprising a computer readable storage medium having encoded instructions captured by a client device (110) including an imaging device (117) when executed by a processor. Execute a method for modifying video data, the method comprising:
providing captured first video data for a local area within the field of view of said imaging device (117) , said first video data including one or more users of an online social network system; and The method includes:
maintaining one or more privacy settings for the one or more users captured within the first video data;
applying one or more models maintained by the client device (110) to features of the captured first video data based on the one or more privacy settings of the one or more users ; locating the one or more users of the online social network system included in the captured first video data by:
sending said first video data including said one or more users positioned to said online social network system;
receiving , via the online social network system, information identifying users of interest from among the one or more users positioned within the captured first video data;
modifying one or more parameters of the imaging device (117) based on the one or more privacy settings of the user of interest to render second video data subsequently captured by the imaging device (117); modifying and cropping or zooming a portion of the second video data containing the user of interest to make the user of interest stand out more;
sending the second video data subsequently captured by the imaging device (117) using the modified one or more parameters to the online social network system ;
A computer program product characterized by :
請求項17に記載のコンピュータプログラム製品において、前記撮像装置(117)の1つ以上のパラメータを修正して前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データを修正して、前記撮像装置(117)によって以後キャプチャされた前記第2の動画データの前記興味対象ユーザを含まない1つ以上の部分を除去するステップを含む、コンピュータプログラム製品。
18. The computer program product of claim 17 , wherein one or more parameters of the imaging device ( 117 ) are modified to modify second video data subsequently captured by the imaging device (117) to The step of cropping or zooming a portion of the second video data containing the target user to make the user of interest stand out more,
modifying the second moving image data subsequently captured by the imaging device (117) to provide one of the second moving image data subsequently captured by the imaging device (117) that does not include the interested user; A computer program product comprising the step of removing said portion.
請求項17又は請求項18に記載のコンピュータプログラム製品において、前記撮像装置(117)の1つ以上のパラメータを修正して前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データ内の前記興味対象ユーザを特定するステップと、
前記撮像装置(117)の焦点を前記興味対象ユーザへと再調整するステップとを含む、コンピュータプログラム製品。
19. The computer program product of claim 17 or claim 18 , wherein one or more parameters of said imaging device (117) are modified to modify second video data subsequently captured by said imaging device (117) . and cropping or zooming a portion of the second moving image data containing the interested user to make the interested user stand out more,
identifying the user of interest in the second video data subsequently captured by the imaging device (117) ;
refocusing said imaging device (117) to said user of interest.
JP2020511521A 2017-09-05 2018-09-05 Modification of video data capture by the imaging device based on video data previously captured by the imaging device Active JP7258857B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023061105A JP2023098930A (en) 2017-09-05 2023-04-05 Modifying capture of video data by image capture device based on video data previously captured by image capture device
JP2023061106A JP2023098931A (en) 2017-09-05 2023-04-05 Modifying capture of video data by image capture device based on video data previously captured by image capture device

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
US201762554564P 2017-09-05 2017-09-05
US62/554,564 2017-09-05
US201715856108A 2017-12-28 2017-12-28
US201715856109A 2017-12-28 2017-12-28
US201715856105A 2017-12-28 2017-12-28
US15/856,105 2017-12-28
US15/856,109 2017-12-28
US15/856,108 2017-12-28
US16/121,087 2018-09-04
US16/121,081 2018-09-04
US16/121,060 2018-09-04
US16/121,087 US10666857B2 (en) 2017-09-05 2018-09-04 Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US16/121,060 US10805521B2 (en) 2017-09-05 2018-09-04 Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US16/121,081 US10868955B2 (en) 2017-09-05 2018-09-04 Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
PCT/US2018/049532 WO2019050938A1 (en) 2017-09-05 2018-09-05 Modifying capture of video data by an image capture device based on video data previously captured by the image capture device

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2023061105A Division JP2023098930A (en) 2017-09-05 2023-04-05 Modifying capture of video data by image capture device based on video data previously captured by image capture device
JP2023061106A Division JP2023098931A (en) 2017-09-05 2023-04-05 Modifying capture of video data by image capture device based on video data previously captured by image capture device

Publications (2)

Publication Number Publication Date
JP2020532903A JP2020532903A (en) 2020-11-12
JP7258857B2 true JP7258857B2 (en) 2023-04-17

Family

ID=65635185

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020511521A Active JP7258857B2 (en) 2017-09-05 2018-09-05 Modification of video data capture by the imaging device based on video data previously captured by the imaging device
JP2023061105A Pending JP2023098930A (en) 2017-09-05 2023-04-05 Modifying capture of video data by image capture device based on video data previously captured by image capture device
JP2023061106A Pending JP2023098931A (en) 2017-09-05 2023-04-05 Modifying capture of video data by image capture device based on video data previously captured by image capture device

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023061105A Pending JP2023098930A (en) 2017-09-05 2023-04-05 Modifying capture of video data by image capture device based on video data previously captured by image capture device
JP2023061106A Pending JP2023098931A (en) 2017-09-05 2023-04-05 Modifying capture of video data by image capture device based on video data previously captured by image capture device

Country Status (5)

Country Link
EP (1) EP3679722A4 (en)
JP (3) JP7258857B2 (en)
KR (1) KR20200039814A (en)
CN (3) CN116208791A (en)
WO (1) WO2019050938A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2884438B1 (en) * 2005-04-19 2007-08-03 Commissariat Energie Atomique PROCESS FOR EXTRACTING AT LEAST ONE COMPOUND OF A LIQUID PHASE COMPRISING A FUNCTIONALIZED IONIC LIQUID, AND A MICROFLUIDIC SYSTEM FOR CARRYING OUT SAID METHOD
KR20220107860A (en) * 2021-01-26 2022-08-02 삼성전자주식회사 Electronic device performing screen captures and method thereof
WO2023087215A1 (en) * 2021-11-18 2023-05-25 Citrix Systems, Inc. Online meeting non-participant detection and remediation
KR20230083101A (en) * 2021-12-02 2023-06-09 삼성전자주식회사 Electronic device and method for editing content being played on display device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217628A (en) 2005-02-05 2006-08-17 Samsung Electronics Co Ltd Transceiver for providing image communication among many person and transmission method
JP2011182160A (en) 2010-03-01 2011-09-15 Canon Inc Video processor and video processing method
JP2015115741A (en) 2013-12-11 2015-06-22 キヤノンマーケティングジャパン株式会社 Image management device, image management method, and program
JP6241802B1 (en) 2017-01-20 2017-12-06 パナソニックIpマネジメント株式会社 Video distribution system, user terminal device, and video distribution method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8510283B2 (en) * 2006-07-31 2013-08-13 Ricoh Co., Ltd. Automatic adaption of an image recognition system to image capture devices
US8103445B2 (en) * 2005-04-21 2012-01-24 Microsoft Corporation Dynamic map rendering as a function of a user parameter
US8085302B2 (en) 2005-11-21 2011-12-27 Microsoft Corporation Combined digital and mechanical tracking of a person or object using a single video camera
US20070198632A1 (en) * 2006-02-03 2007-08-23 Microsoft Corporation Transferring multimedia from a connected capture device
US8284990B2 (en) * 2008-05-21 2012-10-09 Honeywell International Inc. Social network construction based on data association
JP4569670B2 (en) * 2008-06-11 2010-10-27 ソニー株式会社 Image processing apparatus, image processing method, and program
CN102196087A (en) * 2010-03-12 2011-09-21 中兴通讯股份有限公司 Lens control method and terminals
US8626847B2 (en) * 2010-04-30 2014-01-07 American Teleconferencing Services, Ltd. Transferring a conference session between client devices
US20120204225A1 (en) * 2011-02-08 2012-08-09 Activepath Ltd. Online authentication using audio, image and/or video
US20120233076A1 (en) * 2011-03-08 2012-09-13 Microsoft Corporation Redeeming offers of digital content items
KR20140099111A (en) * 2013-02-01 2014-08-11 삼성전자주식회사 Method for control a camera apparatus and the camera apparatus
US9558555B2 (en) * 2013-02-22 2017-01-31 Leap Motion, Inc. Adjusting motion capture based on the distance between tracked objects
US9923979B2 (en) * 2013-06-27 2018-03-20 Google Llc Systems and methods of determining a geographic location based conversion
JP6429454B2 (en) * 2013-11-28 2018-11-28 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM
US10235587B2 (en) * 2014-03-04 2019-03-19 Samsung Electronics Co., Ltd. Method and system for optimizing an image capturing boundary in a proposed image
US9576343B2 (en) * 2014-11-10 2017-02-21 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for a content-adaptive photo-enhancement recommender
JP6486656B2 (en) * 2014-11-11 2019-03-20 オリンパス株式会社 Imaging device
US10244175B2 (en) * 2015-03-09 2019-03-26 Apple Inc. Automatic cropping of video content
WO2016179436A1 (en) * 2015-05-05 2016-11-10 Colorado Code Craft Patent Holdco Llc Ultra-low latency remote application access
US9860451B2 (en) * 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US20160365122A1 (en) * 2015-06-11 2016-12-15 Eran Steinberg Video editing system with multi-stage control to generate clips
US9621795B1 (en) * 2016-01-08 2017-04-11 Microsoft Technology Licensing, Llc Active speaker location detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217628A (en) 2005-02-05 2006-08-17 Samsung Electronics Co Ltd Transceiver for providing image communication among many person and transmission method
JP2011182160A (en) 2010-03-01 2011-09-15 Canon Inc Video processor and video processing method
JP2015115741A (en) 2013-12-11 2015-06-22 キヤノンマーケティングジャパン株式会社 Image management device, image management method, and program
JP6241802B1 (en) 2017-01-20 2017-12-06 パナソニックIpマネジメント株式会社 Video distribution system, user terminal device, and video distribution method

Also Published As

Publication number Publication date
WO2019050938A1 (en) 2019-03-14
JP2020532903A (en) 2020-11-12
CN116208791A (en) 2023-06-02
EP3679722A1 (en) 2020-07-15
CN111316656A (en) 2020-06-19
JP2023098930A (en) 2023-07-11
CN111316656B (en) 2023-03-28
JP2023098931A (en) 2023-07-11
KR20200039814A (en) 2020-04-16
CN116193175A (en) 2023-05-30
EP3679722A4 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
US10971158B1 (en) Designating assistants in multi-assistant environment based on identified wake word received from a user
US10419505B2 (en) Systems and methods for interactive broadcasting
US11438644B1 (en) Synchronizing presentation of content presented by multiple client devices
US11558543B2 (en) Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
JP7258857B2 (en) Modification of video data capture by the imaging device based on video data previously captured by the imaging device
US10805521B2 (en) Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10873697B1 (en) Identifying regions of interest in captured video data objects by detecting movement within higher resolution frames of the regions
CN109792557B (en) Method for processing video data and storage medium
US11418827B2 (en) Generating a feed of content for presentation by a client device to users identified in video data captured by the client device
US10666857B2 (en) Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10757347B1 (en) Modifying display of an overlay on video data based on locations of regions of interest within the video data
CN112806021B (en) Modifying presentation of video data by a receiving client device based on analysis of the video data by another client device that captured the video data
US10721394B1 (en) Gesture activation for an image capture device
US10915776B2 (en) Modifying capture of video data by an image capture device based on identifying an object of interest within capturted video data to the image capture device
US10812616B2 (en) Transferring an exchange of content to a receiving client device from a client device authorized to transfer a content exchange to the receiving client device
US11444943B1 (en) Exchange content between client devices when a client device determines a user is within a field of view of an image capture device of the client device and authorized to exchange content
US11100330B1 (en) Presenting messages to a user when a client device determines the user is within a field of view of an image capture device of the client device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200427

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200430

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7258857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150