JP7258857B2 - Modification of video data capture by the imaging device based on video data previously captured by the imaging device - Google Patents
Modification of video data capture by the imaging device based on video data previously captured by the imaging device Download PDFInfo
- Publication number
- JP7258857B2 JP7258857B2 JP2020511521A JP2020511521A JP7258857B2 JP 7258857 B2 JP7258857 B2 JP 7258857B2 JP 2020511521 A JP2020511521 A JP 2020511521A JP 2020511521 A JP2020511521 A JP 2020511521A JP 7258857 B2 JP7258857 B2 JP 7258857B2
- Authority
- JP
- Japan
- Prior art keywords
- video data
- user
- imaging device
- captured
- online system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
- G06F16/24578—Query processing with adaptation to user needs using ranking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
- H04N21/25891—Management of end-user data being end-user preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
Description
本開示は、概して、動画データのキャプチャに関し、より具体的には、以前キャプチャされた動画データに基づいて動画データキャプチャを修正することに関する。 TECHNICAL FIELD This disclosure relates generally to capturing video data and, more particularly, to modifying video data capture based on previously captured video data.
従前に比して、クライアント装置、オンラインシステム、及びネットワークによって互いにより多くの量のコンテンツを交換することが可能となるに至っている。例えば、オンラインシステムはそのユーザが次のようなデータを交換することを可能とする:異なるユーザによってユーザに関連付けられたクライアント装置を介してキャプチャされた動画データ。具体的な例では、オンラインシステムはユーザと追加のユーザとの間で動画メッセージングを確立でき、ユーザらがリアルタイム又は準リアルタイムで各々のクライアント装置によってキャプチャされた動画データを交換することが可能とされ得る。 It has become possible for client devices, online systems and networks to exchange greater amounts of content with each other than ever before. For example, the online system allows its users to exchange data such as: video data captured by different users via a client device associated with the user. In a specific example, the online system can establish video messaging between the user and additional users, allowing the users to exchange video data captured by their respective client devices in real time or near real time. obtain.
もっとも、動画データを提供するに際しては、慣行的なクライアント装置は、ユーザが動画キャプチャを手動設定することを要する。例えば、クライアント装置のユーザはクライアント装置に入力を提供して、クライアント装置の撮像装置の焦点を特定したり、クライアント装置の撮像装置の倍率やクライアント装置の撮像装置の他のパラメータを指定したりできる。クライアント装置の撮像装置のパラメータを特定する初期入力を提供することを要することに加え、慣行的なクライアント装置はユーザに次のことをも要求する:クライアント装置の撮像装置の視野内のローカルエリアの異なる部分にクライアント装置の撮像装置を手動再配置すること。したがって、クライアント装置の撮像装置によってキャプチャされて別のクライアント装置へと伝達されるコンテンツを、ユーザは手動で選定及び維持する。ユーザ提供入力に対しての依存故にユーザはクライアント装置によってキャプチャされる動画データについて相当な制御を得ることできる一方で、慣行的なクライアント装置によると、動画データキャプチャがなされる間においては動画メッセージングセッション中に他のタスクを容易にユーザは行えないことになる。なぜならば、慣行的なクライアント装置は、ユーザから提供された1つ以上の入力の受信なくしては状況変化に応じて動画キャプチャを調整できないからである。 However, in providing video data, conventional client devices require the user to manually configure video capture. For example, a user of the client device may provide input to the client device to specify the focus of the client device's imager, specify the magnification of the client device's imager, or other parameters of the client device's imager. . In addition to requiring the user to provide initial input specifying the parameters of the client device's imager, conventional client devices also require the user to: Manually relocating the imaging device of the client device to a different part. Thus, the user manually selects and maintains the content that is captured by the imaging device of the client device and communicated to another client device. While the user can gain considerable control over the video data captured by the client device because of its reliance on user-provided input, conventional client devices allow a video messaging session during which video data capture takes place. The user cannot easily perform other tasks during this time. This is because conventional client devices cannot adjust video capture in response to changing circumstances without receiving one or more user-provided inputs.
オンラインシステムのユーザに関連付けられている様々なクライアント装置h1つ以上の撮像装置を含む。クライアント装置内に含まれる撮像装置は、クライアント装置の周りのローカルエリアの動画データをキャプチャするように構成されており、例えば、ビデオ通話時やユーザがビデオキャプチャ機能を起動した際が含まれる。また、クライアント装置は、1つ以上の撮像装置に結合されたコントローラを含む。コントローラは1つ以上のモデルを撮像装置によってキャプチャされた動画データに適用して、撮像装置によってキャプチャされた動画データ及び/又は撮像装置のパラメータを1つ以上のモデルの適用に基づいて修正する。これによって、撮像装置によって以前キャプチャされた動画データの特徴又は内容に基づいてキャプチャされた動画データを、コントローラが修正することが可能となる。 Various client devices associated with users of the online system include one or more imaging devices. An imaging device included within the client device is configured to capture video data in a local area around the client device, including, for example, during a video call or when a user activates a video capture function. The client device also includes a controller coupled to the one or more imaging devices. The controller applies one or more models to the video data captured by the imaging device and modifies the video data captured by the imaging device and/or parameters of the imaging device based on application of the one or more models. This allows the controller to modify the captured video data based on features or content of video data previously captured by the imaging device.
コントローラは、様々な実施形態での動画データや他のデータ内にキャプチャされたユーザやその他の者についての1つ以上のプライバシ設定を、維持及び強制する。例えば、コントローラは既定プライバシ設定を付与されていることができ、ユーザが手動でプライバシ設定を変更してユーザ特定をなすことをコントローラに許すまではユーザ特定をコントローラができないようにできる。既定プライバシ設定は任意の動画データや音声データや他のデータすらに迄及び得るのであり、データ内の任意のユーザを撮像装置が特定してよいか否かをユーザが選択できるようにし得る。また、プライバシ設定は、クライアント装置から別のエンティティ(例えば、別のクライアント装置やサードパーティシステム)への情報伝達をも規律する。様々なプライバシ設定により、ユーザは次のことに関しての許可を制御できる:ユーザの特定;及び任意のユーザ関連データについての記憶及び共有。プライバシ設定はまた、各個人について個別的に強制されることができる。例えば、ユーザ特定機能に関してオプトインするユーザは、クライアント装置周辺のローカルエリア内にて付随的にキャプチャされ得る他のユーザについて既定プライバシ設定を、変更することはできない。 The controller maintains and enforces one or more privacy settings for users and others captured within video data and other data in various embodiments. For example, the controller may be provided with default privacy settings, and the controller may not be able to identify the user until the user manually changes the privacy setting to allow the controller to make the user identification. Default privacy settings can extend to any video data, audio data, or even other data, and can allow users to choose whether or not the imaging device may identify any users in the data. Privacy settings also govern the communication of information from a client device to another entity (eg, another client device or a third party system). Various privacy settings allow users to control permissions regarding: user identification; and storage and sharing of any user-related data. Privacy settings can also be individually enforced for each individual. For example, a user who opts in for user-specific features cannot change default privacy settings for other users that may be incidentally captured within the local area around the client device.
様々な実施形態では、クライアント装置によるユーザ特定の有効化にまつわるユーザプライバシ設定に基づいて、コントローラは、1つ以上の機械学習モデルを、撮像装置によってキャプチャされた動画データに、適用して、キャプチャされた動画データ内に含まれるユーザを位置決めする。コントローラ210によってキャプチャ動画データに適用されたモデルは、(2次元又は3次元での)顔追跡や2次元体位追跡や3次元体位追跡や任意の他の適切な方法を行って人間の顔の部分や人間の人体の部分を特定できる。様々な実施形態では、コントローラは、キャプチャされた動画データ又は撮像装置のパラメータを修正して、位置決め済みユーザをより際立って提示する。例えば、コントローラは、キャプチャされた動画データをクロッピングして、動画データの少なくとも1人の人間を含まない部分を除去する。別の例としては、コントローラは、撮像装置の焦点を人間の顔へと修正し、撮像装置の倍率(例えば、ズーム)を増大させる。様々な実施形態では、ユーザに対しては次のオプションが与えられる:クライアント装置内にローカルで及び/又はクラウド上に任意の記録(ビデオ・音声等)が記憶されることを防止することと、保存済みならば任意の記録を削除すること。
In various embodiments, based on user privacy settings around user-specific activation by the client device, the controller applies one or more machine learning models to the video data captured by the imaging device to locating users included in the video data. The model applied to the captured video data by the
様々な実施形態では、ユーザ特定機能が有効化されている場合、コントローラによって適用される1つ以上のモデルは1つ以上の規則を適用してクライアント装置の撮像装置によってキャプチャされた動画データを修正する。例えば、人間の顔がカメラに向けられているとコントローラが決定した場合、コントローラはキャプチャされた動画データを修正して動画データ内にいる(位置決めされた)人物をより際立たせて表示する。別の例では、動画データ及び撮像装置から特定された人物間の距離をコントローラが決定し、キャプチャされた動画データを修正して、撮像装置からの決定済み距離が少なくとも下限に達している人物については同人について少なくとも閾値寸法を伴って(例えば、閾値高さや閾値幅を少なくとも伴って、又は、撮像装置の視野についての閾値百分率を少なくとも伴って)提示するか、撮像装置からの決定済み距離閾値距離未満の人物については閾値寸法セットを少なくとも伴って表示する。 In various embodiments, the one or more models applied by the controller apply one or more rules to modify the video data captured by the imaging device of the client device when the user specific functionality is enabled. do. For example, if the controller determines that a human face is facing the camera, the controller modifies the captured video data to make the person (positioned) in the video data appear more prominent. In another example, the controller determines the distance between the identified persons from the video data and the imaging device, and modifies the captured video data for persons whose determined distance from the imaging device is at least a lower bound. presents the doujin with at least a threshold dimension (e.g., with at least a threshold height or threshold width, or with at least a threshold percentage of the field of view of the imaging device), or a determined distance threshold distance from the imaging device People with less than 100 are displayed with at least a set of threshold dimensions.
コントローラはクライアント装置の他のコンポーネントからのデータを受信して受信された動画データ及びクライアント装置の他のコンポーネントからのデータの特徴に基づいてキャプチャされた動画データを修正できる。例えば、撮像装置又はクライアント装置は、クライアント装置周辺のローカルエリアからの音声データをキャプチャするように構成されたマイクロフォン等の音声キャプチャ装置を、含む。コントローラは、ユーザ選定プライバシ設定に服するが、キャプチャされた動画データを修正するに際して、キャプチャされた音声データをキャプチャされた動画データと共に処理し得る。様々な実施形態では、コントローラは、1つ以上のモデルをキャプチャされた音声データに適用して、音声データの源泉を含めたキャプチャされた動画データ内の位置を決定する。コントローラは、1つ以上のモデルを、音声データの源泉を含むキャプチャされた動画データ内の位置に適用する。キャプチャされた動画データ内の(人物を含む音声データの源泉を含む)位置決定をなすモデル適用に応じて、コントローラはキャプチャされた動画データを修正して、音声データの源泉を含むキャプチャされた動画データ内の位置をより際立たせて提示し、撮像装置を再位置決めして音声データの源泉に合焦させる(例えば、音声データの源泉によって占有される撮像装置の視野を増大させることや撮像装置の視野内の音声データ源泉位置を変更すること)。もっとも、コントローラは、音声データ源泉を含むキャプチャされた動画データ内の位置が人物を含まないとの決定に応じて、コントローラは、キャプチャ動画データ修正や撮像装置再配置をなさない。別の例としては、コントローラはキャプチャされた動画データを修正するか撮像装置を再配置するかして、コントローラがキャプチャ動画データ内のキャプチャ音声データ源泉であると決定した特定人物をより際立たせて提示する(例えば、音声データの源泉によって占有される撮像装置の視野を増大させることや撮像装置の視野内の音声データ源泉位置を変更すること)。これによってキャプチャ動画データは発話者と決定されたユーザをより際立たせて表示でき或いはクライアント装置の音声キャプチャ装置によってキャプチャされた音声データを提供する。 The controller can receive data from other components of the client device and modify the captured video data based on characteristics of the received video data and data from other components of the client device. For example, an imaging device or client device includes an audio capture device, such as a microphone, configured to capture audio data from a local area around the client device. The controller is subject to user-selected privacy settings, but may process the captured audio data along with the captured video data in modifying the captured video data. In various embodiments, the controller applies one or more models to the captured audio data to determine locations within the captured video data, including the source of the audio data. A controller applies one or more models to locations within the captured video data that contain the source of the audio data. In response to applying a model that makes a positional determination (including sources of audio data, including people) within the captured video data, the controller modifies the captured video data to produce a captured video that includes sources of audio data. Positions within the data are presented more prominently, and the imager is repositioned to focus on the source of the audio data (e.g., increasing the field of view of the imager occupied by the source of the audio data or changing the audio data source position within the field of view). However, the controller does not modify the captured video data or relocate the imager in response to determining that a location within the captured video data that contains the audio data source does not contain a person. As another example, the controller may modify the captured video data or reposition the imaging device to make the particular person the controller determined to be the source of the captured audio data in the captured video data more prominent. Presenting (eg, increasing the field of view of the imager occupied by the source of the audio data or changing the position of the audio data source within the field of view of the imager). This allows the captured video data to more prominently display the user determined to be the speaker or provides audio data captured by the audio capture device of the client device.
動画メッセージングセッションやユーザが動画キャプチャ機能及びユーザ特定機能を有効化した他の状況下においては、コントローラは興味対象ユーザを特定する情報を受信した後にキャプチャされた動画データに対して1つ以上のモデルを適用して、撮像装置の1つ以上のパラメータを修正してローカルエリアまわりで興味対象ユーザを追跡する。例えば、コントローラは1つ以上の顔認識モデルをキャプチャ動画データ内に配置されている人物に適用して、(オンラインシステムから受信されたかオンラインシステムからの情報に基づいて以前キャプチャされた動画データから特定された)興味対象ユーザの顔に一致する人物の顔を特定するのであり、その後撮像装置の焦点を再配置するのであって興味対象ユーザの顔に一致する顔を有する人物へと焦点を合わせる。代替的には、コントローラは興味対象ユーザを含むキャプチャされた動画データからカラーマップを抽出し、撮像装置の焦点を再配置し、抽出したカラーマップが撮像装置によってキャプチャされた動画データ内に含まれたままとなるようにする。 In a video messaging session or other situation where the user has enabled the video capture and user identification features, the controller may apply one or more models to the captured video data after receiving information identifying the user of interest. is applied to modify one or more parameters of the imaging device to track the user of interest around the local area. For example, the controller may apply one or more facial recognition models to a person located within the captured video data, identified from previously captured video data (either received from the online system or based on information from the online system). identify a person's face that matches the face of the user of interest), and then refocus the imaging device to focus on the person whose face matches the face of the user of interest. Alternatively, the controller extracts a colormap from the captured video data containing the user of interest, refocuses the imaging device, and includes the extracted colormap in the video data captured by the imaging device. leave it alone.
本発明による実施形態は、特に、方法及びコンピュータプログラム製品に向けられた添付の請求項に開示され、ある請求項のカテゴリ、例えば方法、で述べる特徴は別の請求項のカテゴリ、例えば、コンピュータプログラム製品、システム、記憶媒体においても同様に権利付与請求することができる。添付の請求項の従属又は後方参照は単に形式的理由のために選ばれている。もっとも、任意の先行請求項への意図的な後方参照(特に多数項従属)により得られる任意の主題も同様に請求できるので、請求項とその特徴のあらゆる組合せが開示され、添付の請求項で選ばれる従属に関係なく請求することができる。請求できる主題は、添付の請求項に記載される通りの特徴の組合せだけでなく、請求項の特徴のあらゆる他の組合せも含み、請求項で述べられる各特徴はあらゆる他の特徴又は請求項の他の特徴の組合せと組み合わせることができる。また、本明細書で説明又は図示される実施形態及び特徴のいずれも、個々の請求項及び/又は本明細書で説明若しくは図示されるあらゆる実施形態若しくは特徴、若しくは添付の請求項の特徴のいずれかとのあらゆる組合せで請求することができる。 Embodiments in accordance with the invention are disclosed in the accompanying claims, particularly directed to methods and computer program products, wherein features recited in one claim category, e.g. Products, systems, and storage media can be similarly entitled. Dependencies or back references to the appended claims are chosen for formal reasons only. However, since any subject matter derived by intentional back-reference (especially multiple claim dependency) to any preceding claim may be claimed as well, any combination of claim and features thereof is disclosed and claimed in the appended claim. Claims can be made regardless of the subordination chosen. Claimable subject matter includes not only the combination of features as set forth in the appended claims, but also any other combination of features of the claims, wherein each feature recited in a claim may be used in conjunction with any other feature or combination of the claims. It can be combined with other feature combinations. Also, any of the embodiments and features described or illustrated herein may be referred to in an individual claim and/or any embodiment or feature described or illustrated herein or any feature of an appended claim. and can be claimed in any combination.
図面は例示目的のみにおいて様々な実施形態について表している。本明細書において記述されている原理から逸脱することなく、本明細書において示されている構造及び方法の代替実施形態が採用されることが可能であるということを当業者であれば以降の論考から容易に認識するであろう。 The drawings depict various embodiments for illustrative purposes only. Those skilled in the art will appreciate that alternative embodiments of the structures and methods shown herein can be employed without departing from the principles described herein. will be easily recognized from
システムアーキテクチャ
図1は、オンラインシステム140のためのシステム環境100のブロック図である。図1によって示されているシステム環境100は、1つ又は複数のクライアント装置110と、ネットワーク120と、1つ又は複数のサードパーティシステム130と、オンラインシステム140とを備える。また、図1に示されているシステム環境100内では、コントローラ117がクライアント装置110に結合されている。代替構成においては、異なる構成要素及び/又は更なる構成要素がシステム環境100内に含まれ得る。例えば、オンラインシステム140は、ソーシャルネットワーキングシステム、コンテンツ共有ネットワーク、又はコンテンツをユーザに提供する別のシステムである。
System Architecture FIG. 1 is a block diagram of
クライアント装置110は、ユーザ入力を受け取ること、並びにネットワーク120を通じてデータを送信すること及び/又は受け取ることが可能な1つ又は複数のコンピューティング装置である。1つの実施形態においては、クライアント装置110は、デスクトップ又はラップトップコンピュータ等、従来のコンピュータシステムである。あるいは、クライアント装置110は、携帯情報端末(PDA)、モバイル電話、スマートフォン、又は別の適切な機器等、コンピュータ機能を有する機器であり得る。クライアント装置110は、ネットワーク120を通じて通信を行うように構成されている。1つの実施形態においては、クライアント装置110は、クライアント装置110のユーザがオンラインシステム140とインタラクションすることを可能にするアプリケーションを実行する。例えば、クライアント装置110は、ネットワーク120を通じたクライアント装置110とオンラインシステム140との間におけるインタラクションを可能にするためにブラウザアプリケーションを実行する。別の実施形態においては、クライアント装置110は、IOS(登録商標)又はANDROID(登録商標)等、クライアント装置110のネイティブオペレーティングシステム上で稼働するアプリケーションプログラミングインタフェース(API)を通じてオンラインシステム140とインタラクションする。図2との関連で以下においてさらに説明されるように、クライアント装置110は、コンテンツを提示するように構成された表示装置115と、クライアント装置110の周りのローカルエリアの画像又は動画データをキャプチャするように構成された1つ以上の撮像装置とを含む。
クライアント装置110は、ネットワーク120を通じて通信を行うように構成されており、ネットワーク120は、有線通信システム及び/又は無線通信システムの両方を使用する、ローカルエリアネットワーク及び/又はワイドエリアネットワークの任意の組合せを含むことができる。1つの実施形態においては、ネットワーク120は、標準的な通信技術及び/又はプロトコルを使用する。例えば、ネットワーク120は次のような技術を用いる通信リンクを含む:イーサネット(登録商標)、802.11系プロトコル、WiMAX(登録商標)(マイクロ波アクセスに関する世界的相互運用仕様)、3G、4G、CDMA(符号分割多元接続)、DSL(デジタル加入者線)等。ネットワーク120を通じて通信するために使用されるネットワーキングプロトコルの例としては、マルチプロトコルラベルスイッチング(MPLS)、トランスミッションコントロールプロトコル/インターネットプロトコル(TCP/IP)、ハイパーテキストトランスポートプロトコル(HTTP)、シンプルメールトランスファプロトコル(SMTP)、及びファイルトランスファプロトコル(FTP)が含まれる。ネットワーク120を通じて交換されるデータは、ハイパーテキストマークアップ言語(HTML)又は拡張マークアップ言語(XML)等の任意の適切なフォーマットを使用して表現され得る。いくつかの実施形態においては、ネットワーク120の通信リンクのうちのすべて又はいくつかは、任意の適切な1つ又は複数の技術を使用して暗号化され得る。
1つ又は複数のサードパーティシステム130はオンラインシステム140と通信するためのネットワーク120に統合されることが可能であり、オンラインシステム140については、以下に図3と併せてさらに説明される。1つの実施形態においては、サードパーティシステム130は、クライアント装置110によって実行するためのアプリケーションについて記述する情報を伝達するアプリケーションプロバイダ、又はクライアント装置上で実行されるアプリケーションによって利用するためのデータをクライアント装置110に対して伝達するアプリケーションプロバイダである。他の実施形態においては、サードパーティシステム130は、クライアント装置110を通じて提示するためのコンテンツ又は他の情報を提供する。サードパーティシステム130は、情報、例えば、サードパーティシステム130によって提供される広告、コンテンツ、又はアプリケーションに関する情報をオンラインシステム140に対して伝達し得る。
One or more third party systems 130 may be integrated into
図2はクライアント装置117の実施形態についてのブロック図である。図2の実施形態では、クライアント装置110は、表示装置115と撮像装置117とコントローラ210とを含む。もっとも、他の実施形態では、クライアント装置110は図2に示されたものと異なるかそれらに追加したコンポーネントを含む。
FIG. 2 is a block diagram of an embodiment of
表示装置115はクライアント装置110に統合されるかクライアント装置110と結合されていることができる。例えば、クライアント装置110に統合された表示装置115としてはクライアント装置110に含まれた表示スクリーンが挙げられる。代替的には、表示装置115は、クライアント装置110に結合されたモニタや他のディスプレイたり得る。表示装置115は画像データ又は動画データをユーザに提示する。表示装置115によって提示される画像又は動画データは、クライアント装置110上で実行されているアプリケーションによって決定される。クライアント装置110上には様々なアプリケーションが含まれ得るのであり、それ故に異なるアプリケーションの実行によって、ユーザによって表示装置115をもって提示されるコンテンツが変わる。
撮像装置117は、クライアント装置110の周囲のローカルエリアに関し且つ撮像装置117の視野内の動画データまたは画像を、キャプチャする。一部の実施形態では、撮像装置117は、1つ又は複数のカメラ、1つ又は複数のビデオカメラ、又は画像データ若しくは動画データをキャプチャし得る任意の他の装置を含む。また、撮像装置117は1つ以上のフィルタ(例えば、S/N比を増大させるのに用いるフィルタ)を含み得る。様々なパラメータ(例えば、焦点距離、フォーカス、フレームレート、ISO、センサ温度、シャッター速度、絞り値、焦点等)によって、撮像装置117による動画データ又は画像データのキャプチャ挙動が構成される。したがって、撮像装置117の1つ以上のパラメータを修正すれば、1つ以上のパラメータの修正後は、撮像装置117によってキャプチャされる動画データ又は画像データが修正される。図2がクライアント装置110内に含まれる単一の撮像装置117を示しているも、他の実施形態ではクライアント装置110は任意の適切な個数の撮像装置117を含み得る。様々な実施形態では、ユーザに対しては次のオプションが与えられる:クライアント装置内にローカルで及び/又はクラウド上に任意の記録(ビデオ・音声等)が記憶されることを防止することと、保存済みならば任意の記録を削除すること。
The
コントローラ210は撮像装置117に結合されており、プロセッサに結合された記憶装置を備えている。様々な実施形態では、コントローラ210は表示装置115にも結合されている。コントローラ210は命令を含んでおり、該命令がプロセッサによって実行されると、1つ以上のモデルを、撮像装置117によってキャプチャされた動画データに、適用する。様々な実施形態では、1つ以上のモデルは、動画データ、音声データ、画像データ、又は任意のデータの組み合わせに対して適用されるのでありこれらは撮像装置117によって又はクライアント装置110に{含まれる/結合されている}任意の他の装置によってキャプチャされたものである。図4と併せてさらに以下において説明されるように、コントローラ210によってキャプチャ動画データに適用されるモデルは、1つ以上の規則をキャプチャ動画データの特徴に適用して、キャプチャ動画データのオブジェクト、人物、動作又は任意の他の適切な内容を特定する。モデルの適用によってそして1つ以上のプライバシ設定を伴って、コントローラ210はキャプチャ動画データを修正するか撮像装置117の1つ以上のパラメータを修正するのであり、これによって後にキャプチャ動画データが修正される。例えば、ユーザはコントローラ210がモデルを適用することを承認でき、該モデルによってキャプチャ動画データの特徴に基づいてキャプチャ動画データ内のユーザを位置決めでき、キャプチャ動画データを修正して位置決め済みユーザをより際立たせたり、或いは、撮像装置117の1つ以上のパラメータ(例えば、焦点距離、倍率若しくはズーム、キャプチャ動画データのクロッピング)を修正したりして、追加的動画データが位置決め済みユーザをより際立たせて伴うようにする。追加の動画データは位置決め済み人物をより顕著に含んでおり次のようにして提示することによってこれをなす:少なくとも閾値寸法セットを伴って(例えば、少なくとも閾値高さや閾値幅を伴って)位置決め済み人物を提示すること;位置決め済み人物を撮像装置117の視野の少なくとも閾値量にわたって若しくは少なくともキャプチャ動画データのフレームの閾値量にわたって提示すること;又は位置決め済み人物をキャプチャ動画データ内の1つ以上の具体的位置にて提示すること。もっとも、コントローラ210によって適用されるモデルは、撮像装置117によってキャプチャされた動画データの任意の適切なコンポーネントを特定でき、撮像装置117のパラメータを修正でき、キャプチャ動画データを適宜修正できる。
様々な実施形態では、クライアント装置110はマイクロフォン等の1つ以上の音声キャプチャ装置を含む。例えば、クライアント装置110はマイクロフォンのアレイを含んでおり、これは2又は3次元においてビームフォーミングをするように構成されている。音声キャプチャ装置は、クライアント装置110を囲むローカルエリア内の異なる領域からの音声信号をキャプチャする。様々な実施形態では、1つ胃異常の音声キャプチャ装置は、コントローラ210に結合されており、クライアント装置110の周りのローカルエリアの異なる領域を特定する情報を維持している。例えば、コントローラ210はクライアント装置110の周りのローカルエリアに関して24個の15度領域を特定するのであり、これらはクライアント装置110内のある点から延伸しており、クライアント装置110の周りの360度にわたるローカルエリアの各部分を特定している。
In various embodiments,
1つ以上の音声キャプチャ装置は、コントローラ210に結合されている。ユーザのプライバシ設定に服する態様で、コントローラ210は、機械学習モデルや他の音響認識モデル等の1つ以上のモデルを、クライアント装置110の周りのローカルエリアのある領域からキャプチャされた音声データに、適用する。コントローラ210はユーザ又はオブジェクト(例えば、テレビジョンやモバイル機器)を特定する情報を含み、また、クライアント装置110の周りのローカルエリアのある領域からキャプチャされた音声に1つ以上のモデルを適用することによって、キャプチャ音声データがコントローラ210によって特定されたユーザ若しくはオブジェクトからの音声データを含むか環境ノイズを含むかを決定する。一部の実施形態では、コントローラ210によって適用される1つ以上のモデルは、1つ以上の音声キャプチャ装置が領域内の音声をキャプチャしたもととしてコントローラ210によって特定されたあるユーザ又はあるオブジェクトを、決定する。他の実施形態では、クライアント装置110は1つ以上の音声装置によってキャプチャされた音声データをオンラインシステム140へと伝達し、それは1つ以上のモデルを適用するのであり、音声データが特定されたオブジェクト若しくはユーザからキャプチャされた音声データを含んでいるかを決定したり、音声データのキャプチャ元となった特定済みの具体的なユーザ若しくはオブジェクトを決定する。オンラインシステム140は、キャプチャ音声データが特定済みのオブジェクト若しくはユーザからキャプチャされた音声データを含むかの兆候をクライアント装置110に提供するか、又は、音声データのキャプチャ元となった具体的な特定済みオブジェクト若しくはユーザを指定する情報を提供する。コントローラ210又はオンラインシステム140は、クライアント装置110の周りのローカルエリアの他の領域からキャプチャされた音声についてそうであるかを同様に決定する。異なる領域における音声データのキャプチャ元の特定済みオブジェクト又はユーザの決定に基づいて、コントローラ210は1つ以上の音声装置の配置を修正して、1つ以上の領域からキャプチャされる音声の質を向上させる。例えば、コントローラ210は1つ以上の音声キャプチャ装置を再配置して音声の質を向上させるのであって、該音声は音声データのキャプチャ元となったローカルエリアの周りの領域から得られたものであり、それは具体的なユーザ、若しくは、具体的なオブジェクトからのものである。同様に、コントローラ210は、撮像装置117の1つ以上のパラメータを修正できるのであり、異なるユーザやオブジェクトから音声データがキャプチャされたクライアント装置110の周りのローカルエリアの領域に基づいてこれをなす。様々な実施形態では、1つ以上の音声装置及び撮像装置117は、クライアント装置110の周りのローカルエリアの異なる部分に向けられていることができる。例えば、撮像装置117はユーザによって記述されたオブジェクトへと向けられており、他方でコントローラ210は1つ以上の音声装置を、特定のユーザによって音声データキャプチャがなされたもとのクライアント装置110の周りのローカルエリアの領域へと、向ける。
One or more audio capture devices are coupled to
様々な実施形態では、オンラインシステム140及びクライアント装置110のコントローラ210は、1つ以上のプライバシ設定を、協調的に及び/又は個別的に保持及び強制するのであって、該プライバシ設定は、キャプチャ動画データや他のデータから特定されたユーザや人物用のものである。ユーザ又は人物のプライバシ設定は、ユーザ又は人物と関連付けられた特定の情報をどのように共有できるかを決定するのであり、また、ユーザ又は人物を特定する情報と関連付けて記憶され得る。一部の実施形態では、コントローラ210は、オンラインシステム140によって維持されている1つ以上のユーザについてのプライバシ設定を、検索する。1つの実施形態では、プライバシ設定はユーザと関連付けられる特定の情報を指定するのであり、また、指定された情報が他のエンティティのどれと共有され得るかを特定する。情報を共有できるエンティティの例は、他のユーザ、アプリケーション、サードパーティシステム130、又は、潜在的に情報にアクセスできる任意のエンティティを含み得る。ユーザによって共有され得る情報の例としては次のものが挙げられる:ユーザ又は人物を含む画像データ;ユーザ又は人物からキャプチャされた音声を含む音声データ;ユーザ又は人物を含む動画データ等。
In various embodiments, the
例えば、特定の実施形態では、プライバシ設定によって第1のユーザが次の行動をオンラインシステム140に許すか否かを(オプトアウトしたりオプトインしなかったりすることによって)指定できる:任意の目的について、ユーザと関連する特定のオブジェクトや情報を受信・収集・ロギング・記憶すること。特定の実施形態では、プライバシ設定によって第1のユーザは次の行動を特定の動画キャプチャ装置や音声キャプチャ装置やアプリケーションやプロセスがなし得るかを定め得る:ユーザと関連付けられた特定のオブジェクトや情報に対してのアクセス・記憶・利用。プライバシ設定によって、特定の装置・アプリケーション・プロセスがオブジェクトや情報についてアクセス・記憶・利用をなすことについて、第1のユーザがオプトインやオプトアウトすることが可能たり得る。オンラインシステム140は、特定の機能又はサービスを第1のユーザに提供する目的でそのような情報へのアクセスを得ることができ、それに際して他の任意の目的に関してはそのような情報についてアクセス権をオンラインシステム140が有さないで済む。そのようなオブジェクトや情報に関してアクセス・記憶・利用をなす前に、そしてそのようなアクションを許可する前に、オンラインシステムはユーザに対してプライバシ設定を提供せよとプロンプトできるのであって、該プライバシ設定は次のことに関する:どのアプリケーション若しくはプロセスが(仮にそれらが存在するとすれば)オブジェクトや情報に対してアクセス・記憶・使用をなし得るか。非限定的な例としては、第1のユーザがメッセージを第2のユーザへとオンラインソーシャルネットワークに関連するアプリケーション(例えばメッセージングアプリ)を介して送信でき、そのようなメッセージがオンラインシステム140によって記憶されるべきではないとしたプライバシ設定を指定できる。
For example, in certain embodiments, the privacy settings allow the first user to specify (by opting out or not opting in) whether the
オンラインシステム140及び/又はコントローラ210によって維持・強制されているプライバシ設定は、デフォルト設定と関連付けられていることができる。様々な実施形態では、コントローラ210がユーザから、コントローラ210に対してのユーザ特定を許すプライバシ設定を、取得しない限り、コントローラ210は、キャプチャされた動画データ・音声データ・他のデータ内のユーザを、特定しない。例えば、ユーザと関連付けられているプライバシ設定はデフォルト設定を有しており、該設定によれば、コントローラ210がユーザを特定することを許すプライバシ設定となるように手動で変更をユーザが加えない限り、コントローラ210がユーザを特定することが妨げられてコントローラがユーザ特定できないようになる。また、様々な実施形態では、代替的なプライバシ設定は、クライアント装置110からのユーザを特定する情報の別のエンティティ(例えば、別のクライアント装置110やオンラインシステム140やサードパーティシステム130)への伝達を規律する。代替的プライバシ設定はデフォルト設定を有しており、様々な実施形態では、ユーザを特定する情報の送信が妨げられるのであり、ユーザが手動で代替的プライバシ設定を修正して送信を許さない限り、コントローラ210は、ユーザを特定する情報を他のエンティティへと送信することが妨げられる。コントローラ210は、1つ以上のプライバシ設定をキャプチャされた動画データや他のデータから特定された各ユーザについて保持するのであり、送信及び各ユーザの特定についてユーザ毎の制御が可能となる。一部の実施形態では、コントローラ210が初めて人物をキャプチャデータから特定した際に、コントローラ210は人物に対してプライバシ設定を提供せよとプロンプトし、提供されたプライバシ設定を該人物を特定する情報と関連付けて記憶する。
Privacy settings maintained and enforced by
様々な実施形態では、ユーザ認証やエクスペリエンス個人化目的での入力としてユーザの個人情報や生体測定情報を用い得る機能を備えるオンラインシステム140及び/又はクライアント装置110の様々なコンポーネントについては、ユーザはこれらの機能を活用することを選んで装置及びオンラインシステムを用いる際の己のエクスペリエンスを強化できる。非限定的な例としては、ユーザは自発的に個人情報や生態測定情報をオンラインシステム140に提供することができる。ユーザのプライバシ設定は、そのような情報が認証等の特定のプロセスのみのために利用され得るということを指定でき、また、そのような情報は任意の第三者と共有されてはならぬことやオンラインシステム140と関連付けられている他のプロセスやアプリケーションによって利用されてはならぬことを指定できる。別の非限定的な例としては、オンラインシステム140は、ユーザが声紋記録をオンラインソーシャルネットワークに提供する機能をもたらし得る。非限定的な例について述べるに、ユーザが仮にオンラインソーシャルネットワークのこの機能を活用することを望むのであれば、ユーザは己の声のボイスレコーディングを提供してオンラインソーシャルネットワーク上にステータス更新をもたらし得る。音声入力の記録をユーザの声紋と比べてユーザによって発せられた言葉が何であるかを決定できる。ユーザのプライバシ設定はそのような録音が音声入力用途のみに利用できるものであると指定でき(例えば、ユーザを認証するため、音声メッセージを送るため、オンラインソーシャルネットワークの音声操作機能を利用するために音声認識を向上させるため等)、また、そのような録音は任意のサードパーティシステムと共有されてはならぬことやオンラインシステム140と関連付けられている他のプロセスやアプリケーションによって利用されてはならぬことを指定できる。別の非限定的な例としては、オンラインシステム140は、ユーザが参照用画像(例えば、顔プロファイル等)をオンラインソーシャルネットワークに提供する機能をもたらし得る。オンラインソーシャルネットワークは、(ユーザを認証したり、写真内ユーザをタグ付けしたりするために)参照用画像を後に受信された画像入力と対比できる。ユーザのプライバシ設定は、そのような録音は限定目的(例えば、認証や写真内ユーザのタグ付け)のためのみに利用できることを指定でき、また、そのような録音は任意のサードパーティシステムと共有されてはならぬことやオンラインシステム140と関連付けられている他のプロセスやアプリケーションによって利用されてはならぬことを指定できる。生態測定データ及び/又は他の個人データについてのそのような制約のどれであっても、クライアント装置110に対しても適用できる。
In various embodiments, for various components of
ユーザは次の行為を許可できる:データのキャプチャ;ユーザの特定;並びに/又は1つ以上の手法でのユーザ関連データの共有及びクロスアプリケーション利用。例えば、ユーザは、クライアント装置110の機能を利用する前及び/又はオンラインシステム140上でアクションを執り行う前に、様々なプライバシ設定を予め選ぶことができる。別の例では、ユーザが初めてアクションを遂行する場合やクライアント装置110及び/若しくはオンラインシステム140の機能を初めて利用する場合、並びに/又は、ユーザが所定期間にわたってアクションを遂行していない場合や機能を使っていない場合に、選択ダイアログをもってプロンプトできる。さらに別の例では、クライアント装置110及びオンラインシステム140は、ユーザデータを必要とする特定の機能がユーザの選択のせいで稼働し始めたり無効化されたりした場合には、通知をユーザにもたらし得るのであり、通知を介してユーザがさらなる選択を下せるようにする。ユーザが許可を与えるためには他の適切な手法もある。
Users may allow the following actions: capture of data; identification of users; and/or sharing and cross-application use of user-related data in one or more ways. For example, a user may pre-select various privacy settings prior to utilizing
一部の実施形態では、コントローラ210はオンラインシステム140によって維持されている情報を或いは1つ以上のサードパーティシステム130から取得するのであって、これはキャプチャ動画データから特定されたユーザについてのものであり、かかる所為はユーザについてのプライバシ設定に服する。以前クライアント装置110によってキャプチャされたユーザを含む動画データや音声データや画像データや他のデータ並びに取得された情報に基づいて、コントローラ210は、クライアント装置110を介してユーザに提示するためのコンテンツを生成できる。例えば、コントローラ210は、クライアント装置110によってキャプチャされた動画データ又は画像データからコントローラ210によって特定された1つ以上のオブジェクトと関連付けられているオンラインシステム140からのコンテンツアイテムを、オーバレイする。代替的には、オンラインシステム140は、クライアント装置110から受信されたユーザを含む動画データ・音声データ・画像データ・その他データ並びにユーザについて維持されている(或いはオンラインシステム140によって1つ以上のサードパーティシステム130から取得された)情報に基づいて、ユーザ用のコンテンツを生成するのであり、既生成コンテンツをユーザに提示するためにクライアント装置110に提供する。
In some embodiments, the
図3は、オンラインシステム140のアーキテクチャのブロック図である。図3において示されているオンラインシステム140は、ユーザプロファイルストア305、コンテンツストア310、アクションロガー315、アクションログ320、エッジストア325、コンテンツ選択モジュール330、及びウェブサーバ335を含む。その他の実施形態においては、オンラインシステム140は、各種アプリケーションに関するさらなる、より少ない、又は異なる構成要素を含み得る。ネットワークインタフェース、セキュリティ機能、ロードバランサ、フェイルオーバサーバ、管理及びネットワークオペレーションコンソール等等の従来の構成要素は、このシステム構成の詳細をわかりにくくすることのないように、示されていない。
FIG. 3 is a block diagram of the architecture of
オンラインシステム140の各ユーザは、ユーザプロファイルストア305に記憶されているユーザプロファイルに関連付けられている。ユーザプロファイルは、ユーザが明示的にシェアしたユーザに関する宣言的情報を含み、かつオンラインシステム140によって推定されるプロファイル情報も含み得る。1つの実施形態においては、ユーザプロファイルは、対応するオンラインシステムのユーザの1つ又は複数の属性をそれぞれ記述する複数のデータフィールドを含む。ユーザプロファイルに記憶される情報の例には、職歴、学歴、性別、趣味やプリファレンス、ロケーション等等、人物、人口統計学的及びその他のタイプの記述的情報が含まれる。ユーザプロファイルは、ユーザが提供する他の情報、例えば、画像やビデオを記憶することもできる。ある実施形態においては、ユーザの画像を、画像に表示されるオンラインシステムのユーザを特定する情報、ユーザがユーザのユーザプロファイルにタグ付けして記憶した画像を特定する情報でタグ付けすることが可能である。ユーザプロファイルストア305内のユーザプロファイルは、コンテンツストア310内のコンテンツアイテムに対して行われてアクションログ320に記憶される、対応するユーザによるアクションへの参照を維持することもできる。
Each user of
また、ユーザについて維持されているプロファイルは、ユーザに関連付けられている1つ以上のクライアント装置110の特徴を含んでおり、オンラインシステム140が、クライアント装置110によって提供される特徴からユーザを後に特定できるようになる。例えば、オンラインシステム140と関連付けられており且つクライアント装置110上で実行されているアプリケーションは、装置識別子又はクライアント装置110を一意的に識別する他の情報を、ユーザ識別子との関連でオンラインシステム140に提供する。オンラインシステム110は装置識別子又はクライアント装置110を一意的に識別する他の情報を、ユーザについて維持されているユーザプロファイル内に格納し、後にオンラインシステム140が装置識別子又はクライアント装置110を一意的に識別する他の情報を受信した場合にユーザの特定がなされる。ユーザと関連付けられているクライアント装置110の他の特徴は、代替的に又は追加的に、ユーザによって管理されているユーザプロファイル内に含まれていることができる。例えば、ユーザプロファイルは次の事項を含む:ネットワーク120にアクセスするためにクライアント装置110によって利用されるネットワークアドレス;オンラインシステム140が情報を得た元たるクライアント装置110上で実行されているアプリケーションの識別子;オンラインシステム140が情報を得た元たるクライアント装置110のタイプ(例えば、製造業者名、クライアント装置110の型式の識別子等);オンラインシステム140が情報を得た元たるクライアント装置110上で実行されているオペレーティングシステム。もっとも、オンラインシステム140はクライアント装置110の任意の適切な特徴をユーザプロファイル内に格納でき、オンラインシステム140は、ユーザプロファイルに対応するユーザによって利用されるクライアント装置110についての情報を、維持できる。
The profile maintained for the user also includes characteristics of one or
ユーザプロファイルストア305内のユーザプロファイルは、しばしば個人に関連付けられて、個人がオンラインシステム140を通じて互いにインタラクションすることを可能にするが、ユーザプロファイルは企業や組織等のエンティティについても記憶することができる。これによりエンティティは、オンラインシステム140上で、他のオンラインシステムのユーザとつながり、かつコンテンツを交換するためにプレゼンスを確立することが可能である。エンティティは、自社についての情報、自社製品についての情報を投稿し、又はエンティティのユーザプロファイルに関連付けられているブランドページを使用してオンラインシステム140のユーザに他の情報を提供することができる。オンラインシステム140の他のユーザは、ブランドページとつながって、ブランドページに投稿された情報を受け取るか、又はブランドページからの情報を受け取ることができる。ブランドページに関連付けられているユーザプロファイルは、そのエンティティに関する背景又は情報データをユーザに提供する、エンティティ自体に関する情報を含み得る。
User profiles in the
コンテンツストア310は、様々なタイプのコンテンツを各々が表す複数のオブジェクトを記憶する。オブジェクトによって表されるコンテンツの例には、ページ投稿、ステータスの更新、写真、ビデオ、リンク、共有コンテンツアイテム、ゲームアプリケーションの達成度、地域のビジネスにおけるチェックインイベント、ブランドページ、又は他のタイプのコンテンツが含まれる。オンラインシステムのユーザは、ステータスの更新、オンラインシステム140内の他のオブジェクトに関連付けるためにユーザがタグ付けした写真、イベント、グループ、又はアプリケーション等、コンテンツストア310によって記憶されるオブジェクトを作成することができる。いくつかの実施形態においては、オブジェクトはサードパーティアプリケーション、又はオンラインシステム140とは別のサードパーティアプリケーションから受け取られる。1つの実施形態においては、コンテンツストア310内のオブジェクトは、1つのコンテンツ、又は複数のコンテンツ「アイテム」を表す。そのため、オンラインシステムのユーザは、様々な通信チャネルを通してテキストや様々なタイプの媒体のコンテンツアイテムをオンラインシステム140に投稿することによって、互いに通信するよう促される。これによりユーザ同士のインタラクションの量が増え、オンラインシステム140内でユーザがインタラクションする頻度が増す。
The
コンテンツストア310に含まれる1つ又は複数のコンテンツアイテムは、ユーザに提示するためのコンテンツたるクリエーティブと入札額とを含む。クリエーティブは、テキスト、画像、オーディオ、ビデオ、又はユーザに提示される他の適切なデータである。様々な実施形態において、クリエーティブはまた、コンテンツのページを特定する。例えば、コンテンツアイテムは、コンテンツアイテムがアクセスされたときにユーザを対象とするコンテンツのランディングページのネットワークアドレスを指定するリンクを含む。ユーザに対してコンテンツが提示された場合、入札額は、ユーザによってコンテンツアイテムに含まれ、かつ入札額は、コンテンツアイテム内のコンテンツがユーザに提示された場合、提示されたときにコンテンツアイテム内のコンテンツがユーザインタラクションを受け取った場合、又はコンテンツアイテム内のコンテンツがユーザに提示されたときに何らかの適切な条件が満たされた場合に、広告主によってオンラインシステム140に提供される金銭的補償等の期待値を決定するために使用される。例えば、コンテンツアイテムに含まれる入札額は、コンテンツアイテム内のコンテンツが表示された場合に、コンテンツアイテムをオンラインシステム140に提供したユーザからオンラインシステム140が受け取る金額を指定する。いくつかの実施形態では、コンテンツアイテムからコンテンツを提示することのオンラインシステム140への期待値は、入札額に、コンテンツアイテムのコンテンツがユーザによってアクセスされる確率を乗算することによって決定され得る。
One or more content items contained in the
様々なコンテンツアイテムは、コンテンツアイテムに関連するユーザが、そのコンテンツアイテムに含まれるコンテンツが提示されたときに他のユーザが実行することを所望するインタラクションを識別する目標を含み得る。例示的な目的としては次のものを挙げることができる:コンテンツアイテムと関連付けられているアプリケーションをインストールすること;コンテンツアイテムについての選好を示すこと;他のユーザとコンテンツアイテムを共有すること、コンテンツアイテムと関連付けられているオブジェクトと相互作用すること;任意の他の適切な相互作用をなすこと。コンテンツアイテムからのコンテンツがオンラインシステムのユーザに提示されると、オンラインシステム140は、提示されたユーザとコンテンツアイテム又はコンテンツアイテムに関連するオブジェクトとの間のインタラクションを記録する。さらに、オンラインシステムユーザがコンテンツアイテムに含まれる目標を満たす、コンテンツアイテムとのインタラクションを実行したときに、オンラインシステム140は、コンテンツアイテムに関連するユーザから補償金を受け取る。
Various content items may include goals that identify interactions that users associated with the content item would like other users to perform when presented with the content included in the content item. Exemplary purposes may include: installing an application associated with a content item; indicating preferences for a content item; sharing a content item with other users; interacting with an object associated with; making any other suitable interaction. When content from a content item is presented to a user of the online system, the
さらに、コンテンツアイテムは、コンテンツアイテムをオンラインシステム140に提供したユーザによって指定された1つ又は複数のターゲティング基準を含み得る。コンテンツアイテム要求に含まれるターゲティング基準は、コンテンツアイテムと共に提示されるのに適したユーザの1つ又は複数の特徴を指定する。例えば、ターゲティング基準は、少なくとも1つのターゲティング基準を満たすユーザプロファイル情報、エッジ、又はアクションを有するユーザを識別するために使用される。したがって、ターゲティング基準は、ユーザが特定の特性を有するユーザを識別することを可能にし、その後の個々のユーザへのコンテンツの配信を簡略化する。
Additionally, the content item may include one or more targeting criteria specified by the user who submitted the content item to
1つの実施形態では、ターゲティング基準は、ユーザと他のユーザ又はオンラインシステム140のオブジェクトとの間のアクション又は接続タイプを指定し得る。ターゲティング基準は、ユーザと、サードパーティシステム130上等のオンラインシステム140の外部で実行されるオブジェクトとの間のインタラクションも指定し得る。例えば、ターゲティング基準は、他のユーザへのメッセージの送信、アプリケーションの使用、グループへの参加、グループからの離脱、イベントへの参加、イベントの説明の生成、オンラインマーケットプレイスを使用した製品又はサービスの購入又は検討、サードパーティシステム130からの情報の要求、アプリケーションのインストール、又は他の任意の適切なアクション等の特定のアクションを行ったユーザを識別する。アクションをターゲティング基準に含めることで、ユーザはコンテンツアイテムの提示に適したユーザをさらに絞り込むことができる。別の例として、ターゲティング基準は、他のユーザ又はオブジェクトへの接続を有するか、又は他のユーザ又はオブジェクトへの特定のタイプの接続を有するユーザを識別する。
In one embodiment, targeting criteria may specify actions or connection types between users and other users or objects of
プライバシ設定に基づいて、アクションロガー315は、オンラインシステム140の内部及び/又は外部のユーザアクションに関する通信を受信することについて許可を受けていることができ、ユーザアクションに関する情報をアクションログ320に投入できる。アクションの例には、別のユーザへのつながりを追加すること、別のユーザにメッセージを送信すること、画像をアップロードすること、別のユーザからのメッセージを読むこと、別のユーザに関連付けられているコンテンツを閲覧すること、別のユーザによって投稿されたイベントに出席することが含まれる。さらに、多数のアクションがオブジェクト及び1人又は複数人の特定のユーザを伴うことがあるため、これらのアクションも特定のユーザに関連付けられて、アクションログ320に記憶される。
Based on privacy settings, action logger 315 may be permitted to receive communications regarding user actions internal and/or external to
プライバシ設定に基づいて、アクションログ320は、オンラインシステム140が、オンラインシステム140上でのユーザアクション、及び、オンラインシステム140に情報を伝達するサードパーティシステム130上でのアクションを追跡するために使用されることに関してユーザから許可を受けていることができる。ユーザはオンラインシステム140上のさまざまなオブジェクトとインタラクションすることができ、これらのインタラクションについて記述する情報がアクションログ320に記憶される。オブジェクトとの相互作用の例としては次のものが挙げられる:ポストについてコメントすること;リンクを共有すること;クライアント装置110を介して物理的場所にチェックインすること;コンテンツアイテムにアクセスすること;任意の他の適切な相互作用をなすこと。アクションログ320に含まれるオンラインシステム140上のオブジェクトとの相互作用のさらなる例としては、次のものを挙げることができる:写真アルバムについてコメントすること;ユーザと通信すること;オブジェクトとのコネクションを確立すること;イベントに参加すること;グループに参加すること;イベントを作成すること;アプリケーションを承認すること;アプリケーションを利用すること;オブジェクトについて選好を表明すること(オブジェクトに対して「いいね」発すること);トランザクションに入ること。さらに、アクションログ320は、オンラインシステム140上の広告及びオンラインシステム140上で動作する他のアプリケーションとの、ユーザのインタラクションを記録することができる。いくつかの実施形態においては、アクションログ320からのデータは、ユーザの関心又はプリファレンスを推測するために使用されて、ユーザのユーザプロファイルに含まれる関心を強化し、ユーザのプリファレンスをさらに完全に理解できるようにする。
Based on privacy settings, action log 320 is used by
アクションログ320は、外部ウェブサイト等のサードパーティシステム130上で行われてオンラインシステム140に伝達されるユーザアクションを記憶することもでき、これはユーザのプライバシ設定に服する。例えば、電子商取引のウェブサイトはソーシャルプラグインを通じてオンラインシステム140のユーザを認識することができるので、電子商取引のウェブサイトがオンラインシステム140のユーザを識別することが可能である。オンラインシステム140のユーザは一意に識別できるため、前述の例におけるように、電子商取引のウェブサイトは、オンラインシステム140外のユーザのアクションに関する情報を、ユーザに関連付けるためにオンラインシステム140に伝達することができる。そのため、アクションログ320は、ウェブページの閲覧履歴、関わった広告、行った購入、及び買い物や購買からの他のパターン等を含む、ユーザがサードパーティシステム130上で行うアクションに関する情報を記録することができる。さらに、サードパーティシステム130に関連付けられ、かつクライアント装置110上で実行するアプリケーションを介してユーザが実行するアクションは、アクションログ320内の記録及びユーザとの関連付けのためにアプリケーションによってアクションロガー315に伝達され得る。
The
1つの実施形態においては、エッジストア225は、ユーザとオンラインシステム140上の他のオブジェクトとのつながりについて記述する情報をエッジとして記憶する。いくつかのエッジはユーザによって定義されることができ、ユーザが他のユーザとの関係を指定することが可能である。例えば、ユーザは、友達、同僚、パートナー等、ユーザの実生活の関係に即した他のユーザとのエッジを生成することができる。オンラインシステム140上のあるページへの関心を表明すること、オンラインシステム140の他のユーザとリンクをシェアすること、及び、オンラインシステム140の他のユーザが行った投稿にコメントすること等、ユーザがオンラインシステム140でオブジェクトとインタラクションするとき、他のエッジが生成される。
In one embodiment, edge store 225 stores information describing connections between users and other objects on
エッジは、ユーザ同士のインタラクション、ユーザとオブジェクトのインタラクション、又はオブジェクト同士のインタラクションの特性をそれぞれ表す様々な特徴を含むことができる。例えば、エッジに含まれる特徴は、2人のユーザ間のインタラクションの割合、2人のユーザが互いにインタラクションしたのがどれくらい最近であったか、あるユーザがオブジェクトに関して取得した情報の割合もしくは量、又はユーザがオブジェクトに関して投稿したコメントの数とタイプを記述する。特徴は、ある特定のオブジェクト又はユーザについて記述する情報を表すこともできる。例えば、特徴は、ある特定のトピックに対してユーザがもつ関心のレベル、ユーザがオンラインシステム140にログインしている割合、又はユーザに関する人口統計学的情報について記述する情報を表すことができる。各特徴は、ソースオブジェクト又はユーザ、ターゲットオブジェクト又はユーザ、及び特徴値に関連付けることができる。特徴は、ソースオブジェクト又はユーザ、ターゲットオブジェクト又はユーザについて、又はソースオブジェクト又はユーザとターゲットオブジェクト又はユーザとの間におけるインタラクションについて記述する値に基づいた式として指定され得る。そのため、エッジは1つ又は複数の特徴式として表され得る。
Edges can include various features that characterize interactions between users, interactions between users and objects, or interactions between objects, respectively. For example, features included in an edge could be the rate of interaction between two users, how recently the two users interacted with each other, the rate or amount of information a user obtained about an object, or whether a user Describe the number and types of comments posted about the object. Features can also represent information that describes a particular object or user. For example, characteristics may represent information describing the level of interest a user has in a particular topic, the rate at which the user is logged into the
エッジストア325は、オブジェクト、関心、及び他のユーザについての関連性(affinity)スコア等、エッジに関する情報も記憶する。オンラインシステム140によって経時的に関連性スコア、又は、「関連性」が計算されて、ユーザが行うアクションに基づいて、オンラインシステム140内のオブジェクト又は別のユーザへのユーザの関心を見積ることができる。オンラインシステム140によって経時的にユーザの関連性が計算されて、ユーザが行うアクションに基づいてオンラインシステム140内のオブジェクト、トピック、又は別のユーザへのユーザの関心を見積ることができる。関連性の計算については、2010年12月23日に出願された米国特許出願第12/978,265号、2012年11月30日に出願された米国特許出願第13/690,254号、2012年11月30日に出願された米国特許出願第13/689,969号、及び2012年11月30日に出願された米国特許出願第13/690,088号にさらに記述されており、各々の全体が参照によって取り込まれている。1つの実施形態においては、ユーザと特定のオブジェクトとの間における複数のインタラクションを、1つのエッジとしてエッジストア225内に記憶することができる。あるいは、ユーザと特定のオブジェクトとの間における各インタラクションを別個のエッジとして記憶する。いくつかの実施形態においては、ユーザ間のつながりをユーザプロファイルストア305に記憶することができ、又はユーザプロファイルストア305がユーザ間のつながりを決定するためにエッジストア325にアクセスすることができる。
コンテンツ選択モジュール330は、1つ又は複数のコンテンツアイテムをユーザに提示されるべくクライアント装置110への伝達のために選択する。ユーザへの提示に適したコンテンツアイテムは、視聴ユーザへの提示のためにコンテンツアイテムのうちの1つ又は複数を選択するコンテンツ選択モジュール230によって、コンテンツストア210から、又は別のソースから取得される。ユーザへの提示に適したコンテンツアイテムは、ユーザの特性によって満たされる少なくとも閾値数のターゲティング基準に関連付けられたコンテンツアイテムであるか、又はターゲティング基準に関連付けられていないコンテンツアイテムである。様々な実施形態において、コンテンツ選択モジュール330は、ユーザに提示するための一組のコンテンツアイテムを特定する1つ又は複数の選択プロセスにおいてユーザに提示するのに適したコンテンツアイテムを含む。例えば、コンテンツ選択モジュール330は、オンラインシステム140によってユーザに関連付けられた属性に基づいて、かつ個々のコンテンツアイテムに対するユーザの関連性に基づいて、ユーザに対する様々なコンテンツアイテムの関連性の度合いを決定する。ユーザにとってのコンテンツアイテムの関連性の度合いは、ユーザにとってのコンテンツアイテムの質の度合いに基づいており、コンテンツアイテムに含まれるクリエーティブやコンテンツアイテム内のリンクによって特定されるランディングページのコンテンツに基づいていることができる。関連性の度合いに基づいて、コンテンツ選択モジュール330は、ユーザに提示するためのコンテンツアイテムを選択する。追加の例として、コンテンツ選択モジュール330は、ユーザへの提示のために、最も高い関連性の度合いを有するコンテンツアイテム、又は少なくとも閾値の関連性の度合いを有するコンテンツアイテムを選択する。代替的に、コンテンツ選択モジュール330は、その関連する関連性の度合いに基づいてコンテンツアイテムをランク付けし、ランク付けにおいて最上位位置にあるコンテンツアイテム、又はランク付けにおいて少なくとも閾値位置にあるコンテンツアイテムをユーザへの提示のために選択する。
ユーザへの提示に適したコンテンツアイテムは、入札額に関連するコンテンツアイテムを含み得る。コンテンツ選択モジュール330は、ユーザに提示するためのコンテンツを選択するときにコンテンツアイテムに関連する入札額を使用する。様々な実施形態において、コンテンツ選択モジュール330は、それらの入札額に基づいて様々なコンテンツアイテムに関連付けられた期待値を決定し、最大期待値に関連付けられたコンテンツアイテム、又は少なくとも提示のための閾値期待値に関連付けられたコンテンツアイテムを選択する。コンテンツアイテムに関連付けられた期待値は、コンテンツアイテムを提示することに関するオンラインシステム140への期待補償額を表す。例えば、コンテンツアイテムに関連付けられた期待値は、コンテンツアイテムの入札額と、ユーザがコンテンツアイテムとインタラクションする可能性との乗算値である。コンテンツ選択モジュール330は、コンテンツアイテムに関連付けられた入札額に基づいてコンテンツアイテムをランク付けし、ランク付けにおいて少なくとも閾値位置にあるコンテンツアイテムをユーザへの提示のために選択し得る。いくつかの実施形態では、コンテンツ選択モジュール330は、入札額及びコンテンツアイテムに関連する関連性の度合いに基づいて、入札額に関連しないコンテンツアイテム及び入札額に関連するコンテンツアイテムの両方を統一したランキングでランク付けする。統一したランキングに基づいて、コンテンツ選択モジュール330は、ユーザに提示するためのコンテンツを選択する。統一したランクキングを通じて入札額に関連するコンテンツアイテムと入札額に関連しないコンテンツアイテムを選択することは、2012年7月10日に出願された米国特許出願第13/545,266号にさらに記載されており、この特許出願を参照によりその全体を本明細書に組み込む。
Content items suitable for presentation to a user may include content items associated with a bid amount. The
例えば、コンテンツ選択モジュール330は、オンラインシステム140のユーザにコンテンツのフィードを提示する要求を受け取る。フィードは、ユーザに接続している他のオンラインシステムの複数のユーザに関連付けられた複数のアクションを記述するストーリー等のコンテンツアイテムを、含む。コンテンツ選択モジュール330は、ユーザについての情報を取得するために、ユーザプロファイルストア305、コンテンツストア310、アクションログ320、及びエッジストア325のうちの1つ又は複数にアクセスする。例えば、ユーザに接続されている他の複数のユーザに関連付けられている複数のアクションを記述する情報、又はユーザに接続されている複数のユーザに関連付けられている他のデータが取得される。コンテンツストア310からのコンテンツアイテムは、コンテンツ選択モジュール330によって取得及び分析されて、ユーザへの提示に適した候補コンテンツアイテムを特定する。例えば、ユーザに接続されていない複数のユーザに関連するコンテンツアイテム、又はユーザに対する関連性が閾値未満の複数のユーザに関連するストーリーは、候補コンテンツアイテムとして破棄される。様々な基準に基づいて、コンテンツ選択モジュール330は、識別されたユーザに提示するための候補コンテンツアイテムとして特定された1つ又は複数のコンテンツアイテムを選択する。選択されたコンテンツアイテムは、ユーザに提示されるコンテンツのフィードに含まれる。例えば、コンテンツのフィードは、オンラインシステム140を介してユーザに接続された複数のユーザに関連付けられたアクションを記述する少なくとも閾値数のコンテンツアイテムを含む。
For example,
様々な実施形態において、コンテンツ選択モジュール330は、ユーザへの提示のために選択された複数のコンテンツアイテムを含むフィードを介してユーザにコンテンツを提示する。コンテンツ選択モジュール330は、選択されたコンテンツアイテムがフィードを介して提示される順序も決定し得る。例えば、コンテンツ選択モジュール330は、ユーザが様々なコンテンツアイテムとインタラクションする可能性に基づいてフィード内のコンテンツアイテムを順序付ける。
In various embodiments, the
ユーザのアクション又は同意に基づいて、コンテンツ選択モジュール330は、オンラインシステムのユーザと関連付けられているクライアント装置110内に含まれる撮像装置117によってキャプチャされた動画データを受信するのであり、また、動画データを受信側クライアント装置110へと送信するのであり、表示装置115を介して閲覧側ユーザに提示させるためにこれがなされる。オンラインシステム140は、閲覧ユーザを特定する要求をクライアント装置110から受信でき、閲覧ユーザから承認を受信したことに応答して、クライアント装置110から受信側クライアント装置110へと動画データを後に提供できる。反対に、オンラインシステム140は受信側クライアント装置110を介して閲覧ユーザからの要求を受信するのであり、ユーザから承認を受信したことに応答して、クライアント装置110から受信された動画データを受信側クライアント装置110に提供する。これによって、オンラインシステム140の異なるユーザらが、オンラインシステム140を介して、ユーザと関連付けられているクライアント装置110によってキャプチャされた動画データを交換することが可能となる。
Based on the user's action or consent, the
また、コンテンツ選択モジュール330は閲覧ユーザから受信側クライアント装置110を介して命令を受信でき、1つ以上の命令をクライアント装置110へと送信する。受信された命令に基づいて、クライアント装置110は、命令受信後にキャプチャされた動画データを修正するか、或いは、命令に基づいて撮像装置117の1つ以上のパラメータを修正する。したがって、クライアント装置110は受信側クライアント装置110からの1つ以上の命令に基づいてキャプチャ動画データを修正して、修正済み動画データ又は修正済みパラメータを用いて撮像装置117によってキャプチャされた動画データを、コンテンツ選択モジュール330へと送信するのであり、該モジュールは、動画データを受信側クライアント装置110へと送信するのであり、このことは図4との関係でさらに後述されている。これによって、閲覧ユーザはクライアント装置110によってキャプチャされた動画データについて修正又は調整をなし得るのであり、これは受信側クライアント装置110を介して閲覧ユーザに提供される。
The
様々な実施形態では、コンテンツ選択モジュール330は、オンラインシステム140のユーザの1つ以上のプライバシ設定を実施する。ユーザのプライバシ設定は、ユーザと関連付けられている特定の情報がどのようにして共有され得るかを決定するのであり、ユーザプロファイル記憶部305内にあるユーザのユーザプロファイル内に格納され得る。1つの実施形態では、プライバシ設定はユーザと関連付けられる特定の情報を指定するのであり、また、指定された情報が他のエンティティのどれと共有され得るかを特定する。情報を共有できるエンティティの例は、他のユーザ、アプリケーション、サードパーティシステム130、又は、潜在的に情報にアクセスできる任意のエンティティを含み得る。ユーザが共有できる情報の例としては次のものを挙げることができる:ユーザプロファイル情報(プロファイル写真等)、ユーザと関連付けられた電話番号、ユーザの接続者、ユーザを含む動画データ、ユーザが取った動作(接続の追加等)、ユーザプロファイル情報の変更及び類すること。様々な実施形態では、オンラインシステム140はユーザと関連付けられているプライバシ設定を維持しており、これはユーザと関連付けられているコンテンツに関してアクセス又は受信を他のエンティティが行うのを妨げる既定設定を有しており、ユーザが異なるプライバシ設定を修正することが許されており、これによって、ユーザによって指定された他のエンティティが修正済みプライバシ設定に対応するコンテンツに関してアクセス又は検索することが許される。
In various embodiments,
プライバシ設定仕様は、異なる粒度レベルで提供することができる。1つの実施形態では、プライバシ設定は、他のユーザと共有すべき特定の情報を特定することができる。例えば、プライバシ設定は、職場の電話番号又は特定の一連の関連情報(プロファイル写真、自宅の電話番号およびステータスを含む個人情報等)を特定する。あるいは、プライバシ設定は、ユーザと関連付けられたすべての情報に適用することができる。また、特定の情報にアクセスできる一連のエンティティの仕様も、様々な粒度レベルで指定することができる。情報を共有できる様々な一連のエンティティは、例えば次のものを含み得る:ユーザに接続された全てのユーザ、ユーザに接続されたユーザの組、ユーザに接続されたユーザに接続された追加のユーザ、全てのアプリケーション、全てのサードパーティシステム130、特定のサードパーティシステム130、又は全ての外部システム。 Privacy settings specifications can be provided at different granularity levels. In one embodiment, privacy settings may specify certain information to be shared with other users. For example, a privacy setting may specify a work phone number or a certain set of related information (such as a profile picture, home phone number and personal information including status). Alternatively, privacy settings can apply to all information associated with a user. A specification of the set of entities that can access a particular piece of information can also be specified at various levels of granularity. Various sets of entities with which information can be shared may include, for example: all users connected to the user, a set of users connected to the user, additional users connected to the user connected to the user. , all applications, all third party systems 130, a specific third party system 130, or all external systems.
1つの実施形態は、エンティティについての列挙を用いることによって、特定された情報にアクセスすることを許されたエンティティを指定したり、或いは、異なるエンティティに提示される情報のタイプを特定したりする。例えば、ユーザは、他のユーザに伝達される又はユーザの指定グループに伝達されるアクションのタイプを、指定できる。代替的には、ユーザは、他のユーザに対して公開又は提示されることにならないアクションタイプや他の情報を指定できる。 One embodiment uses enumerations on entities to specify entities that are allowed to access specified information or to specify the types of information presented to different entities. For example, a user can specify the types of actions that are communicated to other users or to designated groups of users. Alternatively, users can specify action types and other information that will not be exposed or presented to other users.
コンテンツ選択モジュール330は、ユーザと関連付けられている特定の情報が、オンラインシステム140、サードパーティシステム130、及び/又は他のアプリケーション・エンティティを介してユーザに接続された他のユーザによってアクセスされ得るかを決定するためのロジックを含む。ユーザのプライバシ設定に基づいて、コンテンツ選択モジュール330は、別のユーザ、サードパーティシステム130、アプリケーション又は別のエンティティに対して、ユーザと関連付けられた情報(ユーザが取った動作についての情報を含む)へのアクセスが認められているかどうかを判断する。例えば、コンテンツ選択モジュール230は、ユーザのプライバシ設定を用いて、ユーザを含む動画データを別のユーザに提示してよいかを決定する。これによって、ユーザのプライバシ設定が、どのユーザや他のエンティティが次のデータを受信することを許されているかを指定できる:ユーザのアクションについてのデータ;ユーザと関連付けられている他のデータ。
ウェブサーバ335は、ネットワーク120を通じてオンラインシステム140を1つ又は複数のクライアント装置110へ、ならびに1つ又は複数のサードパーティシステム130へリンクさせる。ウェブサーバ335は、ウェブページ、及びその他のコンテンツ、例えば、JAVA(登録商標)、FLASH(登録商標)、XML等を供給する。ウェブサーバ335は、オンラインシステム140とクライアント装置110との間におけるメッセージ、例えば、インスタントメッセージ、キューに入れられたメッセージ(例、電子メール)、テキストメッセージ、ショートメッセージサービス(SMS)のメッセージ、又はその他の適切なメッセージング技術を使用して送信されるメッセージを受け取って回送することができる。ユーザは、コンテンツストア310に記憶される情報(例、画像又はビデオ)をアップロードするよう求める要求をウェブサーバ335に送信することができる。加えて、ウェブサーバ335は、IOS(登録商標)、ANDROID(登録商標)、WEBOS(登録商標)、又はBlackberry(登録商標)OS等のネイティブクライアント装置オペレーティングシステムに対してデータを直接送信するためのアプリケーションプログラミングインタフェース(API)機能を提供することができる。
以前キャプチャされた動画データの特徴に基づいての動画データキャプチャの修正
図4は、1つの実施形態についての相互作用に関する図であって、撮像装置117によって以前キャプチャされた動画の特徴に基づいて撮像装置117によってなされる動画データのキャプチャ挙動を修正する方法についての相互作用図である。様々な実施形態では、図4との関連で説明される諸ステップは異なる順序にて行われ得る。また、一部の実施形態では、方法は、図4に示すものとは異なるステップ及び/又は追加のステップを含み得る。
Modification of Video Data Capture Based on Features of Previously Captured Video Data FIG. 4 is an interaction diagram for one embodiment taken by
撮像装置117は送信側クライアント装置110A内に含まれており、これは図1及び2との関連でさらに上述されており、送信側クライアント装置110Aのまわりのローカルエリアの動画データをキャプチャ(405)する。撮像装置117によってキャプチャされたイメージは、コントローラ210に伝達されるのであり、これは送信側クライアント装置110A内に含まれている(他の実施形態ではこれはクライアント装置110に結合されている)。様々な実施形態では、ユーザは(例えば。予め選択されたプライバシ設定及び/又はプロンプトされた選択によって)コントローラ210に対して、撮像装置117によってキャプチャ(405)された動画の特徴に1つ以上の機械学習モデルを適用することに関して、承認を与え得るのであって、キャプチャ動画データ内に含まれる人物を位置決めできる。様々な実施形態では、コントローラ210は動画データを修正して、位置決め済みユーザをより際立たせて示して、修正済み動画データをオンラインシステム140へと送信する。位置決め済みユーザはより顕著に提示されるのであり、次のようにして提示することによってこれをなす:少なくとも閾値寸法セットを伴って(例えば、少なくとも閾値高さや閾値幅を伴って)動画データ内に提示すること;撮像装置117の視野の少なくとも閾値量にわたって若しくは少なくともキャプチャ動画データのフレームの閾値量にわたって提示すること;又はキャプチャ動画データ内の1つ以上の具体的位置にて提示すること。例えば、コントローラ210は、キャプチャされた動画データをクロッピングして、動画データの少なくとも1人の人間を含まない部分を除去する。別の例としては、コントローラ210は、人物を含む動画データの部分のズーム(倍率ともいう。)を上げる。キャプチャ動画データを修正するために、コントローラ210は、撮像装置117によってキャプチャされた後に動画データを修正でき、又は、撮像装置117の1つ以上のパラメータを修正して、撮像装置117がどのようにして動画データをキャプチャ(405)するかを修正できる。
The
様々な実施形態では、コントローラ210は1つ以上の方法を適用してキャプチャ動画データ内の人物を位置決めする。もっとも、コントローラ210は、1つ以上のモデルをキャプチャ動画データに適用することによってオブジェクト(例えば、アプライアンス、家具、プロダクト)を同様に位置決めすることができる。以下の例はモデルを動画データに適用することに関連しているが、1つ以上のモデルを動画データ・音声データ・画像データ・クライアント装置110によってキャプチャされた任意の他のデータ・それらの任意の組み合わせに対して適用できる。コントローラ210は、任意の適切なモデル又はモデルの組合せを用いて、撮像装置117によってキャプチャ(405)された動画データ内の人物を位置決めすることができる。コントローラ210によってキャプチャ動画データに適用されたモデルは、(2次元又は3次元での)顔追跡や2次元体位追跡や3次元体位追跡や任意の他の適切な方法を行って人間の顔の部分や人間の人体の部分を特定できる。同様に、コントローラ210によって適用されたモデルは、キャプチャ動画データからオブジェクトを特定できる。一部の実施形態では、ユーザの承認に基づいて、コントローラ210はオンラインシステム140と通信して、オンラインシステム140から取得された情報に基づいてオブジェクト又は人物をより具体的に特定するのであり、他方、他の実施形態では、コントローラ210はローカルでモデルを維持しており、キャプチャ動画データから異なるオブジェクト又は人物を特定する。1つ以上のモデルの適用に基づいて、コントローラ210は、位置決め済みユーザの人体の特定の部分を含むキャプチャ動画データについてのクロッピング又はズーミングを修正して、位置決め済みユーザ人体の特定の部分をより際立たせて表示できる。例えば、1つ以上のモデルが人物の顔を特定した場合、コントローラはキャプチャ動画データを修正して人物の顔を含まない動画データの部分を除去する。1つ以上のモデルの適用がキャプチャ動画データ内において複数の人物を位置決めした場合、コントローラ210はキャプチャ動画データを修正して動画の異なる部分が異なる人物を表示するようにする。例えば、コントローラ210はキャプチャ動画データをグリッドに分割するのであって、グリッドの各領域は異なる人物の1つ以上の部分を表示する。他の実施形態では、コントローラ210は、人物の部分を含む動画データの部分に関しての撮像装置117の倍率(即ち、ズーム)を上げる。したがって、コントローラ210はキャプチャ動画データの部分をクロッピングでき、又は、キャプチャ動画データの部分の倍率(即ち、ズーム)を上げることができ、これによって動画データを修正して、キャプチャ動画データ内にいる一人以上の人物の部分をより際立たせて提示できる。また、1つ以上のモデルの適用に基づいてキャプチャ動画データを修正する際には、コントローラ210は1つ以上のモデルを適用して、修正済み動画データを安定化して一人以上の位置決め済み人物の部分をより高いクオリティで提示できる。
In various embodiments,
プライバシ設定に基づいて、コントローラ210は、特定済み人物の人体の部位を位置決めする1つ以上のモデルを適用して、撮像装置117の1つ以上のパラメータ又は撮像装置117によってキャプチャされた動画データを修正して、キャプチャ動画データ内に含まれる位置決め済み人物の人体の部分を修正できる。例えば、コントローラ210は特定済み人物の人体の異なる関節を見つけた上で、キャプチャ動画データ若しくは撮像装置117のパラメータを修正して、キャプチャ動画データ内の位置決め済み人物の人体の異なる部位に対応する関節を含めることができる。したがって、キャプチャ動画データに人物の頭部であれ人物の頭部及び胴体であれ人物の全身が含まれているかについて、コントローラ210は修正をなし得る。コントローラ210は、キャプチャ動画データ内に含まれる人物の人体の部分を修正する様々な規則を含み得るのであり、これは次のことに基づいていることができる:以前キャプチャされた動画データ内に含まれるコンテンツ;以前キャプチャされた動画データ内にて特定された動き;動画データから特定された任意の他の適切な特徴。
Based on the privacy settings, the
様々な実施形態では、コントローラ210によって適用される1つ以上のモデルは1つ以上の規則を適用して送信側クライアント装置110Aの撮像装置117によってキャプチャ(405)された動画データを修正する。例えば、コントローラ210はキャプチャ動画データを修正して動画データから人物をより際立たせて表示するのであり、動画データの人物がいる部分についてのキャプチャデータについてのズームを修正するか又は動画データの人物がいる部分についてのクロッピングを修正することでこれをなして、人物の顔がカメラに向けられているとコントローラ210が決定した場合に人物以外のオブジェクトを除去する。例を挙げるに、コントローラ210はキャプチャ動画データを修正してユーザの顔をより際立たせて表示するのであり、人物の顔が撮像装置117に向けられている(例えば、人物の顔の1つ以上の具体的な特徴が撮像装置117によってキャプチャされた場合)とコントローラ210によって適用された1つ以上のモデルが決定した場合にそうする。別の例では、コントローラ210は動画データ内にいる人物らと撮像装置117との間の距離を決定して、決定された撮像装置117からの距離が最低な人物を際立たせて表示するように又は撮像装置からの決定済み距離が閾値距離未満となる人物らを際立たせて表示するようにキャプチャ動画データを修正する。別の例では、コントローラ210は1つ以上のモデルを適用して、人物又はオブジェクトが動いていくにつれて撮像装置117を再配置して、撮像装置117によってキャプチャされた動画データが人物又はオブジェクトの動きを追跡できるようにする。
In various embodiments, one or more models applied by
コントローラ210によって適用される1つ以上のモデルは、キャプチャ動画データ内の特定済みの複数の人物の位置について配慮する規則に基づいて、キャプチャ動画データを修正できる。様々な実施形態では、ユーザはキャプチャされた動画内のユーザを位置決めすることについてコントローラ210に承認を与えることができ、コントローラ210はキャプチャされた動画にモデルを適用してユーザの視線がキャプチャ動画データのどの位置に向けられているかを決定できる。特定の人物を含むキャプチャ動画データ内の位置へ向けられた視線を伴う位置決め済みユーザが少なくとも閾値人数又は閾値量となっているとの決定に応答して、コントローラ210は、キャプチャ動画データを修正して特定の人物をより表示する(例えば、キャプチャ動画データをクロッピングして特定の人物以外のコンテンツを除去したり、特定の人物の倍率若しくはズームを上げたりすること)。別の例を挙げるに、コントローラ210は動画データ内にいる異なる人物間の距離を決定して互いに閾値距離内にいる人物らをより際立たせて表示するようにキャプチャ動画データを修正する。これによって、人物のグループが位置決めされている動画データの部分についてクロッピング又はズーミングをすることによって、コントローラがキャプチャ動画データを修正することが可能となる。また、コントローラ210は、キャプチャ動画データ内で特定されたオブジェクト又は人物に基づいて、キャプチャ動画データから1つ以上のフレームを除去できる。例えば、キャプチャ動画データ内にて閾値個数未満のオブジェクト又は人物が特定された場合、又は、キャプチャ動画データ内にて閾値量未満のオブジェクト又は人物の動きが特定されたと決定された場合、コントローラ210は、キャプチャ動画データをオンラインシステム140へと送信(410)する前にキャプチャ動画データからフレームを除去する。他の実施形態では、オンラインシステム140は送信側クライアント装置110Aから受信された動画データからフレームを除去するのであり、上述の条件を用いてキャプチャ動画データを受信側クライアント装置110Bへと以下詳述するように送信(415)する前にこれをなす。
One or more models applied by the
コントローラ210は送信側クライアント装置110Aの他のコンポーネントからのデータを受信して受信された動画データ及び送信側クライアント装置110Aの他のコンポーネントからのデータの特徴に基づいてキャプチャされた動画データを修正できる。例えば、撮像装置117又はクライアント装置110は、クライアント装置110周辺のローカルエリアからの音声データをキャプチャするように構成されたマイクロフォン等の音声キャプチャ装置を、含む。ユーザは、キャプチャされた動画データを修正するに際して、キャプチャされた音声データをキャプチャされた動画データと共に処理することをコントローラ210に許すことができる。様々な実施形態では、コントローラ210は、1つ以上のモデルをキャプチャされた音声データに適用して、音声データの源泉を含めたキャプチャされた動画データ内の位置を決定する。コントローラ210は、1つ以上のモデルを、音声データの源泉を含むキャプチャされた動画データ内の位置に適用する。キャプチャされた動画データ内の(人物を含む音声データの源泉を含む)位置決定をなすモデル適用に応じて、コントローラ210はキャプチャされた動画データを修正して、音声データの源泉を含むキャプチャされた動画データ内の位置をより際立たせて提示し(即ち、キャプチャ動画データの源泉を含む位置についてのズームを上げる又はキャプチャ動画データの源泉を含む位置についてクロッピングしてキャプチャ動画データの源泉以外のオブジェクトを除去する)、又は、撮像装置117を再位置決めして音声データの源泉に合焦させる。もっとも、コントローラ210は、音声データ源泉を含むキャプチャされた動画データ内の位置が人物を含まないとの決定に応じて、コントローラは、キャプチャ動画データ修正や撮像装置117の再配置をなさない。別の例としては、コントローラ210はキャプチャされた動画データを修正するか撮像装置117を再配置するかして、コントローラ210がキャプチャ動画データ内のキャプチャ音声データ源泉であると決定した特定人物をより際立たせて提示するのであり、これによってキャプチャ動画データは発話者又は送信側クライアント装置110Aの音声キャプチャ装置によってキャプチャされた音声データを提供する者と決定された人物をより際立たせて表示できる(即ち、音声データを提供する者と決定された人物を含む位置のズームを上げるかキャプチャ動画データの源泉を含む位置についてクロッピングして、音声データを提供する者と決定された人物以外のオブジェクトを除去する)。
The
一部の実施形態では、ユーザは、コントローラ210が1つ以上のモデルを適用して、撮像装置117によって以前キャプチャ(405)された動画データに基づいてキャプチャ動画データ又はクライアント装置110の撮像装置117のパラメータを修正することについて、許可を与えることもできる。例えば、コントローラ210が複数の人物をキャプチャ動画データ内に位置決めした場合、コントローラ210はキャプチャ動画データ又は撮像装置117の1つ以上のパラメータを修正して各位置づけ済み人物がキャプチャされた動画内において最低量の期間に亘って際立って提示されるようにする(例えば、少なくとも閾値寸法セットを伴って動画データ内に提示すること;撮像装置117の視野の少なくとも閾値量にわたって若しくは少なくともキャプチャ動画データのフレームの閾値量にわたって提示すること;又はキャプチャ動画データ内の1つ以上の具体的位置にて提示すること)。別の例としては、プライバシ設定に服するが、コントローラ210は、少なくとも閾値期間にわたってキャプチャ動画データ内にて際立たせて提示されたキャプチャ動画データ内人物を特定する情報を、記憶する。コントローラ210がキャプチャ動画データ内にて追加の人物を位置決めした場合、コントローラ210は、追加の人物を、キャプチャ動画データ内にて際立たせて提示された人物を特定する記憶済み情報と、比較する。追加の人物が記憶済み情報にて特定されていないことに応答して、コントローラ210はキャプチャ動画データを修正するか又は撮像装置117の1つ以上のパラメータを修正して、追加の人物が閾値時間量にわたって際立たせて表示されるようにする。これによって、コントローラ210は、コントローラ210によって動画データ内にて位置決めされた各人物が少なくとも閾値時間量にわたって際立たせて表示されるよう動画データを修正できるようになる。
In some embodiments, the
また、コントローラ210は、キャプチャ動画データ内にいる人物らの動きを特定したことに応答してキャプチャ動画データ又は撮像装置117のパラメータを修正できる。例えば、コントローラ210によってキャプチャ動画に適用された1つ以上のモデルが、位置決め済み人物がオブジェクトに向かって身振り(ジェスチャ)していると決定した場合、コントローラ210はキャプチャ動画を修正して位置決め済み人物とオブジェクトが際立たせて提示されるようにする。例を挙げるに、キャプチャ動画が位置決め済み人物を際立たせて表示しており(例えば、位置決め済み人物を少なくとも閾値寸法セットを伴って表示すること又は位置決め済み人物を動画データの1つ以上のフレームについて少なくとも閾値量を占有するように表示すること)、また、コントローラが、位置決め済み人物がオブジェクトに向かって身振りしていると決定した場合、コントローラ210はキャプチャ動画を修正して位置決め済み人物とオブジェクトが提示されるようにする。例えば、コントローラ210はキャプチャ動画データの倍率を下げて、位置決め済み人物及びオブジェクトが両方キャプチャ動画に含まれるようにできる。別の例では、コントローラ210が1つ以上のモデルを適用して位置決め済み人物がオブジェクトをホールドしていると決定した場合、コントローラ210はキャプチャ動画データ又は撮像装置117の1つ以上のパラメータを修正して、オブジェクトが際立って提示されるようにする(例えば、撮像装置の焦点をオブジェクトへと変更すること及び撮像装置117のズームを上げること)。一部の実施形態では、コントローラ210は、特定の期間にわたってキャプチャ動画データ内の位置決め済み人物によってホールドされたオブジェクトを際立たせて提示でき、そして、キャプチャ動画データ又は撮像装置117のパラメータを修正してキャプチャ動画データにおいて位置決め済み人物が再び際立って提示されるようにできる。
The
送信側クライアント装置110Aは動画データを送信側クライアント装置110Aからオンラインシステム140へと送信(410)するのであって、これは後記においてさらに説明されるようにコントローラ210によって修正され得るのであり、オンラインシステム140はキャプチャ動画データを受信側クライアント装置110Bへと送信(415)する。表示装置115を用いて、受信側クライアント装置110Bは、オンラインシステム140からオンラインシステム140の閲覧ユーザへと、動画データを、提示(420)する。様々な実施形態では、閲覧ユーザは、送信側クライアント装置110Aと通信するための要求を、受信側クライアント装置110Bからオンラインシステム140へと、伝達する。オンラインシステム140は要求を送信側クライアント装置110Aへと伝達し、送信側クライアント装置110Aは応答をオンラインシステム140に提供する。要求に応答して送信側クライアント装置110Aが承認をオンラインシステム140に提供した場合、オンラインシステム140は送信側クライアント装置110Aの撮像装置117によってキャプチャ(405)され且つオンラインシステム140に提供された動画データを、表示装置115での提示のために受信側クライアント装置110Bに提供するのであり、逆もまた然り。
Sending client device 110A transmits 410 video data from sending client device 110A to
様々な実施形態では、ユーザは、(予め定められていたプライバシ設定及びユーザアクションを介することに基づいて)送信側クライアント装置110Aに対して、コントローラ210によってキャプチャ動画内にて位置決めされた人物らに対応する1つ以上のユーザを特定する情報を、オンラインシステム140に提供することを許すことができ、1つ以上のユーザを特定する情報が含まれ受信側クライアント装置110Bへと送信(420)される動画データが伴う。代替的には、オンラインシステム140に対して、送信側クライアント装置110Aは、コントローラ210によって位置決めされた人物らを含む動画データの部分を特定し、オンラインシステム140は、コントローラ210によって位置決めされた人物らを伴う動画データの部分を、オンラインシステムユーザを特定する記憶済み画像と、比較する。プライバシ設定に基づいて、オンラインシステム140は、記憶済み画像によって特定されるユーザを特定する情報を検索するのであって、該画像は、コントローラ210が人物らを位置決めした際に送信側クライアント装置110Aのコントローラ210の動画データの部分との関係で少なくとも閾値類似度を有するものとオンラインシステム140によって決定された画像である。これによって、ユーザらがこのような特定機能にオプトインするのであれば、オンラインシステム140は、送信側クライアント装置110Aから受信された動画データ内に含まれるオンラインシステム140のユーザを、特定できる。オンラインシステム140は、コントローラ210によって位置決めされた人物がいる受信済み動画データの部分並びにユーザを特定するオンラインシステム140によって記憶された画像(例えば、ユーザのユーザプロファイル内のプロファイル画像や識別情報を伴ってユーザがタグ付けされるユーザの顔を含む画像)に対して1つ以上の顔認識プロセス又は他の識別プロセスを適用して、受信済み動画データの部分内の位置決め済み人物がオンラインシステムユーザであるかを決定できる。例えば、オンラインシステム140は送信側クライアント装置110Aからの動画データを増補できるのであり、オンラインシステムユーザであるとオンラインシステム140によって特定された人物を含む送信側クライアント装置110Aからの動画データの部分上に対して、オンラインシステムユーザを特定する情報(例えば、名前、名字、電子メールアドレス等)を重畳表示できる。オンラインシステム140は増補された動画データを受信側クライアント装置110Bへと送信(420)する。代替的には、オンラインシステム140は、送信側クライアント装置110Aから受信された動画データ内にいる人物に対応するオンラインシステムユーザを特定する情報を生成し、動画内の人物に対応するオンラインシステムユーザを特定する情報を動画データと共に受信側クライアント装置110Bへと送信する。例えば、オンラインシステム140は、送信側クライアント装置110Aから受信された動画データ内の人物に対応するオンラインシステムユーザについての名前や名字やユーザ名等のリストを生成するのであって、動画データと共にこれを閲覧ユーザに対して受信側クライアント装置110Bによって提示する。
In various embodiments, the user may direct the sending client device 110A (via predetermined privacy settings and user actions) to the persons positioned in the captured video by the
オンラインシステム140のユーザエクスペリエンスを向上させるためにユーザが様々なユーザ関連データの使用を許可する一部の実施形態では、オンラインシステム140は、受信側クライアント装置110Bと関連付けられている閲覧ユーザと送信側クライアント装置110Aから受信された動画データから特定されたユーザとの間の関連性を考慮することができ、送信側クライアント装置110Aから受信された動画データ内にいる人物に対応するオンラインシステムユーザを特定する情報の生成時にこれがなされ得る。例えば、オンラインシステム140は、オンラインシステム140によって維持されている閲覧ユーザへの接続を有している送信側クライアント装置110Aから受信された動画データから特定されたオンラインシステムユーザについての特定情報を、生成する。幾つかの実施形態では、オンラインシステム140は、オンラインシステム140によって維持されている閲覧ユーザへの接続を有していない送信側クライアント装置110Aから受信された動画データから特定されたオンラインシステムユーザについての特定情報を、生成することはできない。代替的には、オンラインシステム140は、閲覧ユーザに接続されている受信動画データから特定されたオンラインシステムユーザの特定情報と、閲覧ユーザに接続されていないオンラインシステムユーザの特定情報とを、視覚的に区別する。別の例としては、オンラインシステム140は、送信側クライアント装置110Aから受信された動画データから特定された各オンラインシステムユーザについての閲覧ユーザの関連性を決定するのであり、また、動画データから特定されたオンラインシステムユーザの特定情報の提示態様を修正する。例えば、オンラインシステム140は受信された動画データから特定されたオンラインシステムユーザを特定する情報を生成するのであって、これはオンラインシステム140が閲覧ユーザとの関係で少なくとも閾値の関連性を有していると決定した識別済みオンラインシステムユーザを視覚的に区別する。別の例としては、オンラインシステム140は、受信された動画データから特定されたオンラインシステムユーザを特定する情報をランク付けするのであって、受信された動画データから特定されたオンラインシステムユーザについての閲覧ユーザの関連性に基づいてこれをなす。オンラインシステム140は、受信された動画データから特定されたオンラインシステムユーザであって少なくとも閾値のランク順位を有しているユーザについての特定情報と、受信された動画データから特定された他のオンラインシステムユーザの特定情報とを、視覚的に区別する情報を生成する。別の実施形態では、オンラインシステム140は、受信された動画データから特定されたオンラインシステムユーザを特定する情報を提示する情報(information that presents information)を生成するのであって、受信された動画データから特定されたオンラインシステムユーザについての閲覧ユーザの関連性に基づいてこれをなす。
In some embodiments that allow users to use various user-related data to enhance the user experience of
受信側クライアント装置110Bはオンラインシステム140からの動画データを表示装置115を介して提示(420)するのであり、これによって送信側クライアント装置110Aは受信側クライアント装置110Bにて提示するための動画データを提供できる。オンラインシステム140のユーザを特定するオンラインシステム140からの情報は、受信側クライアント装置110Bによって、動画データと共に、提示される。提示された動画データから、受信側クライアント装置110Bは、閲覧ユーザからの興味対象ユーザ選択を受信(425)するのであり、興味対象ユーザを特定する情報をオンラインシステム140へと送信(430)する。様々な実施形態では、閲覧ユーザは、興味対象オブジェクトを選択できる。例えば、閲覧ユーザは、動画データと共に提示されたオンラインシステム140のユーザを特定する情報から興味対象ユーザを特定する情報を選択するのでありまた受信側クライアント装置110B及び受信側クライアント装置110Bは興味対象ユーザを特定する情報をオンラインシステム140へと送信(430)する。閲覧ユーザは動画データに含まれており受信側クライアント装置110Bによって動画データと共に提示されるユーザ記述情報から興味対象ユーザを特定する情報を選択できる。代替的には、閲覧ユーザは人物を含む動画データの部分を選択し、受信側クライアント装置110Bはオンラインシステム140に対して提示された動画データの選択部分を特定し、オンラインシステム140は動画データの選択部分のコンテンツをユーザと関連付けられている顔や身体の記憶済み画像(例えば、ユーザプロファイル内に含まれる画像や様々なユーザが特定されているオンラインシステム140によって維持されている画像等)と比較して、動画の選択部分のコンテンツに合致する1つ以上の記憶済み画像に関連付けられているユーザを興味対象ユーザとして特定する。
The
オンラインシステム140は、興味対象ユーザを特定する情報を送信側クライアント装置110Aへと送信(435)する。興味対象ユーザを特定する情報及び撮像装置117によってキャプチャ(405)された動画データ内に含まれるオブジェクトの特徴に基づいて、コントローラ210は、キャプチャされた動画データ又は送信側クライアント装置110Aの撮像装置117のパラメータを修正(440)して、興味対象ユーザをより際立って提示する。修正は、どのようにキャプチャ動画が変更されるかについての通知がキャプチャされるユーザに検討させて承認させるためにクライアント装置110Aに表示された後になされ得るか、及び/又は、事前承認(例えば、プライバシ設定を介しての承認)に基づいてなされ得るのであってこれは受信側クライアント装置110Bを支配する予め承認を受けている人物らのリストに関することである。撮像装置117のパラメータについて加え得る修正としては次のものが挙げられる:興味対象ユーザを含む動画データの部分についての倍率を上げること;又は興味対象ユーザを含まない動画データの部分を除去すること。様々な実施形態では、送信側クライアント装置110Aのコントローラ210は、キャプチャ動画データに上記においてさらに説明した1つ以上のモデルを適用して、キャプチャ動画データを修正(440)して興味対象ユーザをより際立たせて提示する。興味対象ユーザを際立たせて提示するように修正された動画データは、送信側クライアント装置110Aからオンラインシステム140へと送信(445)され、オンラインシステム140は興味対象ユーザを際立たせて提示している動画データを受信側クライアント装置110Bへと送信(450)し、それが修正済み動画データを閲覧ユーザに提示(455)する。
コントローラ210は興味対象ユーザを特定する情報を受信した後にキャプチャされた動画データに対して1つ以上のモデルを適用して、撮像装置117の1つ以上のパラメータを修正してローカルエリアまわりで興味対象ユーザを追跡する。例えば、コントローラ210は1つ以上の顔認識モデルをキャプチャ動画データ内に配置されている人物に適用して、(オンラインシステム140から受信されたかオンラインシステムからの情報に基づいて以前キャプチャ(405)された動画データから特定された)興味対象ユーザの顔に一致する人物の顔を特定するのであり、その後撮像装置117の焦点を再配置するのであって興味対象ユーザの顔に一致する顔を有する人物へと焦点を合わせる。代替的には、コントローラ210は興味対象ユーザを含むキャプチャされた動画データからカラーマップを抽出し、撮像装置117の焦点を再配置し、抽出したカラーマップが撮像装置117によってキャプチャされた動画データ内に含まれたままとなるようにする。一部の実施形態では、コントローラ210は興味対象ユーザを特定する情報を受信し、その後撮像装置117を修正して特定された人物又はオブジェクトを追跡するようにするのであり、撮像装置117によってキャプチャされた動画データが特定された人物又はオブジェクトの動きを追跡できるようにする。
The
様々な実施形態では、閲覧ユーザは、受信側クライアント装置110Bの表示装置115によって提示された動画データを修正するための追加命令を、オンラインシステム140に提供し、オンラインシステム140は命令を送信側クライアント装置110Aへと送信する。オンラインシステム140からの命令に基づいて、送信側クライアント装置110Aのコントローラ210は、撮像装置117の1つ以上のパラメータを修正するか、又は、撮像装置117によってキャプチャ(405)された動画データを修正する。例えば、オンラインシステム140を介して閲覧ユーザによって提供された命令によって、コントローラ210は、送信側クライアント装置110Aの撮像装置117を次のように構成することとなる:撮像装置117の視野内を興味対象ユーザが動くにつれて撮像装置117が再配置されるようにすること。別の例としては、オンラインシステムを介して閲覧ユーザによって提供された命令は、送信側クライアント装置110Aの撮像装置117によってキャプチャ(405)されて且つ受信側クライアント装置110Bを介して提示された動画データ内のオブジェクトを特定する。送信側クライアント装置110Aがオンラインシステム140からの命令を受信した際に、コントローラ210はキャプチャ動画データを修正するか又は撮像装置117の1つ以上のパラメータを修正して、追加のクライアント装置110にその後提供されるキャプチャ動画データが特定されたオブジェクトを含むこととなるようにする。これによって、閲覧ユーザは、送信側クライアント装置110Aの撮像装置117によってキャプチャされ且つ受信側クライアント装置110Bを介して閲覧ユーザに提示される動画データを修正するための命令を、送信側クライアント装置110Aに提供できる。様々な実施形態では、閲覧ユーザは送信側クライアント装置110Aへと伝達するための命令をオンラインシステム140に提供でき、それによって送信側クライアント装置110Aによってキャプチャされた動画データを修正し、送信側クライアント装置110Aによってキャプチャされ且つ受信側クライアント装置110Bによって提示(425)された動画データで興味対象ユーザを特定せずにこれをなせる。これによって、閲覧ユーザが、送信側クライアント装置110Aによってキャプチャされた動画データを、変更できる。
In various embodiments, the viewing user provides additional instructions to the
結び
例示的実施形態についての上記の開示は、例示目的で提供される。それらは網羅的なものとして意図されてはおらず、また、開示される形態そのものに特許権を限定することも意図されていない。上述の開示に照らせば、多くの変更形態及び変形形態が可能であるということを当業者であれば理解することができる。
Conclusion The above disclosure of exemplary embodiments is provided for purposes of illustration. They are not intended to be exhaustive, nor are they intended to limit patent rights to the precise forms disclosed. Persons of ordinary skill in the art can appreciate that many modifications and variations are possible in light of the above disclosure.
この説明のいくつかの部分は、情報に関するオペレーションのアルゴリズム及びシンボル表示という点から本発明の実施形態について記述している。これらのアルゴリズム的な記述及び表示は一般に、データ処理技術分野における技術者たちによって、それらの技術者たちの作業のエンティティを他の当業者たちに対して効果的に伝達するために利用されている。これらのオペレーションは、機能的に、計算処理的に、又は論理的に記述されているが、コンピュータプログラム又は等価な電気回路、マイクロコード等によって実施されるということがわかる。さらに、一般性を失うことなく、モジュールとしてオペレーションのこれらの構成に言及することが時として好都合であることもわかっている。記述されているオペレーション及びそれらの関連付けられているモジュールは、ソフトウェア、ファームウェア、ハードウェア、又はそれらの任意の組合せで具体化されることが可能である。 Some portions of this description describe embodiments of the invention in terms of algorithms and symbolic representations of operations on information. These algorithmic descriptions and representations are commonly used by those skilled in the data processing arts to effectively convey the substance of their work to others skilled in the art. . These operations, although described functionally, computationally, or logically, will be understood to be implemented by computer programs or equivalent electrical circuitry, microcode, or the like. Moreover, it has also proven convenient at times, without loss of generality, to refer to these arrangements of operations as modules. The described operations and their associated modules may be embodied in software, firmware, hardware, or any combination thereof.
本明細書において記述されているステップ、オペレーション、又はプロセスのうちのいずれも、1つ以上のハードウェアモジュールもしくはソフトウェアモジュールを用いて、単独で、又はその他の装置と組み合わせて実行又は実施されることが可能である。1つの実施形態においては、ソフトウェアモジュールは、記述されている工程、オペレーション、又はプロセスのうちの任意のもの又はすべてを実行するためにコンピュータプロセッサによって実行されることが可能であるコンピュータプログラムコードを含むコンピュータ可読媒体を備えるコンピュータプログラム製品とともに実装される。 any of the steps, operations, or processes described herein may be performed or implemented using one or more hardware or software modules, alone or in combination with other devices; is possible. In one embodiment, the software modules comprise computer program code executable by a computer processor to perform any or all of the steps, operations, or processes described. Implemented with a computer program product comprising a computer-readable medium.
実施形態は、本明細書におけるオペレーションを実行するための装置に関連することも可能である。この装置は、求められている目的のために特別に構築されることが可能であり、及び/又は、コンピュータ内に記憶されているコンピュータプログラムによって選択的にアクティベート若しくは再構成される汎用コンピューティング装置を備えることができる。そのようなコンピュータプログラムは、コンピュータシステムバスへ結合されることが可能である非一時的な有形のコンピュータ可読記憶媒体、又は電子命令を記憶するのに適している任意のタイプのメディア内に記憶されることが可能である。さらに、本明細書において言及されているあらゆるコンピューティングシステムは、シングルプロセッサを含むことができ、又はコンピューティング機能を高めるためにマルチプロセッサ設計を採用している構成であることが可能である。 Embodiments can also relate to an apparatus for performing the operations herein. This apparatus may be specially constructed for the required purposes, and/or it may be a general-purpose computing apparatus selectively activated or reconfigured by a computer program stored in the computer. can be provided. Such a computer program may be stored in a non-transitory, tangible computer-readable storage medium capable of being coupled to a computer system bus, or any type of medium suitable for storing electronic instructions. It is possible to Additionally, any computing system referred to herein may include a single processor, or may be a configuration employing a multi-processor design to increase computing capabilities.
実施形態は、本明細書において記述されているコンピューティングプロセスによって製造される製品に関連することも可能である。そのような製品は、コンピューティングプロセスから生じる情報を備えることができ、それらの情報は、非一時的な有形のコンピュータ可読記憶媒体上に記憶され、本明細書において記述されているコンピュータプログラム製品又はその他のデータの組合せの任意の実施形態を含むことができる。 Embodiments may also relate to products manufactured by the computing processes described herein. Such products may comprise information resulting from a computing process, which information is stored on a non-transitory tangible computer-readable storage medium and which is the computer program product or product described herein. Any embodiment of other data combinations can be included.
最後に、本明細書において使用されている言葉は、主として読みやすさ及び教示上の目的で選択されており、特許権の線引き又は画定を行うために選定されてはいない場合がある。したがって、特許権の範囲は、この詳細な説明によってではなく、むしろ本明細書に基づく出願上で生じるあらゆる請求項によって限定されるということが意図されている。したがって、実施形態の開示は、特許権の範囲を例示するものであり、限定するものではないということが意図されており、特許権の範囲は、添付の特許請求の範囲において示される。 Finally, the language used herein has been chosen primarily for readability and instructional purposes and may not have been chosen to delineate or define patent rights. Accordingly, it is intended that the scope of patents be limited not by this detailed description, but rather by any claims that issue on an application based hereon. Accordingly, the disclosure of embodiments is intended to be illustrative, not limiting, of the scope of patent, which is indicated in the following claims.
本発明による実施形態は、特に、方法及びコンピュータプログラム製品に向けられた添付の請求項に開示され、ある請求項のカテゴリ、例えば方法、で述べる特徴は別の請求項のカテゴリ、例えば、コンピュータプログラム製品、システム、記憶媒体においても同様に権利付与請求することができる。添付の請求項の従属又は後方参照は単に形式的理由のために選ばれている。もっとも、任意の先行請求項への意図的な後方参照(特に多数項従属)により得られる任意の主題も同様に請求できるので、請求項とその特徴のあらゆる組合せが開示され、添付の請求項で選ばれる従属に関係なく請求することができる。請求できる主題は、添付の請求項に記載される通りの特徴の組合せだけでなく、請求項の特徴のあらゆる他の組合せも含み、請求項で述べられる各特徴はあらゆる他の特徴又は請求項の他の特徴の組合せと組み合わせることができる。また、本明細書で説明又は図示される実施形態及び特徴のいずれも、個々の請求項及び/又は本明細書で説明若しくは図示されるあらゆる実施形態若しくは特徴、若しくは添付の請求項の特徴のいずれかとのあらゆる組合せで請求することができる。 Embodiments in accordance with the invention are disclosed in the accompanying claims, particularly directed to methods and computer program products, wherein features recited in one claim category, e.g. Products, systems, and storage media can be similarly entitled. Dependencies or back references to the appended claims are chosen for formal reasons only. However, since any subject matter derived by intentional back-reference (especially multiple claim dependency) to any preceding claim may be claimed as well, any combination of claim and features thereof is disclosed and set forth in the appended claim. Claims can be made regardless of the subordination chosen. Claimable subject matter includes not only the combination of features as set forth in the appended claims, but also any other combination of the features of the claims, wherein each feature recited in a claim may be used in conjunction with any other feature or combination of the claims. It can be combined with other feature combinations. Also, any of the embodiments and features described or illustrated herein may be referred to in an individual claim and/or any embodiment or feature described or illustrated herein or any feature of an appended claim. and can be claimed in any combination.
本発明による1つの実施形態によれば、コンピュータ実施方法は次のステップを含み得る:
クライアント装置内に含まれる撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを提供するステップであって、前記動画データはオンラインシステムの1つ以上のユーザを含む、提供するステップと、
前記クライアントによって維持されている1つ以上のモデルを前記キャプチャされた動画データの特徴に対して適用するステップと、
前記キャプチャされた動画データ内に含まれる、オンラインシステムの前記1つ以上のユーザを、位置決めするステップと、
前記動画データを前記オンラインシステムへと送信するステップと、
前記オンラインシステムから前記キャプチャされた動画データ内の興味対象ユーザを特定する情報を受信するステップと、
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップと、
前記修正された1つ以上のパラメータを用いて前記撮像装置によって以後キャプチャされた動画データを、前記オンラインシステムへと送信するステップ。
According to one embodiment in accordance with the invention, a computer-implemented method may include the steps of:
providing captured video data for a local area within a field of view of an imaging device included in a client device, said video data including one or more users of an online system;
applying one or more models maintained by the client to features of the captured video data;
locating the one or more users of an online system included within the captured video data;
transmitting the video data to the online system;
receiving information from the online system identifying users of interest in the captured video data;
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; a highlighting step;
Sending video data subsequently captured by the imaging device using the modified one or more parameters to the online system.
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によって以後キャプチャされた前記動画データの部分であって前記興味対象ユーザを含む部分の倍率を増大させるステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
increasing the magnification of the portion of the video data subsequently captured by the imaging device that includes the user of interest.
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によって以後キャプチャされた前記動画データを修正して、前記撮像装置によって以後キャプチャされた前記動画データの1つ以上の部分であって前記興味対象ユーザを含まない1つ以上の部分を除去するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
modifying the video data subsequently captured by the imaging device to remove one or more portions of the video data subsequently captured by the imaging device that do not include the user of interest step to do.
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップと、
前記撮像装置の焦点を前記興味対象ユーザへと再調整するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
identifying the user of interest in video data captured by the imaging device;
Refocusing the imaging device to the user of interest.
前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップは、次のステップを含み得る:
1つ以上の顔認識モデルを適用して前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップ。
Identifying the user of interest within video data captured by the imaging device may include the steps of:
Applying one or more facial recognition models to identify the user of interest in video data captured by the imaging device.
前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップは、次のステップを含み得る:
前記興味対象ユーザを含む前記キャプチャされた動画データの部分からカラーマップを抽出するステップ。
Identifying the user of interest within video data captured by the imaging device may include the steps of:
Extracting a color map from the portion of the captured video data that includes the user of interest.
本発明による1つの実施形態によれば、コンピュータ実施方法は次のステップを含み得る:
前記オンラインシステムから命令を受信して前記撮像装置によってキャプチャされた追加の動画データを修正するステップと、
前記受信した命令に応答して前記撮像装置の前記1つ以上のパラメータを修正するステップ。
According to one embodiment in accordance with the invention, a computer-implemented method may include the steps of:
receiving instructions from the online system to modify additional video data captured by the imaging device;
modifying the one or more parameters of the imaging device in response to the received instructions.
前記受信した命令に応答して前記撮像装置の前記1つ以上のパラメータを修正するステップは、次のステップを含み得る:
前記興味対象ユーザが前記撮像装置の視野内で動くのに付随して前記撮像装置を再配置するステップ。
Modifying the one or more parameters of the imaging device in response to the received instructions may include:
Repositioning the imaging device as the user of interest moves within the field of view of the imaging device.
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
1つ以上のモデルを、前記撮像装置によって以後キャプチャされた前記動画データであって前記興味対象ユーザの動きを特定する動画データに対して、適用するステップと、
前記興味対象ユーザの特定された動きに基づいて前記撮像装置の視野を修正するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
applying one or more models to the video data subsequently captured by the imaging device that identifies movement of the user of interest;
Modifying the field of view of the imaging device based on the identified movement of the user of interest.
本発明による1つの実施形態によれば、コンピュータ実施方法は次のステップを含み得る:
クライアント装置内に含まれる撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを、オンラインシステムにて、受信するステップであって、前記動画データはオンラインシステムの1つ以上のユーザを含む、受信するステップと、
前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する情報を、検索するステップと、
前記オンラインシステムの閲覧ユーザを特定するステップと、
前記動画データ及び前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する前記情報を、前記閲覧ユーザと関連付けられた追加のクライアント装置へと送信するステップと、
前記追加のクライアント装置から前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザの興味対象ユーザを特定する情報を受信するステップと、
前記興味対象ユーザを特定する情報を前記クライアント装置へと送信するステップと、
前記クライアント装置の前記撮像装置によってキャプチャされた追加の動画データを受信するステップであって、前記追加の動画データはクロッピング又はズーミングされてより際立たされた前記興味対象ユーザを含む部分を含む、受信するステップと、
前記追加の動画データを前記追加のクライアント装置へと送信するステップ。
According to one embodiment in accordance with the invention, a computer-implemented method may include the steps of:
receiving, at an online system, captured video data for a local area within a field of view of an imaging device included in a client device, said video data including one or more users of the online system; receiving;
retrieving information identifying the one or more users of the online system contained within the video data;
identifying users viewing the online system;
transmitting the video data and the information identifying the one or more users of the online system contained within the video data to an additional client device associated with the viewing user;
receiving information identifying users of interest of the one or more users of the online system included in the video data from the additional client device;
transmitting information identifying the user of interest to the client device;
receiving additional video data captured by the imaging device of the client device, the additional video data including a portion including the user of interest that has been cropped or zoomed to make it more prominent; a step;
transmitting the additional video data to the additional client device;
前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する情報を、検索するステップは次のステップを含み得る:
前記オンラインシステムを介して前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定するステップと、
前記オンラインシステムを介して前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定する情報を検索するステップ。
Retrieving information identifying the one or more users of the online system contained within the video data may include:
identifying a user of the online system included in the online system connected to the viewing user via the online system;
retrieving information identifying a user of the online system contained in the online system connected to the viewing user via the online system;
前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する情報を、検索するステップは次のステップを含み得る:
前記オンラインシステムを介して前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定するステップと、
前記動画データ内に含まれる前記オンラインシステムの前記ユーザを特定する情報であって、前記オンラインシステムを介して前記閲覧ユーザに接続された前記動画データ内に含まれるユーザを 前記オンラインシステムを介して前記閲覧ユーザに接続されていない動画データ内含有ユーザから 視覚的に区別する情報を、生成するステップ。
Retrieving information identifying the one or more users of the online system contained within the video data may include:
identifying a user of the online system included in the online system connected to the viewing user via the online system;
information specifying the user of the online system included in the moving image data, the user included in the moving image data connected to the browsing user via the online system being identified as the user via the online system; Generating information that visually distinguishes from users contained within the video data that are not connected to the viewing user.
前記動画データ内に含まれる前記オンラインシステムの前記1つ以上のユーザを特定する情報を、検索するステップは次のステップを含み得る:
前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性を決定するステップと、
前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて、生成するステップ。
Retrieving information identifying the one or more users of the online system contained within the video data may include:
determining the viewing user's relevance for each user of the online system included in the video data;
Generating information identifying each user of the online system included in the video data based on the viewing user's relevance to each user of the online system included in the video data.
前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて、生成するステップは次のステップを含み得る:
関連性が少なくとも閾値となる前記閲覧ユーザについて、前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を生成するステップ。
The step of generating information specifying each user of the online system included in the video data based on the relevance of the viewing user to each user of the online system included in the video data is as follows: May include steps:
Generating information identifying each user of the online system included in the video data for the viewing users whose relevance is at least a threshold.
前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて、生成するステップは次のステップを含み得る:
前記動画データ内に含まれる前記オンラインシステムの前記ユーザを、前記動画データ内に含まれる前記オンラインシステムの前記ユーザについての前記閲覧ユーザの関連性に基づいて、ランク付けするステップと、
前記ランク付けにおける順位が少なくとも閾値となるユーザについて、前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、生成するステップ。
The step of generating information specifying each user of the online system included in the video data based on the relevance of the viewing user to each user of the online system included in the video data is as follows: May include steps:
ranking the users of the online system included in the video data based on the viewing user's relevance to the users of the online system included in the video data;
Generating information identifying each user of the online system included in the video data for users whose rank in the ranking is at least a threshold.
本発明による1つの実施形態によれば、コンピュータ実施方法は次のステップを含み得る:
前記オンラインシステムにて命令を前記追加のクライアント装置から受信して前記クライアント装置の前記撮像装置によってキャプチャされた動画データを修正するステップと、
前記命令を前記クライアント装置へと送信するステップと、
前記命令に基づいて前記撮像装置によってキャプチャされた追加の動画データを前記クライアント装置から受信するステップと、
前記追加の動画データを前記オンラインシステムから前記追加のクライアント装置へと送信するステップ。
According to one embodiment in accordance with the invention, a computer-implemented method may include the steps of:
receiving instructions at the online system from the additional client device to modify video data captured by the imaging device of the client device;
sending said instructions to said client device;
receiving from the client device additional video data captured by the imaging device based on the instructions;
transmitting the additional video data from the online system to the additional client device;
本発明による1つの実施形態では、符号化された命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品においては該命令がプロセッサによって実行されると、該プロセッサによって次のステップがなされ得る:
クライアント装置内に含まれる撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを提供するステップであって、前記動画データはオンラインシステムの1つ以上のユーザを含む、提供するステップと、
前記クライアントによって維持されている1つ以上のモデルを前記キャプチャされた動画データの特徴に対して適用するステップと、
前記キャプチャされた動画データ内に含まれる、オンラインシステムの前記1つ以上のユーザを、位置決めするステップと、
前記動画データを前記オンラインシステムへと送信するステップと、
前記オンラインシステムから前記キャプチャされた動画データ内の興味対象ユーザを特定する情報を受信するステップと、
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップと、
前記修正された1つ以上のパラメータを用いて前記撮像装置によって以後キャプチャされた動画データを、前記オンラインシステムへと送信するステップ。
In one embodiment according to the invention, in a computer program product comprising a computer readable storage medium having encoded instructions, the following steps may be taken by the processor when the instructions are executed by the processor:
providing captured video data for a local area within a field of view of an imaging device included in a client device, said video data including one or more users of an online system;
applying one or more models maintained by the client to features of the captured video data;
locating the one or more users of an online system included within the captured video data;
transmitting the video data to the online system;
receiving information from the online system identifying users of interest in the captured video data;
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; a highlighting step;
Sending video data subsequently captured by the imaging device using the modified one or more parameters to the online system.
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によって以後キャプチャされた前記動画データを修正して、前記撮像装置によって以後キャプチャされた前記動画データの1つ以上の部分であって前記興味対象ユーザを含まない1つ以上の部分を除去するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
modifying the video data subsequently captured by the imaging device to remove one or more portions of the video data subsequently captured by the imaging device that do not include the user of interest step to do.
前記撮像装置の1つ以上のパラメータを修正して前記撮像装置によって以後キャプチャされた動画データを修正して前記興味対象ユーザを含む前記動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップは、次のステップを含み得る:
前記撮像装置によってキャプチャされた動画データ内の前記興味対象ユーザを特定するステップと、
前記撮像装置の焦点を前記興味対象ユーザへと再調整するステップ。
modifying one or more parameters of the imaging device to modify video data subsequently captured by the imaging device to crop or zoom portions of the video data containing the user of interest to better represent the user of interest; The highlighting step may include the following steps:
identifying the user of interest in video data captured by the imaging device;
Refocusing the imaging device to the user of interest.
本発明による1つの実施形態では、1つ以上のコンピュータ可読非一時的記憶媒体は、本発明による方法又は前述の実施形態のいずれかを実施するために実行されたときに動作可能であるソフトウェアを具体化し得る。 In one embodiment according to the invention, one or more computer-readable non-transitory storage media carry software operable when executed to perform the method according to the invention or any of the foregoing embodiments. can be materialized.
本発明による1つの実施形態では、システムは次の要素を備え得る:1つ以上のプロセッサと、プロセッサに結合された少なくとも1つのメモリであって、該メモリはプロセッサによって実行可能な命令を含み、プロセッサが命令を実行するに際してプロセッサは本発明又は任意の上述の実施形態による命令を実施するように動作可能である、メモリ。 In one embodiment according to the invention, a system may comprise the following elements: one or more processors and at least one memory coupled to the processors, the memory containing instructions executable by the processors; A memory in which the processor is operable to implement instructions according to the present invention or any of the above-described embodiments as the processor executes the instructions.
本発明による1つの実施形態では、好ましくはコンピュータ可読非一時的記憶媒体を含むコンピュータプログラム製品は、データ処理システム上で実行されたときに、本発明による方法又は前述の実施形態のいずれかを実施するように動作可能であり得る。 In one embodiment according to the invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs the method according to the invention or any of the foregoing embodiments when executed on a data processing system. may be operable to
本発明による1つの実施形態では、それがコンピュータによって実施される場合には特に、方法は次のステップを含み得る:
1つ以上のモデルをクライアント装置にて維持するステップであって、各モデルは1つ以上の規則を適用して 前記撮像装置によってキャプチャされた前記動画データの特徴に基づいて 前記クライアント装置の撮像装置によってキャプチャされた動画データ内にいるオンラインシステムのユーザの身体のどの部分であるかを決定するステップと、
クライアント装置内に含まれる前記撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを提供するステップと、
前記キャプチャされた動画データ内に含まれる前記ユーザを位置決めするステップと、
1つ以上の前記維持されているモデルを前記キャプチャされた動画データに適用するステップと、前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの部分についてクロッピング又はズーミングするステップと、
前記修正された動画データを前記オンラインシステムへと送信するステップ。
In one embodiment according to the invention, particularly when it is computer-implemented, the method may include the steps of:
maintaining one or more models on a client device, each model applying one or more rules based on features of the video data captured by the imaging device of the client device; determining which part of the body of a user of the online system is within the video data captured by
providing captured video data for a local area within the field of view of the imaging device contained within a client device;
locating the user included within the captured video data;
applying one or more of the maintained models to the captured video data; and modifying video data captured by the imaging device based on applying the one or more models to the user. cropping or zooming a portion of the video data that includes one or more portions of
sending said modified video data to said online system;
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記ユーザの身体の関節を特定するステップと、
前記1つ以上のモデルに含まれる1つ以上の規則に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの身体の異なる部分に対応する関節を含めるステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
identifying joints of the user's body;
Modifying video data captured by the imaging device to include joints corresponding to different parts of the user's body based on one or more rules contained in the one or more models.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
下記の群から1つ以上を選択したものが含まれることとなるように前記動画データを修正するステップ:前記ユーザの頭部、前記ユーザの胴体、前記ユーザの全身、及び前記1つ以上のモデル内に含まれる1つ以上の規則の適用に基づいてのそれらについての任意の組み合わせからなる群。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
modifying said video data to include a selection of one or more from the following group: said user's head, said user's torso, said user's full body, and said one or more models; A group consisting of any combination thereof based on the application of one or more rules contained within.
前記1つ以上の規則は下記の群から選択した1つ以上に基づいていることができる:前記撮像装置によって以前キャプチャされた動画データの内容、前記撮像装置によって以前キャプチャされた動画データ内の前記ユーザの動き、及びそれらについての任意の組み合わせからなる群。 The one or more rules may be based on one or more selected from the following group: content of video data previously captured by the imaging device; A group consisting of user movements and any combination thereof.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用から、前記ローカルエリア内のオブジェクトに向かって前記ユーザが身振りしていることを決定するステップと、
前記撮像装置の倍率を減少させて前記撮像装置によってキャプチャされる追加の動画データが前記ユーザと前記ユーザからの身振りを向けられている前記オブジェクトとを含むようにするステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
determining from application of the one or more models that the user is gesturing toward an object within the local area;
Decreasing the magnification of the imaging device such that additional video data captured by the imaging device includes the user and the object to which the user is gesturing.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用から、前記ローカルエリア内のオブジェクトを前記ユーザがホールドしていることを決定するステップと、
撮像装置のヴォーカルポイントをオブジェクトへと移し、また、撮像装置の倍率を増大させるステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
determining from application of the one or more models that the user is holding an object within the local area;
Moving the vocal point of the imager to the object and increasing the magnification of the imager.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用に基づいて前記撮像装置の視野に影響を及ぼす前記撮像装置の1つ以上のパラメータを修正するステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
Modifying one or more parameters of the imaging device that affect the field of view of the imaging device based on application of the one or more models.
撮像装置のパラメータには、撮像装置の倍率が含まれ得る。 The imaging device parameters may include the magnification of the imaging device.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記撮像装置によってキャプチャされた動画データを修正して前記特定されたユーザを含む前記キャプチャされた動画データの部分の倍率を修正するステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
Modifying the video data captured by the imaging device to modify the magnification of the portion of the captured video data that includes the identified user.
前記キャプチャされた動画データ内に含まれる前記ユーザを位置決めするステップは次のステップを含み得る:
前記オンラインシステムから前記ユーザを特定する情報を受信するステップと、
前記受信された情報に基づいて、前記特定されたユーザを含む前記撮像装置によってキャプチャされた動画データの部分を特定するステップ。
Locating the user included within the captured video data may include the steps of:
receiving information identifying the user from the online system;
Based on the received information, identifying a portion of video data captured by the imaging device that includes the identified user.
本発明による1つの実施形態では、符号化された命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品においては該命令がプロセッサによって実行されると、該プロセッサによって次のステップがなされ得る:
1つ以上のモデルをクライアント装置にて維持するステップであって、各モデルは1つ以上の規則を適用して 前記撮像装置によってキャプチャされた前記動画データの特徴に基づいて 前記クライアント装置の撮像装置によってキャプチャされた動画データ内にいるユーザの身体のどの部分であるかを決定するステップと、
クライアント装置内に含まれる前記撮像装置の視野内のローカルエリアについてのキャプチャされた動画データを提供するステップと、
前記キャプチャされた動画データ内に含まれる前記ユーザを位置決めするステップと、
1つ以上の前記維持されているモデルを前記キャプチャされた動画データに適用するステップと、
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの部分についてクロッピング又はズーミングするステップと、
前記修正された動画データを前記オンラインシステムへと送信するステップ。
In one embodiment according to the invention, in a computer program product comprising a computer readable storage medium having encoded instructions, the following steps may be taken by the processor when the instructions are executed by the processor:
maintaining one or more models on a client device, each model applying one or more rules based on features of the video data captured by the imaging device of the client device; determining which part of the user's body is within the video data captured by
providing captured video data for a local area within the field of view of the imaging device contained within a client device;
locating the user included within the captured video data;
applying one or more of the maintained models to the captured video data;
modifying video data captured by the imaging device based on application of the one or more models to crop or zoom portions of the video data that include one or more portions of the user;
sending said modified video data to said online system;
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記ユーザの身体の関節を特定するステップと、
前記1つ以上のモデルに含まれる1つ以上の規則に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの身体の異なる部分に対応する関節を含めるステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
identifying joints of the user's body;
Modifying video data captured by the imaging device to include joints corresponding to different parts of the user's body based on one or more rules contained in the one or more models.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
下記の群から1つ以上を選択したものが含まれることとなるように前記動画データを修正するステップ:前記ユーザの頭部、前記ユーザの胴体、前記ユーザの全身、及び前記1つ以上のモデル内に含まれる1つ以上の規則の適用に基づいてのそれらについての任意の組み合わせからなる群。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
modifying said video data to include a selection of one or more from the following group: said user's head, said user's torso, said user's full body, and said one or more models; A group consisting of any combination thereof based on the application of one or more rules contained within.
前記1つ以上の規則は下記の群から選択した1つ以上に基づいていることができる:前記撮像装置によって以前キャプチャされた動画データの内容、前記撮像装置によって以前キャプチャされた動画データ内の前記ユーザの動き、及びそれらについての任意の組み合わせからなる群。 The one or more rules may be based on one or more selected from the following group: content of video data previously captured by the imaging device; A group consisting of user movements and any combination thereof.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用から、前記ローカルエリア内のオブジェクトに向かって前記ユーザが身振りしていることを決定するステップと、
前記撮像装置の倍率を減少させて前記撮像装置によってキャプチャされる追加の動画データが前記ユーザと前記ユーザからの身振りを向けられている前記オブジェクトとを含むようにするステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
determining from application of the one or more models that the user is gesturing toward an object within the local area;
Decreasing the magnification of the imaging device such that additional video data captured by the imaging device includes the user and the object to which the user is gesturing.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用から、前記ローカルエリア内のオブジェクトを前記ユーザがホールドしていることを決定するステップと、
前記撮像装置の焦点を前記オブジェクトへと移し、また、前記撮像装置の倍率を増大させるステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
determining from application of the one or more models that the user is holding an object within the local area;
Moving the focus of the imaging device to the object and increasing the magnification of the imaging device.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記1つ以上のモデルの適用に基づいて前記撮像装置の視野に影響を及ぼす前記撮像装置の1つ以上のパラメータを修正するステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
Modifying one or more parameters of the imaging device that affect the field of view of the imaging device based on application of the one or more models.
撮像装置のパラメータには、撮像装置の倍率が含まれ得る。 The imaging device parameters may include the magnification of the imaging device.
前記1つ以上のモデルの適用に基づいて、前記撮像装置によってキャプチャされた動画データを修正して前記ユーザの部分を1つ以上含む前記動画データの前記部分についてクロッピング又はズーミングするステップは次のステップを含み得る:
前記撮像装置によってキャプチャされた動画データを修正して前記ユーザを含む前記キャプチャされた動画データの部分の倍率を修正するステップ。
modifying the video data captured by the imaging device based on the application of the one or more models to crop or zoom the portions of the video data that include one or more of the user's portions; can contain:
Modifying the video data captured by the imaging device to modify the magnification of the portion of the captured video data that includes the user.
前記キャプチャされた動画データ内に含まれる前記ユーザを位置決めするステップは次のステップを含み得る:
前記オンラインシステムから前記ユーザを特定する情報を受信するステップと、
前記受信された情報に基づいて、前記特定されたユーザを含む前記撮像装置によってキャプチャされた動画データの部分を特定するステップ。
Locating the user included within the captured video data may include the steps of:
receiving information identifying the user from the online system;
Based on the received information, identifying a portion of video data captured by the imaging device that includes the identified user.
本発明による1つの実施形態では、1つ以上のコンピュータ可読非一時的記憶媒体は、本発明による方法又は前述の実施形態のいずれかを実施するために実行されたときに動作可能であるソフトウェアを具体化し得る。 In one embodiment according to the invention, one or more computer-readable non-transitory storage media carry software operable when executed to perform the method according to the invention or any of the foregoing embodiments. can be materialized.
本発明による1つの実施形態では、システムは次の要素を備え得る:1つ以上のプロセッサと、プロセッサに結合された少なくとも1つのメモリであって、該メモリはプロセッサによって実行可能な命令を含み、プロセッサが命令を実行するに際してプロセッサは本発明又は任意の上述の実施形態による命令を実施するように動作可能である、メモリ。 In one embodiment according to the invention, a system may comprise the following elements: one or more processors and at least one memory coupled to the processors, the memory containing instructions executable by the processors; A memory in which the processor is operable to implement instructions according to the present invention or any of the above-described embodiments as the processor executes the instructions.
本発明による1つの実施形態では、好ましくはコンピュータ可読非一時的記憶媒体を含むコンピュータプログラム製品は、データ処理システム上で実行されたときに、本発明による方法又は前述の実施形態のいずれかを実施するように動作可能であり得る。 In one embodiment according to the invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs the method according to the invention or any of the foregoing embodiments when executed on a data processing system. may be operable to
本発明による1つの実施形態では、それがコンピュータによって実施される場合には特に、方法は次のステップを含み得る:
クライアント装置にて1つ以上のモデルを維持するステップであって、各モデルは1つ以上の規則を適用して前記クライアント装置の撮像装置によってキャプチャされた動画データ内のユーザを位置決めし且つ前記動画データ内に示すべき1つ以上の前記位置決め済みユーザを決定する、維持するステップと、
クライアント装置内に含まれる前記撮像装置の視野内のローカルエリアについての動画データをキャプチャするステップと、
前記キャプチャされた動画データ内にて複数のユーザを位置決めするステップと、
1つ以上の前記維持されているモデルを前記キャプチャされた動画データに適用するステップと、
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップと、
前記修正された動画データを前記クライアント装置からオンラインシステムへと送信するステップ。
In one embodiment according to the invention, particularly when it is computer-implemented, the method may include the steps of:
maintaining one or more models on a client device, each model applying one or more rules to locate a user within video data captured by an imaging device of the client device; determining and maintaining one or more of the positioned users to represent in data;
capturing video data for a local area within the field of view of the imaging device contained within a client device;
positioning a plurality of users within the captured video data;
applying one or more of the maintained models to the captured video data;
modifying the captured video data to indicate one or more of the positioned users based on application of the one or more of the maintained models;
transmitting the modified video data from the client device to an online system;
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記1つ以上の前記維持されたモデルの適用に基づいて前記撮像装置の1つ以上のパラメータを修正するステップと、
前記ローカルエリアについての追加の動画データを、前記撮像装置の前記修正された1つ以上のパラメータを用いて、キャプチャするステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
modifying one or more parameters of the imaging device based on application of the one or more of the maintained models;
Capturing additional video data for the local area using the modified one or more parameters of the imaging device.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
1つ以上の維持されているモデルの適用によって、前記位置決め済みユーザの視線が向けられているキャプチャされた動画データ内の箇所を決定するステップと、
前記撮像装置の焦点を、少なくとも閾値となる人数分の位置決め済みユーザの視線が向けられている位置決め済みユーザへと、修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
determining where in the captured video data the positioned user's gaze is directed by application of one or more maintained models;
Correcting the focus of the imaging device to positioned users to which at least a threshold number of positioned users are gazed.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データ内で位置決め済みの異なるユーザ間の距離を決定するステップと、
追加でキャプチャされた動画データが相互に閾値距離内となっているユーザを含むものとなるように前記撮像装置の焦点を修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
determining distances between different users positioned within the captured video data;
Modifying the focus of the imaging device so that additionally captured video data includes users within a threshold distance of each other.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記クライアント装置に含まれる音声キャプチャ装置を介して音声データをキャプチャするステップと、
前記維持されているモデルの1つ以上を、前記キャプチャされた音声データと前記キャプチャされた動画データとに対して適用することによって、前記ローカルエリア内の前記音声データの源泉を決定するステップと、
前記ローカルエリア内の前記音声データの前記源泉はユーザであると決定するステップと、
前記ローカルエリア内の前記音声データの前記源泉は前記ユーザであると決定したことに応答して、前記撮像装置の焦点を、前記音声データの前記源泉へと修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
capturing audio data via an audio capture device included in the client device;
determining the origin of the audio data within the local area by applying one or more of the maintained models to the captured audio data and the captured video data;
determining that the source of the audio data within the local area is a user;
Refocusing the imaging device to the source of the audio data in response to determining that the source of the audio data within the local area is the user.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記維持されているモデルの1つ以上の適用によって位置決め済みユーザの動きを特定するステップと、
前記位置決め済みユーザの特定された動きに基づいて前記撮像装置の視野を修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
identifying movement of the positioned user by applying one or more of the maintained models;
Modifying the field of view of the imaging device based on the identified movement of the positioned user.
前記維持されているモデルの1つ以上の適用によって位置決め済みユーザの動きを特定するステップは、次のステップを含み得る:
前記位置決め済みユーザが前記ローカルエリア内に含まれるオブジェクトに向かって身振りしていると特定するステップ。
Identifying motion of the positioned user by applying one or more of the maintained models may include the steps of:
identifying that the positioned user is gesturing toward an object contained within the local area;
前記撮像装置の視野を修正するステップは、次のステップを含み得る:
前記撮像装置の倍率を減少させて前記撮像装置によってキャプチャされる追加の動画データが前記位置決め済みユーザと前記位置決め済みユーザからの身振りを向けられている前記オブジェクトとを含むようにするステップ。
Modifying the field of view of the imager may include the steps of:
Decreasing the magnification of the imaging device such that additional video data captured by the imaging device includes the positioned user and the object to which the positioned user is gesturing.
前記維持されているモデルの1つ以上の適用によって位置決め済みユーザの動きを特定するステップは、次のステップを含み得る:
前記1つ以上の維持されているモデルの適用から、前記ローカルエリア内のオブジェクトを前記位置決め済みユーザがホールドしていることを決定するステップ。
Identifying motion of the positioned user by applying one or more of the maintained models may include the steps of:
Determining from the application of the one or more maintained models that the positioned user is holding an object within the local area.
前記撮像装置の視野を修正するステップは、次のステップを含み得る:
前記撮像装置の焦点を前記オブジェクトへと移し、また、前記撮像装置の倍率を増大させるステップ。
Modifying the field of view of the imager may include the steps of:
Moving the focus of the imaging device to the object and increasing the magnification of the imaging device.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データを修正するステップであって、各位置決め済みユーザが、前記キャプチャされた動画データ内において少なくとも閾値寸法にて少なくとも閾値期間にわたって、提示されることとなる、修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
Modifying the captured video data such that each positioned user is presented in the captured video data at least a threshold dimension and for at least a threshold period of time.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データを修正するステップであって、各位置決め済みユーザが、前記キャプチャされた動画データ内において少なくとも閾値期間にわたって、提示されることとなる、修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
Modifying the captured video data, wherein each positioned user will be presented in the captured video data for at least a threshold period of time.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記維持されているモデルの1つ以上の適用によって前記キャプチャされた動画データ内のユーザの顔を特定するステップと、
前記キャプチャされた動画データを修正して、前記キャプチャされた動画データの、前記ユーザの前記顔を含まない部分を除去するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
identifying a user's face in the captured video data by applying one or more of the maintained models;
Modifying the captured video data to remove portions of the captured video data that do not include the face of the user.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データを修正して前記位置決め済みユーザの各々を含めるステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
modifying the captured video data to include each of the positioned users;
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記1つ以上の維持されているモデルの適用によって前記キャプチャされた動画データを安定化するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
Stabilizing the captured video data by applying the one or more maintained models.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
比較するステップであって、前記キャプチャされた動画データ内の位置決め済みユーザを、前記キャプチャされた動画データで少なくとも閾値寸法を伴って以前提示されたことがある前記キャプチャされた動画データ内に含まれるユーザについて記述する格納済みデータと、比較するステップと、
前記キャプチャされた動画データを修正して前記位置決め済みユーザを際立って提示するステップであって、該ステップは、前記特定されたユーザが、前記キャプチャされた動画データ内に含まれる以前は少なくとも閾値寸法を伴っていたユーザに、前記キャプチャされた動画データで合致しないと決定した比較ステップに応じてなされる、ステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
comparing, wherein positioned users in said captured video data are included in said captured video data that have been previously presented with at least a threshold dimension in said captured video data. stored data describing the user; and comparing;
modifying the captured video data to prominently present the located user, wherein the identified user has at least a threshold dimension before being included in the captured video data. , in response to a comparing step that determines that the captured video data does not match.
本発明による1つの実施形態では、符号化された命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品においては該命令がプロセッサによって実行されると、該プロセッサによって次のステップがなされ得る:
クライアント装置にて1つ以上のモデルを維持するステップであって、各モデルは1つ以上の規則を適用して前記クライアント装置の撮像装置によってキャプチャされた動画データ内のユーザを位置決めし且つ前記動画データの特徴から前記動画データ内に示すべき1つ以上の前記位置決め済みユーザを決定する、維持するステップと、
クライアント装置内に含まれる前記撮像装置の視野内のローカルエリアについての動画データをキャプチャするステップと、
前記キャプチャされた動画データ内にて複数のユーザを位置決めするステップと、
1つ以上の前記維持されているモデルを前記キャプチャされた動画データに適用するステップと、
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップ。
前記修正された動画データを前記クライアント装置からオンラインシステムへと送信するステップ。
In one embodiment according to the invention, in a computer program product comprising a computer readable storage medium having encoded instructions, the following steps may be taken by the processor when the instructions are executed by the processor:
maintaining one or more models on a client device, each model applying one or more rules to locate a user within video data captured by an imaging device of the client device; determining and maintaining one or more of the positioned users to be represented within the video data from data characteristics;
capturing video data for a local area within the field of view of the imaging device contained within a client device;
positioning a plurality of users within the captured video data;
applying one or more of the maintained models to the captured video data;
Modifying the captured animation data to indicate one or more of the positioned users based on application of the one or more of the maintained models.
transmitting the modified video data from the client device to an online system;
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
1つ以上の維持されているモデルの適用によって、前記位置決め済みユーザの視線が向けられているキャプチャされた動画データ内の箇所を決定するステップと、
前記撮像装置の焦点を、少なくとも閾値となる人数分の既特定人の視線が向けられている位置決め済み人物へと、修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
determining where in the captured video data the positioned user's gaze is directed by application of one or more maintained models;
Refocusing the imaging device to a positioned person having at least a threshold number of identified persons in their line of sight.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記キャプチャされた動画データ内で位置決め済みの異なるユーザ間の距離を決定するステップと、
追加でキャプチャされた動画データが相互に閾値距離内となっている人物を含むものとなるように前記撮像装置の焦点を修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
determining distances between different users positioned within the captured video data;
Modifying the focus of the imaging device so that additionally captured video data includes persons within a threshold distance of each other.
前記キャプチャされた動画データを修正して前記1つ以上の前記維持されているモデルの適用に基づいて前記位置決め済みユーザの1つ以上を示すステップは、次のステップを含み得る:
前記クライアント装置に含まれる音声キャプチャ装置を介して音声データをキャプチャするステップと、
前記維持されているモデルの1つ以上を、前記キャプチャされた音声データと前記キャプチャされた動画データとに対して適用することによって、前記ローカルエリア内の前記音声データの源泉を決定するステップと、
前記ローカルエリア内の前記音声データの前記源泉は位置決め済みユーザであると決定するステップと、
前記ローカルエリア内の前記音声データの前記源泉は前記位置決め済みユーザであると決定したことに応答して、前記撮像装置の焦点を、前記音声データの前記源泉へと修正するステップ。
Modifying the captured video data to indicate one or more of the positioned users based on application of the one or more maintained models may include the steps of:
capturing audio data via an audio capture device included in the client device;
determining the origin of the audio data within the local area by applying one or more of the maintained models to the captured audio data and the captured video data;
determining that the source of the audio data within the local area is a located user;
Refocusing the imaging device to the source of the audio data in response to determining that the source of the audio data within the local area is the located user.
本発明による1つの実施形態では、1つ以上のコンピュータ可読非一時的記憶媒体は、本発明による方法又は前述の実施形態のいずれかを実施するために実行されたときに動作可能であるソフトウェアを具体化し得る。 In one embodiment according to the invention, one or more computer-readable non-transitory storage media carry software operable when executed to perform the method according to the invention or any of the foregoing embodiments. can be materialized.
本発明による1つの実施形態では、システムは次の要素を備え得る:1つ以上のプロセッサと、プロセッサに結合された少なくとも1つのメモリであって、該メモリはプロセッサによって実行可能な命令を含み、プロセッサが命令を実行するに際してプロセッサは本発明又は任意の上述の実施形態による命令を実施するように動作可能である、メモリ。 In one embodiment according to the invention, a system may comprise the following elements: one or more processors and at least one memory coupled to the processors, the memory containing instructions executable by the processors; A memory in which the processor is operable to implement instructions according to the present invention or any of the above-described embodiments as the processor executes the instructions.
本発明による1つの実施形態では、好ましくはコンピュータ可読非一時的記憶媒体を含むコンピュータプログラム製品は、データ処理システム上で実行されたときに、本発明による方法又は前述の実施形態のいずれかを実施するように動作可能であり得る。 In one embodiment according to the invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs the method according to the invention or any of the foregoing embodiments when executed on a data processing system. may be operable to
Claims (19)
前記撮像装置(117)が、当該撮像装置(117)の視野内のローカルエリアについてのキャプチャされた第1の動画データを提供するステップを含み、前記第1の動画データはオンラインソーシャルネットワークシステムの1人以上のユーザを含み、且つ前記方法は、
前記コントローラ(210)が、前記第1の動画データ内でキャプチャされた前記1人以上のユーザについて、1つ以上のプライバシ設定を維持するステップと、
前記1人以上のユーザの前記1つ以上のプライバシ設定に基づいて、前記コントローラ(210)が、前記クライアント装置(110)によって維持されている1つ以上のモデルを前記キャプチャされた第1の動画データの特徴に対して適用することにより、前記キャプチャされた第1の動画データ内に含まれる前記オンラインソーシャルネットワークシステムの前記1人以上のユーザを位置決めするステップと、
位置決め済みの前記1人以上のユーザを含む前記第1の動画データを前記オンラインソーシャルネットワークシステムへと送信するステップと、
前記オンラインソーシャルネットワークシステムを介して、前記キャプチャされた第1の動画データ内の位置決め済みの前記1人以上のユーザの中から興味対象ユーザを特定する情報を受信するステップと、
前記興味対象ユーザの前記1つ以上のプライバシ設定に基づいて、前記コントローラ(210)が、前記撮像装置(117)の1つ以上のパラメータを修正して、前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップと、
修正された前記1つ以上のパラメータを用いて前記撮像装置(117)によって以後キャプチャされた前記第2の動画データを、前記オンラインソーシャルネットワークシステムへと送信するステップと、によって特徴付けられる、コンピュータ実施方法。 A computer-implemented method for modifying video data captured by a client device (110) including an imaging device (117), wherein a controller (210) is coupled to the imaging device (117), the method comprising: ,
said imaging device (117) providing captured first video data for a local area within the field of view of said imaging device (117) , said first video data being one of an online social network system; comprising at least one user , and wherein the method comprises :
said controller (210) maintaining one or more privacy settings for said one or more users captured within said first video data;
Based on the one or more privacy settings of the one or more users, the controller (210) converts one or more models maintained by the client device (110) into the captured first animation. locating the one or more users of the online social network system included within the captured first video data by applying to data characteristics ;
sending said first video data including said one or more users positioned to said online social network system;
receiving , via the online social network system, information identifying users of interest from among the one or more users positioned within the captured first video data;
Based on the one or more privacy settings of the user of interest, the controller (210) modifies one or more parameters of the imaging device (117) to be subsequently captured by the imaging device (117). modifying the second moving image data to make the interested user stand out more by cropping or zooming a portion of the second moving image data including the interested user;
and sending the second video data subsequently captured by the imaging device (117) using the modified one or more parameters to the online social network system. Implementation method.
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データの、前記興味対象ユーザを含む部分の倍率を増大させるステップを含む、コンピュータ実施方法。 2. The computer-implemented method of claim 1, wherein one or more parameters of the imaging device (117) are modified to modify second video data subsequently captured by the imaging device (117) to The step of cropping or zooming a portion of the second video data containing the target user to make the user of interest stand out more,
A computer-implemented method comprising increasing the magnification of a portion of said second video data subsequently captured by said imaging device (117) containing said user of interest.
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データを修正して、前記撮像装置(117)によって以後キャプチャされた前記第2の動画データの、前記興味対象ユーザを含まない1つ以上の部分を除去するステップを含む、コンピュータ実施方法。 3. The computer-implemented method of claim 1 or claim 2, wherein one or more parameters of the imaging device (117) are modified to modify second video data subsequently captured by the imaging device (117). and cropping or zooming a portion of the second moving image data containing the interested user to make the interested user stand out more,
modifying the second moving image data subsequently captured by the imaging device (117) to provide one of the second moving image data subsequently captured by the imaging device (117) that does not include the interested user; A computer-implemented method comprising the step of removing said portion.
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データ内の前記興味対象ユーザを特定するステップと、
前記撮像装置(117)の焦点を前記興味対象ユーザへと再調整するステップとを含む、コンピュータ実施方法。 4. The computer-implemented method of any of claims 1-3, wherein one or more parameters of the imaging device (117) are modified to affect second video data subsequently captured by the imaging device (117). Cropping or zooming a portion of the second video data that includes the user of interest by modifying to make the user of interest stand out more,
identifying the user of interest in the second video data subsequently captured by the imaging device (117) ;
refocusing said imaging device (117) onto said user of interest.
1つ以上の顔認識モデルを適用して前記撮像装置(117)によって以後キャプチャされた前記第2の動画データ内の前記興味対象ユーザを特定するステップを含む、コンピュータ実施方法。 5. The computer-implemented method of claim 4, wherein identifying the user of interest within the second video data subsequently captured by the imaging device (117) comprises:
A computer-implemented method, comprising applying one or more facial recognition models to identify the user of interest in the second video data subsequently captured by the imaging device (117) .
前記興味対象ユーザを含む前記以後キャプチャされた第2の動画データの部分からカラーマップを抽出するステップを含む、コンピュータ実施方法。 5. The computer-implemented method of claim 4, wherein identifying the user of interest within the second video data subsequently captured by the imaging device (117) comprises:
A computer-implemented method, comprising extracting a color map from the portion of the subsequently captured second video data that includes the user of interest.
前記オンラインソーシャルネットワークシステムから、前記撮像装置(117)によって以後キャプチャされる前記第2の動画データを修正するための命令を受信するステップと、
受信した前記命令に応答して前記撮像装置(117)の前記1つ以上のパラメータを修正するステップとをさらに含む、コンピュータ実施方法。 7. The computer-implemented method of any of claims 1-6,
receiving instructions from the online social network system to modify the second video data subsequently captured by the imaging device (117) ;
and modifying said one or more parameters of said imaging device (117) in response to said received instructions.
前記興味対象ユーザが前記撮像装置(117)の視野内で動くのに付随して前記撮像装置(117)を再配置するステップを含む、コンピュータ実施方法。 8. The computer-implemented method of claim 7 , wherein modifying said one or more parameters of said imaging device (117) in response to said received instructions comprises:
A computer-implemented method comprising repositioning the imaging device (117) as the user of interest moves within the field of view of the imaging device (117 ).
前記興味対象ユーザの動きを特定する1つ以上のモデルを、前記撮像装置(117)によって以後キャプチャされた前記第2の動画データに対して適用するステップと、
前記興味対象ユーザの特定された動きに基づいて前記撮像装置(117)の視野を修正するステップとを含む、コンピュータ実施方法。 9. The computer-implemented method of any of claims 1-8 , wherein one or more parameters of the imaging device (117) are modified to affect second video data subsequently captured by the imaging device (117). Cropping or zooming a portion of the second video data that includes the user of interest by modifying to make the user of interest stand out more,
applying one or more models identifying the movement of the user of interest to the second video data subsequently captured by the imaging device (117) ;
modifying the field of view of the imaging device (117) based on the identified movement of the user of interest.
クライアント装置(110)内に含まれる撮像装置(117)の視野内のローカルエリアについての動画データをオンラインシステムにて受信するステップであって、前記動画データはオンラインシステムの1人以上のユーザを含む、受信するステップと、
前記動画データ内に含まれる前記オンラインシステムの前記1人以上のユーザを特定する情報を検索するステップと、
前記オンラインシステムの閲覧ユーザを特定するステップと、
前記動画データと前記動画データ内に含まれる前記オンラインシステムの前記1人以上のユーザを特定する前記情報とを、前記閲覧ユーザと関連付けられた追加のクライアント装置(110)へと送信するステップと、
前記追加のクライアント装置(110)から前記動画データ内に含まれる前記オンラインシステムの前記1人以上のユーザの興味対象ユーザを特定する情報を受信するステップと、
前記興味対象ユーザを特定する情報を前記クライアント装置(110)へと送信するステップと、
前記クライアント装置(110)の前記撮像装置(117)によってキャプチャされた追加の動画データを受信するステップであって、前記追加の動画データはクロッピング又はズーミングされてより際立たされた前記興味対象ユーザを含む部分を含む、受信するステップと、
前記追加の動画データを前記追加のクライアント装置(110)へと送信するステップとを含む、コンピュータ実施方法。 A computer-implemented method comprising:
receiving in an online system video data for a local area within the field of view of an imaging device (117) included in a client device (110) , said video data being sent to one or more users of the online system; receiving;
retrieving information identifying the one or more users of the online system contained within the video data;
identifying users viewing the online system;
transmitting said video data and said information identifying said one or more users of said online system contained within said video data to an additional client device (110) associated with said viewing user;
receiving information identifying users of interest of the one or more users of the online system included in the video data from the additional client device (110) ;
transmitting information identifying the user of interest to the client device (110) ;
receiving additional video data captured by the imaging device ( 117 ) of the client device (110 ), the additional video data including the user of interest cropped or zoomed to make it more prominent. receiving, including a portion;
and transmitting said additional video data to said additional client device (110) .
前記オンラインシステムを介して、前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定するステップと、
前記オンラインシステムを介して、前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定する情報を検索するステップとを含む、コンピュータ実施方法。 11. The computer-implemented method of claim 10 , wherein retrieving information identifying the one or more users of the online system contained within the video data comprises:
identifying users of the online system included in the online system connected to the viewing user via the online system;
retrieving, via the online system, information identifying users of the online system contained in the online system connected to the viewing user.
前記オンラインシステムを介して、前記閲覧ユーザに接続された前記オンラインシステムに含まれる前記オンラインシステムのユーザを特定するステップと、
前記動画データ内に含まれる前記オンラインシステムの前記ユーザを特定する情報であって、前記オンラインシステムを介して前記閲覧ユーザに接続された前記動画データ内に含まれるユーザを、前記オンラインシステムを介して前記閲覧ユーザに接続されていない前記動画データ内に含まれるユーザから視覚的に区別する情報を、生成するステップとを含む、コンピュータ実施方法。 12. The computer-implemented method of claim 10 or claim 11 , wherein retrieving information identifying the one or more users of the online system contained within the video data comprises:
identifying users of the online system included in the online system connected to the viewing user via the online system;
Information specifying the user of the online system included in the video data, wherein the user included in the video data connected to the viewing user via the online system is identified via the online system generating information that visually distinguishes from users contained within the video data that are not connected to the viewing user.
前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性を決定するステップと、
前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、前記動画データ内に含まれる前記オンラインシステムの各ユーザについての前記閲覧ユーザの関連性に基づいて、生成するステップとを含む、コンピュータ実施方法。 13. The computer-implemented method of any of claims 10-12 , wherein retrieving information identifying the one or more users of the online system contained within the video data comprises:
determining the viewing user's relevance for each user of the online system included in the video data;
and generating information identifying each user of the online system included in the video data based on the viewing user's relevance to each user of the online system included in the video data. , a computer-implemented method.
関連性が少なくとも閾値となる前記閲覧ユーザについて、前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を生成するステップを含む、コンピュータ実施方法。 14. The computer-implemented method of claim 13 , wherein information identifying each user of the online system included in the video data is associated with the viewing user for each user of the online system included in the video data. The step to generate based on
A computer-implemented method comprising generating information identifying each user of the online system included in the video data for the viewing users having at least a threshold relevance.
前記動画データ内に含まれる前記オンラインシステムの前記ユーザを、前記動画データ内に含まれる前記オンラインシステムの前記ユーザについての前記閲覧ユーザの関連性に基づいて、ランク付けするステップと、
前記ランク付けにおける順位が少なくとも閾値となる各ユーザであって前記動画データ内に含まれる前記オンラインシステムの各ユーザを特定する情報を、生成するステップとを含む、コンピュータ実施方法。 14. The computer-implemented method of claim 13 , wherein information identifying each user of the online system included in the video data is associated with the viewing user for each user of the online system included in the video data. The step to generate based on
ranking the users of the online system included in the video data based on the viewing user's relevance to the users of the online system included in the video data;
generating information identifying each user of the online system included in the video data whose position in the ranking is at least a threshold.
前記オンラインシステムにて、前記クライアント装置(110)の前記撮像装置(117)によってキャプチャされる前記追加の動画データを修正するための命令を前記追加のクライアント装置(110)から受信するステップと、
前記命令を前記クライアント装置(110)へと送信するステップと、
前記命令に基づいて前記撮像装置(117)によってキャプチャされた前記追加の動画データを前記クライアント装置(110)から受信するステップと、
前記追加の動画データを前記オンラインシステムから前記追加のクライアント装置(110)へと送信するステップとをさらに含む、コンピュータ実施方法。 16. The computer-implemented method of any of claims 10-15 ,
receiving instructions from the additional client device (110) to modify the additional video data captured by the imaging device (117) of the client device (110) in the online system;
sending said instructions to said client device (110) ;
receiving from the client device (110) the additional video data captured by the imaging device (117 ) based on the instructions;
and transmitting said additional video data from said online system to said additional client device (110) .
前記撮像装置(117)の視野内のローカルエリアについてのキャプチャされた第1の動画データを提供するステップを含み、前記第1の動画データはオンラインソーシャルネットワークシステムの1人以上のユーザを含み、且つ前記方法は、
前記第1の動画データ内でキャプチャされた前記1人以上のユーザについて、1つ以上のプライバシ設定を維持するステップと、
前記1人以上のユーザの前記1つ以上のプライバシ設定に基づいて、前記クライアント装置(110)によって維持されている1つ以上のモデルを前記キャプチャされた第1の動画データの特徴に対して適用することにより、前記キャプチャされた第1の動画データ内に含まれる前記オンラインソーシャルネットワークシステムの前記1人以上のユーザを位置決めするステップと、
位置決め済みの前記1人以上のユーザを含む前記第1の動画データを前記オンラインソーシャルネットワークシステムへと送信するステップと、
前記オンラインソーシャルネットワークシステムを介して、前記キャプチャされた第1の動画データ内の位置決め済みの前記1人以上のユーザの中から興味対象ユーザを特定する情報を受信するステップと、
前記興味対象ユーザの前記1つ以上のプライバシ設定に基づいて、前記撮像装置(117)の1つ以上のパラメータを修正して、前記撮像装置(117)によって以後キャプチャされた第2の動画データを修正して前記興味対象ユーザを含む前記第2の動画データの部分についてクロッピング又はズーミングして前記興味対象ユーザをより際立たせるステップと、
修正された前記1つ以上のパラメータを用いて前記撮像装置(117)によって以後キャプチャされた前記第2の動画データを、前記オンラインソーシャルネットワークシステムへと送信するステップと、
によって特徴付けられる、コンピュータプログラム製品。 A computer program product comprising a computer readable storage medium having encoded instructions captured by a client device (110) including an imaging device (117) when executed by a processor. Execute a method for modifying video data, the method comprising:
providing captured first video data for a local area within the field of view of said imaging device (117) , said first video data including one or more users of an online social network system; and The method includes:
maintaining one or more privacy settings for the one or more users captured within the first video data;
applying one or more models maintained by the client device (110) to features of the captured first video data based on the one or more privacy settings of the one or more users ; locating the one or more users of the online social network system included in the captured first video data by:
sending said first video data including said one or more users positioned to said online social network system;
receiving , via the online social network system, information identifying users of interest from among the one or more users positioned within the captured first video data;
modifying one or more parameters of the imaging device (117) based on the one or more privacy settings of the user of interest to render second video data subsequently captured by the imaging device (117); modifying and cropping or zooming a portion of the second video data containing the user of interest to make the user of interest stand out more;
sending the second video data subsequently captured by the imaging device (117) using the modified one or more parameters to the online social network system ;
A computer program product characterized by :
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データを修正して、前記撮像装置(117)によって以後キャプチャされた前記第2の動画データの、前記興味対象ユーザを含まない1つ以上の部分を除去するステップを含む、コンピュータプログラム製品。 18. The computer program product of claim 17 , wherein one or more parameters of the imaging device ( 117 ) are modified to modify second video data subsequently captured by the imaging device (117) to The step of cropping or zooming a portion of the second video data containing the target user to make the user of interest stand out more,
modifying the second moving image data subsequently captured by the imaging device (117) to provide one of the second moving image data subsequently captured by the imaging device (117) that does not include the interested user; A computer program product comprising the step of removing said portion.
前記撮像装置(117)によって以後キャプチャされた前記第2の動画データ内の前記興味対象ユーザを特定するステップと、
前記撮像装置(117)の焦点を前記興味対象ユーザへと再調整するステップとを含む、コンピュータプログラム製品。 19. The computer program product of claim 17 or claim 18 , wherein one or more parameters of said imaging device (117) are modified to modify second video data subsequently captured by said imaging device (117) . and cropping or zooming a portion of the second moving image data containing the interested user to make the interested user stand out more,
identifying the user of interest in the second video data subsequently captured by the imaging device (117) ;
refocusing said imaging device (117) to said user of interest.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023061105A JP2023098930A (en) | 2017-09-05 | 2023-04-05 | Modifying capture of video data by image capture device based on video data previously captured by image capture device |
JP2023061106A JP2023098931A (en) | 2017-09-05 | 2023-04-05 | Modifying capture of video data by image capture device based on video data previously captured by image capture device |
Applications Claiming Priority (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762554564P | 2017-09-05 | 2017-09-05 | |
US62/554,564 | 2017-09-05 | ||
US201715856108A | 2017-12-28 | 2017-12-28 | |
US201715856109A | 2017-12-28 | 2017-12-28 | |
US201715856105A | 2017-12-28 | 2017-12-28 | |
US15/856,105 | 2017-12-28 | ||
US15/856,109 | 2017-12-28 | ||
US15/856,108 | 2017-12-28 | ||
US16/121,087 | 2018-09-04 | ||
US16/121,081 | 2018-09-04 | ||
US16/121,060 | 2018-09-04 | ||
US16/121,087 US10666857B2 (en) | 2017-09-05 | 2018-09-04 | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device |
US16/121,060 US10805521B2 (en) | 2017-09-05 | 2018-09-04 | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device |
US16/121,081 US10868955B2 (en) | 2017-09-05 | 2018-09-04 | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device |
PCT/US2018/049532 WO2019050938A1 (en) | 2017-09-05 | 2018-09-05 | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023061105A Division JP2023098930A (en) | 2017-09-05 | 2023-04-05 | Modifying capture of video data by image capture device based on video data previously captured by image capture device |
JP2023061106A Division JP2023098931A (en) | 2017-09-05 | 2023-04-05 | Modifying capture of video data by image capture device based on video data previously captured by image capture device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020532903A JP2020532903A (en) | 2020-11-12 |
JP7258857B2 true JP7258857B2 (en) | 2023-04-17 |
Family
ID=65635185
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020511521A Active JP7258857B2 (en) | 2017-09-05 | 2018-09-05 | Modification of video data capture by the imaging device based on video data previously captured by the imaging device |
JP2023061105A Pending JP2023098930A (en) | 2017-09-05 | 2023-04-05 | Modifying capture of video data by image capture device based on video data previously captured by image capture device |
JP2023061106A Pending JP2023098931A (en) | 2017-09-05 | 2023-04-05 | Modifying capture of video data by image capture device based on video data previously captured by image capture device |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023061105A Pending JP2023098930A (en) | 2017-09-05 | 2023-04-05 | Modifying capture of video data by image capture device based on video data previously captured by image capture device |
JP2023061106A Pending JP2023098931A (en) | 2017-09-05 | 2023-04-05 | Modifying capture of video data by image capture device based on video data previously captured by image capture device |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3679722A4 (en) |
JP (3) | JP7258857B2 (en) |
KR (1) | KR20200039814A (en) |
CN (3) | CN116208791A (en) |
WO (1) | WO2019050938A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2884438B1 (en) * | 2005-04-19 | 2007-08-03 | Commissariat Energie Atomique | PROCESS FOR EXTRACTING AT LEAST ONE COMPOUND OF A LIQUID PHASE COMPRISING A FUNCTIONALIZED IONIC LIQUID, AND A MICROFLUIDIC SYSTEM FOR CARRYING OUT SAID METHOD |
KR20220107860A (en) * | 2021-01-26 | 2022-08-02 | 삼성전자주식회사 | Electronic device performing screen captures and method thereof |
WO2023087215A1 (en) * | 2021-11-18 | 2023-05-25 | Citrix Systems, Inc. | Online meeting non-participant detection and remediation |
KR20230083101A (en) * | 2021-12-02 | 2023-06-09 | 삼성전자주식회사 | Electronic device and method for editing content being played on display device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006217628A (en) | 2005-02-05 | 2006-08-17 | Samsung Electronics Co Ltd | Transceiver for providing image communication among many person and transmission method |
JP2011182160A (en) | 2010-03-01 | 2011-09-15 | Canon Inc | Video processor and video processing method |
JP2015115741A (en) | 2013-12-11 | 2015-06-22 | キヤノンマーケティングジャパン株式会社 | Image management device, image management method, and program |
JP6241802B1 (en) | 2017-01-20 | 2017-12-06 | パナソニックIpマネジメント株式会社 | Video distribution system, user terminal device, and video distribution method |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8510283B2 (en) * | 2006-07-31 | 2013-08-13 | Ricoh Co., Ltd. | Automatic adaption of an image recognition system to image capture devices |
US8103445B2 (en) * | 2005-04-21 | 2012-01-24 | Microsoft Corporation | Dynamic map rendering as a function of a user parameter |
US8085302B2 (en) | 2005-11-21 | 2011-12-27 | Microsoft Corporation | Combined digital and mechanical tracking of a person or object using a single video camera |
US20070198632A1 (en) * | 2006-02-03 | 2007-08-23 | Microsoft Corporation | Transferring multimedia from a connected capture device |
US8284990B2 (en) * | 2008-05-21 | 2012-10-09 | Honeywell International Inc. | Social network construction based on data association |
JP4569670B2 (en) * | 2008-06-11 | 2010-10-27 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
CN102196087A (en) * | 2010-03-12 | 2011-09-21 | 中兴通讯股份有限公司 | Lens control method and terminals |
US8626847B2 (en) * | 2010-04-30 | 2014-01-07 | American Teleconferencing Services, Ltd. | Transferring a conference session between client devices |
US20120204225A1 (en) * | 2011-02-08 | 2012-08-09 | Activepath Ltd. | Online authentication using audio, image and/or video |
US20120233076A1 (en) * | 2011-03-08 | 2012-09-13 | Microsoft Corporation | Redeeming offers of digital content items |
KR20140099111A (en) * | 2013-02-01 | 2014-08-11 | 삼성전자주식회사 | Method for control a camera apparatus and the camera apparatus |
US9558555B2 (en) * | 2013-02-22 | 2017-01-31 | Leap Motion, Inc. | Adjusting motion capture based on the distance between tracked objects |
US9923979B2 (en) * | 2013-06-27 | 2018-03-20 | Google Llc | Systems and methods of determining a geographic location based conversion |
JP6429454B2 (en) * | 2013-11-28 | 2018-11-28 | キヤノン株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM |
US10235587B2 (en) * | 2014-03-04 | 2019-03-19 | Samsung Electronics Co., Ltd. | Method and system for optimizing an image capturing boundary in a proposed image |
US9576343B2 (en) * | 2014-11-10 | 2017-02-21 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for a content-adaptive photo-enhancement recommender |
JP6486656B2 (en) * | 2014-11-11 | 2019-03-20 | オリンパス株式会社 | Imaging device |
US10244175B2 (en) * | 2015-03-09 | 2019-03-26 | Apple Inc. | Automatic cropping of video content |
WO2016179436A1 (en) * | 2015-05-05 | 2016-11-10 | Colorado Code Craft Patent Holdco Llc | Ultra-low latency remote application access |
US9860451B2 (en) * | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US20160365122A1 (en) * | 2015-06-11 | 2016-12-15 | Eran Steinberg | Video editing system with multi-stage control to generate clips |
US9621795B1 (en) * | 2016-01-08 | 2017-04-11 | Microsoft Technology Licensing, Llc | Active speaker location detection |
-
2018
- 2018-09-05 JP JP2020511521A patent/JP7258857B2/en active Active
- 2018-09-05 EP EP18854605.5A patent/EP3679722A4/en not_active Ceased
- 2018-09-05 KR KR1020207009776A patent/KR20200039814A/en not_active Application Discontinuation
- 2018-09-05 CN CN202310329439.8A patent/CN116208791A/en active Pending
- 2018-09-05 CN CN201880071766.5A patent/CN111316656B/en active Active
- 2018-09-05 CN CN202310329426.0A patent/CN116193175A/en active Pending
- 2018-09-05 WO PCT/US2018/049532 patent/WO2019050938A1/en unknown
-
2023
- 2023-04-05 JP JP2023061105A patent/JP2023098930A/en active Pending
- 2023-04-05 JP JP2023061106A patent/JP2023098931A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006217628A (en) | 2005-02-05 | 2006-08-17 | Samsung Electronics Co Ltd | Transceiver for providing image communication among many person and transmission method |
JP2011182160A (en) | 2010-03-01 | 2011-09-15 | Canon Inc | Video processor and video processing method |
JP2015115741A (en) | 2013-12-11 | 2015-06-22 | キヤノンマーケティングジャパン株式会社 | Image management device, image management method, and program |
JP6241802B1 (en) | 2017-01-20 | 2017-12-06 | パナソニックIpマネジメント株式会社 | Video distribution system, user terminal device, and video distribution method |
Also Published As
Publication number | Publication date |
---|---|
WO2019050938A1 (en) | 2019-03-14 |
JP2020532903A (en) | 2020-11-12 |
CN116208791A (en) | 2023-06-02 |
EP3679722A1 (en) | 2020-07-15 |
CN111316656A (en) | 2020-06-19 |
JP2023098930A (en) | 2023-07-11 |
CN111316656B (en) | 2023-03-28 |
JP2023098931A (en) | 2023-07-11 |
KR20200039814A (en) | 2020-04-16 |
CN116193175A (en) | 2023-05-30 |
EP3679722A4 (en) | 2020-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10971158B1 (en) | Designating assistants in multi-assistant environment based on identified wake word received from a user | |
US10419505B2 (en) | Systems and methods for interactive broadcasting | |
US11438644B1 (en) | Synchronizing presentation of content presented by multiple client devices | |
US11558543B2 (en) | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device | |
JP7258857B2 (en) | Modification of video data capture by the imaging device based on video data previously captured by the imaging device | |
US10805521B2 (en) | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device | |
US10873697B1 (en) | Identifying regions of interest in captured video data objects by detecting movement within higher resolution frames of the regions | |
CN109792557B (en) | Method for processing video data and storage medium | |
US11418827B2 (en) | Generating a feed of content for presentation by a client device to users identified in video data captured by the client device | |
US10666857B2 (en) | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device | |
US10757347B1 (en) | Modifying display of an overlay on video data based on locations of regions of interest within the video data | |
CN112806021B (en) | Modifying presentation of video data by a receiving client device based on analysis of the video data by another client device that captured the video data | |
US10721394B1 (en) | Gesture activation for an image capture device | |
US10915776B2 (en) | Modifying capture of video data by an image capture device based on identifying an object of interest within capturted video data to the image capture device | |
US10812616B2 (en) | Transferring an exchange of content to a receiving client device from a client device authorized to transfer a content exchange to the receiving client device | |
US11444943B1 (en) | Exchange content between client devices when a client device determines a user is within a field of view of an image capture device of the client device and authorized to exchange content | |
US11100330B1 (en) | Presenting messages to a user when a client device determines the user is within a field of view of an image capture device of the client device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200427 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200430 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7258857 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |