KR20200039814A - Modify capture of video data by the video capture device based on video data previously captured by the video capture device - Google Patents

Modify capture of video data by the video capture device based on video data previously captured by the video capture device Download PDF

Info

Publication number
KR20200039814A
KR20200039814A KR1020207009776A KR20207009776A KR20200039814A KR 20200039814 A KR20200039814 A KR 20200039814A KR 1020207009776 A KR1020207009776 A KR 1020207009776A KR 20207009776 A KR20207009776 A KR 20207009776A KR 20200039814 A KR20200039814 A KR 20200039814A
Authority
KR
South Korea
Prior art keywords
video data
user
captured
capture device
image capture
Prior art date
Application number
KR1020207009776A
Other languages
Korean (ko)
Inventor
빈센트 찰스 청
Original Assignee
페이스북, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/121,087 external-priority patent/US10666857B2/en
Priority claimed from US16/121,060 external-priority patent/US10805521B2/en
Priority claimed from US16/121,081 external-priority patent/US10868955B2/en
Application filed by 페이스북, 인크. filed Critical 페이스북, 인크.
Publication of KR20200039814A publication Critical patent/KR20200039814A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition

Abstract

다양한 클라이언트 장치들은 비디오 데이터를 캡쳐하도록 구성된 하나 또는 그 이상의 영상 캡쳐 장치들과 디스플레이들을 포함한다. 온라인 시스템의 상이한 사용자들은 클라이언트 장치들이 그것들의 각각의 영상 캡쳐 장치들에 의해 캡쳐된 정보를 교환하는 것을 허가할 수 있다. 부가적으로, 클라이언트 장치는, 비디오 데이터에서 식별된 사용자들에 기초하여, 캡쳐된 비디오 데이터를 수정한다. 예를 들어, 클라이언트 장치는 비디오 데이터에서 식별된 사용자를 더 현저하게 디스플레이하기 위해 영상 캡쳐 장치의 파라미터들을 변경하고, 비디오 데이터에서 식별된 사용자의 움직임 또는 몸짓들에 기초하여, 영상 캡쳐 장치의 파라미터들을 더 변경할 수 있다. 클라이언트 장치는, 캡쳐된 비디오 데이터를 수정하거나, 또는 영상 캡쳐 장치에 의한 비디오 데이터의 후속하는 캡쳐를 수정하기 위해, 복수의 모델들을 캡쳐된 비디오 데이터에 적용할 수 있다. Various client devices include one or more image capture devices and displays configured to capture video data. Different users of the online system can allow client devices to exchange information captured by their respective video capture devices. Additionally, the client device modifies the captured video data based on users identified in the video data. For example, the client device changes parameters of the image capture device to more prominently display the user identified in the video data, and, based on the user's movement or gestures identified in the video data, changes the parameters of the image capture device. You can change more. The client device can apply a plurality of models to the captured video data to modify the captured video data, or to modify the subsequent capture of the video data by the video capture device.

Description

영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에 기초하여 영상 캡쳐 장치에 의한 비디오 데이터의 캡쳐를 수정Modify capture of video data by the video capture device based on video data previously captured by the video capture device

본 개시내용은 일반적으로 비디오 데이터를 캡쳐하는 것에 관한 것이고, 특히 이전에 캡쳐(capture)된 비디오 데이터에 기초하여 비디오 데이터의 캡쳐를 수정하는 것에 관한 것이다. The present disclosure relates generally to capturing video data, and in particular, to modifying the capture of video data based on previously captured video data.

클라이언트 장치(client device)들, 온라인 시스템들, 및 네트워크들은 더욱더 사용자들이 서로 많은 양의 콘텐츠를 교환하는 것을 허용한다. 예를 들어, 온라인 시스템은 사용자와 연관된 클라이언트 장치들을 통해 상이한 사용자들에 의해 캡쳐된 비디오 데이터를 사용자들이 교환하는 것을 허용한다. 특정한 예에서, 온라인 시스템은 실시간으로 또는 거의 실시간으로 그들의 각각의 클라이언트 장치들에 의해 캡쳐된 비디오 데이터를 사용자들이 교환하는 것을 허용하면서, 사용자와 부가적인 사용자 사이에 비디오 메시징을 설정할 수 있다.Client devices, online systems, and networks increasingly allow users to exchange large amounts of content with each other. For example, an online system allows users to exchange video data captured by different users through client devices associated with the user. In a particular example, an online system can establish video messaging between a user and an additional user while allowing users to exchange video data captured by their respective client devices in real time or near real time.

그러나, 비디오 데이터를 제공할 때 종래의 클라이언트 장치들은 사용자가 비디오 비디오 캡쳐를 수동으로 구성하는 것을 요구한다. 예를 들어, 클라이언트 장치의 영상 캡쳐 장치(image capture device)의 초점을 식별하기 위해서, 클라이언트 장치의 영상 캡쳐 장치의 확대를 지정하기 위해서, 또는 클라이언트 장치의 영상 캡쳐 장치의 다른 파라미터들을 지정하기 위해서, 클라이언트 장치의 사용자는 클라이언트 장치에 입력들을 제공한다. 클라이언트 장치의 영상 캡쳐 장치의 파라미터들을 식별하는 초기 입력들을 제공하는 것에 부가하여, 클라이언트 장치의 영상 캡쳐 장치의 시야 내에서 국지 영역(local area)의 상이한 일부분들에 재위치(reposition)시키기 위해서, 종래의 클라이언트 장치들은 사용자가 수동으로 클라이언트 장치의 영상 캡쳐 장치를 재위치시키는 것을 요구한다. 그러므로, 사용자는 다른 클라이언트 장치에 통신전달되는 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 콘텐츠를 수동으로 선택하고 유지한다. 사용자-제공된 입력에의 이러한 의존은 클라이언트 장치에 의해서 캡쳐된 비디오 데이터에 대한 상당한 제어를 사용자에게 제공하지만, 종래의 클라이언트 장치들은, 클라이언트 장치를 통해 비디오 데이터를 캡쳐하는 동안에, 사용자가 손쉽게 다른 비디오 메시징 세션 내의 다른 과제들(tasks)을 수행하는 것을 허용하지 않는데, 종래의 클라이언트 장치들은, 사용자에 의해 제공된 하나 또는 그 이상의 입력들을 수신하지 않고서는, 비디오 데이터 캡쳐를 조건들 변화로서 조정할 수가 없었기 때문이다. However, conventional client devices when providing video data require the user to manually configure video video capture. For example, to identify the focus of the image capture device of the client device, to specify the enlargement of the image capture device of the client device, or to specify other parameters of the image capture device of the client device, The user of the client device provides inputs to the client device. In addition to providing initial inputs that identify the parameters of the client device's image capture device, to reposition to different portions of the local area within the field of view of the client device's image capture device, conventional The client devices of the user require the user to manually reposition the image capture device of the client device. Therefore, the user manually selects and maintains the content captured by the video capture device of the client device communicated to other client devices. This reliance on user-provided input gives the user considerable control over the video data captured by the client device, but conventional client devices allow the user to easily perform other video messaging while capturing video data through the client device. It does not allow to perform other tasks in the session because conventional client devices could not adjust video data capture as a change in conditions without receiving one or more inputs provided by the user. .

온라인 시스템의 사용자들과 연관된 다양한 클라이언트 장치들은 하나 또는 그 이상의 영상 캡쳐 장치들을 포함한다. 클라이언트 장치에 포함된 영상 캡쳐 장치는, 예를 들어, 비디오 호출(video call) 동안 또는 사용자가 비디오 캡쳐 특징(feature)을 턴온할 때 클라이언트 장치 주위의 국지 영역의 비디오 데이터를 캡쳐하도록 구성된다. 부가적으로, 클라이언트 장치는 하나 또는 그 이상의 영상 캡쳐 장치들에 연결된 제어기를 포함한다. 제어기는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용한다. 그리고, 하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 파라미터들 및/또는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정한다. 이것은 제어기가, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠 또는 특성들에 기초하여, 캡쳐된 비디오 데이터를 수정하는 것을 허용한다. Various client devices associated with users of the online system include one or more video capture devices. The video capture device included in the client device is configured to capture video data in a local area around the client device, for example, during a video call or when a user turns on a video capture feature. Additionally, the client device includes a controller coupled to one or more video capture devices. The controller applies one or more models to video data captured by the image capture device. Then, based on the application of one or more models, parameters of the image capture device and / or video data captured by the image capture device are corrected. This allows the controller to modify the captured video data based on the content or characteristics of the video data previously captured by the image capture device.

제어기는 다양한 실시예들에서 비디오 또는 다른 데이터에 캡쳐된 사용자들 또는 다른 사람들을 위한 하나 또는 그 이상의 프라이버시 설정들을 유지하고 시행한다. 예를 들어, 제어기는 그 제어기가 사용자를 식별하는 것을 허용하기 위해서 사용자가 수동으로 프라이버시 설정을 변경할 때까지 제어기가 사용자를 식별하는 것을 방지하는 디폴트(default) 프라이버시 설정을 가질 수 있다. 디폴트 프라이버시 설정은 또한, 그 데이터 내의 임의의 사용자를 식별하기 위해서 영상 캡쳐 장치가 데이터 내에 임의의 사용자를 특별한 것으로 허용할지를 사용자가 선택할 수 있도록, 임의의 캡쳐된 비디오 데이터, 오디오 데이터, 영상 데이터, 또는 다른 데이터로 확장될 수 있다. 부가적으로, 프라이버시 설정은 또한 클라이언트 장치로부터 다른 실체(entity)(예를 들어, 다른 클라이언트 장치 또는 제 3 자 시스템)로 정보의 전송을 통제한다. 다양한 프라이버시 설정들은 사용자가 그 사용자의 식별(identification)을 제어하고 임의의 사용자-관련된 데이터의 저장과 공유를 제어하는 것을 허용한다. 프라이버시 설정들은 또한 각각의 개인에 대해 개별적으로 시행될 수 있다. 예를 들어, 사용자 식별 특징을 옵트인(opt in)하는 사용자는 클라이언트 장치 주위의 국지 영역에서 우연히 캡쳐될 수 있는 다른 사용자들에 대한 디폴트 프라이버시 설정들을 변경할 수 없다. The controller maintains and enforces one or more privacy settings for users or others captured in video or other data in various embodiments. For example, the controller can have a default privacy setting that prevents the controller from identifying the user until the user manually changes the privacy setting to allow the controller to identify the user. The default privacy setting also allows any user to select whether the video capture device allows any user in the data to be special in order to identify any user in the data, any captured video data, audio data, video data, or Can be extended to other data. Additionally, privacy settings also control the transmission of information from a client device to another entity (eg, another client device or a third party system). Various privacy settings allow the user to control the user's identification and control the storage and sharing of any user-related data. Privacy settings can also be enforced individually for each individual. For example, a user who opts in a user identification feature cannot change default privacy settings for other users that may be accidentally captured in a local area around the client device.

다양한 실시예들에서, 클라이언트 장치가 사용자들을 식별하는 것을 인에이블링하는 사용자의 프라이버시 선택들에 기초하여, 제어기는, 캡쳐된 비디오 데이터에 포함된 사용자들을 위치시키기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에 , 하나 또는 그 이상의 기계 학습 모델(machine learned model)들을 적용한다. 캡쳐된 비디오 데이터에 제어기에 의해 적용된 모델들은 얼굴 트래킹(facial tracking)을 (2차원으로 또는 3차원으로) 수행할 수 있고, 2차원 포즈(pose) 트래킹, 3차원 포즈 트래킹, 또는 임의의 다른 적합한 방법으로, 사람의 얼굴의 일부분들 또는 사람의 몸의 일부분들을 식별하도록 수행할 수 있다. 다양한 실시예들에서, 제어기는 위치된 사용자들에게 더 현저히 제시하기 위해서 영상 캡쳐 장치의 파라미터들 또는 캡쳐된 비디오 데이터를 수정한다. 예를 들어, 제어기는, 적어도 한 사람도 포함하지 않는 비디오 데이터 일부분들을 제거하기 위해, 캡쳐된 비디오 데이터를 크로핑(crop)한다. 다른 예로서, 제어기는 사람의 얼굴에 대한 영상 캡쳐 장치의 초점을 수정하고, 영상 캡쳐 장치의 확대(즉, 줌(zoom))를 증가시킨다. 다양한 실시예들에서, 사용자들은 임의의 기록들(비디오, 음성, 등)이 클라이언트 장치에서 및/또는 클라우드 상에서 국지적으로 저장되는 것을 방지하기 위한 옵션들을 가지며, 또한, 저장된다면 임의의 기록들을 삭제하는 옵션들을 가진다.In various embodiments, based on the user's privacy selections that enable the client device to identify users, the controller may include video captured by the video capture device to locate users included in the captured video data. To the data, one or more machine learned models are applied. Models applied by the controller to the captured video data can perform facial tracking (two-dimensionally or three-dimensionally), two-dimensional pose tracking, three-dimensional pose tracking, or any other suitable In a manner, it may be performed to identify portions of the human face or portions of the human body. In various embodiments, the controller modifies the captured video data or parameters of the image capture device to more prominently present to the located users. For example, the controller crops captured video data to remove portions of video data that do not include at least one person. As another example, the controller corrects the focus of the image capture device on the human face, and increases the zoom (ie, zoom) of the image capture device. In various embodiments, users have options to prevent any records (video, voice, etc.) from being stored locally on the client device and / or in the cloud, and also delete any records if stored. Have options.

다양한 실시예들에서, 사용자 식별이 인에이블링될 때, 제어기에 적용된 하나 또는 그 이상의 모델들은 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하기 위해서 하나 또는 그 이상의 규칙들을 적용한다. 예를 들어, 사람의 얼굴이 카메라를 향하고 있다고 제어기가 또한 결정한다면, 비디오 데이터 내에 위치된 사람을 더 현저히 디스플레이하기 위해서, 제어기는 캡쳐된 비디오 데이터를 수정한다. 다른 예에서, 제어기는 비디오 데이터로부터 식별된 사람들과 영상 캡쳐 장치 사이의 거리들을 결정하고, 캡쳐된 비디오 데이터를 수정하여, 영상 캡쳐 장치로부터 최소의 결정된 거리를 가지는 사람에게는 그 비디오 데이터에 의해서 적어도 문턱값 세트의 차원들이 제시되거나(예를 들어, 적어도 문턱값 높이와 문턱값 폭이 제시되거나, 또는 영상 캡쳐 장치의 시야의 적어도 문턱값 퍼센티지를 이용하는 것이 제시됨), 또는 영상 캡쳐 장치로부터의 결정된 거리가 문턱값 거리보다 적은 사람들을 적어도 문턱값 세트의 차원들로 디스플레이한다.In various embodiments, when user identification is enabled, one or more models applied to the controller apply one or more rules to modify video data captured by the client device's image capture device. For example, if the controller also determines that a person's face is facing the camera, the controller modifies the captured video data in order to more prominently display the person located within the video data. In another example, the controller determines distances between people identified from the video data and the image capture device, and modifies the captured video data, so that a person with the minimum determined distance from the image capture device is at least thresholded by the video data. The dimensions of the value set are presented (e.g., at least a threshold height and a threshold width are presented, or using at least a threshold percentage of the field of view of the image capture device), or a determined distance from the image capture device People less than the threshold distance are displayed in at least the dimensions of the threshold set.

제어기는 클라이언트 장치의 다른 구성요소들로부터 데이터를 수신할 수 있고, 클라이언트 장치의 다른 구성 요소들로부터의 데이터와 수신된 비디오 데이터의 특성들에 기초하여, 캡쳐된 비디오 데이터를 수정할 수 있다. 예를 들어, 영상 캡쳐 장치 또는 클라이언트 장치는, 클라이언트 장치 주위의 국지 영역으로부터 오디오 데이터를 캡쳐하도록 구성된 마이크로폰과 같은, 오디오 캡쳐 장치를 포함한다. 제어기는, 사용자-선택된 프라이버시 설정을 조건으로, 캡쳐된 비디오 데이터를 수정할 때, 캡쳐된 비디오 데이터와 함께 캡쳐된 오디오 데이터를 처리(process)할 수 있다. 다양한 실시예들에서, 제어기는 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 내의 위치를 결정하기 위해 하나 또는 그 이상의 모델들을 캡쳐된 오디오 데이터에 적용할 수 있다. 제어기는 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치에 하나 또는 그 이상의 모델들을 적용한다. 캡쳐된 비디오 데이터 내의 위치가 오디오 데이터의 소스를 포함하고 사람을 포함한다고 결정하는 모델들의 적용에 응답하여, 제어기는 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치를 더 현저하게 제시하기 위해서, 캡쳐된 비디오 데이터를 수정하거나, 또는 오디오 데이터의 소스에 초점을 맞추기 위해 영상 캡쳐 장치를 재위치시킨다(예를 들어, 오디오 데이터의 소스에 의해 점유되는 영상 캡쳐 장치의 시야를 증가시키고, 영상 캡쳐 장치의 시야 내의 오디오 데이터의 소스의 위치를 변경하는 것). 그러나, 제어기는, 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치가 사람을 포함하지 않는다고 결정하는 것에 응답하여, 캡쳐된 비디오 데이터를 수정하지 않거나 또는 영상 캡쳐 장치를 재위치시키지 않는다. 다른 예로서, 말을 하고 있다고 결정된 사용자를 캡쳐된 비디오 데이터가 더 현저하게 디스플레이하는 것을 허용하면서, 또는 그와는 다르게 클라이언트 장치의 오디오 캡쳐 장치에 의해 캡쳐된 오디오 데이터를 제공하면서, 캡쳐된 오디오 데이터의 소스라고 제어기가 결정을 하는, 캡쳐된 비디오 데이터 내의 식별된 사람을 더 현저하게 제시하기 위해서, 제어기는 캡쳐된 비디오 데이터를 수정하거나 영상 캡쳐 장치를 재위치시킨다(예를 들어, 오디오 데이터의 소스에 의해 점유된 영상 캡쳐 장치의 시야를 증가시키고, 영상 캡쳐 장치의 시야에서 오디오 데이터의 소스의 위치를 변경함). The controller can receive data from other components of the client device, and can modify the captured video data based on the characteristics of the video data and the data from other components of the client device. For example, an image capture device or client device includes an audio capture device, such as a microphone configured to capture audio data from a local area around the client device. The controller can process the captured audio data along with the captured video data when modifying the captured video data, subject to user-selected privacy settings. In various embodiments, the controller can apply one or more models to the captured audio data to determine a location within the captured video that includes the source of the audio data. The controller applies one or more models to a location in the captured video data that contains a source of audio data. In response to the application of models that determine that the location in the captured video data includes a source of audio data and includes a person, the controller can more prominently present the location in the captured video data that includes the source of audio data, Correct the captured video data, or reposition the video capture device to focus on the source of the audio data (eg, increase the field of view of the video capture device occupied by the source of the audio data, and the video capture device To change the location of the source of audio data within the field of view). However, the controller does not modify the captured video data or reposition the image capture device in response to determining that the location in the captured video data containing the source of the audio data does not include a person. As another example, the captured audio data while allowing the captured video data to display more prominently the user determined to be speaking, or otherwise providing the audio data captured by the audio capture device of the client device. To more prominently identify the identified person in the captured video data, which the controller determines as the source of, the controller modifies the captured video data or repositions the video capture device (e.g., the source of the audio data). Increase the field of view of the video capture device occupied by, and change the position of the source of the audio data in the field of view of the video capture device).

사용자가 비디오 캡쳐와 사용자 식별 특징을 턴온한 다른 상황들에서, 또는 비디오 메시징 세션에서, 국지 영역 주위의 관심 사용자를 따라가기 위해 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하도록, 관심 사용자를 식별하는 정보를 수신한 후에 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 제어기가 적용할 수 있다. 예를 들어, 제어기는, (온라인 시스템으로부터 수신되거나, 또는 온라인 시스템으로부터의 정보에 기초하여 이전에 캡쳐된 비디오 데이터로부터 식별된) 관심 사용자의 얼굴에 매칭되는 사람의 얼굴을 식별하기 위해서, 하나 또는 그 이상의 얼굴 인식 모델들을 캡쳐된 비디오 데이터 내에 위치된 사람들에게 적용하고, 그리고 후속하여 관심 사용자의 얼굴에 매칭되는 얼굴을 가진 사람에게 영상 캡쳐 장치의 초점을 재위치시킨다. 대안적으로, 제어기는 관심 사용자를 포함하는 캡쳐된 비디오 데이터로부터 컬러 맵을 추출하고 영상 캡쳐 장치의 초점을 재위치시켜서, 추출된 컬러 맵은 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터 내에 포함되어 남아있게 된다.Identifying the user of interest to modify one or more parameters of the video capture device to follow the user of interest around the local area, in other situations where the user has turned on the video capture and user identification features, or in a video messaging session. After receiving the information, the controller may apply one or more models to the captured video data. For example, the controller may be configured to identify a person's face that matches the face of a user of interest (identified from video data previously received from the online system, or based on information from the online system), or Further facial recognition models are applied to people located in the captured video data, and subsequently the focus of the image capture device is repositioned to a person with a face matching the face of the user of interest. Alternatively, the controller extracts the color map from the captured video data containing the user of interest and repositions the focus of the image capture device, so that the extracted color map remains contained within the video data captured by the image capture device do.

본 발명에 따른 실시예들은 특히, 방법 및 컴퓨터 프로그램 제품을 겨냥한, 첨부된 청구항들에서 개시되어 있고, 하나의 청구항 카테고리, 예를들어, 방법에서 언급된 임의의 특징은 다른 청구항 카테고리, 예를 들어, 컴퓨터 프로그램 제품, 시스템, 저장매체에서도 청구될 수 있다. 첨부된 청구항들에서 뒤쪽의 종속항들 또는 인용항들은 형식적인 이유들로만 선택된다. 그러나, 임의의 이전 청구항들(특히, 다중 종속항들) 뒤쪽의 의도적인 인용항으로부터 발생되는 어떠한 주제도 또한 청구될 수 있어서, 청구항들과 그 특징들의 어떠한 조합도 개시되며, 첨부된 청구항들에서 선택된 종속항들과 상관없이 청구될 수 있다. 청구될 수 있는 주제는 첨부된 청구항들에서 제시된 특징들의 조합들 뿐 아니라, 청구항들에서의 특징들의 임의의 다른 조합을 포함할 수 있으며, 청구항들에서 언급된 각각의 특징은 청구항들에서의 임의의 다른 특징 또는 다른 특징들의 조합과 결합될 수 있다. 또한, 여기서 묘사되거나 서술된 특징들 및 실시예들중 어느 것도, 별개의 청구항에서 청구될 수 있거나/있고, 여기서 묘사되거나 서술된 임의의 실시예들 또는 특징과도 임의의 조합을 하거나 첨부된 청구항들의 특징들중 어느 것과도 임의의 조합을 하여 청구될 수 있다. Embodiments in accordance with the present invention are disclosed in the appended claims, particularly aimed at methods and computer program products, where one claim category, e.g., any feature referred to in a method, is claimed in another claim category, e.g. , Computer program products, systems, and storage media. Subsequent dependent or cited claims in the appended claims are selected for formal reasons only. However, any subject arising from an intentional recitation claim after any previous claims (in particular, multiple dependent claims) may also be claimed, so any combination of the claims and their features is disclosed and selected from the appended claims It can be claimed regardless of the dependent claims. The subject matter that may be claimed may include combinations of features presented in the appended claims, as well as any other combination of features in the claims, with each feature mentioned in the claims being any other in the claims. It can be combined with a feature or a combination of other features. Also, any of the features and embodiments depicted or described herein may be claimed in a separate claim, and / or any combination or combination of claims or appended claims described or described herein Any combination of any of the features can be claimed.

도 1은 실시예에 따라 온라인 시스템이 오퍼레이팅하는 시스템 환경의 블록도이다.
도 2는 실시예에 따른 클라이언트 장치의 블록도이다.
도 3은 실시예에 따른 온라인 시스템의 블록도이다.
도 4는, 실시예에 따라, 비디오 데이터 내의 상이한 위치들로 관심 사용자의 시선이 향하는 가능성들에 기초하여, 온라인 시스템의 관심 사용자에게 제시하기 위해 비디오 데이터의 세그먼트를 선택하는 방법의 흐름도이다.
도면들은 예시할 목적만을 위해 다양한 실시예들을 묘사한다. 그 분야의 숙련된 자는 여기서 예시된 방법들 및 구조들의 대안의 실시예들이 여기서 서술된 원리들로부터 벗어나지 않고서 이용될 수 있음을 다음의 서술로부터 쉽게 인식할 것이다.
1 is a block diagram of a system environment operated by an online system according to an embodiment.
2 is a block diagram of a client device according to an embodiment.
3 is a block diagram of an online system according to an embodiment.
4 is a flow diagram of a method of selecting a segment of video data for presentation to a user of interest in an online system based on the possibilities of the user's gaze directed to different locations in the video data, according to an embodiment.
The drawings depict various embodiments for illustrative purposes only. Those skilled in the art will readily appreciate from the following description that alternative embodiments of the methods and structures illustrated herein can be used without departing from the principles described herein.

시스템 아키텍처System architecture

도 1은 온라인 시스템(140)을 위한 시스템 환경(100)의 블록도이다. 도 1에 의해 도시된 시스템 환경(100)은 하나 또는 그 이상의 클라이언트 장치들(110), 네트워크(120), 하나 또는 그 이상의 제 3 자 시스템들(130), 및 온라인 시스템(140)을 포함한다. 부가적으로, 도 1에 의해 도시된 시스템 환경(100)에서 제어기(117)는 클라이언트 장치(110)에 연결된다. 대안의 구성들에서, 상이한 및/또는 부가적인 구성요소들이 시스템 환경(100)에 포함될 수 있다. 예를 들어, 온라인 시스템(140)은 소셜 네트워킹 시스템, 콘텐츠 공유 네트워크, 또는 사용자들에게 콘텐츠를 제공하는 다른 시스템이다. 1 is a block diagram of a system environment 100 for an online system 140. The system environment 100 illustrated by FIG. 1 includes one or more client devices 110, a network 120, one or more third party systems 130, and an online system 140. . Additionally, in the system environment 100 shown by FIG. 1, the controller 117 is connected to the client device 110. In alternative configurations, different and / or additional components can be included in the system environment 100. For example, online system 140 is a social networking system, a content sharing network, or other system that provides content to users.

클라이언트 장치들(110)은, 사용자 입력을 수신할 뿐 아니라 네트워크(120)를 통해 데이터를 전송 및/또는 수신할 수 있는, 하나 또는 그 이상의 컴퓨팅 장치들이다. 일실시예에서, 클라이언트 장치(110)는 데스크탑 컴퓨터 또는 노트북 컴퓨터와 같은 종래의 컴퓨터 시스템이다. 대안적으로, 클라이언트 장치(110)는 퍼스널 디지털 어시스턴트(PDA), 이동 전화기, 스마트폰, 또는 다른 적합한 장치와 같은, 컴퓨터 기능을 가진 장치일 수 있다. 클라이언트 장치(110)는 네트워크(120)를 통해 통신하도록 구성된다. 일실시예에서, 클라이언트 장치(110)는 클라이언트 장치(110)의 사용자가 온라인 시스템(140)과 상호 작용하는 것을 허용하는 애플리케이션을 실행한다. 예를 들어, 클라이언트 장치(110)는 네트워크(120)를 통해 클라이언트 장치(110)과 온라인 시스템(140) 간의 상호작용을 인에이블링하도록 브라우저 애플리케이션을 실행한다. 다른 실시예에서, 클라이언트 장치(110)는 아이오에스(IOS®) 또는 안드로이드(ANDROIDTM)와 같은 클라이언트 장치(110)의 네이티브 오퍼레이팅 시스템 상에서 작동하는 애플리케이션 프로그래밍 인터페이스(API)를 통해 온라인 시스템(140)과 상호작용한다. 도 2와 연결되어 하기에 더 서술되는 바와 같이, 클라이언트 장치(110)는 콘텐츠를 제시하도록 구성된 디스플레이 장치(115)를 포함하고, 클라이언트 장치(110) 주위의 국지 영역의 비디오 데이터 또는 영상을 캡쳐하도록 구성된 하나 또는 그 이상의 영상 캡쳐 장치들을 포함한다.The client devices 110 are one or more computing devices capable of transmitting and / or receiving data over the network 120 as well as receiving user input. In one embodiment, the client device 110 is a conventional computer system, such as a desktop computer or notebook computer. Alternatively, the client device 110 may be a computer-functional device, such as a personal digital assistant (PDA), mobile phone, smartphone, or other suitable device. The client device 110 is configured to communicate over the network 120. In one embodiment, client device 110 executes an application that allows a user of client device 110 to interact with online system 140. For example, client device 110 runs a browser application to enable interaction between client device 110 and online system 140 via network 120. In another embodiment, the client device 110 children OS (IOS®) or Android (ANDROID TM) and application programming interfaces on-line system 140 via a (API) operating on the native operating system of the client device 110, such And interact. As described further below in connection with FIG. 2, the client device 110 includes a display device 115 configured to present content, and to capture video data or images of a local area around the client device 110. It comprises one or more image capture devices configured.

클라이언트 장치(110)는, 유선 및/또는 무선 통신 시스템들을 이용하여, 국지 영역(local area) 및/또는 광역(wide area) 네트워크들의 임의의 조합을 포함할 수 있는, 네트워크(120)를 통해 통신하도록 구성된다. 일실시예에서, 네트워크(120)는 표준 통신 기술들 및/또는 프로토콜들을 이용한다. 예를 들어, 네트워크(120)는 이더넷(Ethernet), 802.11, 와이맥스(마이크로파 액세스를 위한 전세계 상호운용성)(WiMAX : worldwide interoperability for microwave access), 3G, 4G, 코드분할 다중접속(CDMA), 디지털 가입자 라인(DSL : digital subscriber line) 등과 같은 기술들을 이용하는 통신 링크들을 포함한다. 네트워크(120)를 통해 통신하는데 사용되는 네트워킹 프로토콜들의 예들은 멀티프로토콜 라벨 스위칭(MPLS : multiprotocol label switching), 전송 제어 프로토콜/인터넷 프로토콜(TCP/IP), 하이퍼텍스트 트랜스포트 프로토콜(HTTP), 심플 메일 트랜스퍼 프로토콜(SMTP), 및 파일 트랜스퍼 프로토콜(FTP)을 포함한다. 네트워크(120)를 통해 교환된 데이터는 하이퍼텍스트 마크업 언어(HTML : hypertext markup language) 또는 확장가능한 마크업 언어(XML : extensible markup language)와 같은 임의의 적합한 포맷(format)을 이용하여 표현될 수 있다. 몇가지 실시예들에서, 네트워크(120)의 통신 링크들의 일부 또는 전부는 임의의 적합한 기술 또는 기술들을 이용하여 암호화될 수 있다. The client device 110 communicates through the network 120, which may include any combination of local area and / or wide area networks, using wired and / or wireless communication systems. It is configured to. In one embodiment, network 120 uses standard communication technologies and / or protocols. For example, the network 120 includes Ethernet, 802.11, and WiMAX (worldwide interoperability for microwave access), 3G, 4G, code division multiple access (CDMA), digital subscriber Communication links using technologies such as digital subscriber line (DSL). Examples of networking protocols used to communicate over the network 120 include multiprotocol label switching (MPLS), transmission control protocol / Internet protocol (TCP / IP), hypertext transport protocol (HTTP), and simple mail. Transfer protocol (SMTP), and file transfer protocol (FTP). Data exchanged over the network 120 may be represented using any suitable format, such as hypertext markup language (HTML) or extensible markup language (XML). have. In some embodiments, some or all of the communication links of network 120 may be encrypted using any suitable technology or techniques.

하나 또는 그 이상의 제 3 자 시스템들(130)은 온라인 시스템(140)과 통신 하기 위해 네트워크(120)에 연결될 수 있고, 이것은 도 3과 연결되어 하기에 더 서술되어 있다. 일실시예에서, 제 3 자 시스템(130)은 클라이언트 장치(110)에 의한 실행을 위해 애플리케이션들을 서술하는 정보를 통신전달하거나, 또는 클라이언트 장치 상에서 실행하는 애플리케이션에 의한 사용을 위해 클라이언트 장치들(110)에 데이터를 통신전달하는 애플리케이션 제공자이다. 다른 실시예들에서, 제 3 자 시스템(130)은 클라이언트 장치(110)을 통해 제시하기 위한 콘텐츠 또는 다른 정보를 제공한다. 제 3 자 시스템(130)은 또한 제 3 자 시스템(130)에 의해 제공된 애플리케이션에 대한 정보, 광고들, 또는 콘텐츠와 같은 정보를 온라인 시스템(140)에 통신전달할 수 있다. One or more third party systems 130 may be connected to network 120 to communicate with online system 140, which is further described below in connection with FIG. In one embodiment, the third party system 130 communicates information describing applications for execution by the client device 110, or client devices 110 for use by an application running on the client device. ) Is an application provider that communicates data. In other embodiments, the third party system 130 provides content or other information for presentation via the client device 110. The third party system 130 may also communicate information, such as information, advertisements, or content, about the application provided by the third party system 130 to the online system 140.

도 2는 클라이언트 장치(117)의 실시예의 블록도이다. 도 2에 도시된 실시예에서, 클라이언트 장치(110)는 디스플레이 장치(115)와 영상 캡쳐 장치(117) 뿐만 아니라 제어기(210)도 포함한다. 그러나, 다른 실시예들에서, 클라이언트 장치(110)는 도 2에 도시된 것들과는 상이한 또는 부가적인 구성 요소들을 포함한다.2 is a block diagram of an embodiment of a client device 117. In the embodiment shown in FIG. 2, the client device 110 includes the display device 115 and the image capture device 117 as well as the controller 210. However, in other embodiments, the client device 110 includes different or additional components than those shown in FIG. 2.

디스플레이 장치(115)는 클라이언트 장치(110)에 통합될 수 있거나, 클라이언트 장치(110)에 연결될 수 있다. 예를 들어, 클라이언트 장치(110)에 통합된 디스플레이장치(115)는 클라이언트 장치(110)에 포함된 디스플레이 스크린이다. 대안적으로, 디스플레이 장치(115)는 클라이언트 장치(110)에 연결된 모니터 또는 다른 디스플레이이다. 디스플레이장치(115)는 영상 데이터 또는 비디오 데이터를 사용자에게 제시한다. 디스플레이 장치(115)에 의해 제시된 영상 또는 비디오 데이터는 클라이언트 장치(110) 상에서 실행되는 애플리케이션에 의해 결정된다. 상이한 애플리케이션들이 클라이언트 장치(110) 상에 포함될 수 있어서, 상이한 애플리케이션들의 실행은 사용자에 의해 제시된 콘텐츠를 디스플레이 장치(115)에 의해 변경한다. The display device 115 may be integrated into the client device 110 or may be connected to the client device 110. For example, the display device 115 integrated in the client device 110 is a display screen included in the client device 110. Alternatively, the display device 115 is a monitor or other display connected to the client device 110. The display device 115 presents image data or video data to the user. The video or video data presented by the display device 115 is determined by an application running on the client device 110. Different applications can be included on the client device 110, such that the execution of different applications changes the content presented by the user by the display device 115.

영상 캡쳐 장치(117)는 클라이언트 장치(110) 주위의 국지 영역(local area) 및 영상 캡쳐 장치(117)의 시야 내의 국지 영역의 영상들 또는 비디오 데이터를 캡쳐한다. 몇가지 실시예들에서, 영상 캡쳐 장치(117)는 하나 또는 그 이상의 카메라들, 하나 또는 그 이상의 비디오 카메라들, 또는 영상 데이터 또는 비디오 데이터를 캡쳐할 수 있는 임의의 다른 장치를 포함한다. 부가적으로, 영상 캡쳐 장치(117)는 (예를 들어, 신호 대 잡음비를 증가시키는데 사용되는) 하나 또는 그 이상의 필터들을 포함할 수 있다. 다양한 파라미터들(예를 들어, 초점 길이, 포커스(focus), 프레임 레이트, ISO, 센서 온도, 셔터 속도, 개구, 초점(focal point) 등)은 영상 캡쳐 장치(117)에 의해 영상 데이터나 비디오 데이터의 캡쳐를 구성한다. 그러므로, 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하는 것은, 하나 또는 그 이상의 파라미터들의 수정 이후에 영상 캡쳐 장치(117)에 의해 캡쳐된, 비디오 데이터 또는 영상 데이터를 수정하는 것이다. 도 2는 클라이언트 장치(110) 내에 포함된 단일 영상 캡쳐 장치(117)를 도시하지만, 다른 실시예들에서, 클라이언트 장치(110)는 임의의 적합한 수의 영상 캡쳐 장치들(117)을 포함한다. 다양한 실시예들에서, 사용자들은 임의의 기록들(비디오, 음성, 등)이 클라이언트 장치 내에 및/또는 클라우드 상에 국지적으로 저장되는 것을 방지하기 위한 옵션들을 가지고, 저장된다면 임의의 기록들을 또한 삭제하는 옵션들을 가진다.The image capture device 117 captures images or video data of a local area around the client device 110 and a local area within the field of view of the image capture device 117. In some embodiments, image capture device 117 includes one or more cameras, one or more video cameras, or any other device capable of capturing image data or video data. Additionally, the image capture device 117 can include one or more filters (eg, used to increase the signal-to-noise ratio). Various parameters (e.g., focal length, focus, frame rate, ISO, sensor temperature, shutter speed, aperture, focal point, etc.) are image data or video data by the image capture device 117. Make up the capture. Therefore, modifying one or more parameters of the image capture device 117 is modifying video data or image data captured by the image capture device 117 after modification of the one or more parameters. 2 shows a single image capture device 117 included within the client device 110, but in other embodiments, the client device 110 includes any suitable number of image capture devices 117. In various embodiments, users have options to prevent any records (video, voice, etc.) from being stored locally in the client device and / or on the cloud, and also delete any records if stored. Have options.

제어기(210)는 영상 캡쳐 장치(117)에 연결되고 프로세서에 연결된 저장 장치를 포함한다. 다양한 실시예들에서, 제어기(210)는 또한 디스플레이 장치(115)에 연결된다. 제어기(210)는 프로세서에 의해 실행될 때, 하나 또는 그 이상의 모델들을 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터에 적용하는 지시들을 포함한다. 다양한 실시예들에서, 하나 또는 그 이상의 모델들이 비디오 데이터, 오디오 데이터, 영상 데이터, 또는 영상 캡쳐 장치(117)에 의해 캡쳐된 데이터의 임의의 조합에 적용되거나, 클라이언트 장치(110)에 연결되거나 클라이언트 장치에 포함된 임의의 다른 장치들에 의해 캡쳐된 데이터의 임의의 조합에 적용된다. 도 4와 연결되어 하기에 더 서술되는 바와 같이, 제어기(210)에 의해서 캡쳐된 비디오 데이터에 적용된 모델들은, 캡쳐된 비디오 데이터의 임의의 다른 적합한 콘텐츠, 객체들(objects), 사람, 또는 움직임을 식별하기 위해서, 하나 또는 그 이상의 규칙들을 캡쳐된 비디오 데이터의 특성들에 적용한다. 모델들의 적용에 기초하여, 그리고 하나 또는 그 이상의 프라이버시 설정들을 조건으로, 제어기(210)는 캡쳐된 비디오 데이터를 수정하거나 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하여, 후속하여 캡쳐된 비디오 데이터가 수정된다. 예를 들어, 사용자들은 캡쳐된 비디오 데이터의 특성들에 기초하여, 캡쳐된 비디오 데이터에서 사용자들을 위치시키는 모델들을 제어기(210)가 적용하는 것을 허가할 수 있고, 위치된 사용자들을 더 현저하게 포함하기 위해 캡쳐된 비디오 데이터를 수정하거나 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하여(예를 들어, 초점길이, 확대 또는 줌, 캡쳐된 비디오 데이터의 크로핑(cropping)), 부가적인 비디오 데이터는 위치된 사용자들을 더 현저하게 포함한다. 적어도 문턱값 세트의 차원들(예를 들어, 적어도 문턱값 높이 또는 문턱값 폭)을 위치된 사람에게 제시하거나, 영상 캡쳐 장치(117)의 적어도 문턱값 양의 시야에서 또는 캡쳐된 비디오 데이터의 적어도 문턱값 양의 프레임에서 위치된 사람을 제시하거나, 또는 캡쳐된 비디오 데이터 내의 하나 또는 그 이상의 특정 위치들에서 위치된 사람을 제시함으로써, 부가적인 비디오 데이터는 위치된 사람을 더 현저하게 포함한다. 그러나, 제어기(210)에 의해 적용된 모델들은 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터의 임의의 적합한 구성 요소들을 식별할 수 있고, 따라서, 영상 캡쳐 장치(117)의 파라미터들을 수정할 수 있거나, 또는 캡쳐된 비디오 데이터를 수정할 수 있다. The controller 210 includes a storage device connected to the image capture device 117 and connected to the processor. In various embodiments, the controller 210 is also connected to the display device 115. The controller 210 includes instructions that, when executed by the processor, apply one or more models to the video data captured by the image capture device 117. In various embodiments, one or more models are applied to video data, audio data, image data, or any combination of data captured by image capture device 117, connected to client device 110, or client It applies to any combination of data captured by any other devices included in the device. As described further below in connection with FIG. 4, the models applied to the video data captured by the controller 210 can be used for any other suitable content, objects, people, or movement of the captured video data. To identify, one or more rules are applied to the characteristics of the captured video data. Based on the application of the models, and subject to one or more privacy settings, the controller 210 modifies the captured video data or modifies one or more parameters of the image capture device 117, subsequently captured Video data is modified. For example, users may allow the controller 210 to apply models that locate users in the captured video data, based on characteristics of the captured video data, and more significantly include the located users. In order to modify the captured video data or modify one or more parameters of the image capture device 117 (eg, focal length, enlargement or zoom, cropping of the captured video data), additional video The data includes users more prominently located. At least the dimensions of the threshold set (eg, at least the threshold height or the threshold width) are presented to the located person, or at least in the field of view of at least a threshold amount of the image capture device 117 or at least of the captured video data By presenting a person located at a threshold amount of frames, or by presenting a person located at one or more specific locations in the captured video data, additional video data more significantly includes the person located. However, the models applied by the controller 210 can identify any suitable components of the video data captured by the image capture device 117, and thus can modify the parameters of the image capture device 117, Alternatively, the captured video data can be modified.

다양한 실시예들에서, 클라이언트 장치(110)는, 마이크로폰들과 같은, 하나 또는 그 이상의 오디오 캡쳐 장치들을 포함한다. 예를 들어, 클라이언트 장치(110)는 2차원 또는 3차원으로 빔포밍(beamforming)을 하기 위해 구성된 마이크로폰들의 어레이를 포함한다. 오디오 캡쳐 장치는 클라이언트 장치(110) 주위의 국지 영역 내의 상이한 영역들로부터 오디오 신호들을 캡쳐한다. 다양한 실시예들에서, 하나 또는 그 이상의 오디오 캡쳐 장치들은 제어기(210)에 연결되고, 이것은 클라이언트 장치(110) 주위의 국지 영역의 상이한 지역들을 식별하는 정보를 유지하고, 예를 들어, 제어기(210)는 클라이언트 장치(110) 주위의 360도 국지 영역의 지역들을 식별하면서, 클라이언트 장치(110) 내의 지점으로부터 시작되는 클라이언트 장치(110) 주위의 국지 영역의 24개의 15도 지역들을 식별한다. In various embodiments, client device 110 includes one or more audio capture devices, such as microphones. For example, the client device 110 includes an array of microphones configured for beamforming in two or three dimensions. The audio capture device captures audio signals from different areas within the local area around the client device 110. In various embodiments, one or more audio capture devices are coupled to the controller 210, which maintains information identifying different regions of the local area around the client device 110, eg, the controller 210 ) Identifies the areas of the 360-degree local area around the client device 110, while identifying the 24 15-degree areas of the local area around the client device 110 starting from a point in the client device 110.

하나 또는 그 이상의 오디오 캡쳐 장치들은 제어기(210)에 연결된다. 사용자 선택된 프라이버시 설정들을 조건으로, 제어기(210)는 기계 학습 모델들 또는 다른 사운드 인식 모델들과 같은 하나 또는 그 이상의 모델들을, 클라이언트 장치(110) 주위의 국지 영역의 지역들로부터 캡쳐된, 오디오 데이터에 적용한다. 제어기(210)는 사용자들 또는 객체들(예를 들어, 텔레비전, 모바일 장치)을 식별하는 정보를 포함하고, 하나 또는 그 이상의 모델들을 클라이언트 장치(110) 주위의 국지 영역의 지역으로부터 캡쳐된 오디오로의 적용은, 캡쳐된 오디오 데이터가 주변 잡음 또는 제어기(210)에 의해 식별된 객체 또는 사용자로부터의 오디오 데이터를 포함하는지 여부를 결정한다. 몇가지 실시예들에서, 제어기(210)에 의해 적용된 하나 또는 그 이상의 모델들은 제어기(210)에 의해 식별된 특정 사용자 또는 특정 객체를 결정하는데, 그 제어기로부터 하나 또는 그 이상의 오디오 캡쳐 장치들이 지역 내의 오디오를 캡쳐한 것이다. 다른 실시예들에서, 클라이언트 장치(110)는 하나 또는 그 이상의 오디오 장치들에 의해 캡쳐된 오디오 데이터를 온라인 시스템(140)에 통신전달하고, 이것은 하나 또는 그 이상의 모델들을 적용하여, 오디오 데이터가, 식별된 객체 또는 사용자로부터 캡쳐된, 오디오 데이터를 포함하는지 여부를 결정하거나, 또는 오디오 데이터가 캡쳐된, 특정한 식별된 사용자 또는 객체를 결정한다. 온라인 시스템(140)은 클라이언트 장치(110)에게, 캡쳐된 오디오 데이터가, 식별된 객체 또는 사용자로부터 캡쳐된 오디오 데이터를 포함하는지 여부의 표시를 제공하거나, 또는 오디오 데이터가 캡쳐된, 특정한 식별된 객체 또는 사용자를 지정하는 정보를 제공하는지 여부의 표시를 제공한다. 제어기(210) 또는 온라인 시스템(140)은 다른 지역들로부터 캡쳐된 오디오가 클라이언트 장치(110)의 국지 영역을 둘러싸는지 여부를 유사하게 결정한다. 상이한 지역들에서의 오디오 데이터가 캡쳐된, 식별된 객체들 또는 사용자들의 결정들에 기초하여, 제어기(210)는 하나 또는 그 이상의 지역들로부터 캡쳐된 오디오의 품질을 개선하기 위해 하나 또는 그 이상의 오디오 장치들의 위치선정을 수정한다. 예를 들어, 제어기(210)는 국지 영역 주위의 지역으로부터 캡쳐된 오디오의 품질을 개선하기 위해 하나 또는 그 이상의 오디오 캡쳐 장치들을 재위치시키고, 여기서 오디오 데이터는 특정 사용자로부터 또는 지정된 객체로부터 캡쳐된 것이다. 유사하게, 제어기(210)는, 오디오 데이터가 상이한 사용자들 또는 객체들로부터 캡쳐된, 클라이언트 장치(110) 주위의 국지 영역의 지역들에 기초하여 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 재위치시킬 수 있거나 그렇지 않으면 수정할 수 있다. 하나 또는 그 이상의 오디오 장치들 및 영상 캡쳐 장치(117)는 다양한 실시예들에서 클라이언트 장치(110) 주위의 국지 영역의 상이한 부분들로 향해질 수 있다. 예를 들어, 영상 캡쳐 장치(117)는 사용자에 의해 서술된 객체로 향해지고, 한편, 제어기(210)는 하나 또는 그 이상의 오디오 캡쳐 장치들을 특정 사용자에 의해 오디오 데이터가 캡쳐된 클라이언트 장치(110) 주위의 국지 영역의 지역으로 향하게 한다.One or more audio capture devices are connected to the controller 210. Subject to user-selected privacy settings, the controller 210 may record one or more models, such as machine learning models or other sound recognition models, from areas of the local area around the client device 110, audio data. Applies to. The controller 210 includes information identifying users or objects (eg, a television, mobile device), and one or more models are captured as audio captured from a region of the local area around the client device 110. The application of determines whether the captured audio data includes ambient noise or audio data from an object or user identified by controller 210. In some embodiments, one or more models applied by the controller 210 determine a specific user or specific object identified by the controller 210, from which one or more audio capture devices are located within the region. Is captured. In other embodiments, the client device 110 communicates the audio data captured by the one or more audio devices to the online system 140, which applies one or more models to the audio data, Determine whether to include audio data, captured from the identified object or user, or determine a specific identified user or object from which the audio data was captured. The online system 140 provides the client device 110 with an indication of whether the captured audio data includes the identified object or audio data captured from the user, or a specific identified object in which the audio data has been captured. Or, it provides an indication of whether or not to provide information specifying a user. The controller 210 or online system 140 similarly determines whether audio captured from other regions surrounds the local area of the client device 110. Based on the identified objects 'or users' decisions, where audio data in different regions has been captured, the controller 210 may perform one or more audio to improve the quality of the audio captured from one or more regions. Correct the positioning of devices. For example, controller 210 repositions one or more audio capture devices to improve the quality of audio captured from an area around a local area, where audio data is captured from a particular user or from a specified object. . Similarly, the controller 210 sets one or more parameters of the image capture device 117 based on regions of the local area around the client device 110 where audio data was captured from different users or objects. It can be repositioned or modified otherwise. The one or more audio devices and image capture device 117 may be directed to different portions of the local area around the client device 110 in various embodiments. For example, the image capture device 117 is directed to an object described by the user, while the controller 210 is a client device 110 in which audio data is captured by one or more audio capture devices by a specific user Directs you to the area of the surrounding local area.

클라이언트 장치(110)의 제어기(210)와 온라인 시스템(140)은 협력하여 및/또는 개별적으로, 다양한 실시예들에서, 캡쳐된 비디오 데이터 또는 다른 데이터로부터 식별된, 사람들 또는 사용자들을 위한 하나 또는 그 이상의 프라이버시 설정들을 유지하고 시행한다. 사용자 또는 사람의 프라이버시 설정은 사용자 또는 사람과 연관된 특정 정보가 공유될 수 있는 방법을 결정하고, 사용자 또는 사람을 식별하는 정보와 연관되어 저장될 수 있다. 몇가지 실시예들에서, 제어기(210)는 온라인 시스템(140)에 의해 유지되는, 하나 또는 그 이상의 사용자들을 위한 프라이버시 설정들을 검색한다. 일실시예에서, 프라이버시 설정은 사용자와 연관된 특정 정보를 지정하고, 지정된 정보가 공유될 수 있는 다른 실체들을 식별한다. 정보가 공유될 수 있는 실체들의 예들은, 다른 사용자들, 애플리케이션들, 제 3 자 시스템들(130), 또는 잠재적으로 정보에 액세스할 수 있는 임의의 실체들을 포함할 수 있다. 사용자에 의해 공유될 수 있는 정보의 예들은 사용자 또는 사람을 포함하는 영상 데이터, 사용자 또는 사람으로부터 캡쳐된 오디오를 포함하는 오디오 데이터, 사용자 또는 사람을 포함하는 비디오 데이터, 및 유사한 것을 포함한다.. The controller 210 of the client device 110 and the online system 140 cooperate and / or individually, in various embodiments, one or more for people or users, identified from captured video data or other data. Maintain and enforce the above privacy settings. The user or person's privacy settings determine how specific information associated with the user or person can be shared, and can be stored in association with information identifying the user or person. In some embodiments, controller 210 retrieves privacy settings for one or more users, maintained by online system 140. In one embodiment, privacy settings specify specific information associated with the user and identify other entities to which the specified information can be shared. Examples of entities in which information may be shared may include other users, applications, third-party systems 130, or any entities potentially accessing information. Examples of information that can be shared by the user include video data including the user or person, audio data including audio captured from the user or person, video data including the user or person, and the like.

예를 들어, 특정 실시예들에서, 프라이버시 설정들은 제 1 사용자가, (예를 들어, 옵트아웃(opt out)함으로써, 옵트인(opt in)하지 않음으로써), 온라인 시스템(140)이 임의의 목적으로 사용자와 연관된 정보 또는 특별한 객체들을 수신, 수집, 로그(log), 또는 저장할 수 있는지 여부를, 지정하는 것을 허용할 수 있다. 특정 실시예들에서, 프라이버시 설정들은 제 1 사용자가, 특정 비디오 캡쳐 장치들, 오디오 캡쳐 장치들, 애플리케이션들, 또는 프로세스들이 사용자와 연관된 특정 객체들 또는 정보에 액세스하거나, 저장하거나 또는 사용할 수 있는지 여부를, 지정하는 것을 허용할 수 있다. 프라이버시 설정들은 제 1 사용자가, 특정 장치들, 애플리케이션들, 또는 프로세스들에 의해 액세스되거나, 저장되거나, 또는 이용되는 정보 또는 객체들을 가지는 것을, 옵트인하거나 옵트아웃하는 것을 허용할 수 있다. 온라인 시스템(140)은, 임의의 다른 목적들을 위해 온라인 시스템(140)이 그 정보에의 액세스(access)를 가지지 않고서도, 특정 기능 또는 서비스를 제 1 사용자에게 제공하기 위해 그러한 정보에 액세스할 수 있다. 그러한 객체들 또는 정보를 액세스하거나, 저장하거나, 또는 사용하기 전에, 온라인 시스템은 사용자가 프라이버시 설정들을 제공하게 유도할 수 있는데, 그 프라이버시 설정들은, 만약에 있다면, 어느 애플리케이션들 또는 프로세스들이 임의의 그러한 동작(action)을 허용하기 전에 객체 또는 정보를 액세스하거나, 저장하거나, 또는 사용할 수 있는지를 지정한다. 한정에 의한 것은 아닌 예로서, 제 1 사용자는, 온라인 소셜네트워크(예를 들어, 메시징 앱)에 관련된 애플리케이션을 통해서, 메시지를 제 2 사용자에게 전송할 수 있고, 그러한 메시지들이 온라인 시스템(140)에 의해 저장되어서는 안되는 프라이버시 설정들을 지정할 수 있다.For example, in certain embodiments, privacy settings can be determined by the first user (eg, by opt out, by not opt in), online system 140 is optional. For purposes of this, it may allow to specify whether information or special objects associated with the user can be received, collected, logged, or stored. In certain embodiments, the privacy settings determine whether the first user can access, store, or use certain objects or information associated with the user, certain video capture devices, audio capture devices, applications, or processes. Can be specified. Privacy settings can allow a first user to opt in or opt out of having information or objects that are accessed, stored, or used by specific devices, applications, or processes. Online system 140 may access such information for providing certain functions or services to a first user without the online system 140 having access to the information for any other purpose. have. Before accessing, storing, or using such objects or information, the online system can induce the user to provide privacy settings, which, if any, any applications or processes can Specifies whether an object or information can be accessed, stored, or used before allowing an action. By way of example, and not limitation, a first user may send a message to a second user through an application related to an online social network (eg, a messaging app), and those messages may be sent by the online system 140. You can specify privacy settings that should not be saved.

온라인 시스템(140) 및/또는 제어기(210)에 의해 유지되고 시행되는 프라이버시 설정들은 디폴트(default) 설정들과 연관될 수 있다. 다양한 실시예들에서, 제어기(210)가 사용자를 식별하는 것을 허가하는 사용자로부터의 프라이버시 설정을 제어기(210)가 얻지 않는다면, 제어기(210)는 캡쳐된 비디오 데이터, 오디오 데이터, 영상 데이터, 또는 다른 데이터 내에서 사용자를 식별하지 않는다. 예를 들어, 사용자와 연관된 프라이버시 설정은 제어기(210)가 사용자를 식별하는 것을 방지하는 디폴트 세팅을 가져서, 사용자를 식별하는 것을 제어기(210)가 허용하도록 사용자가 프라이버시 설정을 수동으로 변경하지 않는다면, 제어기(210)는 사용자를 식별하지 않는다. 부가적으로, 대안의 프라이버시 설정은, 다양한 실시예들에서, 다른 실체(예를 들어, 다른 클라이언트 장치(110), 온라인 시스템(140), 제 3 자 시스템(130))에 사용자를 식별시키는 클라이언트 장치(110)로부터의 정보의 전송을 규제한다. 대안의 프라이버시 설정은, 다양한 실시예들에서, 전송을 허가하기 위해 대안의 프라이버시 설정을 수동으로 사용자가 수정하지 않는다면 제어기(210)는 사용자를 다른 실체들에게 식별시키는 정보를 전송하는 것을 방지하면서, 사용자를 식별하는 정보의 전송을 방지하는 디폴트 설정을 가진다. 제어기(210)는, 각각의 사용자의 식별 및 전송의 사용자-특정 제어(user-specific control)를 허용하면서, 캡쳐된 비디오 데이터 또는 다른 데이터로부터 식별된 각각의 사용자에 대한 하나 또는 그 이상의 프라이버시 설정들을 유지한다. 몇가지 실시예들에서, 제어기(210)는, 캡쳐된 데이터로부터 제어기(210)가 사람을 처음으로 식별하고, 제공된 프라이버시 설정들을 사람을 식별하는 정보와 연관하여 저장할 때, 사람이 프라이버시 설정들을 제공하게 유도한다.Privacy settings maintained and enforced by the online system 140 and / or controller 210 may be associated with default settings. In various embodiments, if the controller 210 does not obtain a privacy setting from a user that allows the controller 210 to identify the user, the controller 210 may capture video data, audio data, image data, or other It does not identify the user in the data. For example, the privacy settings associated with the user have default settings that prevent the controller 210 from identifying the user, unless the user manually changes the privacy settings to allow the controller 210 to identify the user, The controller 210 does not identify the user. Additionally, alternative privacy settings may, in various embodiments, be a client that identifies a user to another entity (eg, another client device 110, online system 140, third party system 130). The transmission of information from the device 110 is restricted. The alternative privacy setting prevents the controller 210 from transmitting information identifying the user to other entities unless the user manually modifies the alternative privacy setting to permit transmission, in various embodiments. It has a default setting that prevents the transmission of information identifying the user. The controller 210 allows one or more privacy settings for each user identified from the captured video data or other data, while allowing user-specific control of each user's identification and transmission. To maintain. In some embodiments, the controller 210 allows the person to provide privacy settings when the controller 210 first identifies the person from the captured data and stores the provided privacy settings in association with information identifying the person. Induces.

다양한 실시예들에서, 사용자-인증(user-authentication) 또는 경험-개인화 목적들을 위해 사용자의 개인 정보 또는 바이오측정 정보를 입력들로서 이용할 수 있는 기능들을 가지는, 온라인 시스템(140) 및/또는 다양한 구성요소들 클라이언트 장치(110)에 대해서, 사용자는 장치 및 온라인 시스템을 이용하여 그들의 경험을 향상시키도록 이들 기능들을 이용하는 것을 택할(opt) 수 있다. 한정에 의한 것은 아닌 예로서, 사용자는 자발적으로 개인 정보 또는 바이오측정 정보를 온라인 시스템(140)에 제공할 수 있다. 사용자의 프라이버시 설정들은 그러한 정보가, 인증과 같은, 특정 프로세스들만을 위해 이용될 수 있다는 것을 지정할 수 있고, 그러한 정보가 임의의 제 3 자와 공유될 수 없거나, 또는 온라인 시스템(140)과 연관된 다른 프로세스들 또는 애플리케이션들을 위해 이용될 수 없다는 것을 더 지정할 수 있다. 한정에 의한 것은 아닌 다른 예로서, 온라인 시스템(140)은, 사용자가 음성 프린트 녹음(voice print recording)들을 온라인 소셜네트워크에 제공하는, 기능을 제공할 수 있다. 한정에 의한 것은 아닌 예로서, 사용자가 온라인 소셜 네트워크의 이러한 기능을 활용하기를 원한다면, 사용자는 온라인 소셜 네트워크 상에 상태 업데이트를 제공하기 위해 그 자신의 또는 그녀 자신의 목소리의 음성 녹음을 제공할 수 있다. 사용자에 의해 어떤 단어들이 말해졌는지를 결정하기 위해, 음성-입력의 녹음은 사용자의 음성 프린트와 비교될 수 있다. 사용자의 프라이버시 설정은 그러한 음성녹음이 음성-입력 목적들(예를 들어, 온라인 소셜 네트워크의 음성-오퍼레이팅 특징들을 이용하기 위해 음성 인식을 개선하는 것, 사용자를 인증하는 것. 음성메시지들을 송신하는 것)로만 사용될 수 있음을 지정할 수 있고, 그러한 음성 녹음이 임의의 제 3 자 시스템과 공유될 수 없거나, 온라인 시스템(140)과 연관된 다른 프로세스들 또는 애플리케이션들에 의해 이용될 수 없음을 더 지정할 수 있다. 한정에 의한 것은 아닌 다른 예로서, 온라인 시스템(140)은 사용자가 기준 영상(예를 들어, 얼굴 프로필)을 온라인 소셜 네트워크에 제공하는 기능을 제공할 수 있다. 온라인 소셜 네트워크는, (예를 들어, 사용자를 인증하기 위해, 사진들에서 사용자를 태그(tag)하기 위해), 이후에 수신된 영상 입력에 대해 기준 영상을 비교할 수 있다. 사용자의 프라이버시 설정은 그러한 음성 녹음이 한정된 목적(예를 들어, 인증, 사진들에서 사용자를 태그하는 것)으로만 이용될 수 있음을 지정할 수 있고, 그러한 음성 녹음이 임의의 제 3 자 시스템과 공유될 수 없거나, 시스템(140)과 연관된 다른 프로세스들 또는 애플리케이션들에 의해 이용될 수 없음을 더 지정할 수 있다. 바이오측정 데이터 및/또는 다른 개인 데이터 캡쳐에 관한 그러한 제한들 중 어느 것도 또한 클라이언트 장치(110)에 적용될 수 있다.In various embodiments, the online system 140 and / or various components have functions that can use the user's personal information or biometric information as inputs for user-authentication or experience-personalization purposes. For field client device 110, the user may opt to use these functions to enhance their experience using the device and online system. By way of example, and not limitation, the user may voluntarily provide personal information or bio-measurement information to the online system 140. The user's privacy settings can specify that such information can be used only for certain processes, such as authentication, and such information cannot be shared with any third party, or other associated with the online system 140. It can further specify that it cannot be used for processes or applications. As another non-limiting example, the online system 140 may provide a function for a user to provide voice print recordings to an online social network. As a non-limiting example, if a user wants to take advantage of these features of an online social network, the user can provide a voice recording of his or her own voice to provide status updates on the online social network. have. To determine which words were spoken by the user, the recording of voice-input can be compared to the user's voice print. The user's privacy settings are such that voice recording improves speech recognition to authenticate voice-input purposes (eg, to use voice-operating features of online social networks, authenticating the user), sending voice messages. ), And can further specify that such a voice recording cannot be shared with any third-party system or used by other processes or applications associated with the online system 140. . As another non-limiting example, the online system 140 may provide a function for a user to provide a reference image (eg, a face profile) to an online social network. The online social network may compare the reference image to the subsequently received image input (eg, to authenticate the user, to tag the user in pictures). The user's privacy settings can specify that such voice recordings can only be used for a limited purpose (eg, authentication, tagging users in photos), and such voice recordings can be shared with any third party system. It can further specify that it cannot or cannot be used by other processes or applications associated with the system 140. Any of those restrictions regarding biomeasurement data and / or other personal data capture may also be applied to client device 110.

사용자들은 하나 또는 그 이상의 방식으로 데이터의 캡쳐, 사용자들의 식별, 및/또는 사용자 관련된 데이터의 공유와 애플리케이션간 사용을 인증할 수 있다. 예를 들어, 사용자들이 클라이언트 장치들(110)의 특징들을 이용하기 전에, 및/또는 온라인 시스템(140)에서 동작들을 취하기 전에, 사용자는 다양한 프라이버시 설정들을 사전-선택할 수 있다. 다른 경우에, 언제 사용자들이 첫째로 동작을 실행하는지, 언제 사용자들이 클라이언트 장치들(110) 및/또는 온라인 시스템(140)의 특징을 이용하는지, 및/또는 언제 사용자들이 동작을 실행하지 않았거나 소정 기간의 시간 동안 특징을 이용하지 않았는지와 같은, 선택 대화가 유도될 수가 있다. 또 다른 예에서, 사용자들이 통지(notification)들을 통해 추가 선택들을 하는 것을 허용하기 위해, 클라이언트 장치들(110) 및 온라인 시스템(140)은 또한, 사용자 데이터를 요구하는 어떤 특징들이 사용자들의 선택들로 인해서 언제 오퍼레이팅하기 시작하거나 디스에이블되는지의 통지들을 사용자들에게 제공할 수 있다. 사용자들이 허가를 하는 다른 적합한 방법들이 또한 가능하다 Users can authenticate data capture, identification of users, and / or sharing of user-related data and use between applications in one or more ways. For example, the user can pre-select various privacy settings before the users use the features of the client devices 110 and / or take actions on the online system 140. In other cases, when users first perform the action, when users use the features of the client devices 110 and / or the online system 140, and / or when the user has not performed the action or is predetermined Selective conversation can be induced, such as whether the feature has not been used for a period of time. In another example, to allow users to make additional choices through notifications, the client devices 110 and the online system 140 also have some features that require user data to be selected by the users. This can provide users with notifications of when to start operating or to be disabled. Other suitable ways for users to authorize are also possible.

몇가지 실시예들에서, 제어기(210)는, 사용자에 대한 프라이버시 설정들을 조건으로, 온라인 시스템(140)에 의해 유지된 정보를 얻거나, 또는 캡쳐된 비디오 데이터로부터 식별된 사용자에 대해서 하나 또는 그 이상의 제 3 자 시스템들(130)로부터 정보를 얻는다. 비디오 데이터, 오디오 데이터, 영상 데이터, 또는 획득된 정보 및 클라이언트 장치(110)에 의해 이전에 캡쳐된 사용자를 포함하는 다른 데이터에 기초하여, 제어기(210)는 클라이언트 장치(110)를 통해 사용자에게 제시하기 위한 콘텐츠를 생성할 수 있다. 예를 들어, 제어기(210)는, 클라이언트 장치(110)에 의해 캡쳐된 영상 데이터 또는 비디오 데이터로부터 제어기(210)에 의해 식별된, 하나 또는 그 이상의 객체들과 연관된, 온라인 시스템(140)으로부터의 콘텐츠 아이템들을 오버레이(overlay)한다. 대안적으로, 온라인 시스템(140)은, 사용자를 위해 온라인 시스템(140)에 의해 유지되는 (또는 온라인 시스템(140)에 의해 하나 또는 그 이상의 제 3 자 시스템들(130)로부터 얻어진) 정보와 클라이언트 장치(110)로부터 수신된 사용자를 포함하는 다른 데이터, 비디오 데이터, 영상 데이터, 또는 오디오 데이터에 기초하여 사용자에 대한 콘텐츠를 생성하고, 생성된 콘텐츠를 사용자에게 제시하기 위해 클라이언트 장치(110)에 제공한다. In some embodiments, the controller 210 obtains information maintained by the online system 140, subject to privacy settings for the user, or one or more for the user identified from the captured video data. Obtain information from third-party systems 130. Based on the video data, audio data, image data, or other information, including the information obtained and the user previously captured by the client device 110, the controller 210 is presented to the user through the client device 110. You can create content to do. For example, the controller 210 is associated with one or more objects identified by the controller 210 from image data or video data captured by the client device 110, from the online system 140. Overlay content items. Alternatively, the online system 140 is a client and information maintained by the online system 140 for the user (or obtained from one or more third-party systems 130 by the online system 140). Create content for the user based on other data, video data, image data, or audio data, including the user received from the device 110, and provide the generated content to the client device 110 to present to the user do.

도 3은 온라인 시스템(140)의 아키텍처의 블록도이다. 도 3에 도시된 온라인 시스템(140)은 사용자 프로필 스토어(305), 콘텐츠 스토어(310), 동작 로거(action logger)(315), 동작 로그(action log)(320), 엣지 스토어(325), 콘텐츠 선택 모듈(330), 및 웹 서버(335)를 포함한다. 다른 실시예들에서, 온라인 시스템(140)은, 다양한 애플리케이션들을 위해, 부가적이거나, 더 적거나, 또는 상이한 구성요소들을 포함할 수 있다. 네트워크 인터페이스들, 보안 기능들, 부하 분산장치들(load balancers), 대체작동 서버들(failover severs), 관리 및 네트워크 작동 콘솔들, 및 유사한 것들과 같은 종래의 구성 요소들은, 시스템 아키텍처의 상세 부분들을 모호하지 않게 하려고, 도시되지 않는다.3 is a block diagram of the architecture of the online system 140. The online system 140 shown in FIG. 3 includes a user profile store 305, a content store 310, an action logger 315, an action log 320, and an edge store 325. And a content selection module 330 and a web server 335. In other embodiments, online system 140 may include additional, fewer, or different components for various applications. Conventional components, such as network interfaces, security functions, load balancers, failover severs, management and network operation consoles, and the like, provide details of the system architecture. Not to be ambiguous, not shown.

온라인 시스템(140)의 각각의 사용자는 사용자 프로필과 연관되는데, 이것은 사용자 프로필 스토어(305)에 저장된다. 사용자 프로필은 사용자에 의해 분명하게 공유되었던 사용자에 대한 서술형의 정보를 포함하고, 온라인 시스템(140)에 의해 추론된 프로필 정보도 포함할 수 있다. 일실시예에서, 사용자 프로필은 복수의 데이터 필드들을 포함하고, 그 각각은 대응되는 온라인 시스템 사용자의 하나 또는 그 이상의 속성들을 서술한다. 사용자 프로필에 저장된 정보의 예들은, 업무경험, 교육이력, 성별, 취미들 또는 선호도들, 주소 등과 같은, 전기체의, 인구통계학적, 및 다른 종류의 서술형의 정보를 포함한다. 사용자 프로필은, 예를 들어, 영상들 또는 비디오인, 사용자에게 제공되는 다른 정보도 저장할 수 있다. 어떤 실시예들에서, 사용자들의 영상들은, 영상에서 디스플레이된 온라인 시스템 사용자들을 식별하는 정보로 태그(tag)될 수 있고, 사용자의 사용자 프로필에 저장된, 사용자가 태그된 영상들을 식별하는, 정보로 태그될 수 있다. 사용자 프로필 스토어(305) 내의 사용자 프로필은 또한, 콘텐츠 스토어(310) 내의 콘텐츠 아이템들 상에서 대응되는 사용자에 의해 수행되고 동작 로그(320)에 저장된, 동작들에 대한 기준들을 유지할 수 있다. Each user of online system 140 is associated with a user profile, which is stored in user profile store 305. The user profile includes descriptive information about the user that has been clearly shared by the user, and may also include profile information deduced by the online system 140. In one embodiment, the user profile includes a plurality of data fields, each of which describes one or more attributes of the corresponding online system user. Examples of information stored in the user profile include electronic, demographic, and other types of descriptive information, such as work experience, educational history, gender, hobbies or preferences, address, and the like. The user profile may also store other information provided to the user, for example images or videos. In some embodiments, images of users may be tagged with information identifying online system users displayed in the image, and tagged with information stored in the user's user profile to identify images tagged by the user. Can be. The user profile in the user profile store 305 can also maintain criteria for actions, performed by the corresponding user on content items in the content store 310 and stored in the action log 320.

부가적으로, 사용자를 위해 유지되는 사용자 프로필은, 온라인 시스템(140)이 클라이언트 장치(110)에 의해 제공된 특성들로부터 사용자를 후속하여 식별하는 것을 허용하면서, 사용자와 연관된 하나 또는 그 이상의 클라이언트 장치들(110)의 특성들을 포함한다. 예를 들어, 온라인 시스템(140)과 연관되어 있고 클라이언트 장치(110) 상에서 실행되는 애플리케이션은, 사용자 식별자(user identifier)와 연관하여 온라인 시스템(140)에 클라이언트 장치(110)를 독특하게 식별하는 다른 정보 또는 장치 식별자(device identifier)를 제공한다. 온라인 시스템(140)이 클라이언트 장치(110)를 독특하게 식별하는 다른 정보 또는 장치 식별자를 수신한다면, 사용자의 후속하는 식별을 허용하면서, 온라인 시스템(110)은 사용자를 위해 유지되는 사용자 프로필에서 클라이언트 장지(110)를 독특하게 식별하는 다른 정보 또는 장치 식별자를 저장한다. 사용자와 연관된 클라이언트 장치들(110)의 다른 특성들은 사용자에 의해 유지되는 사용자 프로필에 대안적으로 또는 부가적으로 포함될 수 있다. 예를 들어, 사용자 프로필은, 네트워크(120), 온라인 시스템(140)이 정보를 수신한 클라이언트 장치(110) 상에서 실행되는 애플리케이션의 식별자, 온라인 시스템(140)이 정보를 수신한 클라이언트 장치(110)의 종류(예를 들어, 제조자, 클라이언트 장치(110)의 모델의 식별자 등), 및 온라인 시스템(140)이 정보를 수신한 클라이언트 장치(110) 상에서 실행되는 오퍼레이팅 시스템에 액세스하기 위해서 클라이언트 장치(110)에 의해 사용된 네트워크 어드레스를 포함한다. 그러나, 온라인 시스템(140)이 사용자 프로필에 대응되는 사용자에 의해 이용된 클라이언트 장치들(110)에 대한 정보를 유지하는 것을 허용하면서, 온라인 시스템(140)은 사용자 프로필에서 클라이언트 장치(110)의 임의의 적합한 특성들을 저장할 수 있다.Additionally, the user profile maintained for the user allows one or more client devices associated with the user, while allowing the online system 140 to subsequently identify the user from the properties provided by the client device 110. It includes the characteristics of (110). For example, an application associated with the online system 140 and running on the client device 110 may have other information uniquely identifying the client device 110 to the online system 140 in association with a user identifier. Alternatively, a device identifier is provided. If the online system 140 receives other information or device identifiers that uniquely identify the client device 110, while allowing the user's subsequent identification, the online system 110 is able to locate the client device in the user profile maintained for the user ( 110) stores other information or device identifiers that uniquely identify. Other characteristics of client devices 110 associated with the user may alternatively or additionally be included in the user profile maintained by the user. For example, the user profile is the network 120, the identifier of the application running on the client device 110 on which the online system 140 has received the information, and the client device 110 on which the online system 140 has received the information. Type of client (eg, manufacturer, identifier of the model of the client device 110, etc.), and the client device 110 to access the operating system running on the client device 110 where the online system 140 has received the information. ). However, while allowing the online system 140 to maintain information about the client devices 110 used by the user corresponding to the user profile, the online system 140 can be used to view any of the client devices 110 in the user profile. It can store suitable characteristics of.

사용자 프로필 스토어(305) 내의 사용자 프로필들은, 개인들이 온라인 시스템(140)을 통해 서로 상호작용하는 것을 허용하며, 종종 개인들과 연관되지만, 사용자 프로필들은 또한 사업체들 또는 단체들과 같은 실체들을 위해서도 저장될 수 있다. 이것은 실체(entity)가, 다른 온라인 시스템 사용자들과 콘텐츠를 교환하고 접속하기 위해서, 온라인 시스템(140) 상에 존재를 설정하는 것을 허용하는 것이다. 실체는, 실체의 사용자 프로필과 연관된 브랜드(brand) 페이지를 이용하여, 그 자신에 대한, 그 제품들에 대한 정보를 게시(post)할 수 있거나, 또는 다른 정보를 온라인 시스템(140)의 사용자들에게 제공할 수 있다. 온라인 시스템(140)의 다른 사용자들은 브랜드 페이지에 게시된 정보를 수신하기 위해, 또는 브랜드 페이지로부터 정보를 수신하기 위해 브랜드 페이지에 접속할 수 있다. 브랜드 페이지와 연관된 사용자 프로필은, 실체에 대한 정보제공 데이터 또는 배경을 사용자들에게 제공하면서, 실체 그 자체에 대한 정보를 포함할 수 있다.User profiles in the user profile store 305 allow individuals to interact with each other through the online system 140 and are often associated with individuals, but user profiles are also stored for entities such as businesses or organizations. Can be. This allows the entity to establish presence on the online system 140, in order to exchange and access content with other online system users. The entity may post information about itself, its products, or other information to users of the online system 140 using a brand page associated with the entity's user profile. Can provide. Other users of the online system 140 may access the brand page to receive information posted on the brand page, or to receive information from the brand page. The user profile associated with the brand page may include information about the entity itself, while providing information or background to the entity about the entity.

콘텐츠 스토어(310)는 다양한 종류의 콘텐츠를 각각 나타내는 객체들을 저장한다. 객체에 의해 표현되는 콘텐츠의 예들은 페이지 포스트(page post), 상태 업데이트, 사진, 비디오, 링크, 공유된 콘텐츠 아이템, 게임 애플리케이션 달성, 국지적 비즈니스에서의 체크인 이벤트, 브랜드 페이지, 또는 임의의 다른 종류의 콘텐츠를 포함한다. 온라인 시스템 사용자들은, 상태 업데이트들, 온라인 시스템(140)내의 다른 객체들과 연관되도록 사용자들의 의해 태그된 사진들, 이벤트들, 그룹들 또는 애플리케이션들과 같은, 콘텐츠 스토어(310)에 의해 저장된 객체들을 생성할 수 있다. 몇가지 실시예들에서, 객체들은 제 3 자 애플리케이션들로부터 수신되거나 또는 온라인 시스템(140)으로부터 이격된 제 3 자 애플리케이션들로부터 수신된다. 일실시예에서, 콘텐츠 스토어(310) 내의 객체들(objects)은 "콘텐츠 아이템들" 또는 콘텐츠의 단편들을 나타낸다. 그러므로, 온라인 시스템 사용자들은 다양한 통신 채널들을 통해 다양한 종류의 매체의 콘텐츠 아이템들과 텍스트를 온라인 시스템(140)에 게시(post)함으로써 서로 통신하도록 권장된다. 이것은 사용자들의 서로에 대한 상호작용의 양을 증가시키고 온라인 시스템(140) 내에서 사용자들이 상호작용하는 빈도를 증가시킨다. The content store 310 stores objects each representing various types of content. Examples of content represented by objects are page posts, status updates, photos, videos, links, shared content items, game application achievements, check-in events in local businesses, branded pages, or any other kind of content. Contains content. Online system users can view objects stored by the content store 310, such as status updates, pictures, events, groups or applications tagged by users to be associated with other objects in the online system 140. Can be created. In some embodiments, objects are received from third party applications or from third party applications remote from online system 140. In one embodiment, objects in content store 310 represent “content items” or fragments of content. Therefore, online system users are encouraged to communicate with each other by posting content items and text of various types of media to the online system 140 through various communication channels. This increases the amount of users' interaction with each other and the frequency with which users interact within the online system 140.

콘텐츠 스토어(310)에 포함된 하나 또는 그 이상의 콘텐츠 아이템들은, 사용자에게 제시하기 위한 콘텐츠인 크리에이티브(creative)와, 비드량(bid amount)을 포함한다. 크리에이티브는 텍스트, 영상, 오디오, 비디오, 또는 사용자에게 제시된 임의의 다른 적합한 데이터이다. 다양한 실시예들에서, 크리에이티브는 또한 콘텐츠의 페이지를 지정한다. 예를 들어, 콘텐츠 아이템은, 콘텐츠 아이템이 액세스될 때 사용자가 향하는, 콘텐츠의 랜딩(landing) 페이지의 네트워크 어드레스를 지정하는 링크를 포함한다. 사용자가 콘텐츠를 제시받는 경우에, 콘텐츠 아이템 내의 콘텐츠가 사용자에게 제시된다면, 제시되었을 때 콘텐츠 아이템 내의 콘텐츠가 사용자 상호작용을 수신한다면, 또는 콘텐츠 아이템 내의 콘텐츠가 사용자에게 제시되었을 때 임의의 적합한 조건이 만족된다면, 비드량(bid amount)은 사용자에 의해 콘텐츠 아이템에 포함되고, 광고주에 의해 온라인 시스템(140)에게 제공되는 금전 보상과 같은 기대값을 결정하는데 이용된다. 예를 들어, 콘텐츠 아이템에 포함된 비드량은 콘텐츠 아이템 내의 콘텐츠가 디스플레이된다면, 온라인 시스템(140)에 콘텐츠 아이템을 제공한 사용자로부터 온라인 시스템(140)이 받는 금전의 양을 지정한다. 몇가지 실시예들에서, 콘텐츠 아이템으로부터 콘텐츠를 제시하는 것의, 온라인 시스템(140)에 대한 기대값은 비드량을 콘텐츠 아이템의 콘텐츠가 사용자에 의해 액세스되는 확률과 곱해서 결정될 수 있다.The one or more content items included in the content store 310 include creative, which is content for presentation to the user, and a bid amount. Creative is text, video, audio, video, or any other suitable data presented to the user. In various embodiments, the creative also specifies a page of content. For example, the content item includes a link that specifies the network address of the landing page of the content to which the user is directed when the content item is accessed. In the case where the user is presented with content, if the content in the content item is presented to the user, the content in the content item when presented receives user interaction, or any suitable condition when the content in the content item is presented to the user If satisfied, the bid amount is included in the content item by the user and is used to determine an expected value, such as a monetary reward, provided to the online system 140 by the advertiser. For example, the amount of beads included in the content item specifies the amount of money received by the online system 140 from a user who provided the content item to the online system 140 if the content within the content item is displayed. In some embodiments, the expected value for the online system 140 of presenting content from a content item may be determined by multiplying the amount of beads by the probability that the content of the content item is accessed by the user.

다양한 콘텐츠 아이템들은, 콘텐츠 아이템에 포함된 콘텐츠가 제시될 때, 콘텐츠 아이템과 연관된 사용자가 다른 사용자들이 수행하기를 바라는 상호작용을 식별하는 객체를 포함할 수 있다. 객체들의 예는, 콘텐츠 아이템과 연관된 애플리케이션을 설치하는 것, 콘텐츠 아이템에 대한 선호도를 표시하는 것, 콘텐츠 아이템을 다른 사용자들과 공유하는 것, 콘텐츠 아이템과 연관된 객체와 상호작용하는 것, 또는 임의의 다른 적합한 상호작용을 수행하는 것을 포함한다. 콘텐츠 아이템으로부터의 콘텐츠가 온라인 시스템 사용자들에게 제시되므로, 온라인 시스템(140)은, 콘텐츠 아이템을 제시받거나 또는 콘텐츠 아이템과 연관된 객체들을 제시받은, 사용자들 간의 상호작용들을 로그(log)한다. 부가적으로, 온라인 시스템 사용자들이 콘텐츠 아이템에 포함된 객체를 만족시키는 콘텐츠 아이템과의 상호작용들을 수행하므로, 온라인 시스템(140)은 콘텐츠 아이템과 연관된 사용자로부터 보상을 받는다. Various content items may include objects that identify interactions that a user associated with the content item wants other users to perform when the content included in the content item is presented. Examples of objects include installing an application associated with the content item, indicating preferences for the content item, sharing the content item with other users, interacting with the object associated with the content item, or any And performing other suitable interactions. Since the content from the content item is presented to online system users, the online system 140 logs interactions between users, presented with the content item or with objects associated with the content item. Additionally, since online system users perform interactions with a content item that satisfies an object included in the content item, the online system 140 is compensated by a user associated with the content item.

부가적으로, 콘텐츠 아이템은, 콘텐츠 아이템을 온라인 시스템(140)에 제공한 사용자에 의해 지정된, 하나 또는 그 이상의 목표 기준(targeting criteria)을 포함할 수 있다. 콘텐츠 아이템에 포함된 목표 기준들은 콘텐츠 아이템을 제시받기에 적합한 사용자들의 하나 또는 그 이상의 특성들을 지정하는 것을 요청한다. 예를 들어, 목표 기준들은 목표 기준들 중 적어도 하나를 만족하는 동작들, 사용자 프로필 정보, 또는 엣지들(edges)을 가지는 사용자들을 식별하는데 사용된다. 그러므로, 목표 기준들은, 상이한 사용자들로의 콘텐츠의 후속 분배를 간단화하면서, 사용자가 특정한 특성들을 가진 사용자들을 식별하는 것을 허용한다.Additionally, the content item can include one or more targeting criteria, as specified by the user who provided the content item to the online system 140. The target criteria included in the content item request to specify one or more characteristics of users suitable for being presented with the content item. For example, target criteria are used to identify users with actions, user profile information, or edges that satisfy at least one of the target criteria. Therefore, target criteria allow the user to identify users with specific characteristics, while simplifying the subsequent distribution of content to different users.

일실시예에서, 목표 기준들은 온라인 시스템(140)의 객체 또는 다른 사용자와 사용자 간의 접속들의 종류들 또는 동작들들을 지정할 수 있다. 목표 기준들은 또한, 제 3 자 시스템(130) 상에서와 같은, 온라인 시스템(140) 외부에서 수행되는 객체들과 사용자 간의 상호작용들을 지정할 수 있다. 예를 들어, 목표 기준들은, 다른 사용자에게 메시지를 보낸 것, 애플리케이션을 사용한 것, 그룹에 가입한 것, 그룹을 떠난 것, 이벤트에 참여한 것, 이벤트 서술을 생성한 것, 온라인 시장을 이용하여 제품 또는 서비스를 구입하거나 리뷰한 것, 제 3 자 시스템(130)으로부터 정보를 요청한 것, 애플리케이션을 설치한 것, 또는 임의의 다른 적합한 동작을 수행한 것과 같은, 특별한 동작을 취한 사용자들을 식별한다. 목표 기준들에서 동작들을 포함하는 것은 사용자들이 콘텐츠 아이템을 제시받기에 적격인 사용자들을 더 순화(refine)하는 것을 허용한다. 다른 예로서, 목표 기준들은, 다른 사용자 또는 객체에의 접속을 가지거나 또는 다른 사용자 또는 객체에의 특별한 종류의 접속을 가진, 사용자들을 식별한다. In one embodiment, target criteria may specify types or actions of an object of the online system 140 or other user-to-user connections. Target criteria may also specify interactions between users and objects performed outside the online system 140, such as on the third party system 130. For example, target criteria include sending a message to another user, using an application, joining a group, leaving a group, participating in an event, creating an event description, and using an online marketplace Or identify users who have taken special actions, such as purchasing or reviewing services, requesting information from third-party system 130, installing an application, or performing any other suitable action. Including actions in target criteria allows users to further refine users who are eligible to be presented with a content item. As another example, target criteria identify users who have a connection to another user or object, or a special kind of connection to another user or object.

프라이버시 설정들에 기초하여, 사용자 동작들에 대한 정보로 동작 로그(action log)(320)를 덧붙이면서, 동작 로거(action logger)(315)는 온라인 시스템(140) 내부의 및/또는 외부의 사용자 동작들에 대한 통신들을 수신하도록 허가받을 수 있다. 동작들(actions)의 예들은 다른 사용자에의 접속을 부가하고, 메시지를 다른 사용자에게 송신하고, 영상을 업로드하고, 다른 사용자로부터의 메시지를 판독하고, 다른 사용자와 연관된 콘텐츠를 시청하고, 및 다른 사용자에 의해 게시된 이벤트에 참석하는 것을 포함한다. 부가하면, 다수의 동작들이 객체와 하나 또는 그 이상의 특별한 사용자들을 포함할 수 있어서, 이들 동작들은 특별한 사용자들과도 연관되고, 동작 로그(320)에 저장된다. Based on privacy settings, the action logger 315 adds an action log 320 with information about the user actions, and the action logger 315 is a user inside and / or outside the online system 140. It may be authorized to receive communications for operations. Examples of actions include adding a connection to another user, sending a message to another user, uploading an image, reading a message from another user, watching content associated with another user, and other And attending events posted by the user. In addition, multiple actions may include an object and one or more special users, such actions are also associated with special users and stored in the action log 320.

프라이버시 설정들에 기초하여, 동작 로그(320)는 온라인 시스템(140)에 정보를 통신전달하는 제 3자 시스템들(130) 상의 동작들 뿐만 아니라, 온라인 시스템(140) 상의 사용자 동작들을 트래킹하도록 온라인 시스템(140)에 의해 이용되는 것이 사용자들에 의해 허가될 수 있다. 사용자들은 온라인 시스템(140) 상의 다양한 객체들과 상호작용할 수 있고, 이들 상호작용들을 서술하는 정보는 동작 로그(320)에 저장된다. 객체들과의 상호작용들의 예들은, 포스트들 상에서 코멘트 하는 것, 링크들을 공유하는 것, 클라이언트 장치(110)를 통해 물리적인 장소들에 체크인 하는 것, 콘텐츠 아이템들에 액세스하는 것, 및 임의의 다른 적합한 상호작용들을 포함한다. 동작 로그(320)에 포함된 온라인 시스템(140) 상의 객체들과의 상호작용들의 부가적인 예들은, 사진 앨범 상에서 코멘트 하는 것, 사용자와 통신하는 것, 객체와의 접속을 설정하는 것, 이벤트에 참여하는 것, 그룹에 참여하는 것, 이벤트를 생성하는 것, 애플리케이션을 허가하는 것, 애플리케이션을 이용하는 것, 객체에 대한 선호도를 표현하는 것(객체를 "좋아함"), 거래에 관여하는 것을 포함한다. 부가적으로, 동작 로그(320)는 온라인 시스템(140) 상에서 작동하는 다른 애플리케이션들 뿐만 아니라 온라인 시스템(140) 상의 광고들과 사용자의 상호작용들을 기록할 수 있다. 몇가지 실시예들에서, 동작 로그(320)로부터의 데이터는, 사용자의 사용자 프로필에 포함된 관심사들을 증강(augment)시키고 사용자 선호도들의 더 완전한 이해를 허용하면서, 사용자의 선호도 또는 관심사들을 추론하는데 이용된다.Based on privacy settings, the action log 320 is online to track user actions on the online system 140, as well as actions on third-party systems 130 that communicate information to the online system 140. What is used by system 140 may be authorized by users. Users can interact with various objects on the online system 140, and information describing these interactions is stored in the action log 320. Examples of interactions with objects include commenting on posts, sharing links, checking in to physical locations through client device 110, accessing content items, and any Other suitable interactions are included. Additional examples of interactions with objects on the online system 140 included in the action log 320 include commenting on the photo album, communicating with the user, establishing a connection with the object, and events. This includes participating, joining a group, creating an event, authorizing an application, using an application, expressing preferences for an object ("likes" an object), and engaging in a transaction. . Additionally, the action log 320 can record user interactions with advertisements on the online system 140 as well as other applications running on the online system 140. In some embodiments, data from the action log 320 is used to infer the user's preferences or interests, while augmenting the interests included in the user's user profile and allowing a more complete understanding of user preferences. .

동작 로그(320)는 또한, 사용자들의 프라이버시 설정들을 조건으로, 온라인 시스템(140)으로 통신전달되고 외부의 웹사이트와 같은 제 3 자 시스템(130) 상에서 취해진 사용자 동작들을 저장할 수 있다. 예를 들어, 전자상거래(e-commerce) 웹사이트는, 온라인 시스템(140)의 사용자를 식별하기 위해 전자상거래 웹사이트를 인에이블링하는 소셜 플러그인(social plug-in)을 통해, 온라인 시스템(140)의 사용자를 인식할 수 있다. 온라인 시스템(140)의 사용자들은 독특하게 식별가능하므로, 앞서의 예와 같은 전자상거래 웹사이트들은 온라인 시스템(140) 외부의 사용자 동작들에 대한 정보를 사용자와의 연관을 위해 온라인 시스템(140)에 통신전달할 수 있다. 그러므로, 동작 로그(320)는, 웹 페이지 시청 이력들, 관여된 광고들, 이루어진 구매들, 및 쇼핑 및 구입으로부터의 다른 패턴들을 포함하는, 제 3 자 시스템(130) 상에서 사용자들이 수행하는 동작들에 관한 정보를 기록할 수 있다. 부가적으로, 클라이언트 장치(110) 상에서 실행하고 제 3 자 시스템(130)과 연관된 애플리케이션을 통해 사용자가 수행하는 동작들은, 동작 로그(action log)(320)에서의 사용자와의 연관 및 기록을 위해, 애플리케이션에 의해서 동작 로거(action logger) (315)에 통신전달될 수 있다. The action log 320 may also communicate user actions taken on a third party system 130, such as an external website, communicated to the online system 140, subject to the user's privacy settings. For example, an e-commerce website, via a social plug-in that enables an e-commerce website to identify a user of the online system 140, is an online system 140. ). Since users of the online system 140 are uniquely identifiable, e-commerce websites, such as the previous example, communicate information about user actions outside the online system 140 to the online system 140 for association with the user. Can deliver. Therefore, the action log 320 includes actions performed by users on the third-party system 130, including web page viewing histories, involved advertisements, purchases made, and other patterns from shopping and purchases. Information about can be recorded. Additionally, operations performed on the client device 110 and performed by the user through an application associated with the third party system 130 may be performed for association and recording with the user in the action log 320. , It can be communicated to the action logger (action logger) 315 by the application.

일실시예에서, 엣지 스토어(edge store)(325)는 사용자들과 온라인 시스템(140) 상의 다른 객체들 간의 접속들을 서술하는 정보를 엣지들로서 저장한다. 어떤 엣지들은, 사용자들이 다른 사용자들과의 관계들을 지정하는 것을 허용하면서, 사용자들에 의해서 정의될 수 있다. 예를 들어, 사용자들은 친구들, 동료들, 파트너들 등과 같은 사용자들의 실생활 관계들과 병행하는 다른 사용자들과의 엣지들을 생성할 수 있다. 다른 엣지들은 사용자들이, 온라인 시스템(140) 상의 페이지에서 관심을 표현하는 것, 온라인 시스템(140)의 다른 사용자들과 링크를 공유하는 것, 온라인 시스템(140)의 다른 사용자들에 의해 이루어진 포스트들 상에서 코멘트하는 것과 같이, 온라인 시스템(140)에서 객체들과 상호작용할 때 생성된다.In one embodiment, the edge store 325 stores information describing connections between users and other objects on the online system 140 as edges. Some edges can be defined by users, allowing users to specify relationships with other users. For example, users can create edges with other users in parallel with their real-life relationships, such as friends, colleagues, partners, and the like. Other edges include users expressing interest on pages on the online system 140, sharing links with other users of the online system 140, and posts made by other users of the online system 140. Created when interacting with objects in online system 140, such as commenting on.

엣지는 사용자들 간의 상호작용들, 사용자들과 객체들 간의 상호작용들, 또는 객체들 간의 상호작용들의 특성들을 각각 나타내는 다양한 특징들을 포함할 수 있다. 예를 들어, 엣지에 포함된 특징들은 두 명의 사용자들 간의 상호작용의 비율(rate), 얼마나 최근에 두 명의 사용자들이 서로 상호작용했는지, 객체에 대해 한 명의 사용자에 의해 검색된 정보의 양 또는 비율, 또는 객체에 대해 사용자에 의해 게시된 코멘트들의 수와 종류들을 서술한다. 특징들은 또한 특별한 객체 또는 사용자를 서술하는 정보를 나타낼 수 있다. 예를 들어, 특징은, 사용자가 특별한 토픽에서 갖고 있는 관심사의 레벨, 온라인 시스템(140)으로 사용자가 로그하는 비율, 또는 사용자에 대한 인구통계적 정보를 서술하는 정보를 나타낼 수 있다. 각각의 특징은 소스 객체 또는 사용자, 목표 객체 또는 사용자, 및 특징 값(feature value)과 연관될 수 있다. 특징은 소스 객체(source object) 또는 사용자, 목표 객체 또는 사용자, 또는 소스 객체 또는 사용자와 목표 객체 또는 사용자 간의 상호작용들을 서술하는 값들에 기초한 표현으로서 지정될 수 있고, 따라서 엣지는 하나 또는 그 이상의 특징 표현들로서 나타낼 수 있다. The edge may include various features, each representing characteristics of interactions between users, interactions between users and objects, or interactions between objects. For example, the features included in the edge are the rate of interaction between two users, how recently two users interacted with each other, the amount or percentage of information retrieved by one user for an object, Or describe the number and types of comments posted by the user for the object. Features can also represent information describing a particular object or user. For example, a feature may indicate the level of interest a user has on a particular topic, the rate at which the user logs into the online system 140, or information describing demographic information about the user. Each feature can be associated with a source object or user, a target object or user, and a feature value. A feature can be specified as a source object or as a representation based on values describing the user, target object or user, or interactions between the source object or user and the target object or user, so the edge is one or more features Can be expressed as expressions.

엣지 스토어(325)는 또한, 객체들, 관심사들, 및 다른 사용자들에 대한 친밀도 점수(affinity score)들과 같은, 엣지들에 대한 정보를 저장한다. 친밀도 점수들, 또는 "친밀도들"은, 사용자에 의해 수행된 동작들에 기초하여, 온라인 시스템(140)에서의 다른 사용자에서 또는 객체에서 사용자의 관심사에 근접하기 위해, 온라인 시스템(140)에 의해 시간에 대해 계산될 수 있다. 사용자의 친밀도는, 사용자에 의해 수행된 동작들에 기초하여, 온라인 시스템(140)에서의 다른 사용자에서, 객체에서, 또는 토픽에서, 사용자의 관심사에 근접하기 위해, 온라인 시스템(140)에 의해서 시간에 대해 계산될 수 있다. 친밀도의 계산은, 2010년 12월 23일에 출원된 출원번호 12/978,265인 미국특허, 2012년 11월 30일에 출원된 출원번호 13/690,254인 미국특허, 2012년 11월 30일에 출원된 출원번호 13/689,969인 미국특허, 및 2012년 11월 30일에 출원된 출원번호 13/690,088인 미국특허에서 더 서술되어 있고, 그 각각은 여기서 전체로서 인용문헌으로 통합되어 있다. 사용자와 특정 객체 간의 복수의 상호작용들은 일실시예에서 엣지 스토어(325)에 단일 엣지로서 저장될 수 있다. 대안적으로, 사용자와 특정 객체간의 각각의 상호작용은 별개의 엣지로서 저장된다. 몇가지 실시예들에서, 사용자들 간의 접속들은 사용자 프로필 스토어(305)에서 저장될수 있고, 또는 사용자 프로필 스토어(305)는 사용자들 간의 접속들을 결정하기 위해서 엣지 스토어(325)에 액세스할 수 있다. The edge store 325 also stores information about edges, such as affinity scores for objects, interests, and other users. The intimacy scores, or “intimacies”, are based on actions performed by the user, by the online system 140 to approach the user's interests in an object or in another user in the online system 140. Can be calculated over time. The user's intimacy is timed by the online system 140 to approximate the user's interests, in an object, or in a topic, in another user in the online system 140, based on actions performed by the user. Can be calculated for. Calculation of intimacy is based on U.S. patent application number 12 / 978,265 filed on December 23, 2010, U.S. patent application number 13 / 690,254 filed on November 30, 2012, filed on November 30, 2012 It is further described in U.S. Patent No. 13 / 689,969, and U.S. Patent No. 13 / 690,088 filed on November 30, 2012, each of which is incorporated herein by reference in its entirety. Multiple interactions between a user and a particular object may be stored as a single edge in the edge store 325 in one embodiment. Alternatively, each interaction between the user and a particular object is stored as a separate edge. In some embodiments, connections between users can be stored in user profile store 305, or user profile store 305 can access edge store 325 to determine connections between users.

콘텐츠 선택 모듈(330)은 사용자에게 제시될 클라이언트 장치(110)로의 통신을 위한 하나 또는 그 이상의 콘텐츠 아이템들을 선택한다. 사용자에게 제시하기에 적격인 콘텐츠 아이템들은 콘텐츠 스토어(310)로부터 검색되거나 또는 콘텐츠 선택 모듈(330)에 의해 다른 소스로부터 검색되는데, 시청중인 사용자에게 제시하기 위해 하나 또는 그 이상의 콘텐츠 아이템들을 선택한다. 사용자에게 제시하기에 적격인 콘텐츠 아이템은 사용자의 특성들에 의해 만족되는 적어도 문턱값 수의 목표 기준들과 연관된 콘텐츠 아이템이거나, 목표기준과 연관되지 않은 콘텐츠 아이템이다. 다양한 실시예들에서, 콘텐츠 선택 모듈(330)은, 하나 또는 그 이상의 선택 프로세스들에서, 사용자에게 제시하기 적격인 콘텐츠 아이템들을 포함하고, 이것은 사용자에게 제시하기 위한 콘텐츠 아이템들의 세트를 식별한다. 예를 들어, 콘텐츠 선택 모듈(330)은, 온라인 시스템(140)에 의해 사용자와 연관된 속성들에 기초하거나 또는 상이한 콘텐츠 아이템들에 대한 사용자의 친밀도에 기초하여, 다양한 콘텐츠 아이템들의 사용자에 대한 관련성(relevance)의 정도들(measures)을 결정한다. 사용자에 대한 콘텐츠 아이템의 관련성의 정도는 사용자에 대한 콘텐츠 아이템의 품질의 정도에 기초하고, 이것은 콘텐츠 아이템에 포함된 크리에이티브에 기초할 뿐만 아니라 콘텐츠 아이템 내의 링크에 의해 식별되는 랜딩 페이지의 콘텐츠에도 기초할 수 있다. 관련성의 정도들에 기초하여, 콘텐츠 선택 모듈(330)은 사용자에게 제시하기 위한 콘텐츠 아이템들을 선택한다. 부가적인 예로서, 콘텐츠 선택 모듈(330)은 사용자에게 제시하기 위해 가장 높은 정도의 관련성을 가지거나, 또는 적어도 문턱값 정도의 관련성을 가지는 콘텐츠 아이템들을 선택한다. 대안적으로, 콘텐츠 선택 모듈(330)은 그들의 관련성의 연관된 정도들에 기초하여 콘텐츠 아이템들을 순위정하고, 사용자에게 제시하기 위해 순위정하기에서 가장 높은 위치를 가지거나 또는 순위정하기에서 적어도 문턱값 위치를 가지는 그런 콘텐츠 아이템들을 선택한다. The content selection module 330 selects one or more content items for communication to the client device 110 to be presented to the user. Content items eligible for presentation to the user are retrieved from the content store 310 or from other sources by the content selection module 330, selecting one or more content items to present to the viewing user. A content item eligible to be presented to a user is a content item associated with target criteria of at least a threshold number satisfied by the user's characteristics, or a content item not associated with a target criterion. In various embodiments, content selection module 330 includes, in one or more selection processes, content items eligible for presentation to a user, which identifies a set of content items for presentation to the user. For example, the content selection module 330 may relate the relevance of various content items to the user based on attributes associated with the user by the online system 140 or based on the user's affinity for different content items ( Determine the measures of relevance. The degree of relevance of the content item to the user is based on the degree of quality of the content item to the user, which is not only based on the creative contained in the content item, but also on the content of the landing page identified by links within the content item. You can. Based on the degrees of relevance, the content selection module 330 selects content items for presentation to the user. As an additional example, the content selection module 330 selects content items having the highest degree of relevance or at least a threshold level of relevance for presentation to the user. Alternatively, the content selection module 330 ranks content items based on their associated degrees of relevance and has the highest position in ranking to present to the user, or at least a threshold position in ranking. Select such content items.

사용자에게 제시하기에 적격인 콘텐츠 아이템들은 비드량들과 연관된 콘텐츠 아이템들을 포함할 수 있다. 콘텐츠 선택 모듈(330)은, 사용자에게 제시하기 위해 콘텐츠를 선택할 때, 콘텐츠 아이템들과 연관된 비드량들을 사용한다. 다양한 실시예들에서, 콘텐츠 선택 모듈(330)은 그들의 비드량들에 기초하여 다양한 콘텐츠 아이템들과 연관된 기대값을 결정하고, 최대 기대값과 연관되거나 또는 적어도 문턱값의 기대값과 연관된 콘텐츠 아이템들을 제시하기 위해 선택한다. 콘텐츠 아이템과 연관된 기대값은 콘텐츠 아이템들을 제시하기 위한 온라인 시스템(140)에의 보상의 기대량을 나타낸다. 예를 들어, 콘텐츠 아이템과 연관된 기대값은 콘텐츠 아이템의 비드량과 사용자가 콘텐츠 아이템과 상호작용할 가능성의 곱셈이다. 콘텐츠 선택 모듈(330)은 그들의 연관된 비드량들에 기초하여 콘텐츠 아이템들을 순위정할 수 있고, 사용자에게 제시하기 위해 순위정하기에서 적어도 문턱값 위치를 가지는 콘텐츠 아이템들을 선택할 수 있다. 몇가지 실시예들에서, 콘텐츠 선택 모듈(330)은, 콘텐츠 아이템들과 연관된 관련성의 정도들과 비드량들에 기초하여 단일화된 순위정하기에서, 비드량들과 연관되지 않은 콘텐츠 아이템들과 비드량들과 연관된 콘텐츠 아이템들 모두를 순위정한다. 단일화된 순위정하기에 기초하여, 콘텐츠 선택 모델(330)은 사용자에게 제시하기 위한 콘텐츠를 선택한다. 단일화된 순위정하기를 통해서, 비드량들과 연관된 콘텐츠 아이템들과 비드량들과 연관되지 않은 콘텐츠 아이템들을 선택하는 것은 2012년 7월 10일에 출원된 출원번호 13/545,266인 미국특허에 더 서술되어 있고, 이 특허는 여기서 그 전체로서 참조문헌으로 통합되어 있다. Content items eligible for presentation to the user may include content items associated with the bead amounts. The content selection module 330 uses bead amounts associated with content items when selecting content for presentation to a user. In various embodiments, the content selection module 330 determines the expected value associated with various content items based on their bead amounts, and determines content items associated with the maximum expected value or at least the expected value of the threshold value. Choose to present. The expected value associated with the content item represents the expected amount of compensation to the online system 140 for presenting the content items. For example, the expected value associated with a content item is a product of the bead amount of the content item and the likelihood that the user will interact with the content item. The content selection module 330 can rank content items based on their associated bead amounts, and select content items having at least a threshold location in ranking to present to the user. In some embodiments, the content selection module 330, in unified ranking based on degrees of relevance and bead amounts associated with content items, content items and bead amounts not associated with bead amounts Ranks all of the content items associated with. Based on unified ranking, the content selection model 330 selects content for presentation to the user. Through unified ranking, selecting content items associated with bead quantities and content items not associated with bead quantities is further described in U.S. Patent No. 13 / 545,266 filed on July 10, 2012 And this patent is hereby incorporated by reference in its entirety.

예를 들어, 콘텐츠 선택 모듈(330)은 온라인 시스템(140)의 사용자에게 콘텐츠의 피드(feed)를 제시하기 위한 요청(request)을 수신한다. 피드는 사용자에게 접속된 다른 온라인 시스템 사용자들과 연관된 동작들을 서술하는 스토리들(stories)과 같은 콘텐츠 아이템들을 포함한다. 콘텐츠 선택 모듈(330)은 사용자에 대한 정보를 검색하기 위해 하나 또는 그 이상의 사용자 프로필 스토어(305), 콘텐츠 스토어(310), 동작 로그(320), 및 엣지 스토어(325)에 액세스한다. 예를 들어, 사용자에게 접속된 다른 사용자들과 연관된 동작들을 서술하는 정보 또는 사용자에게 접속된 사용자들과 연관된 다른 데이터가 검색된다. 콘텐츠 스토어(310)로부터의 콘텐츠 아이템들은 사용자에게 제시하기에 적격인 후보 콘텐츠 아이템들을 식별하기 위해서 콘텐츠 선택 모델(330)에 의해 검색되고 분석된다. 예를 들어, 사용자에게 접속되지 않은 사용자들과 연관된 콘텐츠 아이템들 또는 사용자가 문턱값 친밀도보다 적은 친밀도를 가지는 사용자들과 연관된 스토리들은 후보 콘텐츠 아이템들로서 버려진다. 다양한 기준들에 기초하여, 콘텐츠 선택모델(330)은, 식별된 사용자에게 제시하기 위한 후보 콘텐츠 아이템들로서 식별된, 하나 또는 그 이상의 콘텐츠 아이템들을 선택한다. 선택된 콘텐츠 아이템들은 사용자에게 제시되는 콘텐츠의 피드에 포함된다. 예를 들어, 콘텐츠의 피드는, 온라인 시스템(140)을 통해 사용자에게 접속된 사용자들과 연관된 동작들을 서술하는, 적어도 문턱값 수의 콘텐츠 아이템들을 포함한다.For example, the content selection module 330 receives a request to present a feed of content to a user of the online system 140. The feed contains content items, such as stories, that describe actions associated with other online system users connected to the user. The content selection module 330 accesses one or more user profile stores 305, content stores 310, action logs 320, and edge stores 325 to retrieve information about the users. For example, information describing actions associated with other users connected to the user or other data associated with users connected to the user is retrieved. Content items from content store 310 are retrieved and analyzed by content selection model 330 to identify candidate content items eligible for presentation to the user. For example, content items associated with users who are not connected to the user or stories associated with users whose user has less than a threshold intimacy are discarded as candidate content items. Based on various criteria, the content selection model 330 selects one or more content items identified as candidate content items for presentation to the identified user. The selected content items are included in the feed of content presented to the user. For example, the feed of content includes at least a threshold number of content items that describe actions associated with users connected to the user through the online system 140.

다양한 실시예들에서, 콘텐츠 선택 모듈(330)은, 사용자에게 제시하기 위해 선택된 복수의 콘텐츠 아이템들을 포함하는, 피드를 통해서 콘텐츠를 사용자에게 제시한다. 콘텐츠 선택 모델(330)은 또한, 선택된 콘텐츠 아이템들이 필드를 통해 제시되는 순서를 결정할 수 있다. 예를 들어, 사용자가 다양한 콘텐츠 아이템들과 상호작용하는 가능성에 기초하여, 콘텐츠 선택 모듈(330)은 피드 내의 콘텐츠 아이템들의 순서를 정한다. In various embodiments, the content selection module 330 presents the content to the user through a feed, including a plurality of content items selected for presentation to the user. The content selection model 330 can also determine the order in which selected content items are presented through the field. For example, based on the possibility of a user interacting with various content items, content selection module 330 orders the content items in the feed.

사용자의 동작 또는 허락에 기초하여, 콘텐츠 선택 모듈(330)은 온라인 시스템의 사용자와 연관된 클라이언트 장치(110)에 포함된 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터를 수신하고, 디스플레이 장치(115)를 통해 시청중인 사용자에게 제시하기 위해, 수신중인 클라이언트 장치(110)에 비디오 데이터를 전송한다. 온라인 시스템(140)은 시청 중인 사용자를 식별하는 클라이언트 장치(110)로부터의 요청을 수신할 수 있고, 시청 중인 사용자로부터의 허가를 수신하는 것에 응답하여, 수신 중인 클라이언트 장치에 클라이언트 장치(110)로부터의 비디오 데이터를 후속하여 제공한다. 반대로, 온라인 시스템(140)은, 수신중인 클라이언트 장치(110)를 통해, 시청 중인 사용자로부터의 요청을 수신하고, 후속하여 사용자로부터의 허가를 수신하는 것에 응답하여, 클라이언트 장치(110)로부터 수신된 비디오 데이터를, 수신중인 클라이언트 장치(110)에 후속하여 제공한다. 이것은 온라인 시스템(140)의 상이한 사용자들이 온라인 시스템(140)을 통해 사용자들과 연관된 클라이언트 장치들(110)에 의해 캡쳐된 비디오 데이터를 교환하는 것을 허용한다.Based on the user's action or permission, the content selection module 330 receives the video data captured by the image capture device 117 included in the client device 110 associated with the user of the online system, and the display device 115 ), The video data is transmitted to the receiving client device 110 to present to the viewing user. The online system 140 may receive a request from the client device 110 identifying the user being viewed, and in response to receiving permission from the user being viewed, the receiving client device from the client device 110. The video data is subsequently provided. Conversely, the online system 140, via the receiving client device 110, receives a request from the viewing user and subsequently receives a permission from the user, in response to receiving a request from the user. Video data is provided subsequent to the receiving client device 110. This allows different users of the online system 140 to exchange video data captured by the client devices 110 associated with the users through the online system 140.

부가적으로, 콘텐츠 선택 모듈(330)은, 수신 중인 클라이언트 장치(110)를 통해, 시청중인 사용자로부터의 지시들을 수신할 수 있고, 클라이언트 장치(110)에 하나 또는 그 이상의 지시들을 전송한다. 수신된 지시에 기초하여, 클라이언트 장치(110)는 지시들을 수신한 이후에 캡쳐된 비디오 데이터를 수정하거나, 또는 지시들에 기초하여 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정한다. 따라서, 클라이언트 장치(110)는 캡쳐된 비디오 데이터를, 수신중인 클라이언트 장치(110)로부터의 하나 또는 그 이상의 지시들에 기초하여, 수정하고, 수정된 비디오 데이터를 전송하거나, 또는 수정된 파라미터들을 이용하여 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터를 콘텐츠 선택 모듈(330)에 전송하는데, 이것은 수신중인 클라이언트 장치(110)에 비디오 데이터를 전송하며, 도 4와 연결되어 하기에 더 서술되어 있다. 이것은 시청 중인 사용자가 클라이언트 장치(110)에 의해 캡쳐되고, 수신중인 클라이언트 장치(110)를 통해 시청중인 사용자에게 제공되는, 비디오 데이터를 수정하거나 조정하는 것을 허용한다.Additionally, the content selection module 330 may receive instructions from the viewing user through the receiving client device 110 and send one or more instructions to the client device 110. Based on the received instructions, the client device 110 modifies the captured video data after receiving the instructions, or modifies one or more parameters of the image capture device 117 based on the instructions. Thus, the client device 110 modifies the captured video data, based on one or more instructions from the receiving client device 110, sends the modified video data, or uses the modified parameters. The video data captured by the video capture device 117 is transmitted to the content selection module 330, which transmits video data to the receiving client device 110, and is further described below in connection with FIG. . This allows the viewing user to modify or adjust the video data captured by the client device 110 and provided to the viewing user through the receiving client device 110.

콘텐츠 선택 모듈(330)은 다양한 실시예들에서 온라인 시스템(140)의 사용자들의 하나 또는 그 이상의 프라이버시 설정들을 시행한다. 사용자의 프라이버시 설정은 사용자와 연관된 특별한 정보가 공유될 수 있는 방법을 결정하고, 사용자 프로필 스토어(305)에서 사용자의 사용자 프로필에 저장될 수 있다. 일실시예에서, 프라이버시 설정은 사용자와 연관된 특별한 정보를 지정하고, 지정된 정보가 공유될 수 있는 다른 실체들을 식별한다. 정보가 공유될 수 있는 실체들의 예들은 다른 사용자들, 애플리케이션들, 제 3 자 시스템들(130), 또는 정보에 잠재적으로 액세스할 수 있는 임의의 실체를 포함할 수 있다. 사용자에 의해 공유될 수 있는 정보의 예들은, 프로필 사진, 사용자와 연관된 전화번호, 사용자를 포함하는 비디오 데이터에의 사용자의 접속들, 접속을 부가하는 것, 사용자 프로필 정보를 변경하는 것과 같은 사용자에 의해 취해진 동작들 등과 같은 사용자 프로필 정보를 포함한다. 다양한 실시예들에서, 온라인 시스템(140)은, 다른 실체들이 사용자와 연관된 콘텐츠를 액세스하거나 수신하는 것을 방지하는 디폴트 설정을 가지는, 사용자와 연관된 프라이버시 설정들을 유지하고, 수정된 프라이버시 설정들에 대응되는 콘텐츠를 사용자에 의해 지정된 다른 실체들이 검색하거나 액세스하는 것을 허용하기 위해 상이한 프라이버시 설정들을 사용자가 수정하는 것을 허용한다. The content selection module 330 enforces one or more privacy settings of users of the online system 140 in various embodiments. The user's privacy settings determine how special information associated with the user can be shared and stored in the user's user profile in the user profile store 305. In one embodiment, privacy settings specify special information associated with the user and identify other entities to which the specified information can be shared. Examples of entities for which information may be shared may include other users, applications, third-party systems 130, or any entity that may potentially access information. Examples of information that may be shared by the user include profile pictures, phone numbers associated with the user, user's connections to video data including the user, adding connections, and changing the user profile information to the user. And user profile information, such as actions taken. In various embodiments, the online system 140 maintains privacy settings associated with the user, corresponding to the modified privacy settings, with default settings that prevent other entities from accessing or receiving content associated with the user. Allows the user to modify different privacy settings to allow other entities designated by the user to search or access the content.

프라이버시 설정 지정은 상이한 레벨들의 단위(granularity)로 제공될 수 있다. 일실시예에서, 프라이버시 설정은 다른 사용자들과 공유될 특정 정보를 식별할 수 있다. 예를 들어, 프라이버시 설정은 직장 전화번호 또는 프로필 사진, 집 전화번호 및, 상태를 포함하는 개인 정보와 같은, 특정 세트의 관련된 정보를 식별한다. 대안적으로, 프라이버시 설정은 사용자와 연관된 모든 정보에 적용할 수 있다. 특별한 정보에 액세스할 수 있는 실체들의 세트의 지정은 또한 다양한 레벨들의 단위로 지정될 수 있다. 정보가 공유될 수 있는 다양한 세트들의 실체들은, 예를 들어, 사용자에게 접속된 모든 사용자들, 사용자에게 접속된 한 세트의 사용자들, 사용자에게 접속된 사용자들에게 접속된 부가적인 사용자들, 모든 애플리케이션들, 모든 제 3 자 시스템들(130), 특정 제 3 자 시스템들(130), 또는 모든 외부 시스템들을 포함할 수 있다.Privacy settings can be provided in different levels of granularity. In one embodiment, privacy settings can identify specific information to be shared with other users. For example, the privacy settings identify a particular set of related information, such as a work phone number or profile picture, a home phone number, and personal information including status. Alternatively, privacy settings can be applied to all information associated with the user. The designation of a set of entities that can access special information can also be specified in units of various levels. The various sets of entities to which information can be shared include, for example, all users connected to a user, a set of users connected to a user, additional users connected to users connected to the user, all applications Field, all third party systems 130, specific third party systems 130, or all external systems.

일실시예는 상이한 실체들에게 제시된 정보의 종류들을 식별하거나 또는 식별된 정보에 액세스하는 것이 허용된 실체들을 지정하기 위해 실체들의 목록을 이용한다. 예를 들어, 사용자는 사용자들의 지정된 그룹에 통신전달되거나 다른 사용자들에게 통신전달되는 동작들의 종류들을 지정할 수 있다. 대안적으로, 사용자는 동작들의 종류들이나 또는 다른 사용자들에게 제시되거나 공개되지 않은 다른 정보를 지정할 수 있다. One embodiment uses a list of entities to identify types of information presented to different entities or to specify entities allowed to access the identified information. For example, a user can specify the types of operations that are communicated to a specified group of users or to other users. Alternatively, the user may specify types of actions or other information that is not presented or disclosed to other users.

콘텐츠 선택 모듈(330)은 사용자와 연관된 어떤 정보가, 온라인 시스템(140), 제 3 자 시스템(130), 및/또는 다른 애플리케이션들과 실체들을 통해 사용자에게 접속된, 다른 사용자들에 의해 액세스될 수 있는지를 결정할 로직(logic)을 포함한다. 사용자의 프라이버시 설정들에 기초하여, 콘텐츠 선택 모듈(330)은 다른 사용자, 제 3 자 시스템(130), 애플리케이션 또는 다른 실체가, 사용자에 의해 취해진 동작들에 대한 정보를 포함하는, 사용자와 연관된 정보에 액세스하는 것이 허용되는지를 결정한다. 예를 들어, 콘텐츠 선택 모듈(230)은, 사용자를 포함하는 비디오 데이터가 다른 사용자에게 제시될 수 있는지 여부를 결정하기 위해서, 사용자의 프라이버시 설정을 이용한다. 이것은 사용자의 프라이버시 설정이, 어떤 다른 사용자들 또는 어떤 다른 실체들이 사용자의 동작들에 대한 데이터를 또는 사용자와 연관된 다른 데이터를 수신하도록 허용되는지를, 지정하게 한다. The content selection module 330 may be accessed by other users, with which information associated with the user is connected to the user through the online system 140, third party system 130, and / or other applications and entities. Includes logic to determine if it can. Based on the user's privacy settings, the content selection module 330 includes information associated with the user, including information about actions taken by the user by another user, third-party system 130, application, or other entity. Decide if you are allowed to access. For example, the content selection module 230 uses the user's privacy settings to determine whether video data including the user can be presented to other users. This allows the user's privacy settings to specify, which other users or some other entities are allowed to receive data about the user's actions or other data associated with the user.

웹 서버(335)는 네트워크(120)를 통해 온라인 시스템(140)을 하나 또는 그 이상의 클라이언트 장치들(110)에 링크할 뿐만 아니라, 하나 또는 그 이상의 제 3 자 시스템(130)에 링크한다. 웹 서버(335)는 웹 페이지들에 서빙(serve)할 뿐만 아니라 자바(JAVA®), 플래시(FLASH®), 엑스엠엘(XML) 등과 같은 다른 콘텐츠에 서빙한다. 웹 서버(335)는 온라인 시스템(140)과 클라이언트 장치(110) 간의 메시지들을 수신할 수 있고 라우팅(route)할 수 있는데, 예를 들어, 인스턴트 메시지들, 대기(queued) 메시지들(예를 들어, 이메일), 텍스트 메시지들, 쇼트 메시지 서비스(SMS) 메시지들, 또는 임의의 다른 적합한 메시징 기술을 이용하여 송신된 메시지들을 수신하거나 라우팅할 수 있다. 사용자는 콘텐츠 스토어(310)에 저장되는 정보(예를 들어, 영상들 또는 비디오들)를 업로드하기 위해 웹 서버(335)에 요청을 송신할 수 있다. 부가적으로, 웹 서버(335)는, 아이오에스(IOS®), 안드로이드(ANDROIDTM), 또는 블랙베리 오에스(BlackberryOS)와 같은, 네이티브 클라이언트 장치 오퍼레이팅 시스템들에 직접 데이터를 송신하기 위해, 애플리케이션 프로그래밍 인터페이스(API) 기능을 제공할 수 있다.The web server 335 not only links the online system 140 to one or more client devices 110 via the network 120, but also to one or more third-party systems 130. The web server 335 not only serves web pages, but also serves other content such as Java (JAVA®), Flash (FLASH®), and XM (XML). The web server 335 can receive and route messages between the online system 140 and the client device 110, such as instant messages, queued messages (eg , Email), text messages, short message service (SMS) messages, or any other suitable messaging technique to receive or route the transmitted messages. The user can send a request to the web server 335 to upload information (eg, images or videos) stored in the content store 310. Additionally, the web server 335 is programmed for application to send data directly to native client device operating systems, such as IOS®, Android (ANDROID ), or BlackberryOS. It can provide an interface (API) function.

이전에 캡쳐된 비디오 데이터의 특성들에 기초하여 비디오 데이터 캡쳐를 수정Modify video data capture based on previously captured characteristics of video data

도 4는, 영상 캡쳐 장치(117)에 의해 이전에 캡쳐된 비디오의 특성들에 기초하여, 영상 캡쳐 장치(117)에 의한 비디오 데이터의 캡쳐를 수정하는 방법의 일실시예의 상호작용 도면이다. 다양한 실시예들에서, 도 4와 연결되어 서술된 단계들은 상이한 순서들로 수행될 수 있다. 부가적으로, 몇가지 실시예들에서, 방법은 도 4에 도시된 것들과 상이한 및/또는 부가적인 단계들을 포함할 수 있다. 4 is an interactive diagram of one embodiment of a method of modifying the capture of video data by the image capture device 117 based on the characteristics of the video previously captured by the image capture device 117. In various embodiments, the steps described in connection with FIG. 4 can be performed in different orders. Additionally, in some embodiments, the method may include different and / or additional steps than those shown in FIG. 4.

영상 캡쳐 장치(117)는 도 1 및 도 2와 연결되어 상기에 더 서술되는 바와같이, 송신중인 클라이언트 장치(110A)에 포함되어 있고, 송신중인 클라이언트 장치(110A) 주위의 국지 영역의 비디오 데이터를 캡쳐(405)한다. 영상 캡쳐 장치(117)에 의해 캡쳐된 영상들은 송신중인 클라이언트 장치(110A)에 포함된 (또는 다른 실시예들에서 클라이언트 장치(110)에 연결된) 제어기(210)에 통신전달된다. 다양한 실시예들에서, 사용자는 (예를 들어, 사전-선택된 프라이버시 설정들 및/또는 유도된(prompted) 선택들을 통해서), 제어기(210)가, 캡쳐된 비디오 데이터에 포함된 사람들을 위치시키기 위해, 하나 또는 그 이상의 기계 학습된 모델들을, 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오의 특성들에 적용하는 것을 허가할 수 있다. 제어기(210)는 위치된 사용자들을 더 현저하게 제시하기 위해서 비디오 데이터를 수정하고, 다양한 실시예들에서, 수정된 비디오 데이터를 온라인 시스템(140)에 전송(410)한다. 위치된 사용자는 적어도 문턱값 세트의 차원들을 가진 (예를 들어, 적어도 문턱값 높이 또는 문턱값 폭을 가진) 비디오 데이터에서 제시되거나, 영상 캡쳐 장치(117)의 적어도 문턱값 양의 시야에서 또는 캡쳐된 비디오 데이터의 적어도 문턱값 양의 프레임에서 제시되거나, 또는 캡쳐된 비디오 데이터 내의 하나 또는 그 이상의 특정 위치들에서 더 현저하게 제시된다. 예를 들어, 제어기(210)는, 적어도 한 명의 사람도 포함하지 않는 비디오 데이터의 일부분들을 제거하기 위해, 캡쳐된 비디오 데이터를 크로핑(crop)한다. 다른 예로서, 제어기(210)는 사람을 포함하는 비디오 데이터의 일부분의 줌(확대라고도 언급됨)을 증가시킨다. 캡쳐된 비디오 데이터를 수정하기 위해서, 제어기(210)는 영상 캡쳐 장치(117)에 의해 캡쳐된 후에 비디오 데이터를 수정할 수 있거나, 또는 영상 캡쳐 장치(117)가 비디오 데이터를 캡쳐(405)하는 방법을 수정하기 위해 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정할 수 있다.The image capture device 117 is connected to FIGS. 1 and 2 and is included in the transmitting client device 110A, as described above, and transmits video data of a local area around the transmitting client device 110A. Capture 405. Images captured by the image capture device 117 are communicated to the controller 210 included in the transmitting client device 110A (or connected to the client device 110 in other embodiments). In various embodiments, the user (eg, through pre-selected privacy settings and / or prompted choices) allows controller 210 to locate people included in the captured video data. , It may allow applying one or more machine-trained models to the characteristics of the video captured 405 by the image capture device 117. The controller 210 modifies the video data to more prominently locate the located users and, in various embodiments, transmits 410 the modified video data to the online system 140. The located user is presented in video data having at least a set of threshold dimensions (eg, at least with a threshold height or with a threshold width), or in the field of view of at least a threshold amount of the image capture device 117 Presented in at least a threshold amount of frames of video data, or more prominently at one or more specific locations within the captured video data. For example, the controller 210 crops the captured video data to remove portions of the video data that do not include at least one person. As another example, controller 210 increases the zoom (also referred to as magnification) of a portion of video data that includes a person. To modify the captured video data, the controller 210 can modify the video data after being captured by the image capture device 117, or how the image capture device 117 captures the video data (405). To correct, one or more parameters of the image capture device 117 may be modified.

다양한 실시예들에서, 제어기(210)는, 캡쳐된 비디오 데이터 내에 사람들을 위치시키기 위해서, 하나 또는 그 이상의 방법들을 적용한다. 그러나, 제어기(210)는 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용함으로써 유사하게 객체들(예를 들어, 가전 제품, 가구, 제품들)을 위치시킬 수 있다. 다음의 예들은 비디오 데이터에의 모델들의 적용을 언급하지만, 하나 또는 그 이상의 모델들은 비디오 데이터, 오디오 데이터, 영상 데이터, 클라이언트 장치(110)에 의해 캡쳐된 임의의 다른 데이터, 및 그것들의 임의의 조합에 적용될 수 있다. 제어기(210)는 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오 데이터 내에 사람들을 위치시키기 위해서 임의의 적합한 모델 또는 모델들의 조합을 이용할 수 있다. 제어기(210)에 의해, 캡쳐된 비디오 데이타에 적용된 모델들은 사람의 몸의 일부분들 또는 사람의 얼굴의 일부분들을 식별하기 위해 (2차원 또는 3차원으로) 얼굴 트래킹(facial tracking), 2차원 포즈 트래킹(pose tracking), 3차원 포즈 트래킹, 또는 임의의 다른 적합한 방법을 수행할 수 있다. 유사하게, 제어기(210)에 의해 적용된 모델들은 캡쳐된 비디오 데이터로부터 객체들을 식별할 수 있다. 몇가지 실시예들에서, 사용자의 허가에 기초하여, 제어기(210)는, 온라인 시스템(140)으로부터 얻어진 정보에 기초하여, 더 구체적으로 객체들 또는 사람들을 식별하기 위해서, 온라인 시스템(140)과 통신하고, 한편, 다른 실시예들에서, 제어기(210)는, 캡쳐된 비디오 데이터로부터 상이한 객체들 또는 사람들을 식별하기 위해, 모델들을 국지적으로 유지한다. 하나 또는 그 이상의 모델들의 적용에 기초하여, 제어기(210)는, 위치된 사용자의 몸의 어떤 일부분을 더 현저하게 디스플레이하기 위해서, 위치된 사용자의 몸의 어떤 일부분들을 포함하는, 캡쳐된 비디오 데이터의 크로핑(cropping) 또는 주밍(zooming)을 수정할 수 있다. 예를 들어, 하나 또는 그 이상의 모델들이 사람의 얼굴을 식별할 때, 제어기는, 사람의 얼굴을 포함하지 않는 비디오 데이터의 일부분들을 제거하기 위해서, 캡쳐된 비디오 데이터를 수정한다. 하나 또는 그 이상의 모델들의 적용이, 캡쳐된 비디오 데이터 내에, 복수의 사람들을 위치시킨다면, 제어기(210)는 캡쳐된 비디오 데이터를 수정하여, 비디오의 상이한 일부분들은 상이한 사람들을 디스플레이한다. 예를 들어, 제어기(210)는 캡쳐된 비디오 데이터를 그리드(grid)로 분할하는데, 그리드의 각각의 영역은 상이한 사람의 하나 또는 그 이상의 일부분들을 디스플레이한다. 다른 실시예들에서, 제어기(210)는 사람의 일부분을 포함하는 비디오 데이터의 일부분 상에 영상 캡쳐 장치(117)의 확대(즉, 줌)를 증가시킨다. 따라서, 제어기(210)는, 캡쳐된 비디오 데이터 내에 위치된 하나 또는 그 이상의 사람들의 일부분들을 더 현저하게 제시하기 위해서 비디오 데이터를 수정하도록, 캡쳐된 비디오 데이터의 일부분들을 크로핑할 수 있거나, 또는 캡쳐된 비디오 데이터의 일부분들의 확대(즉, 줌)를 증가시킬 수 있다. 부가적으로, 하나 또는 그 이상의 모델들의 적용에 기초하여, 캡쳐된 비디오 데이터를 수정할 때, 제어기(210)는 더 높은 품질에서 하나 또는 그 이상의 위치된 사람들의 일부분들을 제시하기 위해서, 수정된 비디오 데이터를 안정화시킬, 하나 또는 그 이상의 모델들을 적용할 수 있다. In various embodiments, controller 210 applies one or more methods to locate people within the captured video data. However, the controller 210 can similarly locate objects (eg, household appliances, furniture, products) by applying one or more models to the captured video data. The following examples refer to the application of models to video data, but one or more models are video data, audio data, image data, any other data captured by client device 110, and any combination thereof. Can be applied to. The controller 210 can use any suitable model or combination of models to locate people within the video data captured 405 by the image capture device 117. Models applied to the captured video data by the controller 210 are facial tracking (two-dimensional or three-dimensional), two-dimensional poses to identify parts of the human body or parts of the human face. It may perform pose tracking, three-dimensional pose tracking, or any other suitable method. Similarly, the models applied by controller 210 can identify objects from the captured video data. In some embodiments, based on the user's permission, the controller 210 communicates with the online system 140 to more specifically identify objects or people based on information obtained from the online system 140. On the other hand, in other embodiments, the controller 210 maintains the models locally to identify different objects or people from the captured video data. Based on the application of one or more models, the controller 210 captures the video data, including certain parts of the located user's body, to more prominently display any part of the located user's body You can modify the cropping or zooming of. For example, when one or more models identify a human face, the controller modifies the captured video data to remove portions of the video data that do not include the human face. If the application of one or more models places a plurality of people in the captured video data, the controller 210 modifies the captured video data so that different parts of the video display different people. For example, the controller 210 divides the captured video data into a grid, where each area of the grid displays one or more portions of a different person. In other embodiments, the controller 210 increases the magnification (ie, zoom) of the image capture device 117 on a portion of video data that includes a portion of a person. Thus, the controller 210 can crop portions of the captured video data to modify the video data to more prominently present portions of one or more people located within the captured video data, or Alternatively, it is possible to increase magnification (ie, zoom) of portions of the captured video data. Additionally, based on the application of one or more models, when modifying the captured video data, the controller 210 modifies the video to present portions of one or more located people at higher quality. One or more models can be applied to stabilize the data.

프라이버시 설정들에 기초하여, 제어기(210)는 또한, 캡쳐된 비디오 데이터에 포함된, 위치된 사람의 몸의 일부분들을 수정하기 위해서, 식별된 사람의 몸의 부분들을 위치시키고, 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터를 수정하거나 또는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하는, 하나 또는 그 이상의 모델들을 적용할 수 있다. 예를 들어, 제어기(210)는, 캡쳐된 비디오 데이터에서, 위치된 사람의 몸의 상이한 부분들에 대응되는 관절들을 포함하도록, 식별된 사람의 몸의 상이한 관절들(joints)을 위치시키고, 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정한다. 그러므로, 제어기(210)는 캡쳐된 비디오 데이터가 사람의 머리, 사람의 머리와 몸통, 또는 사람의 전체 몸을 포함하는지 여부를 수정할 수 있다. 제어기(210)는 이전에 캡쳐된 비디오 데이터에서 식별된 움직임, 비디오 데이터로부터 식별된 임의의 다른 적합한 특성들, 또는 이전에 캡쳐된 비디오 데이터에 포함된 콘텐츠에 기초하여, 캡쳐된 비디오 데이터에 포함된 사람의 몸의 일부분들을 수정하는 다양한 규칙들을 포함할 수 있다.Based on the privacy settings, the controller 210 also locates parts of the identified person's body to modify portions of the located person's body, included in the captured video data, and captures the image capture device ( One or more models may be applied to modify the video data captured by 117) or to modify one or more parameters of the image capture device 117. For example, the controller 210 positions different joints of the identified person's body to include joints corresponding to different parts of the located person's body, in the captured video data, and images Modify the parameters of the capture device 117 or the captured video data. Therefore, the controller 210 can modify whether the captured video data includes a human head, a human head and torso, or a whole body of a person. The controller 210 is included in the captured video data, based on the movement identified in the previously captured video data, any other suitable characteristics identified from the video data, or content included in the previously captured video data. It can include various rules for modifying parts of a person's body.

다양한 실시예들에서, 제어기(210)에 의해 적용된 하나 또는 그 이상의 모델들은 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오 데이터를 수정하기 위해 하나 또는 그 이상의 규칙들을 적용한다. 예를 들어, 제어기(210)가 또한 사람의 얼굴이 카메라를 향해 있다고 결정한다면, 제어기(210)는, 비디오 데이터로부터 위치된 사람을 더 현저하게 디스플레이하기 위해서, 사람과는 다른 객체들을 제거하도록 사람이 위치된 비디오 데이터의 일부분들을 크로핑하는 것을 수정함으로써, 또는 사람이 위치된 비디오 데이터의 일부분 상에서 캡쳐된 데이터의 줌을 수정함으로써, 캡쳐된 비디오 데이터를 수정한다. 예로서, 제어기(210)에 의해 적용된 하나 또는 그 이상의 모델들이 사람의 얼굴이 영상 캡쳐 장치(117)를 향해 있다고 결정한다면(예를 들어, 사람의 얼굴의 하나 또는 그 이상의 특정한 특징들이 영상 캡쳐 장치(117)에 의해 캡쳐된다면), 제어기(210)는 사용자의 얼굴을 더 현저하게 디스플레이하기 위해 캡쳐된 비디오 데이터를 수정한다. 다른 예에서, 제어기(210)는 영상 캡쳐 장치(117)와 비디오 데이터 내에 위치된 사람들 간의 거리들을 결정하고, 영상 캡쳐 장치(117)로부터의 최소 결정된 거리를 갖는 사람을 더 현저하게 디스플레이 하기 위해, 또는 영상 캡쳐 장치로부터의 결정된 거리가 문턱값 거리보다 적은 사람들을 더 현저하게 디스플레이 하기 위해, 캡쳐된 비디오 데이터를 수정한다. 다른 예에서, 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터가 객체 또는 사람의 움직임을 트래킹하는 것을 허용하면서, 사람 또는 객체가 움직임에 따라, 영상 캡쳐 장치(117)를 재위치시키기 위해서, 제어기(210)는 하나 또는 그 이상의 모델들을 적용한다.In various embodiments, the one or more models applied by the controller 210 are one or more to modify the video data captured 405 by the image capture device 117 of the transmitting client device 110A. Rules apply. For example, if the controller 210 also determines that the person's face is towards the camera, the controller 210 may remove the objects other than the person in order to more prominently display the person located from the video data. The captured video data is modified by correcting for cropping portions of the located video data, or by modifying the zoom of the data captured on a portion of the video data where the person is located. For example, if one or more models applied by the controller 210 determines that the human face is toward the image capture device 117 (eg, one or more specific features of the human face are image capture device If captured by (117), the controller 210 modifies the captured video data to display the user's face more prominently. In another example, the controller 210 determines the distances between the image capture device 117 and the people located in the video data, and more prominently displays a person with the minimum determined distance from the image capture device 117, Alternatively, the captured video data is corrected to display more prominently the people whose determined distance from the image capture device is less than the threshold distance. In another example, a controller to reposition the image capture device 117 as the person or object moves, while allowing video data captured by the image capture device 117 to track the movement of the object or person 210 applies one or more models.

제어기(210)에 의해 적용된 하나 또는 그 이상의 모델들은, 캡쳐된 비디오 데이터에서 식별된 복수의 사람들의 위치를 처리하는 규칙들에 기초하여, 캡쳐된 비디오 데이터를 수정할 수 있다. 다양한 실시예들에서, 사용자들은 제어기(210)가 캡쳐된 비디오 데이터에서 사용자들을 위치시키는 것을 허가할 수 있고, 제어기(210)는 식별된 사용자들의 시선들이 향하는 캡쳐된 비디오 데이터 내의 위치들을 결정하는 모델을 캡쳐된 비디오 데이터에 적용한다. 적어도 문턱값 수의 또는 문턱값 양의 위치된 사용자들이 특정한 사람을 포함하는 캡쳐된 비디오 데이터 내의 위치를 향하는 시선들을 가진다고 결정하는 것에 응답하여, 제어기(210)는, 특정한 사람을 더 현저하게 디스플레이(예를 들어, 특정한 사람과는 다른 콘텐츠를 제거하기 위해 캡쳐된 비디오 데이터를 크로핑하는 것, 특정한 사람의 줌 또는 확대를 증가시키는 것)하기 위해서, 캡쳐된 비디오 데이터를 수정한다. 다른 예로서, 제어기(210)는 비디오 데이터 내에 위치된 상이한 사람들간의 거리들을 결정하고, 서로의 문턱값 거리 내의 사람들을 더 현저하게 디스플레이하기 위해 캡쳐된 비디오 데이터를 수정하는데, 이것은 제어기(210)가 사람들의 그룹이 위치된 비디오 데이터의 일부분을 크로핑하거나 또는 주밍함으로써, 캡쳐된 비디오 데이터를 수정하는 것을 허용한다. 부가적으로, 제어기(210)는 캡쳐된 비디오 데이터 내의 식별된 사람들 또는 객체들에 기초하여, 캡쳐된 비디오 데이터로부터 하나 또는 그 이상의 프레임들을 제거할 수 있고, 예를 들어, 문턱값 미만의 수의 객체들 또는 사람들이 캡쳐된 비디오 데이터 내에서 식별되거나, 또는 캡쳐된 비디오 데이터 내에서 식별된 객체들 또는 사람들의 문턱값보다 적은 양의 움직임이 결정된다면, 제어기(210)는, 캡쳐된 비디오 데이터를 온라인 시스템(140)에 전송(410)하기 이전에, 캡쳐된 비디오 데이터로부터 프레임들을 제거한다. 다른 실시예들에서, 온라인 시스템(140)은 하기에 더 서술되는 바와 같이, 캡쳐된 비디오 데이터를 수신중인 클라이언트 장치(110B)에 전송(415)하기 전에 상기에 서술된 기준을 이용하여 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 프레임들을 제거한다. One or more models applied by the controller 210 may modify the captured video data based on rules processing the locations of a plurality of people identified in the captured video data. In various embodiments, users can allow controller 210 to locate users in the captured video data, and controller 210 is a model for determining locations in the captured video data to which the eyes of the identified users are directed. Is applied to the captured video data. In response to determining that at least a threshold number or a threshold amount of positioned users has gazes directed to a location in the captured video data that includes the particular person, the controller 210 displays the particular person more prominently ( For example, modifying the captured video data to crop the captured video data to remove content different from a particular person, to increase zoom or magnification of the specific person). As another example, the controller 210 determines distances between different people located in the video data, and modifies the captured video data to display the people within each other's threshold distance more prominently, which the controller 210 A group of people is allowed to modify the captured video data by cropping or zooming a portion of the located video data. Additionally, the controller 210 can remove one or more frames from the captured video data, based on identified people or objects in the captured video data, eg, a number less than a threshold If objects or people are identified within the captured video data, or if an amount of movement less than a threshold of objects or people identified within the captured video data is determined, the controller 210 may display the captured video data. Prior to sending 410 to the online system 140, frames are removed from the captured video data. In other embodiments, the online system 140 sends the captured video data to the receiving client device 110B before sending 415 the captured video data, using the criteria described above, as described further below. Frames are removed from the video data received from device 110A.

제어기(210)는 송신중인 클라이언트 장치(110A)의 다른 구성요소들로부터 데이터를 수신할 수 있고, 송신중인 클라이언트장치(110A)의 다른 구성 요소들로부터의 데이터와 수신된 비디오 데이터의 특성들에 기초하여, 캡쳐된 비디오 데이터를 수정할 수 있다. 예를 들어, 영상 캡쳐 장치(117) 또는 클라이언트 장치(110)는, 클라이언트 장치(110) 주위의 국지 영역으로부터 오디오 데이터를 캡쳐하도록 구성된, 마이크로폰과 같은 오디오 캡쳐 장치를 포함한다. 사용자들은, 캡쳐된 비디오 데이터를 수정할 때, 제어기(210)가, 캡쳐된 비디오 데이터와 함께, 캡쳐된 오디오 데이터를 프로세싱하는 것을 허가할 수 있다. 다양한 실시예들에서, 제어기(210)는, 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치를 결정하기 위해서, 하나 또는 그 이상의 모델들을 캡쳐된 오디오 데이터에 적용한다. 제어기(210)는 하나 또는 그 이상의 모델들을, 오디오 데이터의 소스를 포함하는, 캡쳐된 비디오 데이터 내의 위치에 적용한다. 오디오 데이터의 소스를 포함하는, 캡쳐된 비디오 데이터 내의 위치가 사람을 포함한다고 결정하는 모델들의 적용에 응답하여, 제어기(210)는, 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치를 더 현저하게 제시하기 위해서, 캡쳐된 비디오 데이터를 수정하거나(즉, 캡쳐된 비디오 데이터의 소스를 포함하는 위치의 줌을 증가시키거나 또는 캡쳐된 비디오의 소스와는 다른 객체들을 제거하기 위해 캡쳐된 비디오 데이터의 소스를 포함하는 위치를 크로핑 하는 것), 또는 오디오 데이터의 소스 상에 초점을 맞추기 위해 영상 캡쳐 장치(117)를 재위치시킨다. 그러나, 제어기(210)는, 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치가 사람을 포함하지 않는다고 결정하는 것에 응답하여, 캡쳐된 비디오 데이터를 수정하지 않거나 또는 영상 캡쳐 장치(117)를 재위치시키지 않는다. 다른 예로서, 제어기(210)는, 캡쳐된 비디오 데이터가, 송신중인 클라이언트 장치(110A)의 오디오 캡쳐 장치에 의해 캡쳐된 오디오 데이터를 말하거나, 또는 그와는 다르게, 제공중인 것으로 결정된 사람을 더 현저하게 디스플레이하는(즉, 오디오 데이터를 제공중인 것으로 결정된 사람을 포함하는 그 위치의 줌을 증가시키거나, 또는 오디오 데이터를 제공중인 것으로 결정된 사람과는 다른 객체들을 제거하기 위해, 캡쳐된 비디오 데이터의 소스를 포함하는 위치를 크로핑하는) 것을 허용하면서, 캡쳐된 오디오 데이터의 소스라고 제어기(210)가 결정하는, 캡쳐된 비디오 데이타 내에 위치된 사람을 더 현저하게 제시하기 위해서, 캡쳐된 비디오 데이터를 수정하거나 또는 영상 캡쳐 장치(117)를 재위치시킨다.The controller 210 can receive data from other components of the client device 110A being transmitted, and is based on characteristics of the video data and received data from other components of the client device 110A being transmitted. Thus, the captured video data can be corrected. For example, the video capture device 117 or the client device 110 includes an audio capture device, such as a microphone, configured to capture audio data from a local area around the client device 110. Users can allow the controller 210 to process the captured audio data, along with the captured video data, when modifying the captured video data. In various embodiments, the controller 210 applies one or more models to the captured audio data to determine a location within the captured video data that includes a source of audio data. The controller 210 applies one or more models to a location in the captured video data, including a source of audio data. In response to the application of models that determine that the location in the captured video data, including the source of the audio data, includes the person, the controller 210 is more prominent in determining the location in the captured video data that includes the source of audio data. For the sake of presentation, the captured video data may be modified to modify the captured video data (i.e., to increase the zoom of the location containing the source of the captured video data, or to remove objects other than the source of the captured video data) Cropping the location containing the source), or reposition the image capture device 117 to focus on the source of the audio data. However, the controller 210 does not modify the captured video data or restarts the video capture device 117 in response to determining that the location in the captured video data containing the source of the audio data does not include a person. Do not place. As another example, the controller 210 further refers to the person determined that the captured video data is being served, or otherwise, the audio data captured by the audio capture device of the client device 110A being transmitted. Of the captured video data to significantly display (i.e., to increase the zoom of that location, including the person determined to be providing audio data, or to remove objects other than the person determined to be providing audio data) The captured video data is displayed in order to more prominently locate a person located within the captured video data, which is determined by the controller 210 to be the source of the captured audio data, while allowing the location including the source to be cropped). Correct or reposition the image capture device 117.

몇가지 실시예들에서, 사용자들은 또한, 영상 캡쳐 장치(117)에 의해 이전에 캡쳐(405)된 비디오 데이터에 기초하여, 제어기(210)가, 클라이언트 장치(110)의 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정하기 위해, 하나 또는 그 이상의 모델들을 적용하는 것을 허가할 수 있다. 예를 들어, 제어기(210)가 캡쳐된 비디오 데이터 내에 복수의 사람들을 위치시킨다면, 제어기(210)는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들 또는 캡쳐된 비디오 데이터를 수정하여 각각의 위치된 사람은 최소량의 시간 동안, 캡쳐된 비디오 데이터에서 현저하게 제시(예를 들어, 적어도 문턱값 세트의 차원들로 비디오 데이터에서 제시되는 것, 영상 캡쳐 장치(117)의 적어도 문턱값 양의 시야에서 제시되거나, 또는 캡쳐된 비디오 데이터의 적어도 문턱값 양의 프레임에서 제시되는 것, 또는 캡쳐된 비디오 데이터 내의 하나 또는 그 이상의 특정 위치들에 제시되는 것)된다. 다른 예로서, 프라이버시 설정들을 조건으로, 제어기(210)는, 적어도 문턱값 양의 시간동안, 캡쳐된 비디오 데이터에서 현저하게 제시되었던, 캡쳐된 비디오 데이터에 위치되는 사람들을 식별하는 정보를 저장한다. 제어기(210)가 캡쳐된 비디오 데이터에서 부가적인 사람을 위치시킬 때, 제어기(210)는, 캡쳐된 비디오 데이터에서 현저하게 제시되었던, 사람들을 식별하는 저장된 정보와 부가적인 사람을 비교한다. 부가적인 사람이 저장된 정보에 의해 식별되지 않는다고 결정하는 것에 응답하여, 제어기(210)는, 적어도 문턱값 양의 시간 동안 부가적인 사람을 현저하게 디스플레이하기 위해서, 캡쳐된 비디오 데이터를 수정하거나 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정한다. 이것은 제어기(210)가 비디오 데이터를 수정하는 것을 허용하여, 제어기(210)에 의해서 비디오 데이터에 위치된 각각의 사람은 적어도 문턱값 양의 시간동안 현저하게 디스플레이된다.In some embodiments, users may also, based on video data previously captured 405 by the image capture device 117, the controller 210, the image capture device 117 of the client device 110. To modify parameters or captured video data, one or more models may be allowed to apply. For example, if the controller 210 places a plurality of people in the captured video data, the controller 210 modifies the captured video data or one or more parameters of the image capture device 117, respectively. A person who has been markedly presented in the captured video data for a minimum amount of time (e.g., presented in video data at least as a set of threshold values, in a field of view of at least a threshold amount of the image capture device 117) Presented, or at least a threshold amount of frames of captured video data, or at one or more specific locations within the captured video data). As another example, subject to privacy settings, controller 210 stores information identifying people located in the captured video data, which have been remarkably presented in the captured video data, at least for a threshold amount of time. When the controller 210 places an additional person in the captured video data, the controller 210 compares the additional person with stored information that identifies people, which has been remarkably presented in the captured video data. In response to determining that the additional person is not identified by the stored information, the controller 210 modifies the captured video data or image capture device to significantly display the additional person for at least a threshold amount of time. Modify one or more parameters of (117). This allows the controller 210 to modify the video data, so that each person located in the video data by the controller 210 is markedly displayed for at least a threshold amount of time.

부가적으로, 제어기(210)는, 캡쳐된 비디오 데이터에 위치된 사람들의 움직임을 식별하는 것에 응답하여, 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정할 수 있다. 예를 들어, 제어기(210)에 의해 캡쳐된 비디오에 적용된 하나 또는 그 이상의 모델들이, 위치된 사람이 객체를 향해서 몸짓(gesturing)을 하고 있다고 결정한다면, 제어기(210)는 캡쳐된 비디오 데이터를 수정하여, 위치된 사람과 객체는 현저하게 제시된다. 예로서, 캡쳐된 비디오가 위치된 사람을 현저하게 디스플레이한다면(예를 들어, 적어도 문턱값 세트의 차원들로 위치된 사람을 디스플레이하거나, 또는 적어도 문턱값 양의 하나 또는 그 이상의 프레임들의 비디오 데이터를 점유하는, 위치된 사람을 디스플레이하는 것), 그리고, 제어기가 위치된 사람이 객체를 향해 몸짓을 하고 있다고 결정한다면, 제어기(210)는 캡쳐된 비디오를 수정하여, 위치된 사람과 객체는 비디오 데이터에서 제시된다. 예를 들어, 제어기(210)는 캡쳐된 비디오 데이터의 확대를 감소시켜, 위치된 사람과 객체는 둘다 캡쳐된 비디오에 포함된다. 다른 예에서, 제어기(210)가, 위치된 사람이 객체를 잡고 있다고 결정하는, 하나 또는 그 이상의 모델들을 적용한다면, 제어기(210)는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하거나 또는 캡쳐된 비디오 데이터를 수정하여, 객체는 현저하게 제시(예를 들어, 객체에 대한 영상 캡쳐 장치(117)의 초점을 변경시키고, 영상 캡쳐 장치(117)의 줌을 증가시킴)된다. 제어기(210)는 몇가지 실시예들에서, 특정 양의 시간동안, 캡쳐된 비디오 데이터에서 위치된 사람에 의해 잡혀진 객체를 더 현저하게 제시할 수 있고, 그다음에 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정할 수 있어서, 위치된 사람은 캡쳐된 비디오 데이터에 의해 다시 현저하게 제시된다. Additionally, the controller 210 may modify parameters of the video capture device 117 or captured video data in response to identifying movements of people located in the captured video data. For example, if one or more models applied to the video captured by the controller 210 determines that the located person is gesturing towards the object, the controller 210 modifies the captured video data. Thus, the located persons and objects are presented remarkably. As an example, if the captured video significantly displays the person who is located (e.g., a person who is located at least in dimensions of a threshold set, or at least one threshold amount of video data of one or more frames Occupied, displaying the positioned person), and if the controller determines that the located person is gesturing towards the object, the controller 210 modifies the captured video so that the located person and object are video data Is presented in For example, the controller 210 reduces the magnification of the captured video data, so that both the located person and the object are included in the captured video. In another example, if the controller 210 applies one or more models, which determine that the located person is holding the object, the controller 210 modifies one or more parameters of the image capture device 117 or Or by modifying the captured video data, the object is presented remarkably (eg, changing the focus of the image capture device 117 on the object and increasing the zoom of the image capture device 117). The controller 210 may, in some embodiments, more prominently present the object captured by the person located in the captured video data for a certain amount of time, then the parameters of the image capture device 117 Or it is possible to modify the captured video data, so that the located person is remarkably presented again by the captured video data.

송신중인 클라이언트 장치(110A)는, 상기에 더 서술된 바와 같이, 제어기(210)에 의해서 수정될 수 있는 비디오 데이터를, 송신중인 클라이언트 장치(110A)로부터 온라인 시스템(140)으로, 전송(410)하고, 이것은 캡쳐된 비디오 데이터를, 수신중인 클라이언트 장치(110B)에, 전송(415)한다. 디스플레이 장치(115)를 이용하여, 수신중인 클라이언트 장치(110B)는 온라인 시스템(140)으로부터 온라인 시스템(140)의 시청중인 사용자에게로 비디오 데이터를 제시(420)한다. 다양한 실시예들에서, 시청중인 사용자는, 송신중인 클라이언트 장치(110A)와 통신하기 위해서, 수신중인 클라이언트 장치(110B)로부터 온라인 시스템(140)으로 요청을 통신전달한다. 온라인 시스템(140)은 송신중인 클라이언트 장치(110A)에 요청을 통신전달하고, 이것은 온라인 시스템(140)에 응답을 제공한다. 송신중인 클라이언트 장치(110A)가 그 요청에 응답하여 온라인 시스템(140)에 허가를 제공하면, 온라인 시스템(140)은 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)에 의해 캡쳐(405)되고 온라인 시스템(140)에 제공된 비디오 데이터를, 디스플레이 장치(115) 상에 제시하기 위해, 수신중인 클라이언트 장치(110B)로 통신전달하고, 그 반대로도 통신전달한다. The transmitting client device 110A transmits 410 video data, which can be modified by the controller 210, from the transmitting client device 110A to the online system 140, as described further above. This sends 415 the captured video data to the receiving client device 110B. Using the display device 115, the receiving client device 110B presents 420 video data from the online system 140 to the viewing user of the online system 140. In various embodiments, the viewing user communicates a request from the receiving client device 110B to the online system 140 to communicate with the transmitting client device 110A. The online system 140 communicates the request to the transmitting client device 110A, which provides a response to the online system 140. If the transmitting client device 110A provides permission to the online system 140 in response to the request, the online system 140 captures 405 by the video capturing device 117 of the transmitting client device 110A. The video data provided to the online system 140 is communicated to the receiving client device 110B, and vice versa, for presentation on the display device 115.

다양한 실시예들에서, (예를 들어, 사전-결정된 프라이버시 설정들에 기초하여, 그리고 사용자 동작들을 통해) 사용자는 송신중인 클라이언트 장치(110A)가 제어기(210)에 의해, 캡쳐된 비디오 내에 위치된 사람들에 대응되는 하나 또는 그 이상의 사용자들을 식별하는, 정보를 온라인 시스템(140)에 제공하는 것을 허가할 수 있고, 이것은 수신중인 클라이언트 장치(110B)에 전송(420)되는 비디오 데이터로 하나 또는 그 이상의 사용자들을 식별하는 정보를 포함한다. 대안적으로, 송신중인 클라이언트 장치(110A)는 제어기(210)에 의해 위치된 사람들을 포함하는 비디오 데이터의 일부분들을 온라인 시스템(140)에 식별시키고, 이것은 제어기(210)가 사람들을 위치시킨 비디오 데이터의 일부분들을, 온라인 시스템 사용자들을 식별하는, 저장된 영상들과 비교한다. 프라이버시 설정들에 기초하여, 온라인 시스템(140)은, 적어도 문턱값 유사도의 비디오 데이터의 일부분들을 가지는 것으로 온라인 시스템(140)에 의해 결정된, 저장된 영상들에 의해 식별된 사용자들을, 제어기(210)가 사람들을 위치시킨 송신중인 클라이언트 장치(110A)의 제어기(210)에 대해, 식별하는 정보를 검색한다. 사용자들이 그러한 식별 특징들에 옵트인한다면, 이것은 온라인 시스템(140)이, 송신중인 클라이언트 장치(110A)로부터 수신된, 비디오 데이터에 포함된 온라인 시스템(140)의 사용자들을 식별하는 것을 허용한다. 수신된 비디오 데이터의 일부분에 위치된 사람이 온라인 시스템 사용자인지 여부를 결정하기 위해, 온라인 시스템(140)은 하나 또는 그 이상의 얼굴 인식 프로세스를, 또는 다른 식별 프로세스들을, 사용자들을 식별하는 온라인 시스템(140)에 의해 저장된 영상들(예를 들어, 사용자들의 사용자 프로필들에서의 프로필 사진들, 사용자들이 식별 정보로 태그되는 사용자들의 얼굴들을 포함하는 영상들)과, 제어기(210)에 의해서 사람이 위치된, 수신된 비디오 데이터의 일부분에 적용할 수 있다. 예를 들어, 온라인 시스템(140)은 송신중인 클라이언트 장치(110A)로부터의 비디오 데이터를 증강(augment)시켜서, 온라인 시스템의 사용자를 식별하는 정보(예를 들어, 첫번째 이름과 마지막 이름, 그리고 이메일 주소)가, 온라인 시스템 사용자로서 온라인 시스템(140)에 의해 식별된 사람을 포함하는, 송신중인 클라이언트 장치(110A)로부터의 비디오 데이터의 일부분 상에 오버레이된다. 온라인 시스템(140)은 증강된 비디오 데이터를 수신중인 클라이언트 장치(110B)에 전송(420)한다. 대안적으로, 온라인 시스템(140)은, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터에 위치된 사람들에 대응되는, 온라인 시스템 사용자들을 식별하는 정보를 생성하고, 비디오 내의 사람들에 대응되는 온라인 시스템 사용자들을 식별하는 정보를 수신중인 클라이언트 장치(110B)에 비디오 데이터와 함께 전송한다. 예를 들어, 온라인 시스템(140)은, 수신중인 클라이언트 장치(110B)에 의해 비디오 데이터와 연결되어, 시청중인 사용자에게 제시하기 위해서, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터 내의 사람들에 대응되는, 온라인 시스템 사용자들의 사용자 이름들의 리스트 또는 첫번째 이름과 마지막 이름의 리스트를 생성한다.In various embodiments, the user (eg, based on pre-determined privacy settings, and through user actions) allows the user to transmit the client device 110A located in the captured video by the controller 210. It may authorize providing information to the online system 140, which identifies one or more users corresponding to people, which is one or more of the video data transmitted 420 to the receiving client device 110B. Contains information identifying users. Alternatively, the transmitting client device 110A identifies portions of the video data, including those located by the controller 210, to the online system 140, which is the video where the controller 210 locates the people. Portions of the data are compared to stored images that identify online system users. Based on the privacy settings, the online system 140 controls the users identified by the stored images, determined by the online system 140 as having portions of video data of at least a threshold similarity, the controller 210 For the controller 210 of the transmitting client device 110A where people are located, it searches for identifying information. If users opt in to such identification features, this allows online system 140 to identify users of online system 140 included in the video data, received from transmitting client device 110A. To determine whether a person located in a portion of the received video data is an online system user, the online system 140 may use one or more facial recognition processes, or other identification processes, to identify the users. ) Stored by (for example, profile pictures in the user's user profiles, images including the faces of users whose users are tagged with identification information), and where the person is located by the controller 210 , It can be applied to a part of the received video data. For example, the online system 140 augments video data from the transmitting client device 110A, thereby identifying information of the user of the online system (eg, first name and last name, and email address). ) Is overlaid on a portion of the video data from the transmitting client device 110A, including the person identified by the online system 140 as an online system user. The online system 140 transmits 420 the augmented video data to the receiving client device 110B. Alternatively, the online system 140 generates information identifying online system users, corresponding to people located in the video data received from the transmitting client device 110A, and the online system corresponding to people in the video. Information identifying the users is transmitted to the receiving client device 110B along with video data. For example, the online system 140 is connected to video data by the receiving client device 110B and corresponds to people in the video data received from the transmitting client device 110A for presentation to a viewing user. To create a list of user names of online system users or a list of first and last names.

온라인 시스템(140)의 사용자 경험을 개선하기 위해 다양한 사용자-관련된 데이터의 이용을 사용자들이 허가하는 몇가지 실시예들에서, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터에 위치된 사람들에 대응되는 온라인 시스템 사용자들을 식별하는 정보를 생성할 때, 온라인 시스템(140)은 수신중인 클라이언트 장치(110B)와 연관된 시청중인 사용자와 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 식별되는 사용자들 간의 친밀도들을 처리할 수 있다. 예를 들어, 온라인 시스템(140)은, 온라인 시스템(140)에 의해 유지되는 시청중인 사용자에의 접속을 갖는, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 식별되는, 온라인 시스템 사용자들에 대한 식별 정보를 생성하고; 온라인 시스템(140)은, 몇가지 실시예들에서 시청중인 사용자에의 접속을 가지지 않는, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 식별되는, 온라인 시스템 사용자들에 대한 식별 정보는 생성할 수 없다. 대안적으로, 온라인 시스템(140)은, 시청중인 사용자에게 접속되지 않은, 온라인 시스템 사용자들의 식별 정보로부터, 시청중인 사용자에 접속된, 수신된 비디오 데이터로부터 식별되는 온라인 시스템 사용자들의 식별 정보를 시각적으로 구별한다. 다른 예로서, 온라인 시스템(140)은, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 식별되는, 각각의 온라인 시스템 사용자에 대한 시청중인 사용자의 친밀도를 결정하고, 비디오 데이터로부터 식별되는 온라인 시스템 사용자들의 식별 정보의 제시를 수정한다. 예로서, 온라인 시스템(140)은, 시청중인 사용자가 적어도 문턱값 친밀도를 가진다고 온라인 시스템(140)이 결정하는, 식별된 온라인 시스템 사용자들을 시각적으로 구별하는, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자들을 식별하는 정보를 생성한다. 다른 예로서, 온라인 시스템(140)은, 수신된 비디오 데이터로부터 식별되는 온라인 시스템 사용자들에 대한, 시청중인 사용자의 친밀도들에 기초하여, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자들을 식별하는 정보를 순위정하고; 온라인 시스템(140)은, 수신된 비디오 데이터로부터 식별된 다른 온라인 시스템 사용자들을 식별하는 정보로부터, 순위정하기에서 적어도 문턱값 위치를 가지는, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자들을 식별하는 정보를 시각적으로 구별하는 정보를 생성한다. 다른 실시예에서, 온라인 시스템(140)은, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자를 식별하는 정보를 제시하는 정보를 생성한다.In some embodiments where users permit the use of various user-related data to improve the user experience of the online system 140, online corresponding to people located in video data received from the transmitting client device 110A. When generating information identifying system users, the online system 140 establishes intimacies between the viewing user associated with the receiving client device 110B and the users identified from the video data received from the sending client device 110A. Can handle it. For example, the online system 140 is associated with online system users, identified from video data received from the transmitting client device 110A, having a connection to a viewing user maintained by the online system 140. Generate identification information for; The online system 140 may generate identification information for online system users, identified from video data received from the transmitting client device 110A, which does not have access to the viewing user in some embodiments. none. Alternatively, the online system 140 visually identifies identification information of online system users identified from received video data connected to the viewing user, from identification information of online system users that are not connected to the viewing user. To distinguish. As another example, the online system 140 determines the intimacy of the viewing user for each online system user, identified from the video data received from the transmitting client device 110A, and the online system identified from the video data. Correct the presentation of users' identification information. By way of example, the online system 140 identifies the online system user identified from the received video data, visually distinguishing the identified online system users, where the online system 140 determines that the viewing user has at least a threshold intimacy. Generates information that identifies them. As another example, online system 140 may provide information identifying online system users identified from the received video data, based on intimacies of the user being viewed, for online system users identified from the received video data. Ranking; The online system 140 visualizes information identifying online system users identified from the received video data, having at least a threshold location in ranking, from information identifying other online system users identified from the received video data. It generates information to distinguish. In another embodiment, the online system 140 presents information identifying the online system user identified from the received video data, based on the user's affinity for the online system user identified from the received video data. Generate information.

수신중인 클라이언트 장치(110B)는, 송신중인 클라이언트 장치(110A)가 수신중인 클라이언트 장치(110B)에 제시하기 위해 비디오 데이터를 제공하는 것을 허용하면서, 디스플레이 장치(115)를 통해 온라인 시스템(140)으로부터의 비디오 데이터를 제시(420)한다. 온라인 시스템(140)의 사용자들을 식별하는 온라인 시스템(140)으로부터의 정보는, 비디오 데이터와 연결하여, 수신중인 클라이언트 장치(110B)에 의해 제시된다. 제시된 비디오 데이터로부터, 수신중인 클라이언트 장치(110B)는 시청중인 사용자로부터 관심 사용자의 선택을 수신(425)하고, 온라인 시스템(140)에 관심 사용자를 식별하는 정보를 전송한다. 시청중인 사용자는 다양한 실시예들에서, 관심 객체를 선택할 수 있다. 예를 들어, 시청중인 사용자는 비디오 데이터와 연결되어 제시된 온라인 시스템(140)의 사용자들을 식별하는 정보로부터 관심 사용자를 식별하는 정보를 선택하고, 수신중인 클라이언트 장치(110B)와 수신중인 클라이언트 장치(110B)는 온라인 시스템(140)으로 관심 사용자를 식별하는 정보를 전송(430)한다. 시청중인 사용자는, 비디오 데이터와 함께, 수신중인 클라이언트 장치(110B)에 의해 제시되고, 비디오 데이터에 포함된 사용자들을 서술하는 정보로부터 관심 사용자를 식별하는 정보를 선택할 수 있다. 대안적으로, 시청중인 사용자는 사람을 포함하는 제시된 비디오 데이터의 일부분을 선택하고, 수신중인 클라이언트 장치(110B)는 제시된 비디오 데이터의 선택된 일부분을 온라인 시스템(140)에 식별시키고, 이것은 비디오 데이터의 선택된 일부분의 콘텐츠를 사용자들과 연관된 얼굴들 또는 몸들의 저장된 영상들(예를 들어, 사용자 프로필들에 포함된 영상들, 다양한 사용자들이 식별되는, 온라인 시스템(140)에 의해 유지되는 영상들)과 비교하고, 비디오의 선택된 일부분의 콘텐츠에 매칭되는 하나 또는 그 이상의 저장된 영상들과 연관된 사용자를 관심 사용자로서 식별한다.The receiving client device 110B allows the sending client device 110A to provide video data for presentation to the receiving client device 110B, while from the online system 140 via the display device 115. Present the video data of (420). Information from the online system 140 identifying users of the online system 140 is presented by the receiving client device 110B in connection with video data. From the presented video data, the receiving client device 110B receives a selection of the interested user from the viewing user 425 and transmits information identifying the interested user to the online system 140. The viewing user can select the object of interest in various embodiments. For example, a viewing user selects information identifying a user of interest from information identifying users of the online system 140 presented in connection with video data, and receiving client device 110B and receiving client device 110B. ) Transmits the information identifying the user of interest to the online system 140 (430). The viewing user can select information identifying the user of interest from the information presented by the receiving client device 110B, along with the video data, and describing users included in the video data. Alternatively, the viewing user selects a portion of the presented video data, including a person, and the receiving client device 110B identifies the selected portion of the presented video data to the online system 140, which selects the selected portion of the video data. Compare a portion of the content with stored images of faces or bodies associated with users (eg, images contained in user profiles, images maintained by online system 140 where various users are identified) And identify a user associated with one or more stored images matching content of a selected portion of the video as the user of interest.

온라인 시스템(140)은 관심 사용자를 식별하는 정보를 송신중인 클라이언트 장치(110A)에 전송(435)한다. 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오 데이터에 포함된 객체들의 특성들과 관심 사용자를 식별하는 정보에 기초하여, 제어기(210)는 관심 사용자를 더 현저하게 제시하기 위해 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정(440)한다. 그 수정은, 수신중인 클라이언트 장치(110B)를 제어하는 사전-허가된 사람들의 리스트에 대해서, 캡쳐되는 사용자에 의한 허가와 재검토를 위해서 및/또는 그러한 변경들의 사전-허가에 기초하여(예를 들어, 프라이버시 설정들을 통해), 캡쳐된 비디오가 변경될 수 있는 방법에 관한 통지는 클라이언트 장치(110A)에서 디스플레이된 이후에 발생할 수 있다. 그 수정들은, 관심 사용자를 포함하는 비디오 데이터의 일부분 상에 확대를 증가시키기 위해서 또는 관심 사용자를 포함하지 않는 비디오 데이터의 일부분들을 제거하기 위해서, 영상 캡쳐 장치(117)의 파라미터들을 수정하는 단계를 포함할 수 있다. 다양한 실시예들에서, 송신중인 클라이언트 장치(110A)의 제어기(210)는, 관심 사용자를 더 현저하게 제시하기 위해서, 캡쳐된 비디오 데이터를 수정(440)하도록, 상기에 더 서술된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터에 적용한다. 관심 사용자를 더 현저하게 제시하기 위해, 수정된 비디오 데이터는 송신중인 클라이언트 장치(110A)로부터 온라인 시스템(140)으로 전송(445)되는데, 이것은 수신중인 클라이언트 장치(110B)에 관심 사용자를 더 현저하게 제시하는 비디오 데이터를 전송(450)하고, 이것은 시청중인 사용자에게 수정된 비디오 데이터를 제시(455)한다.The online system 140 sends 435 information identifying the user of interest to the transmitting client device 110A. Based on the characteristics of the objects included in the video data captured 405 by the image capture device 117 and information identifying the user of interest, the controller 210 is a client transmitting to present the user of interest more prominently The parameters of the image capture device 117 of the device 110A or the captured video data are corrected (440). The modification is based on pre-authorization of such changes and / or for permission and review by the user being captured, for a list of pre-authorized persons controlling the receiving client device 110B (eg , Via privacy settings), a notification as to how the captured video can be changed can occur after being displayed on the client device 110A. The modifications include modifying parameters of the image capture device 117 to increase magnification on a portion of the video data that includes the user of interest, or to remove portions of the video data that do not contain the user of interest. It can contain. In various embodiments, the controller 210 of the transmitting client device 110A may modify one or more of the ones described above to modify 440 the captured video data to more prominently present the user of interest. Models are applied to the captured video data. To more prominently present the interested user, the modified video data is transmitted 445 from the sending client device 110A to the online system 140, which makes the receiving client device 110B more noticeable to the interested user. The presenting video data is transmitted 450, which presents the modified video data 455 to the viewing user.

제어기(210)는, 국지 영역 주변의 관심 사용자를 따라가기 위해, 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하도록, 관심 사용자를 식별하는 정보를 수신한 이후에, 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용할 수 있다. 예를 들어, 제어기(210)는, (온라인 시스템(140)으로부터 수신되거나, 또는 온라인 시스템으로부터의 정보에 기초하여 이전에 캡쳐(405)된 비디오 데이터로부터 식별된) 관심 사용자의 얼굴에 매칭되는 사람의 얼굴을 식별하기 위해, 하나 또는 그 이상의 얼굴 인식 모델들을 캡쳐된 비디오 데이터에 위치된 사람들에게 적용하고, 관심 사용자의 얼굴에 매칭되는 얼굴을 가지는 사람에게 영상 캡쳐 장치(117)의 초점을 후속하여 재위치시킨다. 대안적으로, 제어기(210)는 관심 사용자를 포함하는 캡쳐된 비디오 데이터로부터 컬러 맵(color map)을 추출하고 영상 캡쳐 장치(117)의 초점을 재위치시켜서, 추출된 컬러 맵은 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터에 포함되어 남겨진다. 몇가지 실시예들에서, 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터가 식별된 사람 또는 객체의 움직임을 트래킹하는 것을 허용하면서, 제어기(210)는 관심 사용자를 식별하는 정보를 수신하고, 식별된 사람 또는 객체를 트래킹하도록 영상 캡쳐 장치(117)를 후속하여 수정한다.The controller 210, after receiving the information identifying the user of interest, modifies one or more parameters of the image capture device 117 to follow the user of interest around the local area, after receiving the information identifying the user of interest. One or more models can be applied. For example, the controller 210 may match a person's face of interest (identified from video data previously received 405 based on information from the online system 140 or from the online system). In order to identify the face of the camera, one or more face recognition models are applied to people located in the captured video data, and the focus of the image capture device 117 is subsequently applied to a person having a face matching the face of the user of interest. Reposition it. Alternatively, the controller 210 extracts a color map from the captured video data including the user of interest and repositions the focus of the image capture device 117, so that the extracted color map is an image capture device ( 117). In some embodiments, while allowing video data captured by the image capture device 117 to track the movement of the identified person or object, the controller 210 receives information identifying the user of interest, and identifies The image capture device 117 is subsequently modified to track people or objects.

다양한 실시예들에서, 시청중인 사용자는, 수신중인 클라이언트 장치(110B)의 디스플레이 장치(115)에 의해 제시된 비디오 데이터를 수정하도록, 부가적인 지시들을 온라인 시스템(140)에 제공하고, 이것은 지시들을 송신중인 클라이언트 장치(110A)에 전송한다. 온라인 시스템(140)으로부터의 지시들에 기초하여, 송신중인 클라이언트 장치(110A)의 제어기(210)는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하거나 또는 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오 데이터를 수정한다. 예를 들어, 시청중인 사용자에 의해 온라인 시스템(140)을 통해 제공된 지시는, 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)를 제어기(210)가 환경설정(configure)하게 하여서, 영상 캡쳐 장치(117)는, 관심 사용자가 영상 캡쳐 장치(117)의 시야 내에서 움직임에 따라, 재위치된다. 다른 예로서, 시청중인 사용자에 의해 온라인 시스템(140)을 통해 제공된 지시는, 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)에 의해 캡쳐(405)되고 수신중인 클라이언트 장치(110B)를 통해 제시되는, 비디오 데이터 내의 객체를 식별한다. 송신중인 클라이언트 장치(110A)가 온라인 시스템(140)으로부터 지시를 수신할 때, 제어기(210)는 캡쳐된 비디오 데이터를 수정하거나 또는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하여서, 부가적인 클라이언트 장치(110)에 후속하여 제공되는 캡쳐된 비디오 데이터는 식별된 객체를 포함한다. 이것은 시청중인 사용자가, 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)에 의해 캡쳐되고 수신중인 클라이언트 장치(110B)를 통해 시청중인 사용자에게 제시되는 비디오 데이터를 수정하는, 지시들을 송신중인 클라이언트 장치(110A)에 제공하는 것을 허용한다. 다양한 실시예들에서, 시청중인 사용자는, 수신중인 클라이언트 장치(110B)에 의해 제시(425)되고 송신중인 클라이언트 장치(110A)에 의해 캡쳐되는 비디오 데이터로부터 관심 사용자를 식별하지 않고서, 송신중인 클라이언트 장치(110A)에 의해 캡쳐되는 비디오 데이터를 수정하도록, 송신중인 클라이언트 장치(110A)로의 통신을 위한 지시들을 온라인 시스템(140)에 제공할 수 있다. 이것은 시청중인 사용자가 송신중인 클라이언트 장치(110A)에 의해 캡쳐(405)되는 비디오 데이터를 변경하는 것을 허용한다. In various embodiments, the viewing user provides additional instructions to the online system 140 to modify the video data presented by the display device 115 of the receiving client device 110B, which sends the instructions. Client device 110A. Based on the instructions from the online system 140, the controller 210 of the transmitting client device 110A may modify one or more parameters of the image capture device 117 or by the image capture device 117. The captured video data is corrected. For example, an instruction provided by the viewing user through the online system 140 causes the controller 210 to configure the image capture device 117 of the transmitting client device 110A, thereby capturing the image. The device 117 is repositioned as the user of interest moves within the field of view of the video capture device 117. As another example, the instructions provided by the viewing user through the online system 140 are captured 405 by the video capture device 117 of the transmitting client device 110A and received through the receiving client device 110B. Identifies objects in the video data that are presented. When the transmitting client device 110A receives an instruction from the online system 140, the controller 210 modifies the captured video data or modifies one or more parameters of the image capture device 117, thereby adding The captured video data provided subsequently to the client device 110 includes the identified object. This is a client sending instructions that the viewing user modifies the video data captured by the video capture device 117 of the sending client device 110A and presented to the viewing user via the receiving client device 110B. Allow to provide to device 110A. In various embodiments, the viewing user is transmitting the client device without identifying the user of interest from video data presented 425 by the receiving client device 110B and captured by the transmitting client device 110A. Instructions for communication to the transmitting client device 110A may be provided to the online system 140 to modify the video data captured by 110A. This allows the viewing user to change the video data captured 405 by the transmitting client device 110A.

결론conclusion

본 개시내용의 실시예들의 앞서의 서술은 예시의 목적으로 제시되었으며, 총망라하거나 특허권들을 개시된 상세한 형태들에 한정하게 의도된 것은 아니다. 해당 기술분야의 숙련된 자들은 많은 수정된 형태들과 변형들이 위의 개시내용에 비추어 가능함을 알아볼 수 있다.The foregoing description of embodiments of the present disclosure has been presented for purposes of illustration, and is not intended to be exhaustive or to limit the patent rights to the detailed forms disclosed. Those skilled in the art can recognize that many modified forms and variations are possible in light of the above disclosure.

이러한 서술의 몇가지 부분들은 정보에 관한 오퍼레이션들의 상징적인 표현들과 알고리즘들에 의해 본 개시내용의 실시예들을 서술한다. 이들 알고리즘의 서술들 및 표현들은 흔히 데이터 프로세싱 기술에서 숙련된 자들에 의해, 그들의 업무의 요지를 효과적으로 그 분야의 숙련된 자들에게 전달하기 위해, 사용된다. 이들 오퍼레이션들은, 비록 기능적으로, 계산적으로 또는 논리적으로 서술되었지만, 컴퓨터 프로그램들 또는 동등한 전기회로들, 마이크로 코드 등에 의해 수행되는 것으로 이해된다. 또한, 일반성의 상실없이, 모듈들로서 오퍼레이션들의 이들 배열을 언급하는 것은 또한 때때로 편리한 것으로 입증되었다. 서술된 오퍼레이션들 및 그것들의 연관된 모듈들은 소프트웨어, 펌웨어(firmware), 하드웨어, 또는 그것들의 임의의 조합들에서 구현될 수 있다.Several portions of this description describe embodiments of the present disclosure by symbolic representations and algorithms of operations on information. Descriptions and representations of these algorithms are often used by those skilled in data processing techniques to effectively convey the gist of their work to those skilled in the art. It is understood that these operations are performed by computer programs or equivalent electrical circuits, micro code, or the like, although functionally, computationally, or logically described. Furthermore, referring to these arrangements of operations as modules, without loss of generality, has also proven convenient at times. The described operations and their associated modules can be implemented in software, firmware, hardware, or any combinations thereof.

여기서 서술된 단계들, 작업들, 또는 프로세스들 중 어느 것도 하나 또는 그 이상의 하드웨어 또는 소프트웨어 모듈들 단독으로 또는 다른 장치들과 조합하여 실행되거나 수행될 수 있다. 일실시예에서, 소프트웨어 모듈은 컴퓨터 프로그램 코드를 구비한 컴퓨터-판독가능 매체를 포함하는 컴퓨터 프로그램 제품으로 수행되며, 이것은 임의의 또는 모든 서술된 단계들, 오퍼레이션들, 또는 프로세스들을 수행하기 위해 컴퓨터 프로세서에 의해 실행될 수 있다.Any of the steps, tasks, or processes described herein may be executed or performed by one or more hardware or software modules alone or in combination with other devices. In one embodiment, a software module is implemented as a computer program product comprising a computer-readable medium having computer program code, which is a computer processor to perform any or all of the described steps, operations, or processes. Can be executed by

본 개시내용의 실시예들은 또한 본 명세서의 오퍼레이션들을 수행하는 장치에 관한 것일 수 있다. 이러한 장치는 요구되는 목적들을 위해 특별히 구성될 수 있고/있거나 컴퓨터 내에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 일반 목적의 컴퓨팅 장치를 포함할 수 있다. 그러한 컴퓨터 프로그램은 비-일시적이고 형태를 가지는 컴퓨터 판독가능 저장매체 또는 전자 지시들을 저장하는데 적합한 임의의 종류의 매체에 저장될 수 있고, 이것은 컴퓨터 시스템 버스에 연결될 수 있다. 또한, 명세서에 언급된 임의의 컴퓨팅 시스템들은 단일 프로세서를 포함할 수 있거나, 또는 증가된 계산 능력을 위해 다중 프로세서 설계들을 채택하는 아키텍처들일 수 있다.Embodiments of the present disclosure may also relate to an apparatus that performs the operations herein. Such devices may be specially configured for the required purposes and / or may include general purpose computing devices that are selectively activated or reconfigured by computer programs stored in the computer. Such a computer program may be stored on a non-transitory and morphological computer readable storage medium or any kind of medium suitable for storing electronic instructions, which may be connected to a computer system bus. Further, any computing systems mentioned in the specification may include a single processor, or may be architectures that employ multiple processor designs for increased computational power.

실시예들은 또한 여기에 서술된 컴퓨팅 프로세스에 의해 만들어진 제품에 관한 것일 수 있다. 그러한 제품은 컴퓨팅 프로세스로부터 발생되는 정보를 포함할 수 있고, 여기서 정보는 비-일시적이고 형태를 가지는 컴퓨터 판독가능 저장매체상에 저장되며, 컴퓨터 프로그램 제품 또는 여기서 서술된 다른 데이터 조합의 임의의 실시예를 포함할 수 있다.Embodiments may also relate to products made by the computing process described herein. Such a product may include information arising from a computing process, where the information is stored on a non-transitory and tangible computer readable storage medium, and any embodiment of a computer program product or other data combination described herein. It may include.

마지막으로, 본 명세서에서 사용된 언어는 읽기 쉬우며 교육용 목적들로 주로 선택되었고, 특허권들을 상세히 설명하거나, 한정하기 위해 선택된 것은 아닐 수 있다. 그러므로, 특허권들의 범위는 이러한 상세한 서술에 의해 한정되지 않으며, 그에 기초하여 출원 상에서 발표되는 임의의 청구항들에 의해 한정되는 것이다. 따라서, 실시예들의 본 개시내용은 예시적인 것으로 의도되며, 이것은 다음의 청구항들에서 제시된 특허권들의 범위를 한정하는 것은 아니다. Finally, the language used in this specification is easy to read and was mainly selected for educational purposes, and may not be selected to describe or limit patent rights in detail. Therefore, the scope of the patent rights is not limited by this detailed description, but is limited by any claims published in the application based thereon. Accordingly, the present disclosure of the embodiments is intended to be illustrative, and this does not limit the scope of the patent rights set forth in the following claims.

본 발명에 따른 실시예들은, 방법 및 컴퓨터 프로그램 제품을 겨냥하는, 첨부된 청구항들에 특히 개시되어 있고, 하나의 청구항 카테고리, 예를 들어, 방법에서 언급된 임의의 특징은 다른 청구항 카테고리, 예를 들어, 컴퓨터 프로그램 제품, 시스템 및 저장매체에서도 청구될 수 있다. 첨부된 청구항들에서 뒤쪽의 종속항들 또는 인용항들은 형식적인 이유들로만 선택된다. 그러나, 임의의 이전 청구항들(특히, 다중 종속항들) 뒤쪽의 의도적인 인용항으로부터 발생되는 어떠한 주제도 또한 청구될 수 있어서, 청구항들과 그 특징들의 임의의 조합이 개시되며, 첨부된 청구항들에서 선택된 종속항들과 상관없이 청구될 수 있다. 청구될 수 있는 주제는 첨부된 청구항들에서 제시된 특징들의 조합들 뿐 아니라, 청구항들에서의 특징들의 임의의 다른 조합을 포함할 수 있으며, 청구항들에서 언급된 각각의 특징은 청구항들에서의 임의의 다른 특징 또는 다른 특징들의 조합과 결합될 수 있다. 또한, 여기서 묘사되거나 서술된 특징들 및 실시예들중 어느 것도, 분리된 청구항에서 청구될 수 있거나/있고, 여기서 묘사되거나 서술된 임의의 실시예들 또는 특징과도 임의의 조합을 하거나 첨부된 청구항들의 특징들중 어느 것과도 임의의 조합을 하여 청구될 수 있다. Embodiments according to the present invention are particularly disclosed in the appended claims, which are aimed at methods and computer program products, wherein one claim category, e. For example, it may be claimed in computer program products, systems and storage media. Subsequent dependent or cited claims in the appended claims are selected for formal reasons only. However, any subject arising from an intentional recitation claim after any previous claims (in particular, multiple dependent claims) may also be claimed, so any combination of the claims and their features is disclosed, and in the appended claims It can be claimed regardless of the dependent claims selected. The subject matter that may be claimed may include combinations of features presented in the appended claims, as well as any other combination of features in the claims, with each feature mentioned in the claims being any other in the claims. It can be combined with a feature or a combination of other features. In addition, any of the features and embodiments depicted or described herein may be claimed in a separate claim, and / or in any combination with any embodiments or features depicted or described herein or of the appended claims. Any combination of any of the features can be claimed.

본 발명에 따른 실시예에서, 컴퓨터-수행된 방법은: In an embodiment according to the invention, the computer-implemented method comprises:

클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 캡쳐된 비디오 데이터를 제공하는 단계; Providing captured video data of a local area within the field of view of the image capture device included in the client device, the video data comprising captured one or more users of an online system, providing captured video data;

클라이언트에 의해 유지된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터의 특성들에 적용하는 단계;Applying one or more models maintained by the client to the characteristics of the captured video data;

캡쳐된 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 위치시키는 단계;Locating one or more users of the online system included in the captured video data;

비디오 데이터를 온라인 시스템에 전송하는 단계;Transmitting video data to the online system;

캡쳐된 비디오 데이터 내의 관심 사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계Receiving information from an online system that identifies a user of interest in the captured video data.

관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계 : 및 One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. Steps to fix them: and

수정된 하나 또는 그 이상의 파라미터들을 이용하여 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 온라인 시스템에 전송하는 단계를 포함할 수 있다.And transmitting the subsequently captured video data by the image capture device to the online system using the modified one or more parameters.

관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:

관심 사용자를 포함하는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 일부분의 확대를 증가시키는 단계를 포함할 수 있다.And increasing magnification of a portion of the video data subsequently captured by the image capture device including the user of interest.

관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:

관심 사용자를 포함하지 않는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 하나 또는 그 이상의 일부분들을 제거하도록 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data subsequently captured by the video capture device to remove one or more portions of the video data subsequently captured by the video capture device that does not include a user of interest.

관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:

영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계; 및Identifying a user of interest in the video data captured by the image capture device; And

영상 캡쳐 장치의 초점을 관심 사용자에게 재위치시키는 단계를 포함할 수 있다.And repositioning the focus of the image capture device to the user of interest.

영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계는:The steps of identifying a user of interest in the video data captured by the image capture device are:

영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하도록 하나 또는 그 이상의 얼굴 인식 모델들을 적용하는 단계를 포함할 수 있다.And applying one or more face recognition models to identify a user of interest in the video data captured by the image capture device.

영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계는: The steps of identifying a user of interest in the video data captured by the image capture device are:

관심 사용자를 포함하는 캡쳐된 비디오 데이터의 일부분으로부터 컬러 맵을 추출하는 단계를 포함할 수 있다.And extracting a color map from a portion of the captured video data that includes the user of interest.

본 발명에 따른 실시예에서, 컴퓨터-수행된 방법은: In an embodiment according to the invention, the computer-implemented method comprises:

영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터를 수정하도록 온라인 시스템으로부터 지시를 수신하는 단계; 및Receiving an instruction from an online system to modify additional video data captured by the image capture device; And

수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함할 수 있다.And modifying one or more parameters of the image capture device in response to the received instruction.

수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: Modifying one or more parameters of the image capture device in response to the received instruction is:

영상 캡쳐 장치의 시야 내에서 관심 사용자가 움직임에 따라, 영상 캡쳐 장치를 재위치시키는 단계를 포함할 수 있다.And repositioning the image capture device according to a movement of a user of interest within the field of view of the image capture device.

관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:

관심 사용자의 움직임을 식별하는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용하는 단계; 및Applying one or more models to video data subsequently captured by an image capture device that identifies the movement of the user of interest; And

관심 사용자의 식별된 움직임에 기초하여 영상 캡쳐 장치의 시야를 수정하는 단계를 포함할 수 있다.And correcting the field of view of the image capture device based on the identified movement of the user of interest.

본 발명에 따른 실시예에서, 컴퓨터-수행된 방법은: In an embodiment according to the invention, the computer-implemented method comprises:

클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 비디오 데이터를 온라인 시스템에서 수신하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 비디오 데이터를 온라인 시스템에서 수신하는 단계;Receiving, in an online system, video data of a local area within the field of view of the image capture device included in the client device, the video data comprising one or more users of the online system, receiving video data in the online system;

비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계;Retrieving information identifying one or more users of the online system included in the video data;

온라인 시스템의 시청중인 사용자를 식별하는 단계;Identifying a viewing user of the online system;

시청중인 사용자와 연관된 부가적인 클라이언트 장치에, 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보와 비디오 데이터를 전송하는 단계;Transmitting video data and information identifying one or more users of the online system included in the video data to an additional client device associated with the viewing user;

부가적인 클라이언트 장치로부터 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들의 관심 사용자를 식별하는 정보를 수신하는 단계;Receiving information identifying an interested user of one or more users of the online system included in the video data from the additional client device;

관심 사용자를 식별하는 정보를 클라이언트 장치에 전송하는 단계;Transmitting information identifying the user of interest to the client device;

클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터를 수신하는 단계로서, 부가적인 비디오 데이터는 관심 사용자를 더 현저하게 디스플레이하기 위해 크로핑되거나 또는 주밍된 관심 사용자를 포함하는 일부분을 포함하는 부가적인 비디오 데이터를 수신하는 단계; 및 Receiving additional video data captured by the video capture device of the client device, wherein the additional video data includes a portion comprising a cropped or zoomed interest user to more prominently display the interested user. Receiving basic video data; And

부가적인 비디오 데이터를 부가적인 클라이언트 장치에 전송하는 단계를 포함할 수 있다.And transmitting additional video data to the additional client device.

비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:The step of retrieving information identifying one or more users of the online system included in the video data is:

시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 단계; 및Identifying, to the viewing user, users of the online system included in the connected online system through the online system; And

시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 정보를 검색하는 단계를 포함할 수 있다.And retrieving, through the online system, information identifying users of the online system included in the connected online system to the viewing user.

비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:The step of retrieving information identifying one or more users of the online system included in the video data is:

시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 단계; 및Identifying, to the viewing user, users of the online system included in the connected online system through the online system; And

시청중인 사용자에게, 온라인 시스템을 통해, 접속되지 않은 비디오 데이터에 포함된 사용자들로부터, 시청중인 사용자에게, 온라인 시스템을 통해, 접속된 비디오 데이터에 포함된 사용자들을 시각적으로 구별하는 비디오 데이터에 포함된 온라인 시스템의 사용자들을 식별하는 정보를 생성하는 단계를 포함할 수 있다.Included in video data that visually discriminates users included in the connected video data, to users being viewed, from users included in unconnected video data, through the online system, and to viewers. And generating information identifying users of the online system.

비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:The step of retrieving information identifying one or more users of the online system included in the video data is:

비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도를 결정하는 단계; 및 Determining the intimacy of the user being viewed for each user of the online system included in the video data; And

비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함할 수 있다.And generating information identifying each user of the online system included in the video data, based on the intimacy of the user being watched for each user of the online system included in the video data.

비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계는: Based on the familiarity of the user being viewed for each user of the online system included in the video data, the step of generating information identifying each user of the online system included in the video data is:

시청중인 사용자가 적어도 문턱값 친밀도를 가지는, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함할 수 있다.And generating information identifying each user of the online system included in the video data, wherein the viewing user has at least a threshold intimacy.

비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계는:Generating information that identifies each user of the online system included in the video data based on the intimacy of the user being watched for each user of the online system included in the video data includes:

비디오 데이터에 포함된 온라인 시스템의 사용자들에 대한 시청중인 사용자의 친밀도들에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 사용자들을 순위정하는 단계;Ranking users of the online system included in the video data, based on intimacies of the user being watched for users of the online system included in the video data;

순위정하는 단계에서 적어도 문턱값 위치를 가지는 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함할 수 있다.The ranking step may include generating information identifying each user of the online system included in the video data having at least a threshold position.

본 발명에 따른 실시예에서, 컴퓨터-수행된 방법은: In an embodiment according to the invention, the computer-implemented method comprises:

부가적인 클라이언트 장치로부터 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하도록 온라인 시스템에서 지시를 수신하는 단계;Receiving instructions from the online system to modify video data captured by the image capture device of the client device from the additional client device;

지시를 클라이언트 장치에 전송하는 단계;Sending an instruction to the client device;

지시에 기초하여 영상 캡쳐 장치에 의해 캡쳐된 클라이언트 장치로부터 부가적인 비디오 데이터를 수신하는 단계; 및Receiving additional video data from a client device captured by the image capture device based on the instruction; And

부가적인 비디오 데이터를 온라인 시스템으로부터 부가적인 클라이언트 장치로 전송하는 단계를 포함할 수 있다.And transmitting additional video data from the online system to the additional client device.

본 발명에 따른 실시예에서, 프로세서에 의해서 실행될 때 프로세서가 다음의 단계들을 수행하게 할 수 있는, 부호화된 지시들을 그위에 가지는 컴퓨터 판독가능 저장매체를 포함하는, 컴퓨터 프로그램 제품은,In an embodiment according to the present invention, a computer program product comprising a computer readable storage medium having encoded instructions thereon, which, when executed by a processor, may cause the processor to perform the following steps:

클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 캡쳐된 비디오 데이터를 제공하는 단계;Providing captured video data of a local area within the field of view of the image capture device included in the client device, the video data comprising captured one or more users of an online system, providing captured video data;

클라이언트에 의해 유지된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터의 특성들에 적용하는 단계;Applying one or more models maintained by the client to the characteristics of the captured video data;

캡쳐된 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 위치시키는 단계;Locating one or more users of the online system included in the captured video data;

비디오 데이터를 온라인 시스템에 전송하는 단계;Transmitting video data to the online system;

캡쳐된 비디오 데이터 내의 관심 사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계;Receiving information from an online system that identifies a user of interest in the captured video data;

관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계; 및One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. Modifying them; And

수정된 하나 또는 그 이상의 파라미터들을 이용하여 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 온라인 시스템에 전송하는 단계를 수행하게 할 수 있는, 컴퓨터 프로그램 제품이다.It is a computer program product capable of performing a step of transmitting subsequently captured video data by an image capture device to an online system using one or more modified parameters.

관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:

관심 사용자를 포함하지 않는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 하나 또는 그 이상의 일부분들을 제거하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다. And modifying the video data subsequently captured by the video capture device to remove one or more portions of the video data subsequently captured by the video capture device that does not include a user of interest.

관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:

영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계; 및Identifying a user of interest in the video data captured by the image capture device; And

영상 캡쳐 장치의 초점을 관심 사용자에게 재위치시키는 단계를 포함할 수 있다.And repositioning the focus of the image capture device to the user of interest.

본 발명에 따른 실시예에서, 하나 또는 그 이상의 컴퓨터-판독가능 비일시적 저장매체는 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하도록 실행될 때 작동가능한 소프트웨어를 포함할 수 있다.In an embodiment according to the present invention, one or more computer-readable non-transitory storage media are capable of operating software that is operable when executed to perform the method according to the present invention or any of the above-mentioned embodiments. It can contain.

본 발명에 따른 실시예에서, 시스템은:In an embodiment according to the invention, the system comprises:

하나 또는 그 이상의 프로세서들과, 프로세서들에 의해 실행가능한 지시들을 포함하고 프로세서들에 연결된 적어도 하나의 메모리를 포함하고, 프로세서들은 상기에 언급된 실시예들중 임의의 실시예 또는 본 발명에 따른 방법을 수행하기 위한 지시들을 실행할 때 작동가능한 프로세서들이다.One or more processors and at least one memory comprising instructions executable by the processors and coupled to the processors, the processors being any of the above-mentioned embodiments or a method according to the invention These are the processors that are operable when executing the instructions to perform.

본 발명에 따른 실시예에서, 바람직하게는 컴퓨터 판독가능 비일시적 저장매체를 포함하는 컴퓨터 프로그램 제품은, 본 발명에 따른 또는 상기에 언급된 실시예들 중 임의의 실시예에 따른 방법을 수행하기 위해 데이터 프로세싱 시스템 상에서 실행될 때 작동가능할 수 있다In an embodiment according to the present invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, for carrying out the method according to the present invention or according to any of the above-mentioned embodiments May be operable when executed on a data processing system

본 발명에 따른 실시예에서, 특히 컴퓨터 수행된 방법은: In an embodiment according to the invention, in particular a computer-implemented method comprises:

클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 특성들에 기초하여, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에, 온라인 시스템의 사용자의 몸의 어느 일부분이 위치되는지를 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;Maintaining one or more models at the client device, each model being online, in video data captured by the video capture device of the client device, based on characteristics of the video data captured by the video capture device. Maintaining one or more models, applying one or more rules to determine which part of the user's body of the system is located;

클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;Providing captured video data of a local area within a field of view of the image capture device included in the client device;

캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계;Locating a user included in the captured video data;

하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계;Applying one or more maintained models to the captured video data;

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계; 및Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user, based on the application of the one or more models; And

수정된 비디오 데이터를 온라인 시스템에 전송하는 단계를 포함할 수 있다.And transmitting the modified video data to the online system.

하나 또는 그 이상의 모델들의 적용에 기초하여 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user based on the application of the one or more models:

사용자의 몸의 관절들을 식별하는 단계; 및Identifying joints of the user's body; And

하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들에 기초하여, 사용자의 몸의 상이한 일부분들에 대응되는 관절들을 포함하도록 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data captured by the image capture device to include joints corresponding to different parts of the user's body, based on one or more rules included in the one or more models. have.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들의 적용에 기초하여, 사용자의 머리, 사용자의 몸통, 사용자의 전체 몸, 및 그것들의 임의의 조합으로 구성되는 그룹으로부터 선택된 하나 또는 그 이상을 포함하기 위해 비디오 데이터를 수정하는 단계를 포함할 수 있다.Based on the application of one or more rules included in one or more models, one or more selected from the group consisting of the user's head, the user's torso, the user's entire body, and any combination thereof. And modifying the video data to include.

하나 또는 그 이상의 규칙들은, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에서의 사용자의 움직임, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상에 기초할 수 있다.The one or more rules are one selected from the group consisting of the content of the video data previously captured by the video capture device, the user's movement in the video data previously captured by the video capture device, and any combination thereof. Or more.

하나 또는 그 이상의 모델들의 적용에 기초하여 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user based on the application of the one or more models:

하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서의 객체를 향해 사용자가 몸짓(gesturing)을 하고 있다고 결정하는 단계; 및 Determining that the user is gesturing towards an object in the local area from application of one or more models; And

영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 사용자가 몸짓을 하고 있는 방향의 객체와 사용자를 포함하도록, 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함할 수 있다.And reducing the magnification of the image capture device such that additional video data captured by the image capture device includes objects and users in a direction in which the user is gesturing.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 사용자가 객체를 잡고 있다고 결정하는 단계; 및Determining from the application of one or more models that the user is holding the object in the local area; And

객체에 대한 영상 캡쳐 장치의 초점을 변경하고 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함할 수 있다.The method may include changing the focus of the image capture device on the object and increasing the magnification of the image capture device.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 시야에 영향을 주는 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함할 수 있다.And modifying one or more parameters of the image capture device that affect the field of view of the image capture device, based on the application of one or more models.

영상 캡쳐 장치의 파라미터는 영상 캡쳐 장치의 확대를 포함할 수 있다.The parameters of the image capture device may include enlargement of the image capture device.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

식별된 사용자를 포함하는 캡쳐된 비디오 데이터 일부분의 확대를 수정하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data captured by the image capture device to correct an enlargement of a portion of the captured video data that includes the identified user.

캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계는:Steps to locate the user included in the captured video data are:

사용자를 식별하는 온라인 시스템으로부터 정보를 수신하는 단계; 및Receiving information from an online system that identifies the user; And

수신된 정보에 기초하여, 식별된 사용자를 포함하는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 일부분들을 식별하는 단계를 포함할 수 있다.And based on the received information, identifying portions of video data captured by the image capture device including the identified user.

본 발명에 따른 실시예에서, 프로세서에 의해 실행될 때 프로세서가 다음의 단계들을 수행하게 할 수 있는 부호화된 지시들을 그위에 가지는 컴퓨터 판독가능 저장매체를 포함하는, 컴퓨터 프로그램 제품은:In an embodiment according to the present invention, a computer program product comprising a computer readable storage medium thereon having coded instructions that, when executed by a processor, may cause the processor to perform the following steps:

클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 특성들에 기초하여, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에, 사용자의 몸의 어느 일부분이 위치되는지를 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;Maintaining one or more models at the client device, each model based on characteristics of the video data captured by the video capture device, to video data captured by the video capture device of the client device, the user Maintaining one or more models, applying one or more rules to determine which part of the body of the body is located;

클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;Providing captured video data of a local area within a field of view of the image capture device included in the client device;

캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계;Locating a user included in the captured video data;

하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계; 및Applying one or more maintained models to the captured video data; And

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계; 및Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user, based on the application of the one or more models; And

수정된 비디오 데이터를 온라인 시스템에 전송하는 단계를 수행하게 할 수 있는, 컴퓨터 프로그램 제품이다.It is a computer program product that allows the user to perform the steps of transferring modified video data to an online system.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

사용자의 몸의 관절들을 식별하는 단계; 및Identifying joints of the user's body; And

하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들에 기초하여, 사용자의 몸의 상이한 일부분들에 대응되는 관절들을 포함하도록 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data captured by the image capture device to include joints corresponding to different parts of the user's body, based on one or more rules included in the one or more models. have.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들의 적용에 기초하여, 사용자의 머리, 사용자의 몸통, 사용자의 전체 몸, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상을 포함하도록 비디오 데이터를 수정하는 단계를 포함할 수 있다.Based on the application of one or more rules included in one or more models, includes one or more selected from the group consisting of the user's head, the user's torso, the user's entire body, and any combination thereof. It may include the step of modifying the video data.

하나 또는 그 이상의 규칙들은, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에서의 사용자의 움직임, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상에 기초할 수 있다.The one or more rules are one selected from the group consisting of the content of the video data previously captured by the video capture device, the user's movement in the video data previously captured by the video capture device, and any combination thereof. Or more.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 객체를 향해 사용자가 몸짓을 하고 있다고 결정하는 단계; 및Determining from the application of one or more models that the user is gesturing towards the object in the local area; And

사용자가 몸짓을 하고 있는 방향의 객체와 사용자를 영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 포함하도록 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함할 수 있다.And reducing an enlargement of the image capturing device such that the object in the direction in which the user is gesturing and the additional video data captured by the image capturing device are included.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 사용자가 객체를 잡고 있다고 결정하는 단계; 및Determining from the application of one or more models that the user is holding the object in the local area; And

객체에 대한 영상 캡쳐 장치의 초점을 변경하고, 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함할 수 있다.The method may include changing the focus of the image capture device on the object and increasing the magnification of the image capture device.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 시야에 영향을 주는 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함할 수 있다.And modifying one or more parameters of the image capture device that affect the field of view of the image capture device, based on the application of one or more models.

영상 캡쳐 장치의 파라미터는 영상 캡쳐 장치의 확대를 포함할 수 있다.The parameters of the image capture device may include enlargement of the image capture device.

하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:

사용자를 포함하는 캡쳐된 비디오 데이터의 일부분의 확대를 수정하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data captured by the image capture device to correct an enlargement of a portion of the captured video data including the user.

캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계는:Steps to locate the user included in the captured video data are:

사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계; 및Receiving information identifying the user from the online system; And

수신된 정보에 기초하여, 식별된 사용자를 포함하는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 일부분들을 식별하는 단계를 포함할 수 있다.And based on the received information, identifying portions of video data captured by the image capture device including the identified user.

본 발명에 따른 실시예에서, 하나 또는 그 이상의 컴퓨터 판독가능 비일시적 저장매체는 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하도록 실행될 때 작동가능한 소프트웨어를 포함할 수 있다.In embodiments according to the present invention, one or more computer-readable non-transitory storage media include software operable when executed to perform the method according to the present invention or any of the above-mentioned embodiments. can do.

본 발명에 따른 실시예에서, 시스템은: 하나 또는 그 이상의 프로세서들; 및 프로세서들에 의해 실행가능한 지시들을 포함하고 프로세서들에 연결된 적어도 하나의 메모리를 포함할 수 있고, 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하기 위해 지시들을 실행할 때, 프로세서들은 작동가능하다.In an embodiment according to the invention, the system comprises: one or more processors; And instructions executable by the processors and including at least one memory coupled to the processors, the instructions for performing the method according to the present invention or any of the embodiments mentioned above. When running them, the processors are operational.

본 발명에 따른 실시예에서, 바람직하게는 컴퓨터-판독가능 비일시적 저장매체를 포함하는 컴퓨터 프로그램 제품은, 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하기 위해 데이터 프로세싱 시스템상에서 실행될 때 작동가능할 수 있다.In an embodiment according to the present invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs a method according to the present invention or according to any of the above-mentioned embodiments It can be operable when executed on a data processing system.

본 발명에 따른 실시예에서, 특히 컴퓨터 수행된 방법은: In an embodiment according to the invention, in particular a computer-implemented method comprises:

클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 사용자들을 위치시키기 위해 하나 또는 그 이상의 규칙들을 적용하고, 캡쳐된 비디오 데이터에서 보여줄 하나 또는 그 이상의 위치된 사용자들을 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;Maintaining one or more models at the client device, each model applying one or more rules to locate users in the video data captured by the video capture device of the client device, and captured video data Maintaining one or more models, applying one or more rules to determine one or more located users to show in;

클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 비디오 데이터를 캡쳐하는 단계;Capturing video data of a local area within a field of view of the image capture device included in the client device;

캡쳐된 비디오 데이타에서 복수의 사용자들을 위치시키는 단계;Locating a plurality of users in the captured video data;

하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계; 및Applying one or more maintained models to the captured video data; And

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계; 및Modifying the captured video data to show one or more located users based on the application of one or more maintained models; And

수정된 비디오 데이터를 클라이언트 장치로부터 온라인 시스템으로 전송하는 단계를 포함할 수 있다.And transmitting the modified video data from the client device to the online system.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계; 및Modifying one or more parameters of the image capture device based on application of the one or more maintained models; And

영상 캡쳐 장치의 수정된 하나 또는 그 이상의 파라미터들을 이용하여 국지 영역의 부가적인 비디오 데이터를 캡쳐하는 단계를 포함할 수 있다.And capturing additional video data of the local area using the modified one or more parameters of the image capture device.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자들의 시선들이 향해지는, 캡쳐된 비디오 데이터 내의 위치들을 결정하는 단계; 및Determining from the application of one or more maintained models, locations in the captured video data to which the eyes of the located users are directed; And

적어도 문턱값 양의 위치된 사용자들의 시선들이 향해지는, 위치된 사용자 사람에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And correcting the focus of the image capture device with respect to the positioned user person, at least a threshold amount of the positioned users' gazes are directed.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

캡쳐된 비디오 데이터 내에 위치된 상이한 사용자들 간의 거리들을 결정하는 단계; 및Determining distances between different users located in the captured video data; And

부가적인 캡쳐된 비디오 데이터가 서로의 문턱값 거리 내의 사용자들을 포함하도록, 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And modifying the focus of the image capture device so that the additional captured video data includes users within a threshold distance from each other.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

클라이언트 장치에 포함된 오디오 캡쳐 장치를 통해 오디오 데이터를 캡쳐하는 단계;Capturing audio data through an audio capture device included in the client device;

하나 또는 그 이상의 유지된 모델들을 캡쳐된 오디오 데이터와 캡쳐된 비디오 데이터에 적용함으로써 국지 영역 내의 오디오 데이터의 소스를 결정하는 단계;Determining a source of audio data in the local area by applying one or more maintained models to the captured audio data and the captured video data;

국지 영역 내의 오디오 데이터의 소스가 사용자라고 결정하는 단계; 및Determining that the source of the audio data in the local area is a user; And

국지 영역 내의 오디오 데이터의 소스가 사용자라고 결정하는 단계에 응답하여, 오디오 데이터의 소스에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And in response to determining that the source of the audio data in the local area is a user, modifying the focus of the image capture device with respect to the source of the audio data.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계; 및Identifying, from the application of one or more maintained models, the movement of the located user; And

위치된 사용자의 식별된 움직임에 기초하여, 영상 캡쳐 장치의 시야를 수정하는 단계를 포함할 수 있다.And modifying the field of view of the image capture device based on the identified movement of the located user.

하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계는:From the application of one or more maintained models, the step of identifying the movement of the located user is:

국지 영역에 포함된 객체를 향해 위치된 사용자가 몸짓을 하고 있다고 식별하는 단계를 포함할 수 있다And identifying that the user located toward the object included in the local area is gesturing.

영상 캡쳐 장치의 시야를 수정하는 단계는:The steps to modify the field of view of the video capture device are:

영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 위치된 사용자와 위치된 사용자가 몸짓을 하고 있는 방향의 객체를 포함하도록 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함할 수 있다.And reducing the enlargement of the image capture device to include the user in which the additional video data captured by the image capture device is located and the object in which the located user is gesturing.

하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계는:From the application of one or more maintained models, the step of identifying the movement of the located user is:

하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자가 국지 영역에서 객체를 잡고 있다고 결정하는 단계를 포함할 수 있다.And, from the application of one or more maintained models, determining that the located user is holding the object in the local area.

영상 캡쳐 장치의 시야를 수정하는 단계는:The steps to modify the field of view of the video capture device are:

객체에 대한 영상 캡쳐 장치의 초점을 변경하고 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함할 수 있다.The method may include changing the focus of the image capture device on the object and increasing the magnification of the image capture device.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

각각의 위치된 사용자가 적어도 문턱값 양의 시간동안 적어도 문턱값 세트의 차원들로, 캡쳐된 비디오 데이터 내에 제시되도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the captured video data such that each positioned user is presented within the captured video data, at least in the dimensions of the threshold set, for at least a threshold amount of time.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

각각의 위치된 사용자가 적어도 문턱값 양의 시간동안, 캡쳐된 비디오 데이터 내에 제시되도록, 캡쳐된 비디오를 수정하는 단계를 포함할 수 있다.And modifying the captured video such that each positioned user is presented within the captured video data, at least for a threshold amount of time.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

하나 또는 그 이상의 유지된 모델들의 적용으로부터, 캡쳐된 비디오 데이터 내의 사용자의 얼굴을 식별하는 단계; Identifying a user's face in the captured video data from application of one or more maintained models;

사용자의 얼굴을 포함하지 않는, 캡쳐된 비디오 데이터의 일부분들을 제거하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the captured video data to remove portions of the captured video data that do not include the user's face.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

위치된 사용자들의 각각을 포함하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the captured video data to include each of the located users.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

하나 또는 그 이상의 유지된 모델들의 적용에 의해, 캡쳐된 비디오 데이터를 안정시키는 단계를 포함할 수 있다. Stabilizing the captured video data by application of one or more maintained models.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

캡쳐된 비디오 데이터 내의 위치된 사용자를, 캡쳐된 비디오 데이터에 의해 적어도 문턱값 세트의 차원들로 이전에 제시되었던 캡쳐된 비디오 데이터에 포함된 사용자들을 서술하는 저장된 데이터와 비교하는 단계; 및Comparing the located user in the captured video data to stored data describing users included in the captured video data previously presented by the captured video data in dimensions of at least a threshold set; And

캡쳐된 비디오 데이터를 수정하는 단계로서, 식별된 사용자가, 캡쳐된 비디오 데이터에 의해 적어도 문턱값 세트의 차원들로 이전에 있었던, 캡쳐된 비디오 데이터에 포함된 사용자에 매칭되지 않는다고 결정하는 비교에 응답하여, 위치된 사람을 더 현저하게 제시하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다. Modifying the captured video data, in response to a comparison determining that the identified user does not match the user included in the captured video data, which was previously at least by the dimensions of the threshold set by the captured video data. Thus, it may include modifying the captured video data to present the positioned person more prominently.

본 발명에 따른 실시예에서, 프로세서에 의해서 실행될 때, 프로세서가 다음의 단계들을 수행하게 할 수 있는, 부호화된 지시들을 그 위에 가지는 컴퓨터 판독가능 저장매체를 포함하는 컴퓨터 프로그램 제품은,In an embodiment according to the present invention, a computer program product comprising a computer readable storage medium having encoded instructions thereon, which, when executed by a processor, may cause the processor to perform the following steps,

클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 사용자들을 위치시키기 위해 하나 또는 그 이상의 규칙들을 적용하고, 비디오 데이터의 특성들로부터, 캡쳐된 비디오 데이터에서 보여줄 하나 또는 그 이상의 위치된 사용자들을 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;Maintaining one or more models at the client device, each model applying one or more rules to locate users in the video data captured by the video capture device of the client device, and the characteristics of the video data. Maintaining, from one or more models, applying one or more rules to determine one or more located users to show in the captured video data;

클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 비디오 데이터를 캡쳐하는 단계;Capturing video data of a local area within a field of view of the image capture device included in the client device;

캡쳐된 비디오 데이터에서 복수의 사용자들을 위치시키는 단계;Locating a plurality of users in the captured video data;

하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오에 적용하는 단계; 및Applying one or more maintained models to the captured video; And

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계; 및Modifying the captured video data to show one or more located users based on the application of one or more maintained models; And

수정된 비디오 데이터를 클라이언트 장치로부터 온라인 시스템으로 전송하는 단계를 수행하게 할 수 있는, 컴퓨터 프로그램 제품이다.It is a computer program product capable of performing the steps of transferring modified video data from a client device to an online system.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자들의 시선들이 향해지는, 캡쳐된 비디오 데이터 내의 위치들을 결정하는 단계;Determining from the application of one or more maintained models, locations in the captured video data to which the eyes of the located users are directed;

적어도 문턱값 양의 식별된 사람들의 시선들이 향해지는, 위치된 사람에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And correcting the focus of the image capture device for the located person, at least a threshold amount of the identified people's gazes are directed.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

캡쳐된 비디오 데이터 내에 위치된 상이한 사용자들 간의 거리들을 결정하는 단계; 및Determining distances between different users located in the captured video data; And

부가적인 캡쳐된 비디오 데이터가 서로의 문턱값 거리 내의 사람들을 포함하도록, 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And modifying the focus of the image capture device so that the additional captured video data includes people within a threshold distance from each other.

하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:

클라이언트 장치에 포함된 오디오 캡쳐 장치를 통해 오디오 데이터를 캡쳐하는 단계;Capturing audio data through an audio capture device included in the client device;

하나 또는 그 이상의 유지된 모델들을 캡쳐된 오디오 데이터와 캡쳐된 비디오 데이터에 적용함으로써 국지 영역 내의 오디오 데이터의 소스를 결정하는 단계; Determining a source of audio data in the local area by applying one or more maintained models to the captured audio data and the captured video data;

국지 영역 내의 오디오 데이터의 소스가 위치된 사용자라고 결정하는 단계; 및Determining that a source of audio data in the local area is a located user; And

국지 영역 내의 오디오 데이터의 소스가 위치된 사용자라고 결정하는 단계에 응답하여, 오디오 데이터의 소스에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And in response to determining that the source of the audio data in the local area is a user located, modifying the focus of the image capture device with respect to the source of the audio data.

본 발명에 따른 실시예에서, 하나 또는 그 이상의 컴퓨터-판독가능 비일시적 저장매체는 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하기 위해 실행될때 작동가능한 소프트웨어를 포함할 수 있다.In an embodiment according to the invention, one or more computer-readable non-transitory storage media are software operable when executed to carry out the method according to the invention or any of the above-mentioned embodiments It may include.

본 발명에 따른 실시예에서, 시스템은: 하나 또는 그 이상의 프로세서들; 및 프로세서들에 연결되고, 프로세서들에 의해 실행가능한 지시들을 포함하는, 적어도 하나의 메모리를 포함할 수 있고, 프로세서들은 상기에 언급된 실시예들중 임의의 실시예에 따른 또는 본 발명에 따른 방법을 수행하기 위해 지시들을 실행할 때 작동가능하다.In an embodiment according to the invention, the system comprises: one or more processors; And at least one memory coupled to the processors and including instructions executable by the processors, the processors according to any of the above-mentioned embodiments or a method according to the invention It is operable when executing instructions to carry out.

본 발명에 따른 실시예에서, 바람직하게는 컴퓨터-판독가능 비일시적 저장매체를 포함하는 컴퓨터 프로그램 제품은, 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하기 위해 데이터 프로세싱 시스템 상에서 실행될 때 작동가능할 수 있다.In an embodiment according to the present invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs a method according to the present invention or according to any of the above-mentioned embodiments It may be operable when executed on a data processing system.

Claims (60)

컴퓨터-수행된 방법으로서:
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 캡쳐된 비디오 데이터를 제공하는 단계;
클라이언트에 의해 유지된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터의 특성들에 적용하는 단계;
캡쳐된 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 위치시키는 단계;
비디오 데이터를 온라인 시스템에 전송하는 단계;
캡쳐된 비디오 데이터 내의 관심 사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계 : 및
수정된 하나 또는 그 이상의 파라미터들을 이용하여 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 온라인 시스템에 전송하는 단계를 포함하는, 컴퓨터-수행된 방법.
As a computer-implemented method:
Providing captured video data of a local area within the field of view of the image capture device included in the client device, the video data comprising one or more users of the online system, providing captured video data;
Applying one or more models maintained by the client to the characteristics of the captured video data;
Locating one or more users of the online system included in the captured video data;
Transmitting video data to the online system;
Receiving information from an online system that identifies a user of interest in the captured video data.
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. Steps to fix them: and
And transmitting the subsequently captured video data by the image capture device to the online system using the modified one or more parameters.
제 1 항에 있어서,
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
관심 사용자를 포함하는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 일부분의 확대를 증가시키는 단계를 포함하는, 컴퓨터-수행된 방법.
According to claim 1,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
And increasing the magnification of a portion of the video data subsequently captured by the image capture device comprising the user of interest.
제 1 항 또는 제 2 항에 있어서,
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
관심 사용자를 포함하지 않는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 하나 또는 그 이상의 일부분들을 제거하도록 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 1 or 2,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
Computer-implemented, comprising modifying the video data subsequently captured by the video capture device to remove one or more portions of the video data subsequently captured by the video capture device that does not include a user of interest. Way.
제 1 항 내지 제 3 항중 어느 한 항에 있어서,
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계; 및
영상 캡쳐 장치의 초점을 관심 사용자에게 재위치시키는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 1 to 3,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
Identifying a user of interest in the video data captured by the image capture device; And
And repositioning the focus of the image capture device to the user of interest.
제 4 항에 있어서,
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계는:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하도록 하나 또는 그 이상의 얼굴 인식 모델들을 적용하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 4,
The steps of identifying a user of interest in the video data captured by the image capture device are:
And applying one or more facial recognition models to identify a user of interest in the video data captured by the image capture device.
제 4 항에 있어서,
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계는:
관심 사용자를 포함하는 캡쳐된 비디오 데이터의 일부분으로부터 컬러 맵을 추출하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 4,
The steps of identifying a user of interest in the video data captured by the image capture device are:
And extracting a color map from a portion of the captured video data that includes the user of interest.
제 1 항 내지 제 6 항중 어느 한 항에 있어서,
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터를 수정하도록 온라인 시스템으로부터 지시를 수신하는 단계; 및
수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 더 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 1 to 6,
Receiving an instruction from an online system to modify additional video data captured by the image capture device; And
And modifying one or more parameters of the image capture device in response to the received instruction.
제 7 항에 있어서,
수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
영상 캡쳐 장치의 시야 내에서 관심 사용자가 움직임에 따라, 영상 캡쳐 장치를 재위치시키는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 7,
Modifying one or more parameters of the image capture device in response to the received instruction is:
And repositioning the image capture device as a user of interest moves within the field of view of the image capture device.
제 7 항에 있어서,
수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
영상 캡쳐 장치의 시야 내에서 관심 사용자가 움직임에 따라, 영상 캡쳐 장치를 재위치시키는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 7,
Modifying one or more parameters of the image capture device in response to the received instruction is:
And repositioning the image capture device as a user of interest moves within the field of view of the image capture device.
제 1 항 내지 제 9 항중 어느 한 항에 있어서,
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
관심 사용자의 움직임을 식별하는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용하는 단계; 및
관심 사용자의 식별된 움직임에 기초하여 영상 캡쳐 장치의 시야를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 1 to 9,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
Applying one or more models to video data subsequently captured by an image capture device that identifies the movement of the user of interest; And
And modifying the field of view of the image capture device based on the identified movement of the user of interest.
컴퓨터-수행된 방법으로서:
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 비디오 데이터를 온라인 시스템에서 수신하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 비디오 데이터를 온라인 시스템에서 수신하는 단계;
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계;
온라인 시스템의 시청중인 사용자를 식별하는 단계;
시청중인 사용자와 연관된 부가적인 클라이언트 장치에, 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보와 비디오 데이터를 전송하는 단계;
부가적인 클라이언트 장치로부터 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들의 관심 사용자를 식별하는 정보를 수신하는 단계;
관심 사용자를 식별하는 정보를 클라이언트 장치에 전송하는 단계;
클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터를 수신하는 단계로서, 부가적인 비디오 데이터는 관심 사용자를 더 현저하게 디스플레이하기 위해 크로핑되거나 또는 주밍된 관심 사용자를 포함하는 일부분을 포함하는 부가적인 비디오 데이터를 수신하는 단계; 및
부가적인 비디오 데이터를 부가적인 클라이언트 장치에 전송하는 단계를 포함하는, 컴퓨터-수행된 방법.
As a computer-implemented method:
Receiving, in an online system, video data of a local area within the field of view of the image capture device included in the client device, the video data comprising one or more users of the online system, receiving video data in the online system;
Retrieving information identifying one or more users of the online system included in the video data;
Identifying a viewing user of the online system;
Transmitting video data and information identifying one or more users of the online system included in the video data to an additional client device associated with the viewing user;
Receiving information identifying an interested user of one or more users of the online system included in the video data from the additional client device;
Transmitting information identifying the user of interest to the client device;
Receiving additional video data captured by the image capture device of the client device, wherein the additional video data includes a portion comprising a cropped or zoomed interested user to more prominently display the interested user. Receiving basic video data; And
And sending the additional video data to an additional client device.
제 11 항에 있어서,
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 단계; 및
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 정보를 검색하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 11,
Searching for information identifying one or more users of the online system included in the video data includes:
Identifying, to a viewing user, users of the online system included in the connected online system through the online system; And
And retrieving to the viewing user, through the online system, information identifying users of the online system included in the connected online system.
제 11 항 또는 제 12 항에 있어서,
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 단계; 및
시청중인 사용자에게, 온라인 시스템을 통해, 접속되지 않은 비디오 데이터에 포함된 사용자들로부터, 시청중인 사용자에게, 온라인 시스템을 통해, 접속된 비디오 데이터에 포함된 사용자들을 시각적으로 구별하는 비디오 데이터에 포함된 온라인 시스템의 사용자들을 식별하는 정보를 생성하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 11 or 12,
Searching for information identifying one or more users of the online system included in the video data includes:
Identifying, to a viewing user, users of the online system included in the connected online system through the online system; And
Included in video data that visually discriminates users included in the connected video data, from the users included in unconnected video data, to the viewing user, through the online system, to the viewing users, through the online system And generating information identifying users of the online system.
제 11 항 내지 제 13 항중 어느 한 항에 있어서,
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도를 결정하는 단계; 및
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 11 to 13,
Searching for information identifying one or more users of the online system included in the video data includes:
Determining the intimacy of the user being viewed for each user of the online system included in the video data; And
And generating information identifying each user of the online system included in the video data, based on the intimacy of the user being watched for each user of the online system included in the video data. .
제 14 항에 있어서,
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계는:
시청중인 사용자가 적어도 문턱값 친밀도를 가지는, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 14,
Based on the familiarity of the user being watched for each user of the online system included in the video data, the step of generating information identifying each user of the online system included in the video data is:
And generating information identifying each user of the online system included in the video data, wherein the viewing user has at least a threshold intimacy.
제 14 항에 있어서,
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계는:
비디오 데이터에 포함된 온라인 시스템의 사용자들에 대한 시청중인 사용자의 친밀도들에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 사용자들을 순위정하는 단계;
순위정하는 단계에서 적어도 문턱값 위치를 가지는 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 14,
Generating information that identifies each user of the online system included in the video data based on the intimacy of the user being watched for each user of the online system included in the video data includes:
Ranking users of the online system included in the video data, based on intimacies of the user being viewed with respect to users of the online system included in the video data;
And in the ranking step, generating information identifying each user of the online system included in the video data having at least a threshold location.
제 11 항 내지 제 16 항중 어느 한 항에 있어서,
부가적인 클라이언트 장치로부터 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하도록 온라인 시스템에서 지시를 수신하는 단계;
지시를 클라이언트 장치에 전송하는 단계;
지시에 기초하여 영상 캡쳐 장치에 의해 캡쳐된 클라이언트 장치로부터 부가적인 비디오 데이터를 수신하는 단계; 및
부가적인 비디오 데이터를 온라인 시스템으로부터 부가적인 클라이언트 장치로 전송하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 11 to 16,
Receiving instructions from the online system to modify video data captured by the image capture device of the client device from the additional client device;
Sending an instruction to the client device;
Receiving additional video data from a client device captured by the image capture device based on the instruction; And
And transmitting additional video data from the online system to the additional client device.
프로세서에 의해서 실행될 때 프로세서가 다음의 단계들을 수행하게 하는, 부호화된 지시들을 그위에 가지는 컴퓨터 판독가능 저장매체를 포함하는, 컴퓨터 프로그램 제품으로서,
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 캡쳐된 비디오 데이터를 제공하는 단계;
클라이언트에 의해 유지된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터의 특성들에 적용하는 단계;
캡쳐된 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 위치시키는 단계;
비디오 데이터를 온라인 시스템에 전송하는 단계;
캡쳐된 비디오 데이터 내의 관심 사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계;
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계; 및
수정된 하나 또는 그 이상의 파라미터들을 이용하여 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 온라인 시스템에 전송하는 단계를 프로세서가 수행하게 하는, 컴퓨터 프로그램 제품.
A computer program product comprising a computer readable storage medium having coded instructions thereon that, when executed by a processor, causes the processor to perform the following steps:
Providing captured video data of a local area within the field of view of the image capture device included in the client device, the video data comprising captured one or more users of an online system, providing captured video data;
Applying one or more models maintained by the client to the characteristics of the captured video data;
Locating one or more users of the online system included in the captured video data;
Transmitting video data to the online system;
Receiving information from an online system that identifies a user of interest in the captured video data;
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. Modifying them; And
A computer program product that causes a processor to perform the step of transmitting the video data subsequently captured by the image capture device to the online system using the modified one or more parameters.
제 18 항에 있어서,
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
관심 사용자를 포함하지 않는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 하나 또는 그 이상의 일부분들을 제거하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method of claim 18,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
And modifying the video data subsequently captured by the video capture device to remove one or more portions of video data subsequently captured by the video capture device that does not include the user of interest. .
제 18 항 또는 제 19 항에 있어서,
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계; 및
영상 캡쳐 장치의 초점을 관심 사용자에게 재위치시키는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method of claim 18 or 19,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
Identifying a user of interest in the video data captured by the image capture device; And
And repositioning the focus of the image capture device to the user of interest.
컴퓨터-수행된 방법으로서:
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 특성들에 기초하여, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에, 온라인 시스템의 사용자의 몸의 어느 일부분이 위치되는지를 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계;
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
As a computer-implemented method:
Maintaining one or more models at the client device, each model being online, in video data captured by the video capture device of the client device, based on characteristics of the video data captured by the video capture device. Maintaining one or more models, applying one or more rules to determine which part of the user's body of the system is located;
Providing captured video data of a local area within a field of view of the image capture device included in the client device;
Locating a user included in the captured video data;
Applying one or more maintained models to the captured video data;
Based on the application of the one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user. , Computer-implemented method.
제 21 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
사용자의 몸의 관절들을 식별하는 단계; 및
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들에 기초하여, 사용자의 몸의 상이한 일부분들에 대응되는 관절들을 포함하도록 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 21,
Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user based on the application of the one or more models:
Identifying joints of the user's body; And
Based on one or more rules included in the one or more models, modifying the video data captured by the image capture device to include joints corresponding to different parts of the user's body, Computer-implemented method.
제 21 항 또는 제 22 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들의 적용에 기초하여, 사용자의 머리, 사용자의 몸통, 사용자의 전체 몸, 및 그것들의 임의의 조합으로 구성되는 그룹으로부터 선택된 하나 또는 그 이상을 포함하기 위해 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 21 or 22,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Based on the application of one or more rules included in one or more models, one or more selected from the group consisting of the user's head, the user's torso, the user's entire body, and any combination thereof. A computer-implemented method comprising modifying video data to include.
제 21 항 내지 제 23 항중 어느 한 항에 있어서,
하나 또는 그 이상의 규칙들은, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에서의 사용자의 움직임, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상에 기초하는, 컴퓨터-수행된 방법.
The method according to any one of claims 21 to 23,
The one or more rules are one selected from the group consisting of the content of the video data previously captured by the video capture device, the user's movement in the video data previously captured by the video capture device, and any combination thereof. Or more, a computer-implemented method.
제 21 항 내지 제 24 항중 어느 한 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서의 객체를 향해 사용자가 몸짓(gesturing)을 하고 있다고 결정하는 단계; 및
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 사용자가 몸짓을 하고 있는 방향의 객체와 사용자를 포함하도록, 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 21 to 24,
Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user based on the application of the one or more models:
Determining that the user is gesturing towards an object in the local area from application of one or more models; And
And reducing the magnification of the image capture device such that additional video data captured by the image capture device includes objects and users in a direction in which the user is gesturing.
제 21 항 내지 제 25 항중 어느 한 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 사용자가 객체를 잡고 있다고 결정하는 단계; 및
객체에 대한 영상 캡쳐 장치의 초점을 변경하고 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 21 to 25,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Determining from the application of one or more models that the user is holding the object in the local area; And
And changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
제 21 항 내지 제 26 항중 어느 한 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 시야에 영향을 주는 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 21 to 26,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
And modifying one or more parameters of the image capture device that affect the field of view of the image capture device, based on the application of one or more models.
제 27 항에 있어서,
영상 캡쳐 장치의 파라미터는 영상 캡쳐 장치의 확대를 포함하는, 컴퓨터-수행된 방법.
The method of claim 27,
A computer-implemented method, wherein the parameters of the image capture device include an enlargement of the image capture device.
제 21 항 내지 제 29 항중 어느 한 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
식별된 사용자를 포함하는 캡쳐된 비디오 데이터 일부분의 확대를 수정하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 21 to 29,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
And modifying the video data captured by the image capture device to modify the magnification of the portion of the captured video data that includes the identified user.
제 21 항 내지 제 30 항중 어느 한 항에 있어서,
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계는:
사용자를 식별하는 온라인 시스템으로부터 정보를 수신하는 단계; 및
수신된 정보에 기초하여, 식별된 사용자를 포함하는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 일부분들을 식별하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 21 to 30,
Steps to locate the user included in the captured video data are:
Receiving information from an online system that identifies the user; And
And based on the received information, identifying portions of video data captured by the image capture device comprising the identified user.
프로세서에 의해 실행될 때 프로세서가 다음의 단계들을 수행하게 하는 부호화된 지시들을 그위에 가지는 컴퓨터 판독가능 저장매체를 포함하는, 컴퓨터 프로그램 제품으로서:
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 특성들에 기초하여, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에, 사용자의 몸의 어느 일부분이 위치되는지를 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계; 및
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 수행하게 하는, 컴퓨터 프로그램 제품.
A computer program product comprising a computer readable storage medium thereon having coded instructions that, when executed by a processor, cause the processor to perform the following steps:
Maintaining one or more models at the client device, each model based on characteristics of the video data captured by the video capture device, to video data captured by the video capture device of the client device, the user Maintaining one or more models, applying one or more rules to determine which part of the body of the body is located;
Providing captured video data of a local area within a field of view of the image capture device included in the client device;
Locating a user included in the captured video data;
Applying one or more maintained models to the captured video data; And
Based on the application of one or more models, performing a step of modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user To do, computer program products.
제 31 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
사용자의 몸의 관절들을 식별하는 단계; 및
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들에 기초하여, 사용자의 몸의 상이한 일부분들에 대응되는 관절들을 포함하도록 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method of claim 31,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Identifying joints of the user's body; And
Based on one or more rules included in the one or more models, modifying the video data captured by the image capture device to include joints corresponding to different parts of the user's body, Computer program products.
제 31 항 또는 제 32 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들의 적용에 기초하여, 사용자의 머리, 사용자의 몸통, 사용자의 전체 몸, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상을 포함하도록 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method of claim 31 or 32,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Based on the application of one or more rules included in one or more models, includes one or more selected from the group consisting of the user's head, the user's torso, the user's entire body, and any combination thereof. A computer program product comprising the step of modifying the video data to be.
제 33 항에 있어서,
하나 또는 그 이상의 규칙들은, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에서의 사용자의 움직임, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상에 기초하는, 컴퓨터 프로그램 제품.
The method of claim 33,
The one or more rules are one selected from the group consisting of the content of the video data previously captured by the video capture device, the user's movement in the video data previously captured by the video capture device, and any combination thereof. A computer program product based on or more.
제 31 항 내지 제 34 항중 어느 한 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 객체를 향해 사용자가 몸짓을 하고 있다고 결정하는 단계; 및
사용자가 몸짓을 하고 있는 방향의 객체와 사용자를 영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 포함하도록 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method according to any one of claims 31 to 34,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Determining from the application of one or more models that the user is gesturing towards the object in the local area; And
And reducing the magnification of the image capture device such that the object in the direction in which the user is gesturing and the additional video data captured by the image capture device include the user.
제 31 항 내지 제 35 항중 어느 한 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 사용자가 객체를 잡고 있다고 결정하는 단계; 및
객체에 대한 영상 캡쳐 장치의 초점을 변경하고, 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method according to any one of claims 31 to 35,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Determining from the application of one or more models that the user is holding the object in the local area; And
And changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
제 31 항 내지 제 36 항중 어느 한 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 시야에 영향을 주는 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method according to any one of claims 31 to 36,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
And modifying one or more parameters of the image capture device that affect the field of view of the image capture device, based on the application of the one or more models.
제 37 항에 있어서,
영상 캡쳐 장치의 파라미터는 영상 캡쳐 장치의 확대를 포함하는, 컴퓨터 프로그램 제품.
The method of claim 37,
A computer program product, wherein the parameters of the image capture device include an enlargement of the image capture device.
제 31 항 내지 제 38 항중 어느 한 항에 있어서,
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
사용자를 포함하는 캡쳐된 비디오 데이터의 일부분의 확대를 수정하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method according to any one of claims 31 to 38,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
And modifying the video data captured by the image capture device to modify an enlargement of a portion of the captured video data comprising the user.
제 31 항 내지 제 39 항중 어느 한 항에 있어서,
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계는:
사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계; 및
수신된 정보에 기초하여, 식별된 사용자를 포함하는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 일부분들을 식별하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method according to any one of claims 31 to 39,
Steps to locate the user included in the captured video data are:
Receiving information identifying the user from the online system; And
And based on the received information, identifying portions of video data captured by the image capture device comprising the identified user.
컴퓨터-수행된 방법으로서:
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 사용자들을 위치시키기 위해 하나 또는 그 이상의 규칙들을 적용하고, 캡쳐된 비디오 데이터에서 보여줄 하나 또는 그 이상의 위치된 사용자들을 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;
캡쳐된 비디오 데이타에서 복수의 사용자들을 위치시키는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계; 및
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
As a computer-implemented method:
Maintaining one or more models at the client device, each model applying one or more rules to locate users in the video data captured by the video capture device of the client device, and captured video data Maintaining one or more models, applying one or more rules to determine one or more located users to show in;
Providing captured video data of a local area within a field of view of the image capture device included in the client device;
Locating a plurality of users in the captured video data;
Applying one or more maintained models to the captured video data; And
And modifying the captured video data to show one or more located users, based on the application of one or more maintained models.
제 41 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계; 및
영상 캡쳐 장치의 수정된 하나 또는 그 이상의 파라미터들을 이용하여 국지 영역의 부가적인 비디오 데이터를 캡쳐하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 41,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Modifying one or more parameters of the image capture device based on application of the one or more maintained models; And
And capturing additional video data of the local area using the modified one or more parameters of the image capture device.
제 41 항 또는 제 42 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자들의 시선들이 향해지는, 캡쳐된 비디오 데이터 내의 위치들을 결정하는 단계; 및
적어도 문턱값 양의 위치된 사용자들의 시선들이 향해지는, 위치된 사용자 사람에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 41 or 42,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Determining from the application of one or more maintained models, locations in the captured video data to which the eyes of the located users are directed; And
And modifying the focus of the image capture device relative to the positioned user person, at least a threshold amount of positioned users' gazes are directed.
제 41 항 내지 제 43 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
캡쳐된 비디오 데이터 내에 위치된 상이한 사용자들 간의 거리들을 결정하는 단계; 및
부가적인 캡쳐된 비디오 데이터가 서로의 문턱값 거리 내의 사용자들을 포함하도록, 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 43,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Determining distances between different users located in the captured video data; And
And modifying the focus of the image capture device, such that the additional captured video data includes users within a threshold distance from each other.
제 41 항 내지 제 44 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
클라이언트 장치에 포함된 오디오 캡쳐 장치를 통해 오디오 데이터를 캡쳐하는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 오디오 데이터와 캡쳐된 비디오 데이터에 적용함으로써 국지 영역 내의 오디오 데이터의 소스를 결정하는 단계;
국지 영역 내의 오디오 데이터의 소스가 사용자라고 결정하는 단계; 및
국지 영역 내의 오디오 데이터의 소스가 사용자라고 결정하는 단계에 응답하여, 오디오 데이터의 소스에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 44,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Capturing audio data through an audio capture device included in the client device;
Determining a source of audio data in the local area by applying one or more maintained models to the captured audio data and the captured video data;
Determining that the source of the audio data in the local area is a user; And
And in response to determining that the source of audio data in the local area is a user, modifying the focus of the image capture device relative to the source of audio data.
제 41 항 내지 제 45 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계; 및
위치된 사용자의 식별된 움직임에 기초하여, 영상 캡쳐 장치의 시야를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 45,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Identifying, from the application of one or more maintained models, the movement of the located user; And
And modifying the field of view of the image capture device based on the identified movement of the located user.
제 46 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계는:
국지 영역에 포함된 객체를 향해 위치된 사용자가 몸짓을 하고 있다고 식별하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 46,
From the application of one or more maintained models, the step of identifying the movement of the located user is:
And identifying that the user located towards the object included in the local area is gesturing.
제 47 항에 있어서,
영상 캡쳐 장치의 시야를 수정하는 단계는:
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 위치된 사용자와 위치된 사용자가 몸짓을 하고 있는 방향의 객체를 포함하도록 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 47,
The steps to modify the field of view of the video capture device are:
And reducing magnification of the image capture device to include the user in which the additional video data captured by the image capture device is located and the object in which the located user is gesturing.
제 46 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자가 국지 영역에서 객체를 잡고 있다고 결정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 46,
From the application of one or more maintained models, the step of identifying the movement of the located user is:
And, from the application of one or more maintained models, determining that the located user is holding the object in the local area.
제 49 항에 있어서,
영상 캡쳐 장치의 시야를 수정하는 단계는:
객체에 대한 영상 캡쳐 장치의 초점을 변경하고 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함하는, 컴퓨터-수행된 방법.
The method of claim 49,
The steps to modify the field of view of the video capture device are:
And changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
제 41 항 내지 제 50 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
각각의 위치된 사용자가 적어도 문턱값 양의 시간동안 적어도 문턱값 세트의 차원들로, 캡쳐된 비디오 데이터 내에 제시되도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 50,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
And modifying the captured video data such that each positioned user is presented within the captured video data, at least in dimensions of the threshold set, for at least a threshold amount of time.
제 41 항 내지 제 51 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
각각의 위치된 사용자가 적어도 문턱값 양의 시간동안, 캡쳐된 비디오 데이터 내에 제시되도록, 캡쳐된 비디오를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 51,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
And modifying the captured video such that each positioned user is presented within the captured video data, at least for a threshold amount of time.
제 41 항 내지 제 52 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 캡쳐된 비디오 데이터 내의 사용자의 얼굴을 식별하는 단계;
사용자의 얼굴을 포함하지 않는, 캡쳐된 비디오 데이터의 일부분들을 제거하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 52,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Identifying a user's face in the captured video data from application of one or more maintained models;
And modifying the captured video data to remove portions of the captured video data that do not include the user's face.
제 41 항 내지 제 53 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
위치된 사용자들의 각각을 포함하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 53,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
And modifying the captured video data to include each of the located users.
제 41 항 내지 제 54 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용에 의해, 캡쳐된 비디오 데이터를 안정시키는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 54,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
And stabilizing the captured video data by application of one or more maintained models.
제 41 항 내지 제 55 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
캡쳐된 비디오 데이터 내의 위치된 사용자를, 캡쳐된 비디오 데이터에 의해 적어도 문턱값 세트의 차원들로 이전에 제시되었던 캡쳐된 비디오 데이터에 포함된 사용자들을 서술하는 저장된 데이터와 비교하는 단계; 및
캡쳐된 비디오 데이터를 수정하는 단계로서, 식별된 사용자가, 캡쳐된 비디오 데이터에 의해 적어도 문턱값 세트의 차원들로 이전에 있었던, 캡쳐된 비디오 데이터에 포함된 사용자에 매칭되지 않는다고 결정하는 비교에 응답하여, 위치된 사람을 더 현저하게 제시하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.
The method according to any one of claims 41 to 55,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Comparing the located user in the captured video data to stored data describing users included in the captured video data previously presented by the captured video data at least in dimensions of a threshold set; And
Modifying the captured video data, in response to a comparison determining that the identified user does not match a user included in the captured video data, which was previously at least by the dimensions of the threshold set by the captured video data. And, modifying the captured video data to present the positioned person more prominently.
프로세서에 의해서 실행될 때, 프로세서가 다음의 단계들을 수행하게 하는, 부호화된 지시들을 그 위에 가지는 컴퓨터 판독가능 저장매체를 포함하는 컴퓨터 프로그램 제품으로서,
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 사용자들을 위치시키기 위해 하나 또는 그 이상의 규칙들을 적용하고, 비디오 데이터의 특성들로부터, 캡쳐된 비디오 데이터에서 보여줄 하나 또는 그 이상의 위치된 사용자들을 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;
캡쳐된 비디오 데이터에서 복수의 사용자들을 위치시키는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오에 적용하는 단계; 및
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계를 수행하게 하는, 컴퓨터 프로그램 제품.
A computer program product comprising a computer readable storage medium having coded instructions thereon, when executed by a processor, causing the processor to perform the following steps:
Maintaining one or more models at the client device, each model applying one or more rules to locate users in the video data captured by the client device's image capture device, and characteristics of the video data Maintaining, from one or more models, applying one or more rules to determine one or more located users to show in the captured video data;
Providing captured video data of a local area within a field of view of the image capture device included in the client device;
Locating a plurality of users in the captured video data;
Applying one or more maintained models to the captured video; And
A computer program product that, based on the application of one or more maintained models, performs the step of modifying the captured video data to show one or more located users.
제 57 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자들의 시선들이 향해지는, 캡쳐된 비디오 데이터 내의 위치들을 결정하는 단계;
적어도 문턱값 양의 식별된 사람들의 시선들이 향해지는, 위치된 사람에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method of claim 57,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Determining from the application of one or more maintained models, locations in the captured video data to which the eyes of the located users are directed;
And modifying the focus of the image capture device relative to the located person, at least a threshold amount of the eyes of the identified people are directed.
제 57 항 또는 제 58 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
캡쳐된 비디오 데이터 내에 위치된 상이한 사용자들 간의 거리들을 결정하는 단계; 및
부가적인 캡쳐된 비디오 데이터가 서로의 문턱값 거리 내의 사람들을 포함하도록, 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method of claim 57 or 58,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Determining distances between different users located in the captured video data; And
And modifying the focus of the image capture device such that the additional captured video data includes people within a threshold distance from each other.
제 57 항 내지 제 59 항중 어느 한 항에 있어서,
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
클라이언트 장치에 포함된 오디오 캡쳐 장치를 통해 오디오 데이터를 캡쳐하는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 오디오 데이터와 캡쳐된 비디오 데이터에 적용함으로써 국지 영역 내의 오디오 데이터의 소스를 결정하는 단계;
국지 영역 내의 오디오 데이터의 소스가 위치된 사용자라고 결정하는 단계; 및
국지 영역 내의 오디오 데이터의 소스가 위치된 사용자라고 결정하는 단계에 응답하여, 오디오 데이터의 소스에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method according to any one of claims 57 to 59,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Capturing audio data through an audio capture device included in the client device;
Determining a source of audio data in the local area by applying one or more maintained models to the captured audio data and the captured video data;
Determining that a source of audio data in the local area is a located user; And
And in response to determining that the source of the audio data in the local area is a located user, modifying the focus of the image capture device relative to the source of the audio data.
KR1020207009776A 2017-09-05 2018-09-05 Modify capture of video data by the video capture device based on video data previously captured by the video capture device KR20200039814A (en)

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
US201762554564P 2017-09-05 2017-09-05
US62/554,564 2017-09-05
US201715856108A 2017-12-28 2017-12-28
US201715856105A 2017-12-28 2017-12-28
US201715856109A 2017-12-28 2017-12-28
US15/856,105 2017-12-28
US15/856,108 2017-12-28
US15/856,109 2017-12-28
US16/121,087 US10666857B2 (en) 2017-09-05 2018-09-04 Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US16/121,087 2018-09-04
US16/121,081 2018-09-04
US16/121,060 2018-09-04
US16/121,060 US10805521B2 (en) 2017-09-05 2018-09-04 Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US16/121,081 US10868955B2 (en) 2017-09-05 2018-09-04 Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
PCT/US2018/049532 WO2019050938A1 (en) 2017-09-05 2018-09-05 Modifying capture of video data by an image capture device based on video data previously captured by the image capture device

Publications (1)

Publication Number Publication Date
KR20200039814A true KR20200039814A (en) 2020-04-16

Family

ID=65635185

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207009776A KR20200039814A (en) 2017-09-05 2018-09-05 Modify capture of video data by the video capture device based on video data previously captured by the video capture device

Country Status (5)

Country Link
EP (1) EP3679722A4 (en)
JP (3) JP7258857B2 (en)
KR (1) KR20200039814A (en)
CN (3) CN116193175A (en)
WO (1) WO2019050938A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022164205A1 (en) * 2021-01-26 2022-08-04 삼성전자 주식회사 Electronic device for performing screen capture and method for capturing screen by electronic device
WO2023101346A1 (en) * 2021-12-02 2023-06-08 삼성전자 주식회사 Method for editing content being played in display device, and electronic device therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2884438B1 (en) * 2005-04-19 2007-08-03 Commissariat Energie Atomique PROCESS FOR EXTRACTING AT LEAST ONE COMPOUND OF A LIQUID PHASE COMPRISING A FUNCTIONALIZED IONIC LIQUID, AND A MICROFLUIDIC SYSTEM FOR CARRYING OUT SAID METHOD
WO2023087215A1 (en) * 2021-11-18 2023-05-25 Citrix Systems, Inc. Online meeting non-participant detection and remediation

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8510283B2 (en) * 2006-07-31 2013-08-13 Ricoh Co., Ltd. Automatic adaption of an image recognition system to image capture devices
KR100703699B1 (en) 2005-02-05 2007-04-05 삼성전자주식회사 Apparatus and method for providing multilateral video communication
US8103445B2 (en) * 2005-04-21 2012-01-24 Microsoft Corporation Dynamic map rendering as a function of a user parameter
US8085302B2 (en) 2005-11-21 2011-12-27 Microsoft Corporation Combined digital and mechanical tracking of a person or object using a single video camera
US20070198632A1 (en) * 2006-02-03 2007-08-23 Microsoft Corporation Transferring multimedia from a connected capture device
US8284990B2 (en) * 2008-05-21 2012-10-09 Honeywell International Inc. Social network construction based on data association
JP4569670B2 (en) * 2008-06-11 2010-10-27 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5495855B2 (en) 2010-03-01 2014-05-21 キヤノン株式会社 Video processing apparatus and video processing method
CN102196087A (en) * 2010-03-12 2011-09-21 中兴通讯股份有限公司 Lens control method and terminals
US8626847B2 (en) * 2010-04-30 2014-01-07 American Teleconferencing Services, Ltd. Transferring a conference session between client devices
US20120204225A1 (en) * 2011-02-08 2012-08-09 Activepath Ltd. Online authentication using audio, image and/or video
US20120233076A1 (en) * 2011-03-08 2012-09-13 Microsoft Corporation Redeeming offers of digital content items
KR20140099111A (en) * 2013-02-01 2014-08-11 삼성전자주식회사 Method for control a camera apparatus and the camera apparatus
US9558555B2 (en) * 2013-02-22 2017-01-31 Leap Motion, Inc. Adjusting motion capture based on the distance between tracked objects
US9923979B2 (en) * 2013-06-27 2018-03-20 Google Llc Systems and methods of determining a geographic location based conversion
JP6429454B2 (en) * 2013-11-28 2018-11-28 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM
JP2015115741A (en) 2013-12-11 2015-06-22 キヤノンマーケティングジャパン株式会社 Image management device, image management method, and program
US10235587B2 (en) * 2014-03-04 2019-03-19 Samsung Electronics Co., Ltd. Method and system for optimizing an image capturing boundary in a proposed image
US9576343B2 (en) * 2014-11-10 2017-02-21 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for a content-adaptive photo-enhancement recommender
JP6486656B2 (en) * 2014-11-11 2019-03-20 オリンパス株式会社 Imaging device
US10244175B2 (en) * 2015-03-09 2019-03-26 Apple Inc. Automatic cropping of video content
US11750674B2 (en) * 2015-05-05 2023-09-05 Penguin Computing, Inc. Ultra-low latency remote application access
US9860451B2 (en) * 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US20160365124A1 (en) * 2015-06-11 2016-12-15 Yaron Galant Video editing method using participant sharing
US9621795B1 (en) * 2016-01-08 2017-04-11 Microsoft Technology Licensing, Llc Active speaker location detection
JP6241802B1 (en) 2017-01-20 2017-12-06 パナソニックIpマネジメント株式会社 Video distribution system, user terminal device, and video distribution method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022164205A1 (en) * 2021-01-26 2022-08-04 삼성전자 주식회사 Electronic device for performing screen capture and method for capturing screen by electronic device
WO2023101346A1 (en) * 2021-12-02 2023-06-08 삼성전자 주식회사 Method for editing content being played in display device, and electronic device therefor

Also Published As

Publication number Publication date
EP3679722A1 (en) 2020-07-15
CN111316656A (en) 2020-06-19
JP2023098930A (en) 2023-07-11
CN111316656B (en) 2023-03-28
WO2019050938A1 (en) 2019-03-14
JP2023098931A (en) 2023-07-11
CN116193175A (en) 2023-05-30
JP2020532903A (en) 2020-11-12
JP7258857B2 (en) 2023-04-17
EP3679722A4 (en) 2020-07-15
CN116208791A (en) 2023-06-02

Similar Documents

Publication Publication Date Title
US10971158B1 (en) Designating assistants in multi-assistant environment based on identified wake word received from a user
US11166065B1 (en) Synchronizing presentation of content presented by multiple client devices
US11558543B2 (en) Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10805521B2 (en) Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10873697B1 (en) Identifying regions of interest in captured video data objects by detecting movement within higher resolution frames of the regions
CN111316656B (en) Computer-implemented method and storage medium
CN109792557B (en) Method for processing video data and storage medium
US11418827B2 (en) Generating a feed of content for presentation by a client device to users identified in video data captured by the client device
US10666857B2 (en) Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10757347B1 (en) Modifying display of an overlay on video data based on locations of regions of interest within the video data
CN112806021B (en) Modifying presentation of video data by a receiving client device based on analysis of the video data by another client device that captured the video data
US10721394B1 (en) Gesture activation for an image capture device
US10915776B2 (en) Modifying capture of video data by an image capture device based on identifying an object of interest within capturted video data to the image capture device
US11381533B1 (en) Intelligent determination of whether to initiate a communication session for a user based on proximity to client device
US10812616B2 (en) Transferring an exchange of content to a receiving client device from a client device authorized to transfer a content exchange to the receiving client device
US11444943B1 (en) Exchange content between client devices when a client device determines a user is within a field of view of an image capture device of the client device and authorized to exchange content
US11100330B1 (en) Presenting messages to a user when a client device determines the user is within a field of view of an image capture device of the client device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application